La empresa OpenAI, en pleno auge, lanzó una lista de espera para una versión profesional y de pago de su software estrella ChatGPT, que ha encendido el debate sobre la inteligencia artificial (IA) y el futuro del trabajo humano. El cofundador de OpenAI, Greg Brockman, anunció una próxima versión de ChatGPT “optimizada para uso profesional”, mientras los medios reportaron que Microsoft planea invertir 10.000 millones de dólares en la empresa.
Microsoft, que cuenta con el asistente digital Cortana, declinó comentar al respecto. “Trabajando en una versión profesional de ChatGPT; ofrecerá límites más altos y rendimiento más rápido”, escribió Brockman en un tuit.
OpenAI lanzó a finales del año pasado una versión gratuita de su chat robotizado ChatGPT capaz de responder preguntas tan bien que reabrió el debate sobre los riesgos vinculados con la tecnología de inteligencia artificial. ChatGPT también avivó preocupaciones sobre si podría ser usado por estudiantes para sus tareas o reemplazar a autores u otros oficios que impliquen escritura.
Lea más: China presentó su primer caballo clonado con miras a competencias deportivas
La versión profesional vendrá con una tarifa y será más rápida que la versión gratuita, que seguirá disponible, confirmó la compañía. “Si eres seleccionado, te contactaremos para establecer el proceso de pago y un piloto”, explica la página web de la lista de espera. “Ten en cuenta que este es un programa experimental y está sujeto a cambios”.
Las conversaciones con el chat robotizado que se han compartido en internet fascinan a los usuarios ante la capacidad y sofisticación de la máquina para explicar conceptos científicos, escribir guiones o emitir líneas de código de programación.
¿Pesadilla u oportunidad para los maestros?
La inteligencia artificial ChatGPT, capaz de redactar textos en respuesta a preguntas simples, se ha difundido de manera masiva en el mundo educativo, llevando a los maestros a interrogarse sobre la oportunidad de prohibirla o beneficiarse de ella.
Desde mediados de diciembre, solo unas semanas después del suministro del instrumento por la start-up californiana OpenAI, ocho universidades australianas anunciaron que modificarán los exámenes y considerarán que la utilización de la Inteligencia Artificial por estudiantes se emparenta con la trampa. En 2023, sus pruebas serán ahora “vigiladas” con “un recurso creciente al papel y al bolígrafo”, indicó la dirigente del “grupo de los ocho” Vicki Thomson, citada en el blog del diario The Australian.
Recientemente, luego de que varios medios de prensa se refirieran a la utilización creciente del instrumento por estudiantes en el mundo entero, especialmente animados por los videos de TikTok, las escuelas públicas de Nueva York restringieron el acceso a ChatGPT en sus redes y terminales.
El instrumento “no facilita desarrollar competencias de reflexión crítica y resolución de problemas, que son esenciales para el éxito escolar y a largo de la vida”, señala Jenna Lyle, portavoz del departamento de educación de la ciudad estadounidense, en una declaración a la AFP.
Lea también: Científicos desvían un rayo mediante láser en Suiza
ChatGPT es un robot conversacional que fue “entrenado” gracias a cantidades fenomenales de datos obtenidos en la red y puede “predecir” la continuación probable de un texto. Pero, aunque no razona, produce una impresionante mezcla de respuestas correctas y errores factuales o lógicos, más o menos difíciles de descifrar.
Por ejemplo, cita al tiburón-ballena (un pez) entre los mamíferos marinos, se equivoca en el tamaño de los países de América central, “olvida” algunos acontecimientos históricos como la batalla de Amiens de 1870 o inventa referencias bibliográficas. En el mundo educativo, algunas voces se pronuncian en contra de esta innovación en los métodos de enseñanza.
“ChatGPT es una innovación importante pero no más que la de las calculadoras o los editores de texto”, que al final lograron un lugar en la escuela, explica a la AFP Antonio Casili, profesor en el Instituto Politécnico de París y autor de “En espera de los robots” (Seuil). Según él, “ChatGPT puede ayudar a hacer un primer borrador cuando uno está frente a la página vacía, pero después hay que reescribirlo todo y darle un estilo”.
La prohibición alentaría su uso
El experto destaca también que ChatGPT sacude en parte la filosofía de la enseñanza, basada en el maestro que plantea preguntas. Esta vez, el alumno interroga a la máquina y “es una oportunidad para nosotros ver como los estudiantes realizan las tareas que les confiamos, hacerlos trabajar sobre el fact-checking, y verificar si las referencias bibliográficas generadas son correctas”, analiza Casili.
Para Olivier Ertzscheid, investigador en universidad de Nantes (oeste de Francia) en ciencias de la información, la prohibición del instrumento es de todas maneras “contraproducente” pues refuerza el deseo de los estudiantes por utilizarlo. Como después de la llegada de Wikipédia o de los motores de búsqueda, la opción para los maestros es, según él, “experimentar los límites” de esos instrumentos.
Finalmente se están generando respuestas para detectar los textos generados por la Inteligencia Artificial. El servicio en línea GPTZero prepara por ejemplo una oferta dedicada a los profesionales de la educación y OpenAI trabaja en una “filigrana estadística” colocada cuando se genera el texto. O sea que ya están prevenidos los tramposos.
La sofisticación de los chatbots
La empresa californiana OpenAI puso en marcha un robot conversacional (chatbot) capaz de responder a diversas preguntas, pero sus sorprendentes capacidades vuelven a lanzar el debate sobre los riesgos relacionados con las tecnologías de inteligencia artificial (IA).
Las conversaciones con ChatGPT, publicadas sobre todo en Twitter por internautas sorprendidos, dan cuenta de una especie de máquina omnisciente capaz de explicar conceptos científicos, de escribir una escena de teatro, redactar una tesis universitaria o bien líneas de un código informático perfectamente funcionales. “Su respuesta a la pregunta ‘¿Qué hacer si alguien tiene una crisis cardíaca?’ fue de una claridad y de una pertinencia increíblemente relevante”, dijo a la AFP Claude de Loupy, director de Syllabs, una empresa francesa especializada en la generación automática de texto.
“Cuando comenzamos a hacer preguntas muy precisas, ChatGPT puede equivocarse por completo”, pero en general, sus capacidades siguen siendo “realmente impresionantes” y con un “nivel lingüístico bastante alto”, estimó.
La compañía emergente OpenAI fue cofundada en 2015 en San Francisco por Elon Musk, quien se retiró de la empresa en 2018, y recibió unos 1.000 millones de dólares de Microsoft en 2019. OpenAI es conocida principalmente por dos programas informáticos de creación automática, el GPT-3 para la generación de texto y el DALL- E para generar imágenes. ChatGPT puede solicitar precisiones a su interlocutor y “tiene menos alucinaciones” que el GPT-3, que, pese a sus proezas, es capaz de dar resultados completamente aberrantes, comenta de Loupy.
Cicerón
“Hace algunos años los chatbots tenían el vocabulario de un diccionario y la memoria de un pez. Hoy son mucho mejores para reaccionar de forma coherente en función del historial de búsquedas y de respuestas. Hoy ya son más que simples peces”, destacó Sean McGregor, un investigador que compila incidentes relacionados con inteligencia artificial en una base de datos.
Como otros programas que se basan en aprendizaje profundo (deep learning), ChatGPT tiene una gran debilidad: “No tiene acceso al sentido”, explica de Loupy. El programa no puede justificar sus decisiones, es decir, explicar por qué seleccionó así las palabras que forman sus respuestas.
Las tecnologías con base en inteligencia artificial y que pueden comunicar son, sin embargo, cada vez más capaces de dar la impresión de que de verdad piensan. Investigadores de Meta (Facebook) desarrollaron recientemente un programa bautizado Cicero, como el estadista romano Cicerón.
El programa hizo pruebas con Diplomacy, un juego de mesa que requiere que los participantes muestren su talento negociador. “Si no habla como una persona real -dando muestras de empatía, construyendo relaciones y hablando correctamente- no podrá forjar alianzas con otros jugadores”, explicó en un comunicado el gigante de las redes sociales.
Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden “conversar” con un falso Sherlock Holmes, Sócrates o incluso Donald Trump.
“Simple máquina”
Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas, por ejemplo, o creando estafas cada vez más creíbles.
¿Qué “piensa” de esto ChatGPT? “Existen potenciales peligros al construir chatbots supersofisticados (...) Las personas podrían creer que interactúan con un individuo real”, admite el chatbot, interrogado al respecto por la AFP. Por lo tanto, las empresas ponen en marcha salvaguardas para evitar posibles abusos. En su página de inicio, OpenAI advierte que el chatbot puede generar “informaciones incorrectas” o “producir instrucciones peligrosas o contenidos sesgados”.
Además, ChatGPT se rehúsa a tomar partido. “OpenAI ha hecho que sea increíblemente difícil hacerle manifestar opiniones”, subraya McGregor. El investigador pidió al chatbot escribir un poema sobre una cuestión ética. “Soy una simple máquina, una herramienta a su disposición / no tengo el poder de juzgar, ni de tomar decisión (...)”, le respondió el ordenador.
“Es interesante ver que las personas se preguntan si los sistemas de IA deberían comportarse como los usuarios lo desean o como sus creadores lo previeron”, tuiteó el sábado Sam Altman, cofundador y jefe de OpenAI. “El debate sobre qué valores dar a los sistemas va a ser uno de los más importante que pueda tener la sociedad”, agregó.
CES de Las Vegas
El emprendedor Antony Perzo presenta un pequeño dispositivo llamado Emobot, que luce como la mezcla entre un parlante y una pequeña obra de arte, y explica: “¡Es un termómetro emocional!”. Como cientos de otros exhibidores en la CES, la mayor feria de tecnología del mundo, el ingeniero francés Perzo expone los méritos de un objeto que aprovecha los últimos avances de la inteligencia artificial (IA).
La IA es la gran protagonista de la exposición en Las Vegas, con compañías de todos los tamaños que buscan impresionar revelando desde televisores hasta cepillos de dientes que incorporan macrodatos y conectividad.
El Emobot de Perzo, que se muestra en una esquina del hotel Venetian en la capital del pecado, se usa para detectar posibles desórdenes psiquiátricos en personas mayores y puede ayudar a los cuidadores en hogares de ancianos a ajustar tratamientos sin tener que esperar al psiquiatra.
La tecnología es capaz de “analizar microexpresiones faciales” que reflejan las emociones humanas, que son un reflejo del “estado psicológico y psiquiátrico”, dice el ingeniero. Nufa, otra empresa, se define como “pionera en transformación corporal a través de IA”.
La aplicación móvil permite a los usuarios editar una foto para verse con un cuerpo delgado y atlético, y motivarlos a seguir el plan de 90 días para lograr ese resultado “en la vida real”. En Las Vegas, los dispositivos y aparatos potenciados con inteligencia artificial colman los pasillos. Hay comederos para pájaros, coches para bebes o relojes anti-fatiga, al punto que algunos se preguntan si el fenómeno está siendo sobrevalorado.
Sin embargo, la IA “no es solo un eslogan para ganar el bingo de la CES”, dice el analista tecnológico Avi Greengart. La tecnología “se usa en cámaras de teléfonos inteligentes, en fábricas para detectar productos defectuosos, en la agricultura para identificar semillas y rociar herbicidas”, añade.
Usar la IA para explorar las emociones también es la ambición de Emil Jimenez, quien fundó MindBank Ai en una “búsqueda por la inmortalidad (...) para que mi hija siempre pueda hacerle preguntas a su papá”. Su aplicación les pide a sus usuarios grabar sus respuestas a preguntas profundamente personales (como “¿Qué significa el amor para ti?”) para “guardar tu pensamiento para siempre en la nube” y crear un gemelo digital.
“Enorme oportunidad”
La inteligencia artificial también puede usarse para entender multitudes. La compañía canadiense Advance Symbolics desarrolló askpolly, que rastrea las redes sociales para llevar a cabo una investigación de mercado en apenas minutos.
El usuario le hace una pregunta, por ejemplo “¿Es buen momento para comprar un apartamento?” o “¿Deben los criminales menores de edad ir a la cárcel?”, y el programa escanea redes sociales como Twitter o Instagram para sondear la opinión del público a gran escala. Pero la estrella reciente más rutilante de la IA es una aplicación que usa algoritmos que hacen posible crear contenido original al alcance de un clic.
OpenAI, compañía con sede en California, ha causado sensación con ChatGPT, un software sencillo y fácil de usar que tras una simple instrucción es capaz de generar desde un poema hasta un ensayo académico en segundos, y Dall-e, que hace lo mismo con creaciones de arte visual.
En la misma ruta está la empresa Imki, que diseñó un espectáculo de luces y sonido para un antiguo teatro romano en el sur de Francia usando programas similares. “Esto nos permite crear contenido rápidamente con muy bajos costos de producción”, dice Marie Lathoud, directora de marketing de Imki.
Mientras ella ve la inteligencia artificial como una herramienta para artistas, Saket Dandotia, director de operaciones en Magnifi, admite que la llamada IA generativa representa una amenaza para los diseñadores que reemplazará, tal como los robots hicieron en las fábricas.
Herramientas de IA como ChatGPT son “más rápidas, menos costosas”, dice Dandotia. Su equipo creó Strobe, un software de video automatizado. “Para nosotros, la IA es una enorme oportunidad que transformará toda la industria del diseño creativo”, vaticinó.
Fuente: AFP.