Crecen pedidos de una regulación ante el asombroso avance tecnológico. En un experimento, la IA se mostró capaz de “leer la mente”. En la semana la Casa Blanca llamó a las corporaciones líderes del sector para ajustar un compromiso “ético y moral” sobre el desarrollo. En Brasil ingresó al Parlamento un pedido de regulación. Aquí un panorama.
- Por Jorge Zárate
- jorge.zarate@nacionmedia.com
- Fotos: AFP y gentileza
Semana a semana, la evolución de la inteligencia artificial (IA) asombra a propios y extraños al punto de que los expertos del sector aseguran que se está más cerca de lo que se creía del advenimiento de una “inteligencia artificial general”; es decir, que las máquinas igualen e, incluso, superen el comportamiento del cerebro humano.
Geoffrey Hinton, considerado el “padrino de la IA”, comentó en estos días al renunciar a Google: “Pensaba que faltaban de 30 a 50 años (para una AGI). Ya no”. Lo hizo advirtiendo del peligro de la “excesiva velocidad” con que se está desarrollando este ingenio. “Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo compungido.
A su turno, Demis Hassabis, el desarrollador de Deep Mind, la apuesta de Google para enfrentar a Open AI, la creadora de Chat GPT, apuntó: “Podríamos estar a solo unos pocos años (de la aparición de una AGI), tal vez dentro de una década de distancia”, apuntó.
Por lo pronto, en estos días se dio a conocer el experimento de investigadores de la Universidad de Texas en el que una IA se acercó, a grandes rasgos, a “leer la mente” de una persona. Conectaron la IA a un resonador magnético para que leyera qué partes del cerebro se activaban en el paciente cuando escuchaba un podcast en sus auriculares.
La IA, mediante el programa GPT-1, logró decodificar y describir la esencia de las historias que escuchó mediante un “decodificador semántico”, tal como lo llamaron en la publicación especializada Nature Neuroscience. El aparato probado en varios pacientes consiguió también describir lo que pensaban y observaban mientras veían proyecciones de cine mudo.
El experimento podría ayudar a darles la posibilidad de recuperar el habla a pacientes que “luchan por comunicarse debido a un accidente cerebrovascular o una enfermedad de la neurona motora”, dijeron los especialistas del Centro de Imágenes Biomédicas de la Universidad de Texas. “Nuestro sistema funciona a nivel de ideas, semántica, significado”, dijo el neurólogo Alexander Huth, ideólogo del decodificador. “Esta es la razón por la que lo que sacamos no son las palabras exactas, es la esencia”. Por ejemplo, cuando a un participante se le reprodujeron las palabras “no sabía si gritar, llorar o salir corriendo”. En lugar de eso dijo “¡déjame en paz!”. Comentando el hallazgo para la BBC, el neurocientífico Christian Herff, que lidera una investigación parecida en la Universidad de Maastricht (Países Bajos), se mostró “absolutamente convencido de que la información semántica se utilizará en las interfaces cerebro-máquina para hablar en el futuro”.
RESPONSABILIDADES
Todo esto mientras sigue resonando la carta del 29 de marzo pasado que pidió un cese de seis meses en las investigaciones sobre IA porque esta puede representar “una amenaza contra la humanidad”. Firmada por mil expertos y personalidades como Elon Musk y el cofundador de Apple Steve Wozniak, el texto que se presentó con mil firmas lleva ya más de 27.000 adhesiones.
Por eso, la vicepresidenta de Estados Unidos, Kamala Harris, se reunió el pasado 4 de mayo con los directores generales de Alphabet, Anthropic, Microsoft y Open AI, a los que insistió en señalar “la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”.
Se anunció también un compromiso para evaluar públicamente los sistemas en la Def Con, una convención de especialistas en informática que se realizará en agosto en Las Vegas.
El presidente Joe Biden participó brevemente por videoconferencia y les recordó a los empresarios el “enorme potencial y enorme peligro en lo que ustedes hacen… Sé que ustedes lo entienden y espero que puedan informarnos de lo que consideren que es más necesario para proteger a la sociedad, así como para su avance”. Por su parte, Harris señaló que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, pero también podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad, y socavar la confianza pública en la democracia”.
Tras el encuentro se informó también que el gobierno invertirá 140 millones de dólares en siete nuevos institutos estatales de investigación de inteligencia artificial. También las autoridades del Reino Unido anunciaron que revisarán los chatbots como el famoso Chat GPT, de Open AI.
Vale recordar que Open AI mantiene en secreto los datos con los que se han entrenado sus sistemas, un punto que traerá controversias a futuro.
Entre tanto, en Brasil, el presidente del Senado, Rodrigo Pacheco, presentó un proyecto de ley para reglamentar el uso de la IA. El mismo surgió de una comisión de juristas que estudió el tema durante 70 audiencias públicas. “Por un lado, el proyecto establece derechos para proteger a las personas que son impactadas diariamente por los sistemas de inteligencia artificial, desde recomendar contenidos y dirigir publicidad en internet hasta analizar su elegibilidad para crédito y ciertas políticas públicas”, dice el texto.
MIRADA LOCAL
Para Benjamín Barán, doctor en Ciencias, en ingeniería de Sistemas y Computación, la carta tuvo un efecto importante: “Primero, es evidente que esta declaración resultó ser una excelente publicidad para el área, ya que cada vez más gente se interesa en inteligencia artificial. No sé si esta declaración podrá detener las investigaciones, pero seguro que creció el interés y que las personas que ofrecen productos en el área, como varios de los firmantes, tendrán oportunidad de mejorar sus oportunidades de negocio”.
Barán, que es decano de la Facultad de Informática de la Universidad Comuneros, sigue exponiendo que “como científico, trabajo en el desarrollo de la ciencia porque creo en su potencial como un mecanismo de evolución, de mejorar nuestras vidas. Prohibir que se haga ciencia no parece ser el mejor de los caminos. En todo caso, generemos mecanismos de supervisión y control para desarrollar una ciencia responsable. Tenemos bombas atómicas hace más de 70 años”.
Más allá del impacto mediático que pudo tener la declaración en cuestión, el experto enfatiza la necesidad de hacer ciencia responsable y no prohibir las investigaciones.
“En este caso particular, cuando hablo de ciencia responsable en IA me refiero a temas como XAI (explainable artificial intelligence), seguridad en IA, normas y estándares, entre otros temas que nos permitirán aprovechar como sociedad las ventajas de la inteligencia artificial minimizando sus riesgos”, señala.
Para Sebastián Grillo, doctor en ciencias de la computación, “como toda tecnología que interactúa con usuarios finales, siempre hay preocupaciones sobre el tipo de información capaz de capturar para terceros. Este riesgo se vuelve más significativo cuando es una herramienta que el usuario usa en el trabajo. Por ejemplo, ya hay empresas que advirtieron amenazas de seguridad al secreto industrial por este motivo. (La coreana Samsung, por ejemplo, ndr). Este riesgo es minimizado cuando la propia empresa desarrolla su propio servicio interno y no emplea servicios de terceros. Sin embargo, también está el problema de verificar las fuentes de información obtenidas, para lo cual ya se están proponiendo servicios más transparentes que Chat GPT como Perplexity, que presenta fuentes, pero tampoco es inmune a errores”.
De su parte, Diego Stalder, de la Facultad de Ingeniería de la Universidad Nacional de Asunción (UNA), considera que “como en toda herramienta es importante conocer sus limitaciones y sus posibles usos. Por eso es que uno tiene que registrarse para poder usarlo. En los estándares de ética es importante saber qué datos se usaron y si los datos estaban abiertos para que se puedan entrenar esos modelos. Saber quién usa y para qué usa sobre todo en textos, audios y videos en los que se pueden generar noticias falsas (fake news) sobre todo. Puede usarse para bien, pero también cabe la posibilidad de que se lo haga para mal.
Se están generando nuevas empresas startups que están proponiendo nuevos productos no solo con el Chat GPT, sino con otras herramientas de IA. Es importante que se tenga un standard ético para que no se usen datos de personas y también la educación de la gente para el uso de estas herramientas, beneficios y riesgos. Habrá que analizar bien para establecer límites éticos y legales para seguir desarrollando la IA”.
“Confío en que el nuevo gobierno apoye el desarrollo de la ciencia”
“Preparémonos para aprovechar las ventajas que nos trae la era del conocimiento”, propone Benjamín Barán, el más destacado científico paraguayo en inteligencia artificial (IA).
El especialista recordó que se utiliza IA en el sector financiero.
“Las necesidades de nuestro mercado están creciendo tanto que la Universidad Comunera (Ucom) volverá a ofrecer un diplomado en fintech que incluirá varios tópicos relacionados a IA en el área. Las personas interesadas podrán asistir a una masterclass gratuita en la que hablaremos sobre el “Impacto de la inteligencia artificial en la fintech” el próximo jueves 11 de mayo a partir de las 18:30, para la que sugiero inscribirse con suficiente anticipación”, recomendó.
–Como pionero en el área de la IA, ¿cómo se podría mejorar la inversión en las áreas investigativas de las universidades en este y en otros campos?
–En la década de los 80 publiqué mis primeros trabajos científicos iniciando este maravilloso camino de la ciencia que tantas satisfacciones me sigue trayendo hasta hoy en día. En aquellos días, no teníamos más ayuda que la comprensión de nuestra propia familia. Con los años llegó el Conacyt (Consejo Nacional de Ciencia y Tecnología), que de a poco trajo la posibilidad de financiar proyectos de investigación, incentivos a los investigadores, apoyo a posgrados, acceso a librerías científicas, entre otras alternativas que hacen hoy posible el desarrollo de la ciencia en nuestro país. Los niveles de inversión son todavía bajos, pero vamos mejorando año a año, por lo que confío en que el nuevo gobierno sabrá apoyar el desarrollo de la ciencia en esta era del conocimiento en que empezamos a transitar.
–¿Y cómo estamos presupuestariamente?
–El proceso debe ser de hecho gradual. No ayuda mucho tener medios para millares de investigaciones si no tenemos suficientes investigadores. Entonces, ¿quién llevaría adelante estos proyectos? La formación de recursos humanos especializados es fundamental y este es un proceso lento y complejo, puede llevar como una década, además de enormes esfuerzos, convertir a un profesional en un científico. Por suerte, las becas Carlos Antonio López están haciendo un excelente trabajo abriendo oportunidades en el exterior a nuestros jóvenes talentos. Nos queda por ofrecer oportunidades similares también dentro de nuestro país para fortalecer nuestras universidades y nuestros centros de investigación. También queda mucho por mejorar con la ineficiente burocracia hoy existente. Estamos en el sendero correcto, pero vamos demasiado despacio y queda mucho por hacer como país.
Finalmente, hizo mención a la recientemente aprobada Ley 7064, que crea el Sistema Nacional de Investigadores (Sisni), que una vez implementada podrá facilitar una carrera profesional para un investigador.
–¿Cómo ve el futuro de este campo?
–El mundo de la ciencia es cautivador y en particular el área de la inteligencia artificial, sobre todo en estos días en que crece el interés de tanta gente que ve amenazas y oportunidades que no percibían antes de las últimas noticias relacionadas a los chatbots como Chat GPT, Google Bard o Bing AI. Son tiempos apasionantes en los que podremos asombrarnos de grandes logros tecnológicos, de cambios considerables en nuestra antigua forma de vida con la aparición de innovadoras oportunidades y nuevas profesiones.
Es en este contexto que comparto mi visión optimista del futuro de la sociedad, de nuestro país en particular, confiado en el talento, la capacidad y la ética de los jóvenes investigadores paraguayos que he tenido el honor de formar en las últimas décadas, en la pujanza de las empresas paraguayas, sobre todo de las empresas de software, en una ciudadanía responsable que sabrá vigilar el uso adecuado de nuevas tecnologías como la inteligencia artificial para que esta sea una herramienta de progreso y bienestar, no una amenaza que nos termine perjudicando.
HOLLYWOOD EN HUELGA
La vigente huelga de los guionistas de Hollywood tiene como trasfondo la irrupción del uso de la IA en las historias. Esto porque hay robots que ya son capaces de crear capítulos nuevos de una serie exitosa como “Seinfeld” sin costo y sin permiso de los autores.
Por eso, el sindicato de guionistas de Estados Unidos WGA (Writers Guild of America) exige “que se regule el uso de la inteligencia artificial” y que se prohíba que esta pueda reescribir el material de los guionistas. Hasta el momento, los principales estudios de televisión se han negado a la demanda y la contrapropuesta del sindicato consistente en tener “reuniones anuales para discutir los avances en la tecnología”.
HUMANE, LA IA QUE JAQUEA LA VIGENCIA DE SMARTPHONES
Humane, una startup creada por Imran Chaudhri y Bethany Bongiorno, exempleados de Apple, presentó un dispositivo con IA que proyecta imágenes en las manos y que podría sustituir a los smartphones. Se trata de una especie de clip que se engancha en la ropa capaz de proyectar una interfaz gráfica en la mano o en una superficie plana y su proyección funciona con comandos de voz.
No se conecta a ningún smartphone o smartwatch, sino que se trata de un dispositivo completamente independiente. Aún no está claro dónde se almacena la información, aunque algunos presumen que estaría conectado a una nube.
La muestra del Humane tuvo lugar en la conferencia anual TED 2023 celebrada en Vancouver (Canadá), en donde Chaudhri respondió una llamada a mitad de la presentación para mostrar el funcionamiento del dispositivo que tiene un asistente virtual, traductor en tiempo real, que permite mantener conversaciones tipo Chat GPT y una cámara con la que puede identificar objetos. Hasta el momento no hay una fecha determinada para la producción de estos dispositivos ni su venta al público.
IMPACTO ECONÓMICO DE LA IA
A mediados de marzo pasado, el laboratorio de inteligencia artificial Open AI lanzó su último modelo de lenguaje grande (LLM), el GPT-4, que pese a haber sido lanzado casi cuatro meses después de su predecesor, GPT-3.5, es capaz de hazañas de inteligencia mucho mayores.
Si bien aún es difícil calcular el impacto económico potencial de este tipo de avance de la inteligencia artificial (IA), la consultora PwC estimó en 2022 que podría contribuir con 15,7 billones de dólares a la economía mundial para 2030.
Frente a estas estimaciones no sorprende que las acciones de IA empiecen a llamar la atención de los inversores.
IBM REEMPLAZARÁ 7800 TRABAJADORES CON IA
El gigante de computación IBM estima que unos 7800 empleos, el 30 % de su personal, podrían reemplazarse por la nueva tecnología. Esta decisión sigue la tendencia de otros gigantes tecnológicos como Google o Microsoft –dos de los que más pelean por el dominio de la IA–, quienes ya despidieron a miles de trabajadores para centrarse en el desarrollo de esta nueva tecnología.
Arvind Krishna, presidente ejecutivo de IBM, le contó a Bloomberg que suspenderán o ralentizarán las contrataciones específicamente en funciones de back office, y añadió que el 30 % de los puestos no orientados al cliente podría ser sustituido por IA y automatizaciones en cinco años.
El Foro Económico Mundial publicó su informe “El futuro de los trabajos” y estimó que casi 14 millones de puestos de trabajo podrían eliminarse para 2027 debido principalmente a una mayor automatización de muchas tareas.
ROBOTS AGRICULTORES
Plantan más de 6000 semillas en solo tres segundos utilizando una tecnología denominada Exact Shot para hacerlo con una gran precisión, rapidez y eficiencia.
Son 54 robots electrificados modulares de 56v y diferentes sensores que registran el momento en que cada semilla está en proceso de entrar en el suelo. Exact Shot rocía solamente la cantidad necesaria de fertilizante, unos 0,2 mililitros, directamente sobre la propia semilla en el momento exacto en que esta se introduce en la tierra.
Desarrollada por John Deere, esta tecnología fue presentada en el CES 2023 de Las Vegas. Dado que se espera que la población mundial crezca a casi 10.000 millones para 2050, se estima que los agricultores deben aumentar su producción entre un 60 y un 70% en las tierras cultivables actuales. No solo eso, sino que Exact Shot también permite a los trabajadores del campo ahorrar dinero y reducir la cantidad de fertilizante inicial necesario durante la siembra en más del 60 %.