Meta, propietaria de Facebook, desveló el viernes su propia versión de inteligencia artificial detrás de aplicaciones como ChatGPT, y afirmó que daría acceso a los investigadores para encontrar soluciones a los peligros potenciales de la tecnología.
Meta describió su propia inteligencia artificial (IA), llamada LLaMA, como un modelo “más pequeño y de mayor rendimiento” diseñado para “ayudar a los investigadores a avanzar en su trabajo”, en lo que podría considerarse una crítica velada a la decisión de Microsoft de difundir ampliamente la tecnología, mientras mantiene en secreto el código de programación.
ChatGPT, respaldada por Microsoft, ha causado sensación en todo el mundo por su capacidad para generar en cuestión de segundos textos de gran calidad, como ensayos o poemas, utilizando una tecnología conocida como grandes modelos lingüísticos (LLM, por sus siglas en inglés).
Lea más: Revista rechaza más de 500 relatos escritos con inteligencia artificial
Los LLM forman parte de un campo conocido como IA generativa que también incluye la capacidad de ejecutar imágenes, diseños o código de programación de forma casi instantánea a partir de una simple petición.
Microsoft ha estrechado su colaboración con OpenAI, creador de ChatGPT, y a principios de este mes anunció que la tecnología se integraría en su motor de búsqueda Bing, así como en el navegador Edge. Google, viendo una repentina amenaza al dominio de su motor de búsqueda, anunció rápidamente que lanzaría en breve su propia IA lingüística, conocida como Bard.
Lea también: ChatGPT aprueba examen de ingreso de facultad de Derecho
Pero reportes de intercambios inquietantes con el chatbot Bing de Microsoft, como amenazas y deseos de robar código nuclear, se hicieron virales, encendiendo las alarmas de que la tecnología no estaba preparada. Meta dijo que estos problemas, a veces llamados alucinaciones, podrían remediarse de mejor forma si los investigadores tuvieran un mayor acceso a la costosa tecnología.
OpenAI y Microsoft limitan estrictamente el acceso a la tecnología que hay detrás de sus chatbots, lo que suscita críticas de que están prefiriendo los potenciales beneficios a mejorar la tecnología más rápidamente para la sociedad. “Al compartir el código de LLaMA, otros investigadores pueden probar más fácilmente nuevos enfoques para limitar o eliminar estos problemas”, afirma Meta.
Fuente: AFP.