La inteligencia artificial pasó en 2023 a ser una herramienta usada por millones de personas a medida que los expertos alertan sobre su riesgo
En un año, el concepto de inteligencia artificial (IA) pasó de ser un sinónimo de ciencia ficción a ser una herramienta usada por millones de personas a medida que los expertos alertan sobre sus riesgos y que surgen los primeros intentos de regularlo a nivel mundial.
Este año las redes sociales se han llenado de fotos y videos que los usuarios han creado usando diversas herramientas de IA generativa y de pantallazos con “conversaciones” con la IA sobre temas de todo tipo.
El detonante de esta tecnología vino de la mano de la popularidad del chatbot ChatGPT que OpenAI lanzó en noviembre de 2022 y que, en cuestión de unos días, capturó la atención de millones de personas.
La carrera de los titanes tecnológicos
En 2023 los grandes gigantes de la tecnología -quienes llevan también años experimentando con esta tecnología- se unieron a la carrera por convertirse en la IA de referencia.
En febrero, Microsoft anunció una inversión de 13 mil millones de dólares en OpenAI y que está usando la tecnología GPT4 para su propio chatbot, Bing.
La empresa fundada por Bill Gates y Paul Allen ahora apuesta por que esta tecnología sea un “asistente” por todos sus programas y aplicaciones.
Al mismo tiempo, Google anunció su propio chatbot IA, Bard, y, en diciembre, la empresa presentó un modelo de IA más potente, Gemini, que es “multimodal nativo”, lo que significa que puede aprender de datos que van más allá del texto, absorbiendo también información de audio, vídeo e imágenes.
Hasta Mark Zuckerberg, el fundador de Meta y que lleva años apostando por el metaverso, se unió a la carrera de la IA.
Meta, matriz de Facebook, Instagram y WhatsApp, apuesta por una alianza de IA entre diversas empresas para “avanzar hacia una IA abierta” y gratuita.
“Este año ha sido el de preguntarse: ‘¿Qué es esto de la IA?’. Ha sido un gran año educativo en todos los mercados globales para la IA’”, anotó a EFE, Jenalea Howell, una de las organizadoras del congreso The AI Summit New York.
Alucinaciones, plagio y otros riesgos
Los usuarios enseguida se dieron cuenta de que las respuestas de IA no siempre son correctas y que a veces incurre en lo que se conoce como “alucinaciones”.
Uno de los casos más famosos fue el de unos abogados que presentaron un escrito lleno de casos que habían sido inventados por ChatGPT.
Otro quebradero de cabeza para las empresas es defender que no se saltaron ningún derecho de autor a la hora de alimentar con información a sus máquinas.
Escritores como el novelista George R.R. Martin y la humorista Sarah Silverman han denunciado a OpenAI y Meta por el “robo” de sus obras.
También se viralizaron imágenes generadas por la IA sin ningún tipo de marca de agua, lo que confundió a los internautas, como fue el caso de la imagen hiperrealista del papa Francisco con un moderno abrigo blanco, que fue creada con el programa Midjourney.
Este año, tanto el equipo del expresidente Donald Trump como el de Ron DeSantis, ambos candidatos a las primarias republicanas para las presidenciales de EE.UU., han usado contenido generado por la IA.
A Peter Lee, vicepresidente corporativo de Investigación e Incubaciones de Microsoft, le preocupó ver que a tan solo unos días del lanzamiento de ChatGPT, él empezó a recibir correos de médicos que le contaban que ya estaban usando la tecnología en sus diagnósticos.
“Eso nos emocionó mucho, pero también nos preocupó mucho”, dijo Lee a EFE, ya que, pese a ser una “tecnología nueva, poderosa y única”, debe de haber una regulación antes de que se use como una herramienta más en la medicina.
EE.UU. inventa, Europa regula
En marzo, más de mil empresarios e investigadores del sector tecnológico solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4” -el último modelo de OpenAI-.
Dos meses después, cientos de expertos -entre los que se encuentran los directores ejecutivos de Google DeepMind, Anthropic y OpenAI- advirtieron que la IA plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear.
El septiembre, Elon Musk, Zuckerberg, Gates, Sundar Pichai -director ejecutivo de Alphabet (matriz de Google)- y Sam Altman, responsable de OpenAI, acudieron al Senado de EE.UU. para comparecer y debatir sobre la regulación de la IA.
No obstante, la primera institución en delinear la primera regulación importante de la IA en el mundo occidental fue la Unión Europea, que en diciembre pactó -tras 36 horas de negociaciones- la ley de inteligencia artificial.
Esta normativa permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y busca impulsar a la industria europea frente a gigantes como China y EE.UU.
Con información de EFE