Cuando pensábamos que la dramedia sobre el imprevisto despido y reincorporación del CEO de OpenAI, Sam Altman, no podía ponerse más extraño… pues, nos sigue sorprendiendo.
Luego de que este miércoles se informara el retorno del joven ejecutivo estrella, la empresa matriz de ChatGPT anunció que llevaría a cabo una investigación interna sobre las verdaderas razones que llevaron al directorio a separarlo el viernes pasado de sus funciones.
Ahora, la agencia Reuters indica en exclusiva que, según dos fuentes separadas con conocimiento del tema, uno de los detonantes fue una carta enviada por un grupo de investigadores de OpenAI al directorio, advirtiéndoles sobre un poderoso descubrimiento en inteligencia artificial que “podría amenazar la existencia de la humanidad”.
Según la agencia británica, si bien no lograron obtener una copia de la carta y los empleados que la suscribieron se negaron a hacer comentarios, la CEO interina y jefa de investigación de OpenAI, Mira Murati, confirmó este miércoles a su equipo que una carta sobre un proyecto de inteligencia artificial llamado Q* (pronunciado Q-Star) fue lo que gatilló las acciones del directorio contra Altman.
Q* sería un proyecto para crear una superinteligencia, o inteligencia artificial general (AGI, en inglés), un tipo de IA que la empresa define como “más inteligente que los humanos”.
La advertencia de Stephen Hawking contra la AGI
Según la revista especializada Computer Hoy, una AGI es “un tipo de IA que permite comprender, aprender y realizar tareas intelectuales de forma muy parecida al cerebro humano. En otras palabras, es la capacidad de la IA de aprender del mismo modo que los humanos”.
Este tipo de inteligencia, cuyo fin es tratar de imitar incluso un nivel de conciencia, se trataba como un proyecto muy lejano todavía. Sin embargo, una de las fuentes consultadas por Reuters indicó que los vastos recursos proporcionados a la empresa en el último año les permitieron hacer rápidos avances en el área, alcanzando ya una mente con la capacidad matemática de un niño en edad escolar.
Expertos en la materia son muy cautos sobre el desarrollo de las AGI. El fallecido físico Stephen Hawking, señaló en 2014 que una entidad computacional de este tipo, “podría decidir rediseñarse por cuenta propia y así llegar a un nivel superior”.
“Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas y serán superados”, indicó a la BBC.
De la misma forma hasta el usualmente temerario Elon Musk, afirmó a inicios de este año que la IA debía regularse y tratarse con cautela, ya que la llegada anticipada de una AGI “sería más peligrosa que una guerra nuclear”.