Empleados de Google calificaron al chatbot con inteligencia artificial Bard como "peor que inútil" antes de su lanzamiento limitado en marzo, apresurado para competir con ChatGPT de OpenAI. Y no sólo cuestionan sus capacidades, sino sus parámetros éticos que habrían quedado relegados a un segundo plano.
La irrupción de ChatGPT tomó a toda la industria de la tecnología desprevenida, causando que sus competidores aceleraran sus investigaciones y lanzamientos. Uno de los más importantes es Google, que promociona su plataforma Bard, con la cual promete pronto presentar su propio chatbot para competir con la alternativa de OpenAI, que a su vez tiene el respaldo de Microsoft. Sus empleados no creen que sea buena idea.
Uno de ellos incluso declaró que “Bard es peor que inútil, por favor no lo lancen”, antes de que la compañía lo sacase al mercado en marzo, en una versión limitada y “experimental”, ignorando también evaluaciones internas de riesgo. Asimismo, anunció varios otros servicios alimentados por IAs para Youtube, Google Cloud, o incluso en servicios de cuidado de salud.
El gran temor de Google y su matriz, Alphabet, sería uno que ya parece estar pisándole los talones: que los usuarios le pregunten a ChatGPT cosas que normalmente escribiría en su icónico buscador, rompiendo más de 20 años de liderazgo en la industria.
Según reportó Bloomberg tras entrevistar a 18 personas que trabajan o trabajaban en Google y revisar documentación interna, desde dentro de la compañía incluso se cuestiona que su directiva estaría ignorando parámetros éticos con tal de salir pronto al mercado tras el estreno de ChatGPT.
Incluso, varias de las figuras clave en ética de inteligencia artificial han sido despedidos de la compañía o la han abandonado recientemente. Todo esto, pese a que en 2021 Google se había comprometido a hacer de la ética un pilar de su desarrollo en IA. Por estas preocupaciones fue que, aunque sus investigaciones en el área han sido clave, todavía se abstenía de incorporar la tecnología en sus productos.
De acuerdo con conversaciones internas que llegaron a manos de dicho medio, algunos califican Bard como “una vergüenza” y “un mentiroso patológico”. Por ejemplo, al preguntarle cómo aterrizar un avión o cómo practicar submarinismo, respondió con instrucciones erróneas que garantizaban un accidente mortal.
En respuesta, desde Google aseguraron que “seguimos invirtiendo en los equipos que trabajan en aplicar nuestros principios de IA a nuestra tecnología”.
ChatGPT ha presentado el mismo problema, pero los empleados aseguran que Bard está en una posición incluso peor, lo que se ve reflejado en la poca acogida que ha tenido.
Según sostuvo la exempleada de Google y presidenta de la Fundación Signal, Meredith Whittaker, “la ética en inteligencia artificial ha quedado relegada a un segundo plano” en la compañía, lamentando que “si la ética no está posicionada para tener prioridad sobre las ganancias y el crecimiento, en última instancia, no funcionarán”.
Y no es un problema único de Google: en Sillicon Valley por cada 30 personas que están desarrollando la competitividad de una inteligencia artificial, sólo 1 está trabajando en mitigar sus riesgos, según el Centro para la Tecnología Humana.