VER RESUMEN
Resumen generado con Inteligencia Artificial y revisado por el autor de este artículo.
Herramienta desarrollada por BioBioChile La tendencia viral de crear imágenes al estilo Studio Ghibli con inteligencia artificial esconde un alto costo ambiental, según un estudio que revela que, por cada 10-50 consultas, modelos como ChatGPT-3 consumen 500 ml de agua, proyectando un uso masivo de entre 4.200 y 6.600 millones de metros cúbicos en 2027. En un análisis en Podría ser Peor, Sebastian Cifuentes de CENIA explica que la refrigeración de las GPU utilizadas en IA es esencial. El experto destaca la controversia en torno a los derechos de autor, ya que las empresas entrenan modelos con datos extraídos de internet, generando debates sobre quién se beneficia.
La tendencia de crear imágenes al estilo Studio Ghibli con inteligencia artificial se ha viralizado en redes sociales, pero pocos conocen el alto costo ambiental que implica este proceso.
Un estudio estadounidense reveló que, por cada 10-50 consultas simples, modelos como ChatGPT-3 gastan 500 mililitros de agua, proyectando un consumo masivo de entre 4.200 y 6.600 millones de metros cúbicos de agua para IA en 2027.
Tomando este tema como base, y para conocer las implicancias de la IA, en Podría ser Peor conversamos con Sebastian Cifuentes, tech lead del Equipo de Transferencia Tecnológica de CENIA.
“Hay que entender que todo servicio que compute algo requiere enfriamiento. Los modelos de IA utilizan muchas GPU, que son tarjetas gráficas que se calientan mucho; por ende, necesitamos enfriarlas mucho”, explicó.
Ahora, ¿qué es lo que ocurre con los derechos de autor?
En este sentido, el experto apuntó que es algo “altamente polémico, porque finalmente lo que hicieron estos modelos y empresas es navegar y extraer todos los datos existentes”.
Esto quiere decir, según el experto, que las empresas se escudan con que no pasan a llevar los derechos de autor, puesto que ellos usan esta información que está libre en internet para entrenar y entregar una versión propia de lo que están pidiendo.
“Si compartiste alguna vez en Twitter un comentario tuyo o una imagen tuya, esa imagen, ese comentario fue usado para entregar estos modelos. Y al final, ¿quiénes están ganando con estos modelos? Es la gran discusión, porque el internet en algún momento fue de todos”, explicó.
El detalle técnico clave en la discusión, según el experto, es que las empresas dicen que los modelos de IA no copian; es “como cuando los artistas se inspiran en el arte de alguien más para iniciar su arte”.
Para el experto es clave que las personas comprendan que la “IA no es buena ni mala, es una herramienta” y uno como usuario debe saber identificar cuándo es real o no.
“Generalmente creo que el criterio queda en el usuario, en saber que un hashtag en verdad es falso, en entender que hay ciertas noticias que son mentiras, pero es un desafío”, dijo.
En relación con las fake news, Cifuentes explicó que la forma más efectiva de combatirlas es mediante la “información” y la “educación de las personas”.
“Porque algo que pasa con inteligencia artificial a veces es que la gente dice: es muy complejo, así que ni siquiera voy a intentar entenderlo”, agregó.
Revisa todos los detalles en la entrevista completa.