Lucy (2014) | Pexels

OpenAI retrasa el modo de voz avanzado de ChatGPT tras reclamo de Scarlett Johansson por copiar su voz

Publicado por Sara Jerez
La información es de EuropaPress

26 junio 2024 | 12:40

OpenAI retrasó la llegada del modo de voz avanzado que introduce el modelo de lenguaje GPT-4o en ChatGPT, y que habilita una conversación más natural, con “emociones y señales no verbales”, para asegurarse de que cumplen los “altos estándares de seguridad y fiabilidad”.

GPT-4o, presentado en mayo, se diseñó para ofrecer una interacción entre la persona y la máquina “más natural”, ya que tiene la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.

Incluye, además, un modo de voz avanzado, que permite elegir entre una serie de voces para personalizar la interacción con el chatbot.

Más tiempo para el modo de voz avanzado de ChatGPT

Esta característica, que ha generado polémica y llegó a la retirada de la voz ‘Sky’ por parecerse a la de la actriz Scarlett Johansson, quien ya puso voz a un asistente de inteligencia artificial en la película Her, de 2013.

Este modo iba a probarse con un pequeño grupo de usuarios en junio, pero OpenAI ha decidido retrasar su inicio, porque necesitan “un mes mas” para alcanzar el estándar que se han marcado, como han informado a través de un comunicado publicado en X (antigua Twitter).

En este tiempo, mejorarán la capacidad del modelo para detectar y rechazar contenido no apropiado y para mejorar la experiencia de usuario. También trabajarán en la infraestructura que respaldará su uso a gran escala y en tiempo real.

La hoja de ruta contempla el lanzamiento de este modo de voz en otoño (del hemisferio norte) para los usuarios de la suscripción Plus, aunque puede cambiar. Adicionalmente, esperan incorporar nuevas capacidades de vídeo y uso compartido de pantalla.

“El modo de voz avanzado de ChatGPT puede comprender y responder con emociones y señales no verbales, acercándonos a conversaciones naturales en tiempo real con IA“, aseguran desde OpenAI. Por ello, dicen, los plazos en los que está disponible dependerán de que cumpla sus “altos estándares de seguridad y fiabilidad”.