La actriz Scarlett Johansson dijo en un comunicado compartido con CNN este lunes que estaba "escandalizada, enojada y no podía creer" que el CEO de OpenAI, Sam Altman, usara una voz "extrañamente similar" a la suya como parte de una actualización de ChatGPT.

Articulo Original de CNN

La declaración se produce después de que OpenAI dijera que había puesto en pausa la actualización, después de las reacciones negativas que generó que la voz artificial, conocida como Sky, pues los críticos la describieron como "en demasiada confianza con los usuarios" y aseguraron que sonaba como si fuera producto de la fantasía de un desarrollador masculino. Fue objeto de burlas por su tono coqueto.

"Hemos escuchado sus preguntas sobre cómo elegimos las voces en ChatGPT, especialmente Sky", dijo OpenAI este lunes en una publicación en X. "Estamos trabajando para suspender el uso de Sky mientras los abordamos".

Johansson dijo que Altman se ofreció a contratarla en septiembre pasado para dar voz al sistema ChatGPT 4.0. La actriz asegura que rechazó la oferta por “motivos personales”.

“Dos días antes de que se lanzara la demostración de ChatGPT 4.0, el Sr. Altman se comunicó con mi agente y me pidió que lo reconsiderara. Antes de que pudiéramos ponernos en contacto, el sistema había salido al público”.

Johansson dijo que contrató a un asesor legal y que OpenAI “aceptó a regañadientes” eliminar la voz de Sky después de que su abogado le envió dos cartas a Altman.

“En una época en la que todos lidiamos con los deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo, nuestras propias identidades, creo que estas son preguntas que merecen una claridad absoluta. Espero una resolución en forma de transparencia y la aprobación de una legislación apropiada para ayudar a garantizar que los derechos individuales estén protegidos”, escribió Johansson.

CNN se comunicó con OpenAI para comentar sobre la declaración de Johansson.

La voz en cuestión no se deriva de la de Johansson, dijo la compañía en una publicación en su web este domingo, sino que "pertenece a una actriz profesional diferente que usa su propia voz natural".

Articulo Original de CNN

OpenAI dijo que con cada una de sus voces de Inteligencia Artificial, intentó crear “una voz accesible que inspire confianza”, una que contenga un “tono intenso” y que sea “natural y fácil de escuchar”. El modo de voz ChatGPT que utilizaba la voz Sky aún no se había lanzado por completo, pero los videos del anuncio del producto y los avances de los empleados de OpenAI hablando con él se volvieron virales la semana pasada.

Algunos de los que escucharon a Sky se burlaron de ella, y la consideraron quizás demasiado fácil de escuchar. La semana pasada, la controversia inspiró un segmento en The Daily Show en el que el corresponsal principal Desi Lydic describió a Sky como una “voz de bebé robot cachonda”.

"Esto está claramente programado para alimentar el ego de los hombres", dijo Lydic. "Realmente se nota que un hombre construyó esta tecnología".

Incluso Altman, pareció reconocer los paralelismos generalizados que los usuarios estaban estableciendo con Johansson cuando publicó en X el día del anuncio del producto y escribió: "her" (ella, en inglés). Johansson dijo que Altman usó esta publicación para insinuar que "la similitud fue intencional".

“Her” es el título de la película de 2013 en la que Johansson interpreta a una asistente de voz con inteligencia artificial de la que el protagonista, interpretado por Joaquin Phoenix, se enamora, para quedarse desconsolado cuando la IA admite que ella también está enamorada de cientos de otros usuarios y luego se vuelve inaccesible por completo.

Preguntas sobre liderazgo

Las críticas en torno a Sky resaltan preocupaciones sociales más amplias sobre los posibles sesgos de una tecnología diseñada por empresas tecnológicas dirigidas o financiadas en gran medida por hombres blancos.

El anuncio se produjo después de que los líderes de OpenAI se vieran obligados a defender sus prácticas de seguridad durante el fin de semana después de que un empleado saliente cuestionara las prioridades de la empresa.

Jan Leike, quien anteriormente dirigió un equipo centrado en la seguridad de la IA a largo plazo pero dejó OpenAI la semana pasada junto con el cofundador y científico jefe Ilya Sutskever, publicó este viernes un hilo en X donde afirmó que "en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a productos brillantes” en OpenAI. También expresó su preocupación de que la empresa no estuviera dedicando suficientes recursos a prepararse para una posible futura “inteligencia general artificial” (AGI, por sus siglas en inglés) que podría ser más inteligente que los humanos.

Altman respondió rápidamente y dijo que apreciaba el compromiso de Leike con la “cultura de seguridad” y agregó: “Tiene razón, tenemos mucho más por hacer; estamos comprometidos a hacerlo”. La compañía también confirmó a CNN que en las últimas semanas había comenzado a disolver el equipo dirigido por Leike y, en cambio, estaba integrando miembros del equipo en sus diversos grupos de investigación. Un portavoz de la compañía dijo que esa estructura ayudaría a OpenAI a lograr mejor sus objetivos de seguridad.

El presidente de OpenAI, Greg Brockman, respondió en una publicación más larga este sábado, firmada tanto con su nombre como con el de Altman, en la que expuso el enfoque de la compañía hacia la seguridad de la IA a largo plazo.

El creador de #ChatGPT suspende la voz que "escandalizó y enfureció" a Scarlett Johansson


"Hemos creado conciencia sobre los riesgos y oportunidades de la AGI para que el mundo pueda prepararse mejor", dijo Brockman. “Hemos demostrado repetidamente las increíbles posibilidades de ampliar el aprendizaje profundo y hemos analizado sus implicaciones; pidió una gobernanza internacional de AGI antes de que tales llamados fueran populares; y ayudó a ser pionero en la ciencia de evaluar sistemas de IA para detectar riesgos catastróficos”.

Articulo Original de CNN

Añadió que a medida que la IA se vuelve más inteligente y se integra más con la vida diaria de los humanos, la compañía se concentra en implementar “un circuito de retroalimentación muy estrecho, pruebas rigurosas, consideración cui