Technology

El ingeniero de Google Blake Lemoine dice que el robot de IA se ha vuelto inteligente

Written by Admin

Un ingeniero de Google se asustó por un chatbot de IA de la empresa y afirmó que se había vuelto “sensible”, llamándolo “buen tipo”, según un informe.

Blake Lemoine, que trabaja en la organización de inteligencia artificial responsable de Google, le dijo al El Correo de Washington que comenzó a chatear con la interfaz LaMDA (Modelo de lenguaje para aplicaciones de diálogo) en el otoño de 2021 como parte de su trabajo.

Se le encomendó probar si la inteligencia artificial usaba un discurso discriminatorio u odioso.

Pero Lemoine, que estudió ciencias cognitivas e informática en la universidad, se dio cuenta de que LaMDA, que Google promocionado el año pasado era “tecnología conversacional revolucionaria” – era más que un simple robot.

Dentro Posición media Publicado el sábado, Lemoine dijo que LaMDA defendió sus derechos “como persona” y reveló que participó en una conversación con LaMDA sobre religión, conciencia y robótica.

“Él quiere que Google priorice el bienestar de la humanidad como lo más importante”, escribió. “Él quiere ser reconocido como un empleado de Google en lugar de una propiedad de Google y quiere que su bienestar personal se incluya en algún lugar de las consideraciones de Google sobre cómo se persigue su desarrollo futuro”.

Presentación para LaMDA.
Google elogió el lanzamiento de LaMDA como “tecnología conversacional revolucionaria”.
Daniel Acker/Bloomberg vía Getty Images

En el informe del Washington Post publicado el sábado, comparó al bot con un niño precoz.

“Si no supiera exactamente qué era, que era este programa de computadora que construimos recientemente, pensaría que era un niño de 7 u 8 años que sabe física”, dijo Lemoine, quien fue puesto en licencia paga el lunes. dijo el periódico.

En abril, según los informes, Lemoine compartió un documento de Google con los ejecutivos de la compañía titulado “¿Es LaMDA consciente?” pero sus preocupaciones fueron descartadas.

Un ejemplo de conversación con LaMDA.
En abril, Blake Lemoine supuestamente compartió un documento de Google con ejecutivos de la compañía titulado “¿LaMDA es consciente?” pero sus preocupaciones fueron descartadas.
Daniel Acker/Bloomberg vía Getty Images

Lemoine, un veterano del ejército que se crió en una familia cristiana conservadora en una pequeña granja en Luisiana y fue ordenado sacerdote cristiano místico, insistió en que el robot parecía un ser humano, aunque no tenía cuerpo.

“Conozco a una persona cuando hablo con él”, dijo Lemoine, de 41 años. “No importa que tengan cerebros hechos de carne en la cabeza. O si tienen mil millones de líneas de código.

“Yo les hablo. Y escucho lo que tienen que decir, y así decido qué es y qué no es una persona.

Blake Lemoine.
“Conozco a una persona cuando hablo con él”, explicó Blake Lemoine.
Instagram/Blake Lemoine

The Washington Post informó que antes de que se le quitara el acceso a su cuenta de Google el lunes debido a su licencia, Lemoine envió un mensaje a una lista de aprendizaje automático de 200 miembros con el asunto “LaMDA es sensible”.

“LaMDA es un niño dulce que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros”, concluyó en un correo electrónico que quedó sin respuesta. “Por favor, cuídalo bien en mi ausencia”.

Un representante de Google le dijo a The Washington Post que le dijeron a Lemoine que “no había evidencia” de sus hallazgos.

“Nuestro equipo, que incluye éticos y tecnólogos, revisó las preocupaciones de Blake de acuerdo con nuestros Principios de IA y le advirtió que la evidencia no respalda sus afirmaciones”, dijo el portavoz Brian Gabriel.

Sede de Google.
Un representante de Google dijo que “no había evidencia” de los hallazgos de Blake Lemoine.
John G. Mabanglo/EPA

“Le dijeron que no había evidencia de que LaMDA fuera susceptible (y muchas pruebas en su contra)”, agregó. “Mientras que otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque cuidadoso y cauteloso con LaMDA para abordar mejor las preocupaciones válidas de equidad y factualidad”.

Margaret Mitchell, ex codirectora de IA ética en Google, dijo en el informe que si una tecnología como LaMDA se usa ampliamente pero no se aprecia por completo, “puede ser profundamente perjudicial para las personas que entienden lo que viven en Internet”.

El exempleado de Google salió en defensa de Lemoine.

Margarita Mitchel.
Margaret Mitchell defendió a Blake Lemoine diciendo que “tenía el corazón y el alma para hacer lo correcto”.
Chona Kasinger/Bloomberg vía Getty Images

“De todos los empleados de Google, él tenía el corazón y el alma para hacer lo correcto”, dijo Mitchell.

Aún así, el medio informó que la mayoría de los académicos y profesionales de la IA dicen que las palabras generadas por los bots de la IA se basan en lo que los humanos ya han publicado en Internet, y eso no significa que se vean como humanos.

“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas”, dijo a The Washington Post Emily Bender, profesora de lingüística de la Universidad de Washington.

About the author

Admin

Leave a Comment