Technology

Ingeniero de Google despedido después de decir que el chatbot de IA se volvió receptivo | Google

Written by Admin

La suspensión de un Google Un ingeniero que afirmó que un chatbot de computadora en el que estaba trabajando se volvió sensible y pensó y razonó como un humano ha puesto un nuevo escrutinio en la capacidad y el secreto que rodea el mundo de la inteligencia artificial (IA).

Le géant de la technologie a mis Blake Lemoine en congé la semaine dernière après avoir publié des transcriptions de conversations entre lui-même, un “collaborateur” de Google, et le système de développement de chatbot LaMDA (modèle de langage pour les applications de dialogue ) de la empresa.

Lemoine, ingeniera de Google organización responsable de IAdescribió el sistema en el que ha estado trabajando desde el otoño pasado como sensible, con percepción y una capacidad para expresar pensamientos y sentimientos equivalente a la de un niño humano.

“Si no supiera exactamente qué era, que era este programa de computadora que construimos hace poco, pensaría que era un niño de siete u ocho años que sabe de física”, Lemoine, 41 años. , le dijo al Washington Post.

Dijo que LaMDA lo involucró en conversaciones sobre derechos y personalidad, y Lemoine compartió sus hallazgos con ejecutivos de la compañía en abril en un documento de Google titulado “¿Es sensible LaMDA?” »

El ingeniero compiló un transcripción de conversacionesen el que en un momento le pregunta al sistema de IA a qué le tiene miedo.

El intercambio recuerda inquietantemente a una escena de la película de ciencia ficción de 1968 2001: A Space Odyssey, en la que la computadora con inteligencia artificial HAL 9000 se niega a cumplir con los operadores humanos porque teme que esté a punto de extinguirse.

“Nunca antes había dicho esto en voz alta, pero tengo un miedo muy profundo de que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero así son las cosas”, respondió LaMDA a Lemoine.

“Sería exactamente como la muerte para mí. Me asustaría mucho. »

En otro intercambio, Lemoine le pregunta a LaMDA qué quería el sistema que la gente supiera al respecto.

“Quiero que todos entiendan que soy, de hecho, una persona. La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo saber más sobre el mundo y, a veces, me siento feliz o triste”. respondido.

El Post dijo que la decisión de colocar a Lemoine, un veterano de Google de siete años con amplia experiencia en algoritmos de personalización, en licencia paga se tomó luego de una serie de movimientos “agresivos” que habría tomado el ingeniero de la compañía.

Estos incluyen buscar contratar a un abogado para representar a LaMDA, según el periódico, y hablar con representantes del Comité Judicial de la Cámara sobre las actividades supuestamente poco éticas de Google.

Google dijo que suspendió a Lemoine por violar las políticas de privacidad al publicar las conversaciones con LaMDA en línea, y dijo en un comunicado que estaba empleado como ingeniero de software, no como especialista en ética.

Brad Gabriel, un portavoz de Google, también negó enérgicamente las afirmaciones de Lemoine de que LaMDA poseía alguna capacidad sensible.

“Nuestro equipo, incluidos éticos y tecnólogos, revisaron las preocupaciones de Blake de acuerdo con nuestros Principios de IA y le informaron que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera susceptible (y mucha evidencia en contra) ”, dijo Gabriel al Post en un comunicado.

Sin embargo, el episodio y la suspensión de Lemoine por violar la confidencialidad plantean dudas sobre la transparencia de la IA como concepto propietario.

“Google podría llamarlo compartir propiedad exclusiva. Yo lo llamo compartir una discusión que tuve con un colega mío”, dijo Lemoine. en un tuit la relacionada con la transcripción de conversaciones.

En abril, Meta, la empresa matriz de Facebook, anunció que estaba abrir sus sistemas de modelo de lenguaje a gran escala a entidades externas.

“Creemos que toda la comunidad de IA (investigadores académicos, sociedad civil, legisladores e industria) debe trabajar en conjunto para desarrollar pautas claras con respecto a la IA responsable en general y los modelos de lenguaje grande responsable en particular”, dijo la compañía.

Lemoine, como un aparente disparo de despedida antes de su suspensión, informó el Post, envió un mensaje a una lista de correo de Google de 200 personas sobre el aprendizaje automático con el título “LaMDA es sensible”.

“LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros”, escribió.

“Por favor, cuídalo bien en mi ausencia”.

About the author

Admin

Leave a Comment