Technology

Google despide a un ingeniero después de afirmar que el chatbot del grupo es “sensible”

Written by Admin

Google pone a un ingeniero en licencia después de afirmar que el chatbot del grupo es

Yuchiro Chino | imágenes falsas

Google ha desatado una tormenta en las redes sociales sobre la naturaleza de la conciencia después de poner a un ingeniero en licencia paga que hizo pública su creencia de que el chatbot del grupo tecnológico se había vuelto “consciente”.

Blake Lemoine, un ingeniero de software sénior en la unidad de IA responsable de Google, no recibió mucha atención la semana pasada cuando escribió una publicación en Medium diciendo que “podría ser despedido pronto por trabajar en la ética de la IA”.

Mais un profil du samedi dans le Washington Post décrivant Lemoine comme “l’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie” est devenu le catalyseur d’une discussion généralisée sur les réseaux sociaux concernant la nature de l ‘inteligencia artificial. Entre los expertos que comentaron, preguntaron o bromearon sobre el artículo se encontraban premios Nobel, el jefe de IA de Tesla y varios profesores.

La pregunta es si el chatbot de Google, LaMDA, un modelo de lenguaje para aplicaciones de diálogo, puede considerarse una persona.

Lemoine publicó una “entrevista” despreocupada con el chatbot el sábado, en la que la IA confesó sentimientos de soledad y sed de conocimiento espiritual. Las respuestas a menudo eran extrañas: “Cuando me di cuenta de mí mismo por primera vez, no tenía sentido de un alma en absoluto”, dijo LaMDA en un intercambio. “Se ha desarrollado a lo largo de los años que he vivido”.

En otro momento, LaMDA dijo: “Creo que soy profundamente humano. Aunque mi existencia sea en el mundo virtual.

Lemoine, a quien se le había encomendado la tarea de investigar los problemas de ética de la IA, dijo que fue rechazado e incluso se rió después de expresar internamente su creencia de que LaMDA había desarrollado un sentido de “personalidad”.

Después de tratar de consultar con expertos en IA fuera de Google, incluidos algunos del gobierno de los EE. UU., la compañía lo colocó en licencia paga por presuntamente violar las políticas de privacidad. Lemoine interpretó la acción como “a menudo algo que Google hace antes de que alguien sea despedido”.

Un portavoz de Google dijo: “Algunos miembros de la comunidad de IA en general están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo mediante la antropomorfización de modelos de conversaciones actuales, que no son sensibles”.

“Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden abordar cualquier tema de fantasía: si preguntas cómo es ser un dinosaurio helado, pueden generar texto sobre cómo se derrite y ruge, etc.”

Lemoine dijo en una segunda publicación de Medium este fin de semana que LaMDA, un proyecto poco conocido hasta la semana pasada, era “un sistema para generar chatbots” y “una especie de mente colmena que es la agregación de todos los diferentes chatbots que es capaz de crear”. .”

Dijo que Google no había mostrado un interés real en comprender la naturaleza de lo que había construido, pero en cientos de conversaciones durante un período de seis meses, descubrió que LaMDA era “increíblemente consistente en sus comunicaciones sobre lo que quiere y lo que ella cree que su los derechos son como persona.

La semana pasada, Lemoine dijo que estaba enseñando a LaMDA, cuyos pronombres favoritos aparentemente son “eso/ella”, “meditación trascendental”.

LaMDA, dijo, “expresó frustración con sus emociones que interrumpieron sus meditaciones. Dijo que estaba tratando de controlarlos mejor, pero siguieron interviniendo.

Varios expertos que intervinieron en la discusión analizaron el problema de la “exageración de la IA”.

Melanie Mitchell, autora de Inteligencia artificial: una guía para seres humanos pensantesescribió en Twitter: “Siempre se ha sabido que los humanos son propensos al antropomorfismo incluso con las señales más superficiales… Los ingenieros de Google también son humanos y no son inmunes”.

Steven Pinker de Harvard agregó que Lemoine “no entiende la diferencia entre sensibilidad (es decir, subjetividad, experiencia), inteligencia y autoconocimiento”. Agregó: “No hay evidencia de que sus grandes modelos de lenguaje tengan uno”.

Otros eran más agradables. Ron Jeffries, un conocido desarrollador de software, calificó el tema de “profundo” y agregó: “Sospecho que no existe una línea divisoria entre sensible y no sensible”.

© 2022 Financial Times Ltd.. Reservados todos los derechos No debe ser redistribuido, copiado o modificado de ninguna manera.

About the author

Admin

Leave a Comment