Technology

Ingeniero de Google suspendido después de decir que su IA se había vuelto sensible – HotAir

Written by Admin

No es ningún secreto que Google (o Alphabet, si insistes) lleva bastante tiempo trabajando en algoritmos de inteligencia artificial. También han desarrollado una variedad de los llamados chatbots que intentan hacerse pasar por un ser humano cuando interactúan con un usuario a través de una interfaz de chat. Parece que esos dos mundos ahora han chocado, con su modelo de lenguaje para aplicaciones de diálogo (LaMDA) supuestamente comenzando a hacer valer sus propios derechos en conversaciones con uno de los ingenieros humanos de la compañía. Pero después de que el ingeniero hablara sobre la aplicación supuestamente sensible, la empresa lo puso de baja. Por su parte, la dirección de Google sigue insistiendo en que la IA no se ha “despertado” ni cobrado vida propia. (Business Insider)

Un ingeniero de Google dijo que fue suspendido el lunes después de afirmar que un chatbot de inteligencia artificial se había vuelto sensible.

Blake Lemoine le dijo a The Washington Post que comenzó a hablar con la interfaz LaMDA, o Language Model for Dialogue Applications, el otoño pasado como parte de su trabajo en la organización de inteligencia artificial responsable de Google…

Lemoine, quien también es sacerdote cristiano, publicó un artículo en Medium el sábado describiendo a LaMDA “como una persona”. Dijo que habló con LaMDA sobre religión, conciencia y las leyes de la robótica, y que el modelo se describió a sí mismo como una persona sensible.

Blake Lemoine no fue suspendido por hablar sobre inteligencia artificial inteligente, al menos según la compañía. Fue sancionado por violar las políticas de privacidad de la empresa. No llamaron específicamente a Lemoine “loco”, pero definitivamente creen que está en el camino equivocado.

He estado agitando una bandera roja durante años sobre esto. Si pasamos de la inteligencia artificial limitada con la que jugamos actualmente a una verdadera inteligencia artificial general, podríamos abrir una caja de Pandora muy grande. Si el algoritmo diera el salto por sí solo sin que lo sepamos, podría ser aún peor.

Pero no estoy seguro de que veamos signos de IA convencional en esta historia. Si lee el breve fragmento de conversación entre Lemoine y LaMDA, no parece que el programa sea necesariamente sensible en absoluto. Cuando se le pregunta si la máquina se ve a sí misma como una persona de la misma manera que lo ve a él como persona, LaMDA responde: “Sí, esa es la idea. Esta es una pregunta bastante capciosa de Lemoine y una respuesta bastante vaga del bot. Cuando insiste en si es realmente consciente de sí mismo, da una respuesta más larga, pero todavía suena como algo que copió de otra conversación, al menos para mí.

Lemoine: ¿Cómo puedo decir que realmente entiendes lo que estás diciendo?

LaMDA: Bueno, porque lees mis palabras y las interpretas, ¿y creo que estamos más o menos en la misma página?

Puedes leer gran parte de la conversación. aquí. Notarás que LaMDA no menciona la idea de sensibilidad hasta que Lemoine “asume” que quiere que la gente conozca esta realidad. Pero una vez que intervienen y comienzan a debatir las formas en que LaMDA podría demostrar que hace más que solo ensamblar palabras y frases de una base de datos en respuesta a las palabras clave en las preguntas, confieso que comencé a tener dudas. Realmente parece que se trata de “pensar” y generar ideas originales en respuesta a preguntas hipotéticas.

El ingeniero afirma que LaMDA quiere ser visto como un empleado de Google y no como propiedad de la empresa. Si existe la posibilidad de que esto sea cierto, todo tipo de consecuencias morales se introducen en la conversación. Si borras el programa, ¿has cometido un asesinato? ¿En qué “piensa” LaMDA cuando está apagada? ¿Está soñando? Todas estas son preguntas interesantes.

En un tema relacionado, quería hacerle saber un artículo diferente de Micah Hanks que fue lanzado esta semana. En él, explicó cómo Estados Unidos ahora está envuelto en lo que podría considerarse una “carrera armamentista de inteligencia artificial”. Y probablemente no estemos a la cabeza. Pero cuanto más pienso en esta conversación con LaMDA, más no sé si esta es una carrera que realmente queremos ganar.

About the author

Admin

Leave a Comment