Technology

No, la IA de Google no es inteligente

Written by Admin

De acuerdo a un historia reveladora en el Washington Post el sábado, un ingeniero de Google dijo que después de cientos de interacciones con un sistema de IA nunca antes visto llamado LaMDAcreía que el programa había alcanzado un nivel de conciencia.

En entrevistas y declaraciones públicas, muchos en la comunidad de IA se han opuesto a las afirmaciones del ingeniero, mientras que algunos han señalado que su historia destaca cómo la tecnología puede hacer que las personas le atribuyan atributos humanos. Pero la creencia de que la IA de Google podría ser consciente subraya tanto nuestros temores como nuestras expectativas sobre lo que puede hacer esta tecnología.

LaMDA, que significa “Modelo de lenguaje para aplicaciones de diálogo”, es uno de los muchos sistemas de inteligencia artificial a gran escala que se ha entrenado en grandes franjas de texto de Internet y puede responder a indicaciones escritas. Son básicamente responsables de encontrar patrones y predecir qué palabra o palabras deben venir a continuación. Tales sistemas se han convertido cada vez mas bueno para responder preguntas y escribir de una manera que pueda parecer humanamente convincente, y Google mismo presentó a LaMDA en mayo pasado en una publicación de blog como alguien que puede “participar con fluidez en una cantidad aparentemente infinita de temas”. Pero los resultados también pueden ser ridículos, extraños, perturbadores y propensos a divagar.

Según los informes, el ingeniero, Blake Lemoine, le dijo al Washington Post que había compartido evidencia con Google de que LaMDA era sensible, pero la compañía no estuvo de acuerdo. En un comunicado, Google dijo el lunes que su equipo, que incluye especialistas en ética y tecnólogos, “revisó las preocupaciones de Blake de acuerdo con nuestros principios de IA y le informó que la evidencia no respalda sus afirmaciones”.

El 6 de junio, Lemoine publicó en Medium que Google lo había puesto en licencia administrativa paga “como parte de una investigación sobre los problemas de ética de IA que estaba planteando dentro de la empresa” y que podría ser despedido “pronto”. (Mencionó la experiencia de Margaret Mitchell, quien había dirigido el equipo de inteligencia artificial ética de Google hasta Google la despidió a principios de 2021 siguiendo su franqueza con respecto a salida a fines de 2020 del ex co-líder Timnit Gebru. Gebru a été évincée après des échauffourées internes, dont une liée à un document de recherche dont la direction de l’IA de l’entreprise lui a dit de se retirer de la considération pour une présentation lors d’une conférence, ou de retirer son apellido.)

Un portavoz de Google confirmó que Lemoine permanece en licencia administrativa. Según el Washington Post, fue suspendido por violar la política de privacidad de la empresa.

Lemoine no estuvo disponible para hacer comentarios el lunes.

El surgimiento continuo de poderosos programas informáticos entrenados en datos masivos también ha generado inquietudes sobre la ética que rige el desarrollo y uso de estas tecnologías. Y a veces el progreso se ve a través del prisma de lo que puede suceder, en lugar de lo que es posible actualmente.

Las respuestas de los miembros de la comunidad de IA al experimento de Lemoine rebotaron en las redes sociales durante el fin de semana y, en general, llegaron a la misma conclusión: la IA de Google está lejos de ser perfecta. Abeba Birhane, investigadora principal confiable de IA en Mozilla, tuiteó el domingo, “hemos entrado en una nueva era de ‘esta red neuronal es consciente’ y esta vez va a consumir mucha energía para refutar”.
Gary Marcus, fundador y director ejecutivo de Geometric Intelligence, que se vendió a Uber, y autor de libros que incluyen “Rebooting AI: Building Artificial Intelligence We Can Trust”, dijo que la idea de LaMDA es sensible. “tonterías sobre zancos” en un tuit. Rápidamente escribió un entrada en el blog señalando que todos estos sistemas de IA coinciden con los patrones al acceder a enormes bases de datos de idiomas.
Blake Lemoine posa para un retrato en el Golden Gate Park en San Francisco, California, el jueves 9 de junio de 2022.

En una entrevista del lunes con CNN Business, Marcus dijo que la mejor manera de pensar en sistemas como LaMDA es como una “versión gloriosa” del software de autocompletar que puede usar para predecir la siguiente palabra en un mensaje de texto. Si escribes “Tengo mucha hambre, quiero ir a un”, podría sugerir “restaurante” como la siguiente palabra. Pero esta es una predicción hecha usando estadísticas.

“Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente”, dijo.

En una entrevista, Gebru, quien es el fundador y director ejecutivo de la Instituto de Investigación de IA Distribuidao DAIR, dijo Lemoine, es víctima de muchas compañías que afirman que la IA consciente o la inteligencia artificial general, una idea que se refiere a la IA que puede realizar tareas similares a las humanas e interactuar con nosotros de manera significativa, no está muy lejos.
Google ofreció 60.000 dólares a un profesor, pero lo rechazó.  este es el por qué
Por ejemplo, señaló, Ilya Sutskever, cofundadora y científica en jefe de OpenAI, tuiteó en febrero que “las grandes redes neuronales de hoy pueden ser un poco conscientes”. Y la semana pasada el vicepresidente y colega de Google Research Blaise Aguera y Arcas escrito en un artículo para The Economist que cuando comenzó a usar LaMDA el año pasado, “sentía cada vez más que estaba hablando con algo inteligente”. (Este artículo ahora incluye una nota del editor que señala que Lemoine desde entonces “ha sido suspendido después de afirmar en una entrevista con The Washington Post que el chatbot de Google, LaMDA, se había vuelto ‘consciente'”).

“Lo que está pasando es que hay una carrera para usar más datos, más computación, para decir que has creado esta cosa general que lo sabe todo, responde todas tus preguntas o lo que sea, y es el tambor que tocaste”, dijo Gebru. . “Entonces, ¿cómo te sorprendes cuando esta persona lleva las cosas al extremo?” »

En su declaración, Google señaló que LaMDA se ha sometido a 11 “revisiones separadas de los principios de IA”, así como a “investigaciones y pruebas rigurosas” relacionadas con la calidad, la seguridad y la capacidad de formular declaraciones basadas en hechos. “Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales de hoy, que no son sensibles”, dijo la compañía.

“Cientos de investigadores e ingenieros han conversado con LaMDA, y no sabemos de nadie más que haga afirmaciones radicales o que antropomorfice a LaMDA, como lo hizo Blake”, dijo Google.

About the author

Admin

Leave a Comment