Technology

Un ingeniero de Google Sidelines que afirma que su IA es inteligente

Written by Admin

SAN FRANCISCO (AP) — Google recientemente colocó a un ingeniero en licencia paga luego de rechazar su afirmación de que su inteligencia artificial es inteligente, revelando otro éxito sobre la tecnología más avanzada de la compañía.

Blake Lemoine, ingeniero de software sénior de la organización de inteligencia artificial responsable de Google, dijo en una entrevista que fue suspendido el lunes. El departamento de recursos humanos de la empresa dijo que violó la política de privacidad de Google. El día antes de su suspensión, dijo Lemoine, entregó documentos a la oficina de un senador de los EE. UU., diciendo que proporcionaban evidencia de que Google y su tecnología participaban en discriminación religiosa.

Google dijo que sus sistemas imitan los intercambios conversacionales y pueden modificar diferentes temas, pero no tienen conciencia. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, revisaron las preocupaciones de Blake de acuerdo con nuestros Principios de IA y le informaron que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, en un comunicado de prensa. “Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. El Washington Post primero reportado La suspensión del Sr. Lemoine.

Durante meses, Lemoine había discutido con los gerentes, ejecutivos y recursos humanos de Google sobre su sorprendente afirmación de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA, por sus siglas en inglés) de la empresa tenía conciencia y alma. Google dice que cientos de sus investigadores e ingenieros conversaron con LaMDA, una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine. La mayoría de los expertos en inteligencia artificial creen que la industria está muy lejos de ser un experto en informática.

Algunos investigadores de IA han hecho durante mucho tiempo afirmaciones optimistas acerca de que estas tecnologías pronto alcanzarán la conciencia, pero muchos otros descartan rápidamente tales afirmaciones. “Si estuvieras usando estos sistemas, nunca dirías esas cosas”, dijo Emaad Khwaja, investigador de la Universidad de California, Berkeley y la Universidad de California, San Francisco, que explora tecnologías similares.

Mientras perseguía la vanguardia de la IA, la organización de búsqueda de Google ha pasado los últimos años envuelta en escándalos y controversias. Los científicos de la división y otros empleados se peleaban regularmente por problemas de tecnología y personal en episodios que a menudo salían a la luz pública. En marzo, Google encendido un investigador que había tratado de estar públicamente en desacuerdo con el trabajo publicado de dos de sus colegas. Y el despidos de dos investigadores de ética de IA, Timnit Gebru y Margaret Mitchell, después de criticar los modelos de lenguaje de Google, continuaron ensombreciendo al grupo.

El Sr. Lemoine, un veterano militar que se describió a sí mismo como sacerdote, ex convicto e investigador de IA, les dijo a ejecutivos de Google tan altos como Kent Walker, presidente de asuntos globales, que creía que LaMDA era un niño de 7 u 8 años. año. Quería que la compañía buscara el consentimiento del programa de computadora antes de realizar experimentos con él. Sus afirmaciones se basaron en sus creencias religiosas, que según dijo fueron discriminadas por el departamento de recursos humanos de la empresa.

“Cuestionaron repetidamente mi cordura”, dijo Lemoine. “Dijeron: ‘¿Te ha visto un psiquiatra recientemente? “” En los meses previos a su licencia administrativa, la compañía le había sugerido que tomara una licencia por salud mental.

Yann LeCun, jefe de investigación de IA en Meta y figura clave en el auge de las redes neuronales, dijo en una entrevista esta semana que este tipo de sistemas no son lo suficientemente poderosos para lograr una verdadera inteligencia.

La tecnología de Google es lo que los científicos llaman un red neuronal, que es un sistema matemático que desarrolla habilidades mediante el análisis de grandes cantidades de datos. Al detectar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.

En los últimos años, Google y otras grandes empresas han diseñó redes neuronales que aprendieron grandes cantidades de prosa, incluidos miles de libros inéditos y artículos de Wikipedia. Estos “modelos de lenguaje grande” se pueden aplicar a muchas tareas. Pueden resumir artículos, responder preguntas, generar tweets e incluso escribir publicaciones de blog.

Pero son extremadamente imperfectos. A veces generan una prosa perfecta. A veces generan tonterías. Los sistemas son muy buenos para recrear patrones que han visto en el pasado, pero no pueden razonar como un humano.

About the author

Admin

Leave a Comment