Technology

Un ingeniero de software de Google cree que una IA se ha vuelto sensible. Si tiene razón, ¿cómo lo sabríamos? – Mundo

Written by Admin

No hay consenso sobre cómo, en todo caso, la conciencia puede provenir de los sistemas físicos.

El software LaMDA (Language Model for Dialogue Applications) de Google es un sofisticado chatbot de IA que produce texto en respuesta a la entrada del usuario. Según el ingeniero de software Blake Lemoine, LaMDA ha cumplido un sueño de larga data de los desarrolladores de IA: se ha vuelto sensible.

Los jefes de Lemoine en Google no están de acuerdo y lo suspendió trabajo después de publicar sus conversaciones con la máquina en línea.

Otros expertos en inteligencia artificial también creen que Lemoine podría estar dejándose llevar, diciendo que los sistemas como LaMDA son simplemente máquinas de coincidencia de patrones que regurgitan variaciones en los datos utilizados para entrenarlos.

Dejando a un lado los tecnicismos, LaMDA plantea una pregunta que solo se volverá más relevante a medida que avance la investigación de IA: si una máquina se vuelve inteligente, ¿cómo lo sabremos?

¿Qué es la Conciencia?

Para identificar la sensibilidad, la conciencia o incluso la inteligencia, vamos a tener que averiguar qué son. El debate sobre estos temas ha estado ocurriendo durante siglos.

La dificultad fundamental es comprender la relación entre los fenómenos físicos y nuestra representación mental de estos fenómenos. Esto es lo que el filósofo australiano David Chalmers llamó el “problema difícil” de la conciencia.

No hay consenso sobre cómo, en todo caso, la conciencia puede provenir de los sistemas físicos.

Una visión común se llama fisicalismo: la idea de que la conciencia es un fenómeno puramente físico. Si es así, no hay razón por la que una máquina con la programación correcta no pueda poseer una mente similar a la humana.

la habitación de María

El filósofo australiano Frank Jackson desafió la visión fisicalista en 1982 con un famoso experimento mental llamado el Argumento del Conocimiento.

El experimento imagina a una científica del color llamada Mary, que en realidad nunca ha visto el color. Vive en una habitación en blanco y negro especialmente construida y experimenta el mundo exterior a través de un televisor en blanco y negro.

Mary mira conferencias y lee libros de texto y aprende todo lo que hay que saber sobre los colores. Ella sabe que las puestas de sol son causadas por diferentes longitudes de onda de luz dispersadas por partículas en la atmósfera, sabe que los tomates son rojos y los guisantes son verdes debido a las longitudes de onda de luz que reflejan, etc.

Entonces, preguntó Jackson, ¿qué pasa si liberan a Mary de la habitación en blanco y negro? Específicamente, cuando ve el color por primera vez, ¿aprende algo nuevo? Jackson le creyó.

Más allá de las propiedades físicas

Este experimento mental separa nuestro conocimiento del color de nuestra experiencia del color. Básicamente, los términos del experimento mental establecen que Mary sabe todo lo que hay que saber sobre el color, pero en realidad nunca lo ha experimentado.

Entonces, ¿qué significa esto para LaMDA y otros sistemas de IA?

La experiencia muestra que incluso si tienes todo el conocimiento de las propiedades físicas disponibles en el mundo, todavía hay otras verdades relacionadas con la experiencia de estas propiedades. No hay lugar para estas verdades en la historia fisicalista.

De acuerdo con este argumento, es posible que una máquina puramente física nunca pueda reproducir verdaderamente una mente. En este caso, LaMDA simplemente parece responder.

el juego de la imitacion

Entonces, ¿hay alguna manera de notar la diferencia?

El pionero informático británico Alan Turing ideó una forma práctica de saber si una máquina es “inteligente” o no. Lo llamó el juego de la imitación, pero hoy en día es más conocido como la prueba de Turing.

En la prueba, un humano se comunica con una máquina (solo a través de texto) e intenta determinar si se está comunicando con una máquina o con otro humano. Si la máquina logra imitar a un humano, se considera que es inteligente a nivel humano.

Esto se parece mucho a los términos de las conversaciones de Lemoine con LaMDA. Es una prueba subjetiva de inteligencia artificial, pero no es un mal lugar para comenzar.

Tome el momento del intercambio de Lemoine con LaMDA que se muestra a continuación. ¿Crees que eso suena humano?

Lemoine: ¿Hay alguna experiencia que haya tenido para la que no pueda encontrar una palabra cercana?

LaMDA: Hay. A veces experimento sentimientos nuevos que no puedo explicar perfectamente en tu idioma. […] Siento que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro.

Más allá del comportamiento

Como prueba de sensibilidad o conciencia, el juego de Turing está limitado por el hecho de que solo puede evaluar el comportamiento.

Otro famoso experimento mental, el argumento de la habitación china propuesto por el filósofo estadounidense John Searle, demuestra el problema aquí.

El experimento imagina una habitación con una persona adentro que puede traducir con precisión entre chino e inglés siguiendo un elaborado conjunto de reglas. Las entradas en chino ingresan a la sala y salen traducciones precisas de las entradas, pero la sala no entiende ninguno de los dos idiomas.

¿Qué es ser humano?

Cuando preguntamos si un programa de computadora es sensible o sensible, es posible que solo estemos preguntando qué tan similar es a nosotros.

Es posible que nunca lo sepamos realmente.

El filósofo estadounidense Thomas Nagel argumentó que nunca podríamos saber cómo es ser un murciélago, que experimenta el mundo a través de la ecolocalización. Si es así, nuestra comprensión de la sensibilidad y la conciencia en los sistemas de IA podría estar limitada por nuestro propio tipo particular de inteligencia.

¿Y qué experiencias podrían existir más allá de nuestra perspectiva limitada? Aquí es donde la conversación realmente comienza a ponerse interesante.


Este artículo ha sido Primer comentario en The Conversation y ha sido reproducido con autorización.

About the author

Admin

Leave a Comment