La IA asume el papel de la mente

Parte 8

Por Jonathan Tennenbaum

MSIa Informa, 22 de octubre de 2020.-Muchas veces se me ha desafiado a “probar” que es imposible que la Inteligencia Artificial (IA) alcance la capacidad humana. Mi actitud es que la prueba está del otro lado.

No hay ninguna prueba seria que respalde la tesis de que la IA de grado humano sea posible. Es cierto que no hay razones para esperar que eso suceda y hay muchas buenas razones para creer que nunca será. Sea como fuera, no para un sistema de IA que parta de un computador digital (o, de forma más precisa, matemáticamente equivalente a una máquina de Turing (ver Parte 2)

No obstante, muchos consideran hoy en día que es virtualmente evidente que tarde o temprano los ordenadores se volverán tan inteligentes como los seres humanos y, de ahí en adelante, mucho más inteligentes. El futurista Ray Kurzweil ha aumentado regularmente su audiencia mediática con previsiones en ese sentido. En una entrevista aparecida en 2017 (1]) por ejemplo, afirmó: “2029 es la fecha consistente que preví para que cuando una IA pasase una prueba de Turing válida y, por ello, que alcanzase dimensiones humanas de inteligencia. Determiné la fecha de 2045 para la ‘singularidad’, que es cuando multiplicaremos nuestra inteligencia efectiva mil millones de veces al fundirnos con la inteligencia que creamos”.

En lugar de ir a la “prueba de Turing” a la que Kurzweil se refiere, es más interesante citar al mismo Alan Turing, en una trasmisión de radio de la BBC (2) de 1951: “Creo que es probable, por ejemplo, que a finales de siglo sea posible programar una máquina para responder a preguntas, de tal forma que sea extremadamente difícil percibir si las respuestas son proporcionadas por un hombre o por una máquina… Esto representa tan sólo mi opinión; hay mucho espacio para otros…”

Obsérvese que Turing no indica que la máquina correspondería completamente a la mente humana, sino que tan sólo es “extremadamente difícil percibir” la diferencia. Lo cierto es que él tenía una actitud mucho más lúdica y llena de buen humor respecto a esas cuestiones que la que suele tenerse hoy. En una conferencia de 1951 (3) (Máquina inteligente, una teoría herética), dijo:

Mi argumento es que se pueden construir máquinas que simularán muy bien el comportamiento de la mente humana. A veces cometerán errores, otras podrán hacer declaraciones nuevas y muy interesantes y, en general, el resultado será digno de atención, en la misma medida que el resultado de una mente humana. (…)

Vamos a asumir para fines de argumentación que esas máquinas son una posibilidad genuina, y ver las consecuencias de construirlas. Hacerlo encontraría ciertamente una gran oposición, a menos que hayamos progresado mucho en tolerancia religiosa desde los días de Galileo. Habría gran oposición de los intelectuales que temerán perder sus empleos.

Al final de su conferencia en la BBC, Turing agregó una reflexión interesante: “Todo el proceso de pensamiento es todavía un tanto misterioso para mí, pero creo que el intento de hacer una máquina pensante nos ayudaría mucho a descubrir el cómo pensamos nosotros mismos”.

ELIZA: la psiquiatría de la IA

Lo que sabemos con certeza es que los sistemas de la IA pueden engañar a las personas, haciéndolas creer que son humanas –por lo menos por un tiempo. Hasta los sistemas primitivos de IA pueden hacerlo. La razón tiene menos que ver con la inteligencia en sí que con la tendencia de las personas a proyectar inconscientemente la “humanidad” en casi todo con lo que interactúan.

(Fuente: Wikimedia, modificada por el autor)

A mediados de los años sesentas, el investigador del Instituto de Tecnología de Massachusetts (MIT) Joseph Waizenbaum creo el primer «chatbot», un sistema llamado ELIZA, que permitía al operador digitar declaraciones en inglés y recibir respuestas del computador (Chatbot es un programa de computador que trata de simular a un ser humano en la conversación con personas, con el objetivo de responder a las preguntas de tal forma que las personas tengan la impresión de estar conversando con otra persona y no con un programa de computador –fuente Wikipedia). Waizenbaum tuvo la brillante idea de programar el computador para imitar una sesión de psicoterapia. Para ello escogió el enfoque del diálogo del famoso psicólogo Carl Rogers.

Weizenbaum comenta en su libro de 1976 De la computadora a la Razón humana –del juicio al cálculo (From ComputerPower to Human Reason – From Judgmentto Calculation) comenta: “Para mi primera experiencia, le di a ELIZA una ruta elaborada para permitir que desempeñase (en verdad debería decir parodiase) el papel de un psicoterapeuta rogeriano encargado de una entrevista inicial de un paciente. El psicoterapeuta rogeriano es relativamente fácil de imitar, porque gran parte de su técnica consiste en atraer a su paciente, reflejando las declaraciones del paciente de vuelta a él”.

Weizenbaum describió su trabajo por primera vez en un artículo aparecido en 1966 (4) titulado “ELIZA: un programa de computador para el estudio de la comunicación en lenguaje natural entre hombre y máquina. El resultado causó sensación y se considera uno de los marcos decisivos de la historia de la inteligencia artificial.

Para dar una impresión de cómo funciona ELIZA decidí interpretar el paciente de una sesión corta de terapia con el programa. La sesión comenzó así:

ELIZA: ¿Algo te está incomodando?

Tennenbaum: Me siento deprimido.

ELIZA: ¿Sueles sentirte deprimido?

Tennenbaum: En ocasiones.

ELIZA: ¿Qué te sugiere eso?

Tennenbaum: Quizá debería iniciar un tratamiento.

ELIZA: ¿No estás seguro?

Tennenbaum: No.

ELIZA: ¿Por qué “no”?

Tennenbaum: Porque no me gustan los psiquiatras.

ELIZA: ¿Cuál es la conexión, supones?

Tennenbaum: Mi esposa es psiquiatra.

ELIZA: ¿Tu esposa?

Tennenbaum: Si, ella me aconsejo buscarla.

ELIZA: Entiendo.

Tennenbaum: Ayudeme, por favor.

ELIZA: Entiendo.

Los lectores interesados pueden exprimentar su propia sesión con el programa en el sitio https://www.masswerk.at/elizabot/(5).

Weizenbaum observa en su libro de 1976: “DOCTORA, como terminó llamándose la psiquiatra desempeñada por ELIZA, se hizo famosa en el MIT, de donde surgió por primera vez, principalmente, por ser un programa fácil de demostrar. (…) luego comenzaron a aparecer copias de DOCTORA en otras instituciones de Estados Unidos que seguían la descripción que publiqué».

Quedó sorprendido con la reacción que produjo “DOCTORA” en todo el país. Poco a poco comenzó a preocuparse más con la reacción significativa sobre la sociedad y sobre las posibles consecuencias futuras de la IA. Terminó por convertirse en uno de los críticos más abiertos de la IA.

Weizenbaum destaca en su libro tres hechos que sorprenden en particular. Vale la pena comentarlos brevemente.

“Las conmociones que experimenté a medida que DOCTORA se hizo ampliamente conocida y ‘rodada’ se debieron principalmente a tres eventos distintos.

“1. Varios psiquiatras practicantes creían seriamente que el programa de ordenador DOCTORA se podía transformar en una fase casi totalmente automática de psicoterapia”

Weizenbaum se sorprendió de que un sistema primitivo como ELIZA, cuyo programa se aproximaba apenas a los 20 kilobytes (¡), pudiera provocar expectativas tan grandiosas. Le horrorizaba la perspectiva de confiar seres humanos al cuidado de máquinas.

La psicoterapia automatizada vía chatbox es hoy una realidad y su uso aumenta rápidamente. Uno de los más establecidos de ellos, la aplicación para Smartphone Woebot, realiza más de 4 millones de conversaciones de terapia por semana. Woebot (http://woebothealth.com/) fue creado por un grupo de psicólogos de la Universidad de Stanford en cooperación con especialista en IA. La aplicación, que usa los principios de la terapia cognitiva-conductista, se creó para involucrar a sus usuarios una vez al día en conversaciones cortas de diez minutos. Al principio hace preguntas simples sobre los sentimientos del usuario y brinda sugerencias útiles y comentarios de apoyo. Conforme el sistema analiza los datos de las conversaciones y vigila el humor del usuario, las conversaciones gradualmente son más específicas. El chatbot se convierte en este proceso en un amigo y confidente del usuario. Hay estudios que indican que el Woebot y algunos sistemas análogos pueden dar resultados positivos significativos, en particular en casos de depresión.

“2. Me sorprendió ver la rapidez y la profundidad con la que las personas que conversaban con DOCTORA se involucraron emocionalmente con el computador y como lo “antropomorfizaron” de forma inequívoca”.

Weizenbaum cuenta como esto sucedió con su propia secretaria. Ella sabía perfectamente que DOCTORA no era una persona, sino un programa de computadora escrito por su jefe. Sin embargo, quedó tan involucrada emocionalmente que le pedía a Weizenbaum que saliera de la habitación ¡cuando conversaba con la DOCTORA¡

La “antropomorfización” es una tendencia natural de los seres humanos que se extiende no solo a objetos vivos, por ejemplo animales de estima, sino que muchas veces llega a objetos inanimados. Pero en la medida que la IA crea más y más trazos “semejantes a los humanos”, aumentará la tendencia para que la “antropomorfización” de los sistemas de la IAsea vuelva automática y e irreflexiva. Como afirmé en la Parte 1 de esta serie: “El peligro no es que los sistemas de IA se vuelvan más inteligentes que los humanos, sino que, en lugar de eso, las personas se vuelvan tan estúpidas que no logren percibir la diferencia.

“3. Otra reacción generalizada –y para mí sorprendente- al programa ELIZA fue la diseminación de la creencia de que ella representaba una solución general para el problema de comprensión del lenguaje natural por medio de un computador. En mi artículo traté de decir que ninguna solución general de ese problema era posible, es decir, que el lenguaje se entiende únicamente en estructuras contextuales que incluso pueden compartirse entre personas tan sólo en una extensión limitada y que, en consecuencia, las personas mismas no son modalidades de ninguna solución general. Pero esas conclusiones se ignoraban con frecuencia.”

En la época en la que Weizenbaum creo ELIZA era probable que la traducción y la comprensión del lenguaje natural fuesen la cuestión más candente de la IA. El departamento de la Defensa de Estados Unidos respaldó gran parte del trabajo inicial en este campo, en particular el de él y el de Noam Chomsky.

Hubo una gran exageración respecto a las aplicaciones prácticas de corto plazo que evidentemente él no compartía. Al insistir en la importancia de la “estructuras contextuales”, Weizenbaum señaló una cuestión decisiva en la inteligencia artificial y en el lenguaje humano –misma que analizaré a profundidad en los siguientes artículos.

(Continúa)

Links:

(1) https://www.kurzweilai.net/futurism-ray-kurzweil-claims-singularity-will-happen-by-2045
(2) https://aperiodical.com/wp-content/uploads/%2001/2018%20/%20Turing-Can-Computers-Think.pdf
(3) https://uberty.org/wp-content/uploads/2015/02/intelligent-machinery-a-heretical-theory.pdf
(4) http://www.universelle-automation.de/1966_Boston.pdf

(5) https://www.masswerk.at/elizabot/

x

Check Also

China: “las energías renovables son inestables, necesitamos el carbón”

MSIa Informa, 14 de mayo de 2021.-Como la mayoría de los países, China aceptó compromisos ...