De las previsiones exageradas al “invierno de la IA”

Por Jonathan Tennenbaum

Parte 9

MSIa Informa, 29 de octubre de 2020.-Lo que se ha dado en llamar Inteligencia Artificial Simbólica trata de imitar la mente humana, en lugar del cerebro como un sistema físico.

Pero ¿Qué es la mente? El concepto es nebuloso y no solamente difícil, quizás hasta sea imposible de definir.

Para tener certeza, la “mente” debe incluir, además del raciocinio lógico, la memoria y el pensamiento; además de la percepción, sentimiento, emoción, intención, intuición, imaginación, etc.

Pero la actividad mental va más allá de la conciencia como tal. Hoy los psicólogos rechazan en general las caracterizaciones de Freud de pensamientos y deseos inconscientes, pero se acepta en general que fuera del ámbito de la “conciencia cognitiva” ocurre algún tipo de “procesamiento cognitivo”.

Es hasta difícil definir con exactitud a lo que nos referimos con “pensar”. Se puede tratar de restringirlo al raciocinio lógico, como en las pruebas matemáticas. Pero, en la vida real, la mayor parte del pensamiento no es estrictamente lógico. La gente suele tomar decisiones de forma intuitiva. Resulta irónico que algunos de los errores más graves sean cometidos cuando las personas confían demasiado en el raciocinio lógico, ignorando que ese raciocino siempre parte de la premisa de que pueden estar equivocadas. La intuición, el “insight”,  (agudeza) o inclusive el “sentimiento”, es con frecuencia lo que nos alerta cuando la lógica nos conduce en la dirección equivocada. ¿Será posible trazar una línea divisoria precisa entre pensamiento (o inteligencia), emoción, imaginación y otros aspectos de la actividad mental que mencioné arriba?

La situación es incómoda para las personas acostumbradas a la claridad y a la precisión de la matemática, en particular para quien trabaja en los campos de la ciencia de la computación y de la Inteligencia Artificial. Los pioneros de la IA eran, en su mayoría, de formación matemáticos.

Se puede comprender el impulso de limpiar los aspectos subjetivos e introspectivos de la mente e insistir tan sólo en que, objetivamente, es definible, descriptible, observable y verificable en términos científicos exactos.

Esa actitud, llevada al extremo, implica : “lo que no se puede expresar en números no existe”. Es un hecho que programar computadoras digitales no deja espacio para mucho más.

El 31 de agosto de 1955, los pioneros de la IA John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon enviaron a la Fundación Rockefeller el hoy célebre documento titulado “Una propuesta para el proyecto de investigación de verano de Dartmouth en Inteligencia Artificial”. Comienza así:

“Proponemos que se realice un estudio de inteligencia artificial de dos meses, con 10 personas, en el verano de 1956 en DartmouthCollege de Hanover, New Hampshire. El estudio debe proseguir de acuerdo con la coyuntura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que se puede hacer una máquina para simularlo. Se hará el intento de descubrir cómo hacer que las máquinas usen el lenguaje, que formen abstracciones y conceptos, que resuelvan tipos de problemas que ahora están reservados a los humanos y se perfeccionen”.

Por supuesto, la propuesta de describir la inteligencia humana con tanta precisión que se podría hacer una máquina para simularla excluye automáticamente las características de la mente que no encajan en categorías organizadas y que no se pueden expresar en una estructura matemática formal.

Lo que la IA termina imitando no es la mente humana real, sino tan sólo un pequeño fragmento que sobró cuando la mente fue cortada para ajustarla a los criterios de “descripción precisa” de los autores.

Casi nada permanece en la mente –o por lo menos en la mente de un niño- si estamos de acuerdo con la propuesta de Alan Turing (1) de 1950:

En lugar de tratar de producir un programa para simular la mente del adulto, ¿Por qué no tratar de producir uno que simule la de un niño? Si este fuese sometido a un curso apropiado de educación, se obtendría el cerebro adulto. Se puede presumir que el cerebro infantil es algo como un cuaderno comprado en la papelería. Un mecanismo bastante pequeño y muchas hojas en blanco (mecanicismo y escritura son, desde nuestro punto de vista, casi sinónimos). Nuestra esperanza es que haya tan poco mecanicismo en el cerebro infantil que se pueda programar con facilidad algo semejante.

En los años cincuentas y sesentas del siglo pasado muchos de los que trabajaban en la IA tenían una expectativa irreal sobre la posibilidad y la escala de tiempo de que la IA en ordenadores digitales se equiparara con la inteligencia humana en varios campos. Algunos llegaron a sugerir que la “IA de nivel humano”, ahora llamada “inteligencia artificial general”, se podría materializar en algunas décadas.

El pionero de la IA Herbert Simon declaró en 1957 que “Existen ahora en el mundo máquinas que piensan, que aprenden, que crean. Además, su capacidad de hacer esas cosas va a aumentar rápidamente hasta que, en un futuro visible, la gama de problemas con los que ellas pueden lidiar coincida con la gama en la que la mente humana se ha aplicado.

En 1961 Marvin Minsky afirmo: “Dentro de nuestro periodo de nuestra vida, las máquinas podrán superarnos en inteligencia general”.

En 1967 parecía todavía más seguro: “Ahora estamos inmersos en una nueva revolución tecnológica dedicada a la mecanización de los procesos intelectuales… En una generación, estoy convencido, pocos compartimientos del intelecto permanecerán fuera del reino de la máquina –el problema de crear la inteligencia artificial estará resuelto en lo sustancial”.

Donald Michie realizó en 1971 una investigación con 67científicos de computación británicos y estadounidenses “que trabajaban en lo siguiente de la inteligencia de máquina”. Los científicos fueron cuestionados, entre otras cosas, sobre cuando creían que se construirían los “sistemas de computación que exhibieran inteligencia como la humana”. Diecisiete de ellos (26 por ciento” esperaban que esto sucediese en 20 años o menos, y 20 (30 por ciento) creían que sucedería en 20 ó 50 años.

Eso fue hace medio siglo.

Es curioso que casi la mitad de los entrevistados creyese que había un riesgo “sustancial” de que en algún momento las máquinas inteligentes terminasen por asumir el dominio de los asuntos humanos.

Para ser justos, desde el inicio hasta hoy se han levantado voces prominentes en el grupo de la IA que han alertado de las previsiones sobre la “IA de nivel humano”. Hoy algunos hasta consideran –correctamente, según mi opinión- que la IA de nivel humano no está más cerca hoy que lo que estaba en los años cincuentas del siglo pasado.

Por supuesto, esto no significa que la IA no haya progresado en otros aspectos. Por el contrario, avanzó en campos como sistemas especializados, reconocimiento de voz y de patrones, traducción automática, control de procesos técnicos complejos, evaluación de datos médicos, robótica, etc.

Por razones que espero dejar claras, los límites fundamentales de la IA en relación con la inteligencia humana nunca cambiarán y seguirán persistiendo, por lo menos mientras la IA esté confinada a la tecnología digital y a los procedimientos fundados en algoritmos (equivalentes a una máquina de Turing).

En resumen, la IA sigue siendo inherentemente estúpida.

(Los lectores interesados pueden encontrar un revisión crítica informativa sobre “previsiones pasadas de la IA y épocas de optimismo y pesimismo en el campo”, en el link https://www.openphilanthropy.org/focus/global-catastrophic-risks/potential-risks-advanced-artificial-intelligence/what-should-we-learn-past-ai-forecasts

Las expectativas irreales han dificultado repetidamente el desarrollo de la IA. El ejemplo más famoso es el derrumbe del financiamiento de las investigaciones en ese campo, conocido como el (primer) “Invierno de la IA”, en la segunda mitad de la década de 1960.

La comunidad de la IA todavía sufre con ese trauma. Muchos se estremecen al pensar que algo semejante pudiera ocurrir de nuevo, gracias a los alegatos exagerados y a las proyecciones optimistas en exceso sobre lo que la IA podrá realizar a corto y mediano plazos. Algunos hablan hasta de una “burbuja de la IA” próxima a estallar.

¿Qué sucedió? En los años cincuentas y a principios de los sesentas del siglo pasado, gran parte del financiamiento de la IA se destinó al desarrollo de sistemas de computadoras automatizados para la traducción de lenguas humanas como el ruso y el inglés.

Por razones obvias, la comunidad militar y de espionaje de Estados Unidos estaba muy interesada en este campo y, en los años cincuentas, había un gran optimismo en que la traducción de alta velocidad y de alta calidad de textos arbitrarios se podría realizar en un breve plazo.

El optimismo partía de algunos éxitos iníciales superficiales que usaban la IA simbólica y de la creencia de que la gramática y la semántica del lenguaje humano se podrían ajustar a una estructura matemática precisa. A pesar del generoso financiamiento del gobierno de Estados Unidos, poco a poco quedó claro que el problema era mucho más difícil que lo esperado y no se logró desarrollar ningún sistema de traducción automática viable. Una evaluación crítica de la Academia Nacional de Ciencias –el conocido informe ALPAC- hizo que en 1966 se redujera radicalmente el financiamiento, no sólo para la traducción, sino para la IA en general.

Como el especialista británico en traducción automática (hoy conocida por las siglas MT), W. John Hutchins escribiera más tarde: “Es una pena que la imagen pública de la MT se haya formado con los errores desastrosos y extremadamente caros de los primeros trabajos de MT. Tal vez no haya otra empresa científica en la que se haya gastado tanto dinero con tan poco retorno”. (Continua)

Links

——

[1] http://chnm.gmu.edu/courses/ncc375/turing/turing.html
[2] http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet/kismet.html
[3] https://www.openphilanthropy.org/focus/global-catastrophic-risks/potential-risks-advanced-artificial-intelligence/what-should-we-learn-past-ai-forecasts

x

Check Also

IA, filosofía y la amenaza de la tecnocracia

Por Jonathan Tennenbaum Parte 10 MSIa Informa, 6 de noviembre de 2020.-El periodo inicial de ...