Inteligencia artificial (II)

11 julio, 2014 by in category Internet tagged as , with 0 and 7
Home > Noticias > Inteligencia artificial (II)

Siguiendo con el post publicado anteriormente, vamos ahora a desgranar algunas de las críticas realizadas a Eugene Goostman, el robot que superó el test de Turing… más que comentarios negativos acerca del chatbot, se trata de ideas que atacan las condiciones bajo las cuales se llevó a a cabo el test:


 

  • Utilizar un niño de 13 años es una manera de pasar fácilmente la prueba. Eugene, amparándose en su corta edad de vida, era capaz de justificar sus respuestas extrañas y a veces incoherentes. Sólo un niño, o un robot, responderían de esta manera.
  • No puedes decir que has conseguido un éxito, en cualquier campo de la ciencia, hasta que éste no es validado por toda la comunidad científica. Es muy fácil escoger cuatro jueces a tu conveniencia y hacerles pasar la prueba del test de Turing… este logro tendría que contrastarse a través de un mayor número de filtros no relacionados directamente, ni indirectamente, con el proyecto. Y, de esto estoy seguro, el test al menos no habría pasado mi filtro… y creo que el de pocos.

  • Otros informáticos también han declarado, con anterioridad, haber conseguido pasar el test de Turing. Sin ir más lejos, se dijo, ya hace tres años, que un robot llamado Cleverbot consiguió superar la prueba. Y, en su caso, el porcentaje de desacierto de los jueces fue incluso mayor: el 59% de ellos se tragó el bulo.

  • Kevin Warwick, de la Universidad de Reading, fue el organizador del evento. Aun a riesgo  de caer en una falacia ad hominem (tomar una idea como falsa justificándose en cuestiones personales del emisor de dicha idea), diré que entre los falsos logros de este profesor de universidad destacan el hecho de ser el primer cyborg de la historia (según él, se implantó un chip en el brazo) y el primer ser humano en ser infectado por un virus informático. Después de ver su historial, es difícil creer en la veracidad de la superación del test de Turing.

Y la última de las críticas no tiene que ver con la adecuación o no adecuación a las reglas del test de Turing… sino que invalida el hecho que la prueba sirva, efectivamente, para contrastar la existencia de inteligencia artificial. Se trata de un cuestionamiento del propio test… y es que, algo que diferencia a los seres humanos de los chatbots, es su capacidad no tan sólo de hablar, sino del hecho de ser conscientes de estar hablando. Los robots no tienen consciencia. De momento. Y esto no fue contemplado por Turing cuando estableció las reglas del juego.

El filósofo americano John Searle ha sido uno de los académicos que más duramente ha atacado el test de Turing como método para contrastar la existencia de inteligencia artificial. Para convencernos de su argumento, Searle ideó un experimento mental llamado “la habitación china”.

Supongamos que te ponen dentro de una computadora. Aunque su apariencia externa es la de un ordenador, quien realmente procesa los datos eres tú. Y nadie sabe que eres, en realidad, un ser humano que no tiene la más mínima idea del lenguaje chino.

En cambio, la persona que está físicamente fuera de la máquina, y que se dedica a hacer funcionar la computadora, sólo es capaz de entender el chino. De hecho, es su lengua materna. Su manera de interactuar con la máquina será, por lo tanto, únicamente mediada por el chino.

Tú, que estás dentro de la máquina, estás equipado con varios manuales de esta lengua oriental, de manera que a través de su lectura eres capaz de emitir outputs en función de los inputs que te emita el chino emplazado en el exterior. Conoces las reglas: si te inserta un conjunto de caracteres, y según el manual de instrucciones del que dispones, sabes que tu respuesta debe ir en una determinada dirección. Conoces las reglas… pero no tienes ni idea de aquello que estás diciendo a tu interlocutor. Conoces las reglas, pero no eres consciente de lo que su utilización implica. Hablas sin entender. Luego, ¿eres capaz de hablar chino, de entenderlo? La respuesta de Searle no deja lugar a dudas: sin consciencia no se puede hablar de inteligencia artificial.

Es la consciencia la que nos permite a los investigadores entender el objeto de estudio. Sin consciencia no hay comprensión. La consciencia, este proceso reflexivo situado más allá de la utilización de las reglas lingüísticas (consciencia como proceso metalingüístico), es la que nos da la oportunidad de profundizar sobre los fenómenos sociales.

El NLP (Natural Language Processing), procedimiento sobre el que se asienta la codificación automática de las herramientas de monitorización online, conoce las reglas lingüísticas. Pero no las entiende. Sólo las aplica.

Si buscamos un paralelismo que entiendo muy bien debido a mi profesión: la interpretación del lenguaje escrito que hallamos en los social media, sin la intervención de un ser humano, capaz de dar sentido a los tweets, hilos o posts que encontramos en Twitter, Facebook, Foros, LinkedIn…, impide comprender la intención de esas conversaciones o las emociones que vierten en la red los usuarios y los resultados del análisis de reputación online realizado serán solamente superficiales. Y lo que nos interesa realmente son los procesos profundos a través de los que las personas se comunican, se posicionan, cambian de opinión, toman decisiones de compra… Es por esta razón que, desde estas líneas, tomo una claro posicionamiento en pro del trabajo humano de lectura, comprensión, reflexión, codificación y análisis de las conversaciones surgidas en los social media. En favor de la consciencia humana y de su superioridad frente a las computadoras en cuanto a entendimiento se refiere. De momento los ordenadores no tienen conciencia. Quizá, dentro de unos años, me tenga que morder la lengua…

Fotografía: ceslava.com

1 Comment

Add comment

© 2019 Empirica Influentials & Research