Si bien todavía existen controversias respecto a una adecuada definición de la palabra “Inteligencia”, la Inteligencia Artificial suele referirse a máquinas (o computadoras) que simulan funciones “cognitivas” propias de los humanos, como aprender y resolver problemas. El Diccionario Oxford define la Inteligencia Artificial como la “teoría y desarrollo de sistemas de cómputo capaces de llevar a cabo tareas que normalmente requerirían inteligencia humana, como la percepción visual, el reconocimiento de voz, la toma de decisiones y la traducción de idiomas”.
Breve semblanza de la IA
La historia de la Inteligencia Artificial es legendaria. Ya desde películas de ciencia ficción como Metrópolis de 1927 se veía a un robot (que en la película se llamó Maschinenmensch, o persona-máquina) que ilustraba comportamientos inteligentes a través de un ente mecanizado. Hasta el hombre de hojalata del Mago de Oz podría tomarse como una máquina con inteligencia. Con todo, hasta antes de 1949, las computadoras carecían de un requisito exigido por la inteligencia: no podían almacenar comandos ni datos, sólo ejecutarlos. Así, se podía decir qué hacer a las máquinas, pero éstas no podían recordar lo que hicieron. Otro aspecto limitante era que el cómputo era extremadamente costoso (la renta de una computadora a principios de la década de los años 50 costaba hasta USD$200,000 al mes). Se necesitaba una enorme capacidad de convencimiento para ocupar un recurso tan costoso para investigación de un aspecto tan vago como la Inteligencia Artificial.
Para 1950, el célebre matemático británico, Alan Turing, publicó un documento respecto a la maquinaria e inteligencia de cómputo. En él se preguntaba si las máquinas podían pensar. Generó una heurística sencilla para probar su hipótesis, misma que se conoció como la “Prueba de Turing”. En ella una computadora ofrecía respuestas a preguntas de una manera conversacional de forma que una persona llegue a pensar que está conversando con otra inteligencia. Esa prueba todavía se utiliza en la actualidad. Ese mismo año, también surgió la inquietud de Claude Shannon quien propuso la creación de una máquina a la que se le enseñara a jugar ajedrez. Esto involucra el “entrenamiento” a la máquina para que aprendiera a través de fuerza bruta o del análisis de un subconjunto de movimientos estratégicos. Todo seguía siendo hipotético.
Para 1955, los Dres. Allen Newell, Cliff Shaw y Herbert Simon generaron el Teórico de la Lógica (The Logic Theorist). Éste era un programa que fue diseñado para imitar la capacidad de resolución de problemas propia de una persona y su desarrollo fue financiado por la Corporación de Investigación y Desarrollo (RAND). Se considera que éste fue el primer programa de inteligencia artificial, mismo que fue presentado en el Programa de Investigación de Verano de Dartmouth acerca de Inteligencia Artificial (DSRPAI), mismo que fue organizado por los Dres. John McCarthy y Marvin Minsky en 1956. Fue durante ese evento que se acuñó el término de Inteligencia Artificial. Sin embargo, a pesar de las expectativas, no hubo mucho eco de la asistencia y, aunque hubo cierto consenso respecto a su importancia, en realidad poco y nada se avanzó en la época conocida como el “Invierno de la IA”. Con todo, no puede mirarse de soslayo la importancia de este evento como catalizador de la IA en los próximos años.
El impasse de la AI tuvo breves impulsos a través de declaraciones de los Arthur Clarke y Steve Kubrik quienes aseveraron en 1968 que “para el año 2001 tendremos máquinas con inteligencia equiparable o superior a la humana”. Otra aseveración, más aventurada, emitida en el año 1970 por Marvin Minsky, aseveraba a la revista Life que “en unos 3 a 8 años contarían con una máquina con la inteligencia general propia de un ser humano”.
Fue hasta la llegada de 1980 en que se avivó la llama de la inteligencia artificial de manera significativa. Claro está, todo ese tiempo la ciencia ficción no dejó de hacer presente la posibilidad de dotar de inteligencia a máquinas de todo tipo: computadoras y robots (como HAL en la película “2001: Odisea del Espacio”, el Robot de “Perdidos en el espacio” o los robots de “La guerra de las galaxias”), hasta automóviles como el de la serie ochentera de “El auto increíble”. Fue en esta década de los años 1980 que la IA encontró un nuevo impulso en dos circunstancias: 1) la expansión de las herramientas algorítmicas y 2) el aumento de la inversión en este campo. Para estos días, tanto John Hopfield como David Rumelhart se encargaron de popularizar las técnicas de “aprendizaje profundo” (Deep learning) que permitían a las computadoras a aprender a través de la experiencia. A su vez, Edward Feigenbaum presentó el concepto de sistemas expertos, que se fundamentaban en simular el proceso de toma de decisiones propia de una persona experta. Japón también se subió a este tren con su Proyecto de Computadora de Quinta Generación (FGCP), que cumpliría tareas de sistemas expertos y otras funcionalidades propias de la IA. Con todo, el avance no fue significativo.
La IA tuvo un momento de prosperidad a partir de la década de los años 1990. Gran parte de los objetivos de la IA se lograron durante esta década. Una de las mayores manifestaciones de la IA fue instanciada por Deep Blue de IBM, la computadora de ajedrez que venció a Gary Kasparov en 1997. Otro desplante importante fue el software de reconocimiento de voz desarrollado por Dragon Systems que se usó por sí mismo y, luego, se implementó en OS/2 Warp 4. Poco después, también fue implementado en Windows. Hasta se emularon emociones humanas por un robot llamado Kismet que fue desarrollado por Cynthia Breazeal.
La IA en la actualidad
Hoy vivimos en la era de los Grandes Datos (Big Data) en que podemos recolectar una enorme cantidad de datos, demasiado engorrosos para que sean recordados por una persona. Con ello se ha podido aprovechar la funcionalidad propia de la inteligencia artificial para volverla muy fructífera en diversas industrias como la tecnológica, la bancaria, la comercialización y el entretenimiento. Es evidente que, incluso si los algoritmos no han tenido significativas mejoras, los grandes datos y el cómputo masivo permiten que la IA aprenda a partir de la fuerza bruta.
La mayor parte de la IA que se ha generado hasta ahora es la que se conoce como débil. Este tipo de IA implementa una parte limitada de un conocimiento. Es decir, se trata de una estructura racional que se enfoca en una tarea bien acotada y de tamaño manejable. La IA en este ámbito se concentra en la automatización de ciertas tareas repetitivas que solían ser realizadas por personas, pero que por su aparente simplicidad es posible que una máquina la sustituya. Algunos de estos ejemplos son Apple Siri, Google Assistant, Amazon Alexa, entre muchos otros.
El otro tipo de IA que se conoce es el fuerte o general. Se trata de un tipo de inteligencia hipotética donde una máquina tiene la capacidad de aprender y, en su caso, comprender respecto a cualquier tarea intelectual que también pueda realizar una persona. En este tipo de inteligencia se pretende que el autómata realice su propia investigación y razonamiento general, mismo que ha sido el punto central de diversos temas de ciencia ficción.
Cabe destacar que una de las finalidades primordiales de la IA, sin importar de qué rama se trate, es la de coadyuvar con la toma de decisiones: En los sistemas expertos sugiere decisiones de acuerdo con las “experiencias” recopiladas. Las redes neuronales analizan una serie de aspectos cercana o lejanamente vinculados para llevar a cabo una toma de decisión. Así, cuando vea las siglas IA, piense en el apoyo que le puede ofrecer para la toma de decisiones en sus actividades productivas. ¡Nos seguimos leyendo!
Fuente: http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/