1950 hasta la Actualidad

Máquinas de Turing
El matemático inglés, Alan M. Turing (1912-1954) define una máquina abstracta, la "Máquina de Turing", que sirve de base a la noción de algoritmo y a la definición de la clase de problemas decidibles. Turing dedicó 10 principal de sus trabajos a la formalización de la teoría de los autómatas y a la noción de calculabilidad.
Test de Turing 1950
Turing propone en un artículo clásico: "Can a machine think?", la definición de una experiencia que permitiría calificar a una máquina de inteligente. La experiencia consiste en que un computador y algún. voluntario humano se oculten a la vista de algún (perspicaz) interrogador. Este último tiene que tratar de  decidir cual de los dos es el computador y cual el ser humano mediante el simple procedimiento de plantear preguntas a cada uno de ellos. Si en el curso de una serie de tests semejantes la interrogadora es incapaz de identificar la naturaleza de su interlocutor, se considera que el computador ha superado la prueba.

Primer computador
El catalizador que condujo al verdadero nacimiento de la lA fue la aparicion del primer computador, el ENIAC: una maquina electronica de programa grabado.

En el nacimiento en 1956
El termino de Inteligencia Artificial (lA), aparece por primera vez en agosto de 1956 en el Colegio Dartrnouth (EEUU), en la ocasion de una conferencia sobre la inteligencia de los computadores y donde se reunieron grandes cientificos tales como J. McCatthy, M. Minsky, C. Shannon, A. Newell, y H. Simon.


Noción  de listas(1956)

En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

J. Me Carthy  se da la tarea  de construir  un lenguaje  de programación   adaptable  a las necesidades   de manipulación   de conocimientos   y de la reproducción   de razonamientos basados  en la noción  de listas.


Fracasos exitosos(1957)

Quiza  una de las razones mas importantes de los fracasos de la inteligencia artificial   en sus principios hayan sido las magnitudes de  los  objetivos a alcanzar por los  primeros proyectos. Cuando, en 1957, Newell  y Simon comenzaron  a desarrollar  el Resolvente de  Problemas Generales (GPS), pecaron de un exceso  de optimismo.  Por  medio  del  GPS  se pretendía construir sistemas capaces de manipular expresiones matemáticas simbólicas para tratar con axiomas y demostrar teoremas siempre en clave de lógica matemática. Su interés era hallar una forma de formalizar de una manera precisa unos mecanismos generales para la resolución de problemas. La aportación más importante de estos pioneros fue hacer ver, a través de la experiencia de su fracaso, que la inteligencia artificial ha de empezar por lo muy particular e ir generalizandose paulatinamente, justo al contrario de lo que ellos pretendían.


AÑOS 1960: Logica automatica


Los años sesenta marcan la verdadera puesta en marcha de la lA, con algunos resultados significativos: Enumeración inteligente de soluciones a través de reglas optativas o heurísticas (arte, técnica o procedimiento práctico o informal, para resolver problemas. http://www.glosario.net).

En 1960, los investigadores   del MlT comienzan un proyecto sobre lA bajo la dirección de John McArthy y Marvin Minsky, El resultado más espectacular de este periodo fue el programa de Samuel para jugar a las damas, que se presentó  en  1961 y que era capaz  de tener  en cuenta  sus errores y aciertos pasados  y tenerlos en cuenta en una partida posterior.

A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas.

La Universidad  de Standford  comenzó a investigar (1965) sobre sistemas expertos con su Proyecto de Programación Heurística  (HPP), dentro de los Laboratorios del Departamento de Ciencia de Ordenadores de dicha Universidad.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT que es un programa de lenguaje natural que comprende y resuelve problemas elevados de algebra.

AÑOS 1970: ingenieria del conocimiento. El ¡Boom! de la IA

Los años setenta corresponden a una explosión de trabajos que permitieron establecer las bases de la lA, en cuanto a la representación de los conocimientos, del razonamiento, de los sistemas expertos, de la comprensión del lenguaje natural y de la robótica avanzada.


Primer sistema experto(1970)

Aparición de Dendral,  el primero de los sistemas expertos, en la Universidad de Stanford. Dendral efectúa el trabajo de un quimico que reconstituye la formula desarrollada de un componente orgánico a partir de su fórmula bruta y de los resultados de su espectrografía de masa.

Programación en lógica de primer orden(1975)

Aparece PROLOG  de la Universidad de Aix Marseille (Francia) y marca los comienzos de una verdadera programación basada en la lógica de primer orden. Este lenguaje conoció un tal éxito que fue adoptado como el lenguaje de base para el proyecto japonés de los computadores de quinta generación.


Medicina(1976)


MYClN, sistema experto en diagnósticos de infecciones bacterianas de la sangre para la ayuda de la antibioterapia de Schortliffe. Sus principales características son, por una parte, la separación de los conocimientos del mecanismo de razonamiento y el diálogo en lenguaje casi-natural y por otra parte, la asistencia para los ajustes de las bases hacia la industrialización.

AÑOS 1980 HASTA LA ACTUALIDAD: Robótica


Los años noventa marcan la entrada de la lA en las aplicaciones vinculadas a la comunicación hombre- máquina con interfaces inteligentes, sistema multi-agentes y la lA distribuida.

En esta línea, puede afirmarse que los resultados obtenidos no fueron espectaculares,  lo que condujo a los investigadores    a abandonar   el objetivo prioritario  de la solución  general  de problemas.   A partir de la observación que los expertos  humanos presentan  un dominio de experiencia altamente restringido, se comenzó a desarrollar sistemas que incorporan  «comportamientos  inteligentes» en dominios muy limitados;  a raíz  de esta nueva  tendencia, tuvo   lugar   un  notable    desarrollo    de sistemas   expertos   en  diferentes  campos:  geología,   química,   medicina, economía etc.

Como consecuencia  esta  situación comenzó la investigación  relativa a cómo  hacer  que esos  sistemas,  que mostraban   inteligencia   en  su comportamiento, además, fueron  capaces de aprender.

Recientemente, los avances tecnologicos en informatica, asi como la profundización conseguida en el conocimiento del cerebro, han tenido como consecuencia el resurgimiento de las redes neuronales en los laboratorios de investigación sobre inteligencia artificial en todo el mundo.


AÑOS 1980: aprendizajes de automatico


El conocimiento  de las  investigaciones en el campo de la  inteligencia artificial tuvo por objetivo  principal  la imitacion del comportamiento  del cerebro humano a traves de las redes  neuronales, aunque se produjo un abandono de dicha tendencia a causa de dos factores  basicos,  tales como  que  la tecnologia informatica  en aquel momento no estaba  lo suficientemente desarrollada  para poder implementar las redes neuronales y, por otro lado, la estructura y funcionamiento del cerebro se conocian de forma limitada e imperfecta.

Las instituciones, gobiernos y empresas  percibieron los adelantos que había realizado la inteligencia  artificial  en los años setenta.  Las empresas  y organizaciones  se vieron  seducidas por las posibilidades que los sistemas  expertos  y la ingeniería del  conocimiento tenían  para aumentar su eficiencia. Por todo ello, la inteligencia  artificial  volvió a ser tema de moda, y el impulso definitivo vino de Japón. En 1979, el Ministerio de Industria y Comercio Internacional de Japon decidio desarrollar una nueva generación  de ordenadores  que cumpliera las necesidades previsibles para la década  de los noventa.


Computadoras de quinta generación (1981) Lanzamiento en Jaòn del proyecto de computador de quinta generación. El objetivo anunciado para el proyecto es el desarrollo de tecnologías de la IA en la realización de un nuevo tipo de computadores que resolvieron problemas en lugar de ejecutar los algoritmos que efectuaron razonamientos en vez de solo calculo y ofrecería a sus usuarios interfaces naturales: Lenguaje, grafica, palabra Años 1990: Comunicación hombre-maquina

Los años noventa marcan la entrada de la lA en las aplicaciones vinculadas a la comunicacion hombre- maquina con interfaces inteligentes, sistema multi-agentes y la lA distribuida.

En 1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autonoma Deep Blue.

En 2006 se celebró el aniversario con el Congreso en español 50 años de IA- Campus Mustidisciplinar en Percepcion e Inteligencia 2006

En el año 2009 ya hay en desarrollo sistemas inteligentes terapeuticos que permiten detectar emociones para poder interactuar con niños autistas.

En el año 2011 IBM desarrollo una supercomputadora llamada Watson, la cual ganó una de tres juegos seguidos de Jeopardy, venciendo a sus dos máximos ganando un premio de 1 millon de dolares que IBM luego dono a obras de caridad.

Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa, de modo tal que se cumple la prueba de Turing como cuando se formulo y un programa de computadora en una conversión a ciegas.

Como anecdota, muchos de los investigadores sobre IA sostienen la inteligencia es programa capaz de ser ejecutado independiente de la máquina que lo ejecuta computador o cerebro.

No hay comentarios:

Publicar un comentario