miércoles, 2 de julio de 2008

CAPITULO I

INTELIGENCIA ARTIFICIAL.




1. DEFINICIÓN:
La Inteligencia Artificial, es una novedosa disciplina que está dentro del campo de la informática, busca la creación de máquinas, que puedan pensar como los humanos. Esta comenzó por el desarrollo de la investigación en psicología cognitiva y lógica matemática, como por ejemplo: “mediante un trabajo mental y por la construcción de algoritmos, se puede dar soluciones a problemas generales que se presentan en el mundo”.

La IA, en nuestras épocas se la puede relacionar o involucrar a términos como: Robótica, Autónomas, Sistemas Expertos, etc., y es cierto, ya que estas guardan una relación muy estrecha con la Inteligencia Artificial.


2. FUNDAMENTOS:
Aquí se presenta algunas disciplinas que han aportado con ideas, puntos de vista y técnicas al desarrollo de la I.A. Estas son: la Filosofía, las Matemáticas, la Economía, la Psicología, la Neurociencia, las Ciencias de la Computación, y la Lingüística.

2.1. LA FILOSOFÍA:
Gracias a los filósofos, podemos pensar en lo que es Inteligencia Artificial, ya que comenzaron dando ideas de lo que es una mente inteligente,

2.2. LAS MATEMÁTICAS:
Los matemáticos dieron las herramientas necesarias para manipular mejor la resolución de problemas que se puedan resolver mediante el uso lógico, así como Gottlob Frege (1847-1925), quien extendió a la lógica y apoyo a la I. A., con la creación de un pensamiento lógico de primer orden que se utiliza hoy como el sistema más básico de representación de conocimientos.
El uso de algoritmos, también fue de mucha utilidad, para el desarrollo de la I. A.; ya que cuando una tarea se realiza por medio de un algoritmo pide un tipo de razonamiento que pueda almacenar, clasificar y calcular, lo que puede hacer un computador.





2.3. LA ECONOMÍA:
Herbert Simon, en 1978 aporta modelos basados en satisfacción (que pueden tomar decisiones que son buenas, en vez de realizar cálculos para alcanzar decisiones óptimas) que proporcionaban una mejor descripción del comportamiento humano real. Ya en lo años 90, hubo un interés en las técnicas de decisión teórica para sistemas basados en agentes.

2.4. LA PSICOLOGÍA:
Su aporte a la Inteligencia Artificial comienza en septiembre de 1956, en donde se publicaron tres artículos (de George Miller que presentó: The Magic Number Seven; Noam Chomsky presentó: Three Models of Language, y Allen Newell y Herbert Simon con: The Logic Theory Machine), estos influyeron en I. A., tras la demostración de cómo se podían utilizar los modelos informáticos para modelar la psicología de la memoria, el lenguaje y el pensamiento lógico, respectivamente.

2.5. LA NEUROCIENCIA:
La neurociencia, es el estudio del sistema neurológico, y en especial del cerebro. Actualmente trata de igualar al computador, con el cerebro humano.

2.6. LAS CIENCIAS DE LA COMPUTACIÓN:
Aportó dispositivos que permitían hacer realidad las aplicaciones de la Inteligencia Artificial. Los programas de inteligencia por lo general son extensos y no funcionarían sin los grandes avances de la velocidad y memorias aportadas por la industria de cómputo es por eso que la I.A Y las Ciencias de la Computación, están muy relacionadas.




2.7.LA LINGÜÍSTICA:
Tanto la I. A., como la Lingüística; nacieron juntas, es decir en la misma época, por eso siempre se apoyaban entre ellas. Construyeron algunos campos en común como: “Lingüística Computacional o Procesamiento del Lenguaje Natural”.




3. HISTORIA DE LA I. A.:





Desde sus comienzos hasta la actualidad, la Inteligencia Artificial ha tenido que hacer frente a una serie de problemas:
· Los computadores no pueden manejar (no contienen) verdaderos significados.
· Los computadores no tienen autoconciencia (emociones, sociabilidad, etc.).
· Un computador sólo puede hacer aquello para lo que está programado.
· Las máquinas no pueden pensar realmente.





En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el asunto de si la máquina de Babbage podía "pensar".
Los primeros problemas que se trató de resolver fueron puzzles, juegos de ajedrez, traducción de textos a otro idioma.
Durante la II Guerra Mundial Norbert Wiener y John Von Neumann establecieron los principios de la cibernética en relación con la realización de decisiones complejas y control de funciones en máquinas.





La teoría de la retroalimentación en mecanismos, como por ejemplo un termostato que regula la temperatura en una casa, tuvo mucha influencia. Esto aún no era propiamente Inteligencia Artificial. Se hizo mucho en traducciones (Andrew Booth y Warren Weaver), lo que sembró la semilla hacia el entendimiento del lenguaje natural.
En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrollan el primer lenguaje de programación orientado a la resolución de problemas de la Inteligencia Artificial, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de Inteligencia Artificial al que llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos, representando cada problema como un modelo de árbol, en el que se seguían ramas en busca de la solución correcta, que resultó crucial. Este programa demostró 38 de los 52 teoremas del segundo capítulo de Principia Mathematica de Russel y Whitehead.
En 1956, con la ahora famosa conferencia de Dartmouth, organizada por John McCarthy y en la cual se utilizó el nombre de inteligencia artificial para este nuevo campo, se separó la Inteligencia Artificial de la ciencia del computador, como tal. Se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.





En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problems Solver (GPS). GPS era un sistema orientado a la resolución de problemas; a diferencia del Logic Theorist, el cual se orientó a la demostración de teoremas matemáticos, GPS no estaba programado para resolver problemas de un determinado tipo, razón a la cual debe su nombre. Resuelve una gran cantidad de problemas de sentido común, como una extensión del principio de retroalimentación de Wiener.





Diversos centros de investigación se establecieron, entre los más relevantes están, la Universidad Carnegie Mellon, el Massachusetts Institute of Technologie (MIT), encabezado por Marvin Minsky, la Universidad de Standford e IBM. Los temas fundamentales eran el desarrollo de heurísticas y el aprendizaje de máquinas.





En 1957 McCarthy desarrolló el lenguaje LISP. La IBM contrató un equipo para la investigación en esa área y el gobierno de USA aportó dinero al MIT también para investigación en 1963.





A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina "Sad Sam". Este sistema representó un enorme paso de avance en la simulación de inteligencia humana por una máquina, pues era capaz de tomar una pieza de información, interpretarla, relacionarla con información anteriormente almacenada, analizarla y sacar conclusiones lógicas.





En el mismo período de tiempo hay trabajos importantes de Herbert Gelernter, de IBM, quien desarrolla un "Demostrador Automático de Teoremas de la Geometría", Alex Bernstein desarrolla un programa para el juego de ajedrez que se considera el antecedente para "Deep Blue". En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del álgebra. En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés.





En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una cámara, sino también la comprensión, de lo que estas imágenes representan.
Un resultado importante en este trabajo lo constituye el "mundo de micro-bloques", en el cual un robot era capaz de percibir un conjunto de bloques sobre una mesa, moverlos y apilarlos; el éxito se debió a los investigadores Larry Roberts, Gerald Sussman, Adolfo Guzman, Max Clowes, David Huffman, David Waltz, Patrick Winston, y Berthold Horn.
Posteriormente se obtuvieron resultados importantes entre ellos el de mayor resonancia fue el sistema SCHRDLU de Terry Winograd, pues permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.
En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la Universidad de Cornell, un modelo de la mente humana a través de una red neuronal y produce un primer resultado al cual llama perceptrón. Este sistema era una extensión del modelo matemático concebido por McCullock y Pitts para las neuronas, y funcionaba basándose en el principio de "disparar" o activar neuronas a partir de un valor de entrada el cual modifica un peso asociado a la neurona, si el peso resultante sobrepasa un cierto umbral la neurona se dispara y pasa la señal a aquellas con las que está conectada. Al final, en la última capa de neuronas, aquellas que se activen definirán un patrón el cual sirve para clasificar la entrada inicial.
Este trabajo constituye la base de las redes neuronales de hoy en día, sin embargo a raíz de su desarrollo sufrió fuertes críticas por parte de Marvin Minsky y Seymour Papert lo cual provocó que la mayoría de los investigadores interesados en el tema lo abandonaran, y este no se retomara hasta los años 80.
En 1965-70, comenzaron a aparecer los programas expertos, que predicen la probabilidad de una solución bajo un set de condiciones, entre esos proyectos estuvo: DENDRAL, que asistía a químicos en estructuras químicas complejas euclidianas; MACSYMA, producto que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas, etc.





En la década 1970-80, creció el uso de sistemas expertos, muchas veces diseñados para aplicaciones médicas y para problemas realmente muy complejos como MYCIN, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. Otros son: R1/XCON, PIP, ABEL, CASNET, PUFF, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy.





De 1975 en adelante, comienza la era de los lenguajes expertos (shells) como EMYCIN, EXPERT, OPSS, etc. para luego tratar de que éstos sean más amigables y funcionales.
Las definiciones de Inteligencia Artificial son muchas, pero podría decirse que son programas que realizan tareas que si fueran hechas por humanos se considerarían inteligentes.
Estos programas obviamente corren en un computador y se usan, como por ejemplo, en control robótico, comprensión de lenguajes naturales, procesamiento de imágenes basado en conocimientos previos, estrategias de juegos, etc. reproduciendo la experiencia que un humano adquiriría y de la forma en que un humano lo haría.






4.CARACTERÍSTICAS DE LA I. A. :





-Utiliza símbolos no matemáticos, sin embargo, no es suficiente para diferenciarlo completamente. Otros tipos de programas como son los compiladores y los sistemas de bases de datos, también trabaja y procesan símbolos sin que se consideren, que usen técnicas de I. A.





-El comportamiento de los programas no lo describe explícitamente el algoritmo. La secuencia de pasos que sigue el programa es influenciado por el problema específico presente. El programa determina como hallar la secuencia de pasos necesarios para solucionar un problema dado (programa declarativo).
-Los programas no pueden trabajar con un tipo de problema que posee muy poca información.
-Los programas de la I. A. pueden distinguir entre el programa de razonamiento y base de conocimientos dándole la capacidad de explicar discrepancias entre algunos programas.





5. APLICACIONES DE LA I. A. :





- Lingüística Computacional.
-Minería de Datos.
-Mundos Virtuales.
-Procedimiento de Lenguaje Natural (Natural Language Processing)
-Robótica.
-Sistemas de Apoyo a la Decisión.
-Video Juegos.
- Prototipos Informáticos.

No hay comentarios: