miércoles, 7 de noviembre de 2012


Categorías de la inteligencia artificial

Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:5
  • Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo lasredes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.6
  • Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.7
  • Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibirrazonar y actuar.8
  • Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.
  • FUNCIONAMIENTO BÁSICO DE LA INTELIGENCIA ARTIFICIAL
    Diferentes teorías:

    1. Construir réplicas de la compleja red neuronal del cerebro humano (bottom-up).
    2. Intentar imitar el comportamiento del cerebro humano con un computador (top-down).
    Símbolos vs. Métodos Numéricos
    El primer período de la Inteligencia Artificial, llamado sub-simbólico, data de aproximadamente 1950 a 1965. Este período utilizó representaciones numéricas (o sub-simbólicas) del conocimiento. Aunque la mayor parte de los libros de Inteligencia Artificial enfatizan el trabajo realizado por Rosenblatt y Widrow con redes neuronales durante este período, la realidad es que otra importante escuela sub-simbólica data también de la misma época y estos son los algoritmos evolutivos.
    La escuela clásica dentro de la Inteligencia Artificial, utiliza representaciones simbólicas basadas en un número finito de primitivas y de reglas para la manipulación de símbolos. El período simbólico se considera aproximadamente comprendido entre 1962 y 1975, seguido por un período dominado por los sistemas basados en el conocimiento de 1976 a 1988. Sin embargo, en este segundo período las representaciones simbólicas (por ejemplo, redes semánticas, lógica de predicados, etc.) siguieron siendo parte central de dichos sistemas.
    La Programación Lógica tiene sus orígenes más cercanos en los trabajos de J. A. Robinson que propone en 1965 una regla de inferencia a la que llamaresolución, mediante la cual la demostración de un teorema puede ser llevada a cabo de manera automática.
    La resolución es una regla que se aplica sobre cierto tipo de fórmulas del Cálculo de Predicados de Primer Orden, llamadas cláusulas y la demostración de teoremas bajo esta regla de inferencia se lleva a cabo por reducción al absurdo.
    Otros trabajos importantes de esa época que influyeron en la programación lógica, fueron los de Loveland, Kowalski y Green, que diseña un probador de teoremas que extrae de la prueba el valor de las variables para las cuales el teorema es válido.
    Estos mecanismos de prueba fueron trabajados con mucho entusiasmo durante una época, pero, por su ineficiencia, fueron relegados hasta el nacimiento de Prolog, que surge en 1971 en la Universidad de Marsella, Francia.
    La Lógica de Primer Orden, es uno de los formalismos más utilizados para representar conocimiento en Inteligencia Artificial. La Lógica cuenta con un lenguaje formal mediante el cual es posible representar fórmulas llamadas axiomas, que permiten describir fragmentos del conocimiento y, además consta de un conjunto de reglas de inferencia que aplicadas a los axiomas, permiten derivar nuevo conocimiento.
     FUNCIONAMIENTOS GENERALES DE LA INTELIGENCIA ARTIFICIAL
    5.1 Tipos de Algoritmos Utilizados
    Cuando una tarea se realiza por medio de un algoritmo perfectamente definido de almacenamiento, clasificación o cálculo, lo puede hacer un computador. Este concepto de algoritmo, secuencial, fijo y de determinadas operaciones, es incapaz de manejar problemas donde el camino del razonamiento es variable y donde deben afrontarse situaciones diversas sin haber sido especificadas.
    La Inteligencia Artificial hace uso de un tipo de lenguaje diferente como es el caso de LISP y PROLOG.
    En 1932, Cannon visualizó la evolución natural como un proceso de aprendizaje. Alan Turing reconoció, en 1950, que debe haber una conexión obvia entre el aprendizaje de máquina y la evolución, y señaló que se podrían desarrollar programas para jugar ajedrez usando esta técnica. Campbell conjeturó en 1960 que en todos los procesos que llevan a la expansión del conocimiento, se involucra un proceso ciego de variación y supervivencia selectiva.
    Los primeros intentos de aplicar de manera formal la teoría de la evolución, a problemas prácticos de ingeniería, apareció en las áreas de control de procesos estadísticos, aprendizaje de máquina y optimización de funciones. Tal vez el primer intento serio de este tipo se dio en el trabajo que realizaron Box y sus colegas en 1957, en el desarrollo de una técnica que denominaron operación evolutiva, la cual se aplicó a una planta de manufactura, y que se implanto sobre la base de los votos de un comité de jefes técnicos. Bajo este esquema, la calidad del producto avanzaba a través de mutaciones aleatorias y la selección era determinada por el comité.
    Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje máquina se mejorara a sí mismo, seleccionando instrucciones que se asociaran más frecuentemente con un resultado exitoso. Aunque Friedberg nunca mencionó explícitamente estar simulando la evolución natural, esa es la interpretación más comúnmente aceptada de su trabajo, y a pesar de que tuvo cierto éxito evolucionando manipuladores de bits y determinando las interconexiones de una caja negra de 1400 terminales, la comunidad de Inteligencia Artificial de la época prestó poca atención a su trabajo. Por ejemplo, Minsky lo criticó duramente, argumentando que una búsqueda puramente aleatoria era mucho mejor que el algoritmo de Friedberg.
    El trabajo de Bremermann, en 1958, se enfocó más a la optimización, introduciendo el importante manejo de un valor de aptitud, y definiendo a un individuo como una cadena de símbolos binarios (unos y ceros). Bremermann advirtió, acertadamente, que la mutación jugaba un papel importante en la evolución, pues impedía el estancamiento en mínimos locales. Aunque muchas de sus ideas se usan hoy en día, Bremermann cometió el error de tratar de optimizar funciones lineales y convexas, obteniendo resultados decepcionantes, pues sus algoritmos evolutivos tenían que ser complementados con otras heurísticas para converger en una solución. Hoy sabemos que los algoritmos evolutivos difícilmente pueden competir con las técnicas tradicionales de optimización en esos dominios.
    Barricelli ofreció, en 1954, una de las primeras simulaciones que usaba principios evolutivos, utilizando los mismos procedimientos generales que se usan hoy en día en la disciplina conocida como vida artificial. Sin embargo, en este trabajo, así como el que Reed realizó posteriormente en 1967, se concluyó que la cruza no parecía mejorar la velocidad de la adaptación selectiva, y el operador primordial era la mutación.
    Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó más o menos dentro de los lineamientos actuales de la computación evolutiva. Su programación evolutiva consistía en hacer evolucionar autómatas de estados finitos por medio de mutaciones. Fogel introdujo los importantes conceptos de población y selección, y aunque las revisiones iniciales de su trabajo fueron favorables, algunos investigadores, como Solomonoff, enfatizaron que el método de Fogel no debía verse en su estado actual (en 1966) como algo particularmente útil para resolver problemas, a excepción de los más simples posibles. Solomonoff vio a la programación evolutiva como una especie de búsqueda escalando la colina modelada mediante autómatas, y otros investigadores como Holland, Kieras, Rada y Lenat compartieron esa opinión.
    Otra técnica evolutiva dirigida particularmente a la optimización de funciones continuas de alta complejidad se desarrolló en Alemania, en 1965, por Rechenberg y Schwefel. Esta técnica, llamada estrategia evolutiva, se utilizó inicialmente para resolver problemas de ingeniería que desafiaban a los métodos de optimización tradicionales, como el gradiente conjugado, y se basa en la modificación sistemática de un vector de números reales (representando las variables de decisión del problema) mediante operadores probabilísticos, usando ciertos criterios para decidir en qué dirección dirigir la búsqueda. La estrategia evolutiva utiliza como operador principal a la mutación, y en su versión más reciente usa la cruza como operador secundario.
    Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento muy similar al que John Holland llamó planes evolutivos a fines de los 60, es al segundo al que se le suele atribuir la creación de la técnica que se conoce como algoritmo genético, a raíz de que Holland publicara el libro "Adaptation in Natural and Artificial Systems" en 1975.

    Inteligencia artificial convencional

    Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
    • Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y aparte de que son muy importantes requieren de un buen funcionamiento.
    • Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.
    • Redes bayesianas: Propone soluciones mediante inferencia probabilística.
    • Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden auto-regularse y controlarse para mejorar.
    • Smart process management: facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad.


    Inteligencia artificial computacional

    La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.

     los avances en la inteligencia artificial


    La tecnología de los ordenadores avanza a mucha más velocidad que muchas otras tecnologías. Los ordenadores  tienden a doblar su potencia cada dos años más o menos. Esta tendencia está relacionada con la ley de Moore, la cual dice que los transistores doblan su potencia cada 18 meses. Según el matemático Vinge, del cual hemos hablado en la anterior parte del artículo, solo es una cuestión de tiempo antes de que el hombre construya una máquina que pueda “pensar” como los humanos. Pero el hardware es solo parte de la ecuación. Antes de que la inteligencia artificial se convierta en una realidad, alguien tendrá que desarrollar un softwareque permita una máquina analizar datos, tomar decisiones y actuar de forma autónoma. Se eso ocurre, podremos esperar a ver máquinas construyendo otras máquinas más rápidas y potentes.
    Los avances de la tecnología se empezarían a mover a una velocidad asombrosa nunca vista por el ser humano. Las máquinas sabrían como mejorarse a si mismas. Habríamos creado una inteligencia sobrehumana. Los cambios serían tan súbitos que nos costaría seguirles los pasos. En otras palabras, habríamos llegado a la singularidad. ¿Qué pasaría entonces? Vinge dice que sería imposible de saber. El mundo cambiaría su entorno de tal manera, que sería difícil saber con exactitud a qué punto llegaríamos. Vinge dice que aunque no es fructífero sugerir posibles escenarios, aun así es bastante divertido.

    Ramas de la Inteligencia Artificial

    Sistemas Expertos (Sistemas basados en Conocimiento). Programas computacionales que resuelven problemas que normalmente requieren del conocimiento de un especialista o experto humano. Es un sistema capaz de tomar decisiones inteligentes interpretando grandes cantidades de datos sobre un dominio específico de problemas.
    Aprendizaje y Razonamiento Automático. Máquinas capaces de planificar, tomar decisiones, plantear y evaluar estrategias, aprender a partir de la experiencia, autoreprogramables, etc.
    Robótica. Artefactos autónomos capaces de llevar a cabo diversas tareas mecánicas de manera flexible e inteligente, cumpliendo con un objetivo y ajustándose al entorno cambiante.
    Procesamiento de Lenguaje Natural. Sistemas capaces de reconocer, procesar y emular el lenguaje humano.
    Visión por Computadora (Reconocimiento de patrones). Reconoce y procesa señales, caracteres, patrones, objetos, escenas.
    Áreas de Vanguardia: Inteligencia Natural.
    Redes Neurales. Crear elementos de procesamiento y organizarlos de acuerdo a un modelo basado en las células del cerebro humano (neuronas). Estos sistemas no se programan, se entrenan. Se caracterizan por reconocer objetos partiendo de señales ruidosas.
    Lógica Difusa. Basado en los principios del razonamiento aproximado y el "cálculo con palabras", éstos sistemas logran simplificar y aproximar la descripción del problema de una manera natural, eficiente y robusta. La lógica difusa va más allá de la lógica booleana en cuanto a que acepta valores parciales de verdad, es decir, de 0 a 100%; aceptando con ello expresiones tales como: "Juan es alto" con un 75% de certeza, o mejor aún, simplificándolo a "Juan no es muy alto"; "El tanque está lleno" con 50% de certeza, o bien, "El tanque está medio lleno o medio vacío".
    Algoritmos genéticos. La ley de la selva de la Naturaleza: "La supervivencia del más apto", ha impulsado la evolución, extinción y supervivencia de los seres vivos. Cada organismo, tiene inscrito y codificado el conocimiento-biológico-genético acumulado durante millones de años. En una computadora, comenzando por una población inicial de organismos-candidatos para la solución de un problema, éstos se recombinan de manera aleatoria (reproducción), luego de seleccionar los mejores, y después de cierto tiempo o número de generaciones se alcanza una solución suficientemente buena para resolver el problema.
    Vehículos Autónomos. Son una amalgama de ramas AI como: robótica, aprendizaje de máquina, sistemas expertos, visión, etc. para lograr que una máquina inteligente pueda maniobrar en un espacio físico singular pero variable, de manera autónoma hasta lograr el objetivo que se le asigne: tomar una muestra de la superficie del planeta Marte, conducir un vehículo hasta cierto destino por una carretera transitada, etc.
    Realidad Virtual. Recrea mundos artificiales en tiempo real que pueden ser captados por diversos canales sensoriales en el espectador, el cuál puede navegar "inmerso" a través de dicho mundo virtual.
    Agentes (Wizards). Son programas "invisibles" tipo espía que analizan las tareas que esté llevando a cabo un usuario, y que dependiendo de las preferencias, costumbres y nivel del usuario, en cuanto se detecte alguna anomalía, el agente "aparece" ante el usuario para ayudarle (dando información), sugeriendo una solución o para ejecutar un conjunto de tareas rutinarias de manera automática.

    El futuro de la Inteligencia Artificial se centra en robots capaces de aprender y tomar decisiones


    La Inteligencia Artificial (IA) tiene tanta antigüedad como la informática y ha generado ideas, técnicas y aplicaciones que han permitido resolver problemas difíciles. Lejos de quedarse ahí, el futuro de esta tecnología pasa por nuevos avances como el desarrollo de software que nos haga la vida más fácil, ayudándonos a tomar decisiones en entornos complejos o permitiéndonos resolver problemas difíciles. 

    En este contexto, los investigadores cada vez hacen más énfasis en la creación de sistemas capaces de aprender y mostrar comportamientos inteligentes sin el corsé de intentar replicar un modelo humano. Ésta al menos una de las principales conclusiones del Cuarto Seminario Internacional sobre Nuevos Temas en Inteligencia Artificial, organizado recientemente por el grupo SCALAB del departamento de Informática de laUniversidad Carlos III de Madrid (UC3M)


    Vida artificial


    La vida artificial es el estudio de la vida y de los sistemas artificiales que exhiben propiedades similares a los seres vivos, a través de modelos de simulación. El científico Christopher Langton fue el primero en utilizar el término a fines de la década de 1980 cuando se celebró la "Primera Conferencia Internacional de la Síntesis y Simulación de Sistemas Vivientes" (también conocido como Vida Artificial I) enLaboratorio Nacional de Los Álamos en 1987.
    El área de vida artificial es un punto de encuentro para gente de otras áreas más tradicionales como lingüísticafísicamatemáticasfilosofía,psicologíaciencias de la computaciónbiologíaantropología ysociología en las que sería inusual que se discutieran enfoques teóricos y computacionales. Como área, tiene una historia controvertida; John Maynard Smith criticó ciertos trabajos de vida artificial en 1995 calificándolos de "ciencia sin hechos", y generalmente no ha recibido mucha atención de parte de biólogos. Sin embargo, la reciente publicación de artículos sobre vida artificial en revistas de amplia difusión,1 como Science y Nature son evidencia de que las técnicas de vida artificial son cada vez más aceptadas por los científicos, al menos como un método de estudio de la evolución.

    Sistema inteligente

    Un sistema inteligente es un programa de computación que reúne características y comportamientos asimilables al de la inteligencia humana o animal.
    La expresión "sistema inteligente" se usa a veces para sistemas inteligentes incompletos, por ejemplo para una casa inteligente o un sistema experto.
    Un sistema inteligente completo incluye "sentidos" que le permiten recibir información de su entorno. Puede actuar, y tiene una memoria para archivar el resultado de sus acciones. Tiene un objetivo e, inspeccionando su memoria, puede aprender de su experiencia. Aprende cómo lograr mejorar su rendimiento y eficiencia.

    Ejemplos de sistemas inteligentes

    Los seres humanos y animales son sistemas inteligentes naturales, y los sistemas artificiales tratan progresivamente de emular sus capacidades . Los sistemas inteligentes se caracterizan por su capacidad de adaptarse a situaciones cambiantes, capacidad que todavía no logran cabalmente los sistemas artificiales. La dificultad principal se encuentra en el desarrollo de la capacidad de aprendizaje.

    Red neuronal artificial

    Las redes de neuronas artificiales(denominadas habitualmente como RNA o eninglés como: "ANN"1 ) son un paradigma deaprendizaje y procesamiento automáticoinspirado en la forma en que funciona elsistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.





No hay comentarios:

Publicar un comentario