miércoles, 23 de abril de 2008

NEUROCIENCIA Y REALIDAD VIRTUAL



MODELOS INFORMÁTICOS Y CEREBRO

Los programas informáticos se han convertido en una herramienta fundamental en el estudio de un órgano tan complejo como el cerebro. Hoy en día la neurociencia computacional es uno de los campos de la ciencia teórica más efervescentes.
Los británicos A. L. Hodgkin y A. F. Huxley son considerados los pioneros en la integración de matemáticas y la neurología.Este trabajo marcó una nueva era en el estudio del sistema nervioso y les hizo merecedores del Premio Nobel en 1953.Desde entonces no se ha producido ningún hito de estas proporciones en este campo.
La neurociencia computacional está sufriendo un fuerte impulso en los últimos 15 años. Según Compte, "se trabaja mucho y los implicados están ilusionados y estimulados". Hay grupos fuertes con proyectos en marcha, sobre todo en Alemania y Estados Unidos.
Sin embargo este panorama no lo comparte gran parte de Europa. "En España sólo hay pequeños equipos dispersos".

La neurociencia computacional consiste en una formalización matemática de los comportamientos que observamos en el sistema nervioso", explica Compte. "A través de simulaciones comprendemos el funcionamiento del cerebro; cómo este órgano almacena memoria, cómo procesa información visual, táctil u olfativa y otros muchos estímulos".
Para realizar esta labor, los matemáticos, los físicos, informáticos y biólogos deben trabajar juntos. "Nos centramos en un aspecto muy concreto, por ejemplo, la memoria", ilustra Compte, para luego explorar los mecanismos que contribuyen a su funcionamiento. "Recogemos parámetros de experimentos de tejido nervioso 'in vitro' e imágenes, entre otros". Después desarrollan un modelo matemático ".

Uno de los proyectos más llamativos en este campo es el que están realizando expertos en Lausana (Suiza). Están trabajando en la simulación en tres dimensiones del neocórtex, la parte más externa del cerebro, que confiere a los humanos sus características más significativas, como la capacidad de hablar, leer o las emociones complejas.
Para modelar el cerebro a escala celular se necesitan cientos de miles de parámetros matemáticos. Por eso, estos investigadores se han aliado con la empresa informática IBM, que les permite usar de uno de los pocos superordenadores que existen, el 'Blue Gene', que puede realizar casi 25 billones de operaciones matemáticas por segundo. La simulación proporcionará interesantes datos sobre el funcionamiento de las complicadas redes neuronales del cerebro y su microarquitectura.
El trabajo de los físicos, informáticos y matemáticos en relación con el de los biólogos y neurofisiólogos es bidireccional. Por una parte, el modelo matemático obtenido por los informáticos se utiliza para simular cómo reaccionaría un sistema de redes neuronales concreto. Para 'pulir' el modelo artificial "se pueden variar las condiciones para predecir cómo reaccionaría dicho sistema y se observa en el laboratorio si los resultados que propone el programa coinciden con la realidad", indica Compte.

Por otra, con los programas los biólogos pueden lanzar hipóteis y predecir si son ciertas. Aunque, por supuesto, tendrán que ser comprobadas (o desmontadas) con experimentos en el laboratorio realizados.

miércoles, 5 de marzo de 2008

Neurotecnología

De la relación de los conceptos de Neurociencia y Tecnología, surge la Neurotecnología, que se puede definir del siguiente modo:
La Neurotecnología es un conjunto de herramientas que sirven para analizar e influir sobre el sistema nervioso del humano, especialmente sobre el cerebro. Estas tecnologías incluyen simulaciones de modelos neurales, computadores biológicos, aparatos para interconectar el cerebro con sistemas electrónicos y aparatos para medir y analizar la actividad cerebral.
Algunas definiciones aceptadas por los principales grupos de investigación, estudio, gobiernos y publicaciones:



  • "La Neurotecnología es la industria que incluye el desarrollo de drogas, aparatos y diagnosticos orientados al cerebro y el sistema nervioso" -NeutoInsights.
  • "Neurotecnología es cualquier tecnología que hace posible manipular el cerebro" -The Economist. 23-May-2002

  • "La psychopharmacología es uno de los principales ejes de la neurotecnologia" -Eric Kandel, Ganador del premio nobel de medicina, 2000

  • "Harware, softwate y wetware que puede ser usado para estudiar el cerebro y funcionamiento básico o para investigación clínica." -DHHS, 2001

  • "Neurotecnología es toda la información tecnologica y biotecnologica que afecta al cerebro" - 2001.-Baroness Susan Greenfield, UK, 2002

  • "Neurotecnología es la aplicación de la electrónica y la ingeniería al sistema nervioso humano" - Neurotech Business Report.



lunes, 3 de marzo de 2008

Neurociencia

La neurociencia estudia la estructura y la función química, farmacología, y patología del sistema nervioso y de cómo los diferentes elementos del sistema nervioso interactúan y dan origen a la conducta.
El estudio biológico del cerebro es un área multidisciplinar que abarca muchos niveles de estudio, desde el puramente molecular hasta el específicamente conductual y cognitivo, pasando por el nivel celular (neuronas individuales), los ensambles y redes pequeñas de neuronas (como las columnas corticales) y los ensambles grandes (como los propios de la percepción visual) incluyendo sistemas como la corteza cerebral o el cerebelo, y ,por supuesto, el nivel más alto del Sistema Nervioso.
En el nivel más alto, la neurociencia se combina con la psicología para crear la neurociencia cognitiva, una disciplina que al principio fue dominada totalmente por psicólogos cognitivos. Hoy en día la Neurociencia Cognitiva proporciona una nueva manera de entender el cerebro y la conciencia, pues se basa en un estudio científico que aúna disciplinas tales como la neurobiología, la psicobiología o la propia psicología cognitiva, un hecho que con seguridad cambiará la concepción actual que existe acerca procesos mentales implicados en el comportamiento y sus bases biológicas.
La neurociencia explora campos tan diversos, como:
la operación de neurotransmisores en la sinapsis;
los mecanismos biológicos responsables del aprendizaje;
el control genético del desarrollo neuronal desde la concepción;
la operación de redes neuronales;
la estructura y funcionamiento de redes complejas involucradas en la memoria, la percepción, y el habla.
la estructura y funcionamiento de la conciencia.







MICHAEL GAZZANIGA



Fundador de la neurociencia cognitiva y autor del libro El cerebro ético: Trabajamos en aumentar la memoria, y también en borrarla. Catedrático de Psicología en la Universidad de California, en Santa Bárbara, Gazzaniga dirige el Centro SAGE para el Estudio de la Mente. Sus publicaciones ya son lectura de referencia, tanto para expertos en la materia como para los profanos con ganas de saber cómo funciona nuestro órgano de pensar. Michael Gazzaniga es uno de los fundadores de la neurociencia cognitiva, el estudio de la relación entre mente y cerebro. Este catedrático de psicología de la Universidad de California ha visitado España invitado por la Fundación LaCaixa para hablar de su último libro, El cerebro ético (Paidós, 2007). Es un hombre muy amable, que se parte de risa cuando los niños que visitan el museo se acercan a él, le dan la mano y le dicen ¡Hello Mr. Scientist!.





Video sobre los últimos avances de la neurociencia:



jueves, 24 de enero de 2008

Aplicaciones de la Inteligencia Artificial


La Inteligencia Artificial se incorpora a los diversos sistemas productivos para obtener productos de alta calidad ,que sin la ayuda de máquinas de alta tecnología no se consegurían facilmente.Una de las áreas donde más se da esta aplicación es la industria a nivel mundial.
Actualmente, hay un gran desarrollo de la Inteligencia Artificial en la robótica móvil. Este estudio está centrado en la identificación global de ambientes ejecutada por un robot móvil con base en el entrenamiento de una red neuronal que recibe la información captada del medio ambiente por el sistema sensorial del robot (ultrasonido). Se considera que el robot, a través de la red neuronal, tiene como única tarea maximizar el conocimiento del ambiente que se le presenta. De esta forma este modela y explora el ambiente eficientemente mientras ejecuta algoritmos de evasión de obstáculos.
El resultado de este estudio es de gran importancia en el campo de la robótica móvil debido a que: el robot adquiere una mayor autonomía del movimiento, se optimiza el uso del ultrasonido como detector de obstáculos y es una herramienta importante para el desarrollo de planificadores de trayectoria y controladores inteligentes.





lunes, 10 de diciembre de 2007

Inteligencia Artificial



Se denomina Inteligencia Artificial a la ciencia que estudia los procesos que imitan la inteligencia de los seres vivos.El objetivo de esta ciencia es la creación de máquinas que realicen tareas, resuelvan problemas que requieran de una determinada inteligencia.



La Inteligencia Artificial comenzó como el resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad.
La
Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas
que pueden "pensar".
La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen
juegos, traducción de idiomas, comprensión de idiomas, diagnóstico
de fallas, robótica, suministro de asesoría experta en diversos temas.
Es así como los
sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos
, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.
Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar
el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronales creando, en conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo que se conoce como sistemas expertos.



Origen de la Inteligencia Artificial



Desde sus comienzos hasta la actualidad, la Inteligencia Artificial ha tenido que hacer frente a una serie de problemas:
Los computadores no pueden manejar (no contienen) verdaderos significados.
Los computadores no tienen autoconciencia (
emociones
, sociabilidad, etc.).
Un computador sólo puede hacer aquello para lo que está programado.
Las máquinas no pueden pensar realmente.
En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el asunto de si la máquina de Babbage podía "pensar".
Los primeros problemas que se trató de resolver fueron puzzles, juegos de
ajedrez
, traducción de textos a otro idioma.
Durante la II
Guerra Mundial Norbert Wiener y John Von Neumann establecieron los principios de la cibernética en relación con la realización de decisiones complejas y control de funciones en máquinas.




En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrolla el primer lenguaje de programación orientado a la resolución de problemas de la Inteligencia Artificial, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de Inteligencia Artificial al que llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos, representando cada problema como un modelo de árbol, en el que se seguían ramas en busca de la solución correcta, que resultó crucial. Este programa demostró 38 de los 52 teoremas del segundo capítulo de Principia Mathematica de Russel y Whitehead.
En 1956, con la ahora famosa
conferencia de Dartmouth, organizada por John McCarthy y en la cual se utilizó el nombre de inteligencia artificial para este nuevo campo, se separó la Inteligencia Artificial de la ciencia
del computador, como tal. Se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.
En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problems Solver (
GPS). GPS era un sistema orientado a la resolución de problemas; a diferencia del Logic Theorist, el cual se orientó a la demostración de teoremas matemáticos, GPS no estaba programado para resolver problemas de un determinado tipo, razón a la cual debe su nombre. Resuelve una gran cantidad de problemas de sentido común, como una extensión del principio de retroalimentación de Wiener.




En 1957 McCarthy desarrolló el lenguaje LISP. La IBM contrató un equipo para la investigación en esa área y el gobierno de USA aportó dinero al MIT también para investigación en 1963.
A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a
la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina "Sad Sam". Este podía leer oraciones del tipo "Jim es hermano de John" y "La madre de Jim es Mary", a partir de ella el sistema concluía que Mary debía ser también la madre de John. Este sistema representó un enorme paso de avance en la simulación de inteligencia humana por una máquina, pues era capaz de tomar una pieza de información
, interpretarla, relacionarla con información anteriormente almacenada, analizarla y sacar conclusiones lógicas.
En el mismo período de
tiempo hay trabajos importantes de Herbert Gelernter, de IBM, quien desarrolla un "Demostrador Automático de Teoremas de la Geometría", Alex Bernstein desarrolla un programa para el juego
de ajedrez que se considera el antecedente para "Deep Blue".
En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del
álgebra
.
En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés.




En la década 1970-80, creció el uso de sistemas expertos, muchas veces diseñados para aplicaciones médicas y para problemas realmente muy complejos.




Inteligencia Artificial son programas que realizan tareas que si fueran hechas por humanos se considerarían inteligentes.




Estos programas obviamente corren en un computador y se usan, como por ejemplo, en control robótico, comprensión de lenguajes naturales, procesamiento de imágenes basado en conocimientos previos, estrategias de juegos, etc. reproduciendo la experiencia que un humano adquiriría y de la forma en que un humano lo haría.


Características de la Inteligencia Artificial




  1. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.


  2. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado.


  3. estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan.


  4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas.

Lo aquí expuesto se ha obtenido de la siguiente página web:


http://www.monografias.com/trabajos12/inteartf/inteartf.shtml