reiniciar chaman

Un proyecto indigena de ayuda al desarrollo humano de Europa: http://barcelona.indymedia.org/usermedia/application/6/reiniciar_cham%C3%A1n.pdf

viernes, 11 de septiembre de 2009

¡¡Todo el pastel¡¡¡

Un robot cuya única tarea es la de valerse por sí mismo.......Un día sus diseñadores le hacen unos arreglos para que aprendiese que su preciada batería de repuesto estaba escondida en una habitación bajo llave donde había una bomba activada con un temporizador. Traza el robot un plan para hacerse con la batería. Se hace con la llave y consigue entrar en la habitación. Una vez dentro visualiza un carro donde está la batería, y además la bomba. Tira del carro y lo saca de la habitación, consigue rescatar la batería pero la bomba explota; había sacado el carro de la habitación y la bomba seguía en el carro, pasó por alto la implicación obvia de su acción de sacar el carro.
Los ingenieros construyen un nuevo robots diseñado para reconocer las implicaciones de sus acciones y sus efectos secundarios, deduciéndolos de las descripciones que utilice en la formulación de sus planes. Lo llaman el robot deductor. Robot deductor se pone en marcha para salvar la batería. Comienza a deducir las implicaciones de sus posibles acciones: si saco el carro fuera de la habitación las paredes no van a cambiar de color, mis ruedas van a girar más rápido que las del carro.....bummm, la bomba explota.
Los ingenieros siguen rebanándose el melón y encuentran una solución. El próximo robot estará programado para diferenciar las implicaciones pertinentes de las que no lo son, e ignorar a las impertinentes. Lo llaman el ´´robot deductor de implicaciones pertinentes``. Se sentó fuera de la habitación aplatanado perdido y cuando le dijeron que hiciera algo respondió: ya lo estoy haciendo. Estoy ignorando diligentementes las miles de implicaciones que determine improcedentes . Tan pronto como descubra una implicación improcedente , la sumo a la lista de las que debo sumar............. la bomba explota¡¡¡'.
El problema sufrido por estos agentes artificiales es conocido como el problema estructural. Fue acuñado por McCarthy y Hayes, lo utilizaron para referirse a un problema particular, concebido limitadamente , acerca de la representación que surge sólo para ciertas estrategias cuando se aborda el problema más amplio de los sistemas de planificación en tiempo real, las soluciones nos llevan a problemas más complejos aún; ´´todo el pastel`` llaman a este problema los investigadores de inteligencia artificial. ´´El pastel`` ha pasado inadvertido para los filósofos, ha sido sacado a la luz por los investigadores del campo de la inteligencia artificial ( IA), a día de hoy, a pesar del esfuerzo transdisciplinar por solucionar este problema intrínsicamente epistemológico, no hay respuestas a este acertijo,es difícil explicar y definir qué es y qué no es.
La dificultad insalvable es encontrar la simetría entre el problema original o estructural en sí y el problema ficticio 0 desestructurado; más amplio, al que se ha llegado por aplicar una posible solución orquestada por estrategias mal delimitadas y parceladas.
Los detractores de la IA sostienen que ésta es deficiente para explicar a la mente humano, que es un método sustancial e intrínsicamente distorsionador del problema estructural. No permite conocer cómo pensamos.
La inteligencia utiliza bien lo que se sabe. Lo utiliza para mejorar la fidelidad de nuestras expectativas, para planificar, para formular hipótesis que nos permitan aumentar el conocimiento que usaremos en el futuro, y así preservarnos. Dijo sir Karl Poper que el estúpido-al contrario del ignorante- es el que utiliza un fósforo para revisar depósito de gasolina, el que corta la rama donde está sentado, el que deja a su familia dentro el cohe encerrada y pasa una hora pensando en cómo sacarla.
La inteligencia coordina el uso de los hábito adquiridos con la experiencia, los esructura y enlaza, los usa para orientar sus expectativas futuras; Hume llamó a ésto hábitos de expectativas.
Conocer los mecanismo que posibilitan que ciertas rutas de transición entre ideas tengan mayor probabilidad de ser recorridas conforme más se utilizan es crucial para el desarrollo de la IA. Esta cuestión pasa inadvertida a filósofos y a psicólogos mentalistas porque los procesos psíquicos y cognitivos superiores de ensamblar unos significados con otros acontecen en zonas de la consciencia donde se lleva a cabo el procesamiento de la información, inaccesibles para los fenomenológicos; las interacciones ocurren en un micromundo gobernado por las arbitrarias leyes probabilísticas de la mecánica cuántica. Si desconocemos el ´´making off´´de cuantísimos procesos cruciales que realizamos casí por magia difícilmente se podrán desarrollar ideas para que sus efectos sean los que deben ser, dado lo que significan. Por ejemplo, existen multitud de tutoriales y de libros de cocina que explican cómo hacer una Paella, pero ninguno explica por qué huele tan bien el fondo cuando se está haciendo, por qué cuando se producen los sabores en tu paladar vas a decidir si te gusta o no.
Entonces, si no podemos explicar el por qué del efecto que las cosas tienen en nosotros; en un sentido amplio y no limitado; y qué son los efectos, difícilmente podamos crear ideas para que sus efectos seán los que queramos que seán. No puedo crear una idea que te produzca el efecto de estar comiéndote una ensalada de espárragos en Calcuta, tedrías que ir a Calcuta y hacerlo.
Son trucos de magia que están pasando por delante nuestra y tan sólo podemos observarlos.
Ideas mundanas naturales , amplías y automatizadas, que nos diferencian de los agentes de inteligencia artificial. Un agente artificial tiene que empezar desde cero, a partir de su experiencia,nosotros no empezamos desde cero.
Los ingenieros de IA atajan el problema del aprendizaje llenando al agente de todo lo que deberìa saber para resolver un problema, desconocen cómo hacerlo para que el robotaprenda por el mismo y no seán repetidores; en catastrófica analogía con el sistema educativo, recordemos que los ingenieros también han pasado por este cortocircuito epistemológico como estudiantes.
Es muy dificil instalar en un agente todo lo que hay que saber de un mundo cambiante.
Nosotros sabemos trillones de cosas. Cuando vas a preparate un bocadillo sabres que abrir el frigorífico no genera una explosión nuclear en tu cocina, sabes que el cuchillo no se derrite al meterlo en la mahonesa, sabes que si sacas el pavo del sobre ya no está ahí. Imagínate hacer un listado de axiomas que necesitas para prepararte un bocadillo. Los sumas todos y ya estás preparado. Cuando has sumado medio millón de detalles aún no sabes hacer el bocadillo.. La suma de las partes no son el todo. Albert Einsten dijo que lo importante era saber cómo pensaba Dios, que el resto eran detalles. El problema es epistemológico no heurísticos. El problema está en la construcción del significado, de la idea que lleva la pregunta.
En resumen, un agente inteligente debe emprender una planificación rápida y sensible de la información , que tiene el efecto de producir prueba fiables pero no a prueba de tontos.
Las expectativas nos permite filtrar mágicamente la información y resolver el problema de la estructuración. Los agentes inteligentes tenemos expectativas, un robot aún no tiene expectativas, por eso se centra en la planificacion y falla. ¡¡¡el problema es de la expectativa no de la planificación¡¡. La reducción de un problema no resuelto a otro es una forma de progreso.
Supongamos que un agente resuelve todos sus problemas de induccion . Crea todas las generalizaciones correctas a partir de sus datos y las asocia con probabilidades . Pues, sigue sufriendo el problema estructural ya que no está capacitado para representar la información, y aún no pueda aplicarla a sus acciones.
´´Una enciclopedia ambulante se caería en un barranco a pesar de todo su conocimiento sobre barrancos y los efectos de la gravedad, a menos que estuviera diseñada de tal manera que pudiera encontrar las partes correctas de conociiento en el momento preciso para que pueda planificar sus compromisos en el mundo real.
Lo ideal es un sistema que de verdad ignore la mayoría de lo que se sabe y en todo momento opere con una operación bien seleccionada.
Los sistemas de IA SON RUEDAS DE CONOCIMIENTO. Abiológico pero tecnológico.
La limitación actual de los sistemas de IA se derivan del esquema conceptual que se derivó de la arquitectura de procesamiento de serie. Cuando se desarrollen los computadores cuánticos traerán consigo innovaciones conceptuales inimaginables. Mientras tanto ocurre como en el campo de la neurobiología, se postulan maravillosos poderes cognoscitivos del sistema nervioso pero no se tiene la más mínima noción de cómo se realizan.
´´Completar los detalles de la brecha entre el espectáculo de magia fenomenológico y los poderes bien entendidos de pequeños trechos del tejido cerebral constituye la inmensa tarea que aguarda a los investigadores de todos los géneros. Es necesario centrarnos en el cómo, y dejar un poco el qué. La IA no tiene buenas respuestas a está cuestión pero si buenas preguentas.



Biografía consultada: Daniel C. Dennet( 1994). Las ruedas del conocimiento: El problema estructural de la IA. Filosofía de la inteligencia Artificial. Edit.MargaretA. Boden. pp( 167 - 191)