Algoritmos Antrópicos

Metodología Aiware - V

Juan Chamero, Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. , al 24 de Abril del 2013

Apéndices

 

 

Algoritmos antrópicos

Los algoritmos antrópicos son pensados para ser ejecutados por seres humanos (H) o por Agentes (A), de a una tarea o paso por vez y en forma exclusiva, es decir, o lo hace el hombre o lo hace el agente (o la máquina en un sentido más amplio dentro de una relación “hombre - máquina”). Estos algoritmos son generalmente evolutivos y con capacidad de auto aprendizaje por lo que a lo largo del tiempo los bloques H van siendo reemplazados por bloques A. En la figura de arriba se muestra un algoritmo antrópico de 15 pasos, de los cuales 9 son A y 6 son H que resuelven el problema de “algo para hacer”.

Previamente los humanos han analizado exhaustivamente el saber o “knowhow” necesario, desde un cómo hacerlo en líneas generales a las políticas a ser respetadas durante el proceso, las reglas a aplicar, los problemas a enfrentar y los “trucos” para resolver algunos problemas cruciales. Finalmente, se proveen y prevén los recursos necesarios. Ambos, humanos y agentes, van aprendiendo de la ejecución del algoritmo y transfiriendo experiencia y talento a los bloques H y A.

Para concretar la alianza cooperativa entre bloques H’s y bloques A’s se han tenido en cuenta las habilidades y talentos relativos de uno y otro para la tarea a realizar: por ejemplo el “algo para hacer” podría haber sido una gestión que demanda cientos de pasos, algunos administrativos y otros de producción, de mantenimiento, de control, etc.

Complejidad antrópica: Los procesos semánticos Darwin más complejos, tales como construir un Mapa del Conocimiento Humano  implican 82 pasos de los cuales, a la fecha, 76 han podido ser transferidos a agentes quedando seis pasos cruciales para el ser humano. Estos últimos difícilmente puedan ser transferidos a agentes, no por ser demasiado complejos sino porque sería demasiado arriesgado y costoso hacerlo.

Tareas de los agentes: las tareas básicas de un agente son cumplir misiones y satisfacer protocolos de seguridad y consistencia. Similarmente a los humanos sus misiones son del tipo: VE, OBTÉN, ENTREGA, HAZ TAL O CUAL COSA, INFORMA y deben ser instruidos, ajustados, entrenados y monitoreados (aparte de ser creados) para ellas. Realizan sus misiones en forma abierta y pública, no encubierta (al menos los agentes Darwin). Un agente “nace”, es autorizado para “vivir” aunque puede ser suspendido o eliminado por decisión humana. Autorizado para vivir, aunque siempre bajo supervisión humana, el agente puede:

  • Notificarse por sí mismo;
  • Activarse por sí mismo;
  • Desactivarse por sí mismo;
  • Ajustarse por sí mismo;
  • Auto generarse por sí mismo (si está habilitado para ello);
  • “Nutrirse” por sí mismo;
  • Eliminar desperdicios por sí mismo;
  • Perpetuarse por sí mismo (si está habilitado para ello);
  • Reproducirse por sí mismo (si está habilitado para ello);
  • Informar;
  • Establecer contactos;
  • Requerir información;
  • Ejecutar procesos embebidos;
  • Esperar lo que sea necesario;
  • Dejar marcas y señales inteligibles;
  • Reconocer objetos y patrones de conducta;
  • Hacer inferencias;
  • Experimentar sentimientos primarios;

Básicamente los Agentes Reaccionan, los Humanos Deliberan. Por decisión humana los agentes pueden actuar con el mundo, con sus “maestros” y con otros agentes. Sin embargo algunos pensadores creen que los agentes podrían ir evolucionando hacia: a) tener sus propios procesos; b) tener sus propias cosmovisiones, sus propias creencias, deseos y propósitos.

 

Nota del Webmaster: La Sociedad del Conocimiento en la que ya estamos inmersos necesitará  cada vez más del concurso de algoritmos antrópicos asociando inteligentemente lo mejor del hombre y de las máquinas. Dentro de las dos estrategias posibles analizadas: “mind to digital” y “digital to mind” los algoritmos antrópicos están dentro del “sentido común” de la primera, más humanista que “tecno”. Incluso si en un futuro los humanos llegáramos a aceptar que humanos y máquinas súper inteligentes se confunden y hasta aceptando que esas máquinas súper inteligentes nos superen para siempre la estrategia humanista luce lejos como la de más sentido común. Y es más, ¿por qué no concebir a la humanidad misma como un armonioso sistema hombre - máquina?

 

Additional information