III Jornadas de difusión de las tecnología de agentes

Agentes, Conferencias/Charlas Comentarios desactivados en III Jornadas de difusión de las tecnología de agentes

Los días 30 de junio y 1 de julio se celebraron en la ETSI Informática de la Univ. de Sevilla las III Jornadas científico-técnicas de difusión de las tecnologías de agente. Esta es la tercera edición de estas jornadas, cuyo objetivo es difundir las posibilidades de la tecnología de los agentes y los sistemas multiagente. Si estás por aquí y quieres enterarte de cuál es el estado actual de eta tecnología, qué se puede hacer con ella y sus aplicaciones al mundo real.

Este año me han invitado a participar y hablé sobre agentes en dispositivos con recursos limitados y su uso en aplicaciones de inteligencia ambiental. Al principio estuvimos hablando sobre las características de los dispositivos con recursos limitados, de los cuales los móviles son sólo un ejemplo; redes de sensores, equipamiento para domótica y la mayoría de sistemas empotrados comparten las mismas características y tienen las mismas limitaciones a la hora de abordar procesos de computación complejos y costosos, como suelen ser la mayoría de las técnicas de inteligencia artificial. Muchas de las aplicaciones de estos dispositivos caen dentro del área que se conoce como inteligencia ambiental, y de ella estuvimos hablando un rato, con algunos ejemplos sobre conducción autónoma en la que se integraban todos los aspectos de este campo. Para acabar, comenté algunas plataformas disponibles para poder construir este tipo de sistemas inteligentes.

A continuación tienes disponible las transparencias de la charla. No me gusta mucho cómo ha quedado en slideshare: algunos efectos de transparencias no se han aplicado bien al convertirlo y las cosas están un poco amontonadas, pero bueno, espero que sepas perdonarlo.

[AT workshop] Session 4

Agreement, Conferencias/Charlas Comentarios desactivados en [AT workshop] Session 4

Reputation and confidence for artificial intelligent entities. A cognitive approach
(Jordi Sabater)

Trust deals with uncertainly and risky situations. A little difference: reputation (very similar) is one of hte mechanism to build trust and it is a social element. How it is used in a computer-based systems? Three layers (approaches): security, institutional and social. Trust and reputation are meaningful in the social approach. If we have a storngly ruled system (institutional approach) we do't need trust, just to follow the rules. Then, a cognitive model of reputation is needed.

A social evaluation is the evaluation by a social entity of some property (mental, physical or social) related with been social. Reputation is then a voice (something that is said) about a social property. But agents do not have to beleave this reputation measures: agents (as people) has no responsibility about spreading social evaluations. When people believes what other people sais, then reputation matches with image (what an agent believes in, consideres as true facts).Reputation means communication and gossiping is the channel used to transmit reputation measures. Images and reputation are based on facts, which have two measures: value and strength -> repage mechanism.

This repage cognitive computational model has to be inserted in an agent. It is important that (i) reputation model can be isolated from other reasoning mechanisms (planners, decision making tools); and (ii) be proactive: do not wait to be asked about reputation, but provide information to the rest of elements. Using a BDI (beliefs, desires and intentions) model with multicotext logics and bridge rules to integrate the context of teh repage mechanism into the context of beliefs, desires and intentions. In the logic, the difference between images and reputation is a ¿reified? difference. An argumentation model is used

Psychopharmacology of agreement
(Adolf Tobeña)

There's lots of corrdination, obbidion, ... but few agreements among humans. ANd the second point of the speech is that humans need drugs. And these facts "llevan" to psychiatric aspects of agreement: why patients are more trending to cooperate/agree after been treated?

Usually, xanthines (caffeine, tobacco) are present during negotiations and bargaining processes. 5 years ago was demostrated that oxitocin increases trust in humas. Furthermore, they observed that participants trend to not change the trusting behaviour even after knowning they had been betrayed (50% trials) and the brain was actually don't responding as been betrayed (e.g. activity in brain areas related with dissgust).

booster drugs for agreements (prosocial, protrust)

  • alcohol, cannabinoids
  • xanthines, nicotine
  • oxytocine, prolactine, NPY
  • estrogens

and antiagreement drugs are (indice paranidogenic, autistic and antisocial behaviors)

  • cocaine, amphetamines
  • LSD, mescaline, psilocibine
  • androgens

But they've observe that testosterone had a possitive effect on human bargaining behavior.... and they did it on women!!!! They shown that one sunlingual dose os testosterone in women cause a substantial increasein fair bargaining, reducing cinflics and increasing efficiency on social interactions. ANd usinga placebo they demonstrate that was a real effect (the believed testosterone group behaves as the group without testosterone. And in men? Other group showed that high levels of testosterone (natural measuring) reject low (unfair) ultimatum game offers: $5/$40. Testosterone has influence in how the rest of the people consider others as leaders. Testosterone redcuces conciuos detrection of signals (face expressions) serving social correlations ->  a high probability of entering into a fight is related with risk/venturesome behavior (you accept more faces as neutral)

Blogged with the Flock Browser

[AT workshop] Session 3

Agreement, Conferencias/Charlas Comentarios desactivados en [AT workshop] Session 3

The neural basis of empathy and coordination
(Christian Keysers)

1.- feeling the intentions of others
The neurons involved in a concrete movement (grasping something), surprisingly, respond also when the action is seen (about the 10% of the neurons - mirror neurons-).  Interesting: you can "run simulations" in your mind and the brain behaves as if the real action is being performed. But, what happened if you see a not human (f.i. a robot) doing the same action?. The active areas in the brain of the observer are the same. That is, your brain is "learning" how to do this action.

How about sounds?. The set of neurons dedicated to do, see or hear something is different. In humans, experiments done where about to hear the result of actions performed by the hands or by the mouth (clearly separated in the brain). The correspondent motor areas are not activated, but the area that responds to the stimuli does.

SO, how do we coordinate each other? Because the coordinate system of the other doing an action is not our own coordinate system and the active area in the brain is different. The mirror system transform back and forth between sensory an motor representations, providing the basis for optimal coordination of observed and executed actions

2.- why do we cooperate?
It is related with emotional behavior. Experiments done with pleasant and disgusting smells. Again, the response of the brain is very similar when we feels disgust or when we see someone felling disgusted (by their expression in the face) And impairing simulation with real stimuli can damage the brain (so we cannot properly distinguish the correct emotion/sensation). Emotional simulation and empathy are linked too? It seems to be, and it is not exclusive for disgust. Pain in self and in others overlaps, but disgust and joy overlaps too, so it is difficult to identify the correct emotion. Any way, this facts motivate us to cooperate: we share the same things than others (empathy).

Cooperation and generosity
(Paul van Lange)

Generosity: behaving more cooperatively than the others. Noise refers to unintended errors that affect interaction outcomes. Noise is a matter of fact in social systems and undermines cooperation. But generosity can (or not) cope with noise.

To understand social situations one needs to understand dependence, interests and information availability (al least).imperfect information appears in partner preferences or discrepancies about outcomes and intentions (why he's not responding my emails?).

But the amount of generosity to apply has to be biased. The optimal balance between reciprocity, generosity o stingy has to be found (e.g. tit-for-tat: nice, forgiving, retaliatory and clear.... but it does not repair)

After a lot of results, seems that, under negative noise, generosity (i) build trust, (ii) pair well with reciprocity, and (iii) -I missed this one-. Besides: communication helps (when noise happens, inform the other -say sorry-); individuals copes with noise better than representatives and empathy is effective.

NOTA: ¿que ocurre si se introduce la generosidad como un factor  más en el demostrador mWater a la hora de gestionar las agrupaciones de usuarios autoorganizadas? Parece que puede ser una buena variable para mantener una gestión óptima en el problema de los comunes.

Blogged with the Flock Browser

[AT workshop] Session 2

Agreement, Conferencias/Charlas Comentarios desactivados en [AT workshop] Session 2

On the use of argumentation in agreement technologies
(Henry Prakken)

Agents need argumentation (i) for their internal reasoning and (ii) for their interaction with other agents. Explaining basic things about argumentation process: argument attacks. The situation of the dialog can be modeled in a graph colored by defining in and out arguments (Dung, 1995). And there is a sound and complete game that allows to determine if an argument is feasible or not without having to calculate the entire network: an argument A is feasible when there is a winning strategy for A follow.ing the game rules.

Problem: it is asumed that all information is centralized and static (a single theory -KB-) So dialogue game systems are developed. He's using the Walton & Kreebe dialogue types (without eristic :-) I've seen this a lot of times already.

An Interesting thing: blocking behavior (always asking why) It can be solve by using sanctions:
social sanctions (i wont talk you any more)
shift of burden of proof by a third party (referee): q since r // why r? // referee: you must defend not-r

I already knew most of these things (thanks to Stella)

"Prof. Kripke, let me introduce Prof. Nash", or
Logic for Automated Mechanism Design
(Mike Wooldridge)

In MAS the interaction is done by mechanisms = protocol + self-interest and agents are the participants in these mechanisms. So mech. can't be treated as simple protocols. (ex. sniping in eBay -bidding in the last 5 min. trying to be the last bidder-). A MAS can predict the sniping behav. of users in eBay?  The environment of an agent is a mechanism too, that contains other agents that act strategically to achieve their own goals

The formalization used is ATL (alternate-time logic), introduced in 1997 top analyze games. It defines a branching-time model as a graph and CTL is the logic used to talk about branching-time structures, extending propositional logic with path quantifiers (A,E) and tense modalities (F, G, X, U).

CTL sais when something is inevitable or possible, but it hasn't notion of strategy action nor agency (it's a problem to model mechanisms.... and service-based applications too). ATL is intended to overcome these limitations. The basic expression is

$latex \langle \langle C \rangle \rangle \phi$

meaning "coalition C can cooperate to ensure that $latex \phi$. The idea is that, using coalitions, we can model who is going to achieve a property (a coalition can be an individual entity or even an empty set -modeling 'nature'-). An example about social choice (voting) mechanism. Now, mechanisms can be validated.The logic can capture dependencies among agents, as stressfulness (all goals met), veto (j needs i to achieve its goal), mutual dependence (all agents are mutual dependence... veto relationship)

(note: but we can't model actions yet, so I guess it isn't useful for us)

A concrete application about social laws (normative systems). Objectives will be ATL formulae $latex phi$ and mechanisms are behavioral constraints $latex \beta$ To avoid undesirable behaviors, we have to cut out some transitions. An effective social law $latex (\phi,\beta) \models \phi$. But compute this is a NP-hard problem. An example with the typical train organization in a tunnel. But you cannot model just the properties you want to avoid. The properties you want to preserve have to be modeled too in order to have system doing useful things.

But, what to do with non-compliance? The idea isto incentive compatibility and, to do this, we need preferences (a prioritized list of goal formulae). I like this idea: the utility of the agent comes from this list, from a worst (and weak) rule to the best (and stronger) rule. For instance, related with resources, have it assigned often and for a long time.

Blogged with the Flock Browser

[AT Workshop] Session 1

Agreement, Conferencias/Charlas Comentarios desactivados en [AT Workshop] Session 1

Towards the biological basis of cooperation
(Arcadi Navarro)

Talking about genome and human evolution. The interesting thing: the effects on social behavior.

After a very interesting introduction to genomic, begins trying to relate genetics with social behavior: because to cooperate can have some explanations in our genes (and this can be the explanation of why humans have  been a successful specie): genetic variability for behavioral traits is considerable. The problem is that this is very difficult to interpret. Fortunately, there are some genetics related with economic behavior that can be studied and replicated in labs.

Example: the ultimate game: people trend to make 50:50 offers and to reject less that 30% (not an reasonable decision from an economic point of view). But chimpanzees behaves as rational maximizes in an ultimatum game. Both species have evolve completely different behaviors. Why? we have to study this from a genetic perspective. -> agents playing games are as chimpanzees. And researchers are discovered that serotonin makes individuals to be more generous (just a joke: men have more serotonin than women). Or even between MZ twins, differences in the acceptance threshold in ultimatum game have been observed. Examples with more genes.

Measuring Strategic Uncertainly and Risk in Coordination-, entry-Games and lotteries with fMRI
(Rosemari Nagel)

Uncertainty can be classified as

  • exogenous (risk): know the prob. of all possible states of the world (objective prob.)
  • endogenous: in absence of endogenously given prob.;  -> strategic uncertainty (SU) e.g. outcomes depends on social interaction -games- (subjective prob.)

How brain solve individual or strategic uncertainty? Can we predict choices and brain activity in games?
Results: people behaves similarly in lottery and coordination games, but not in entry games. And the activity in the brain increases in lottery -> coordination -> entry. Some graphics about the different parts of the brain active while playing each type of game. Similar activity in entry games of risk lovers and risk averse people.

Summarizing, the entry games create mode strategic uncertainty as predicted by the nature of the mixed equilibrium which also involves levels of reasoning.

Blogged with the Flock Browser

Grafeno: electrónica cuántica en la punta de un lápiz

Conferencias/Charlas 1 Comment »

(nota: algunos enlaces apuntan a la versión en inglés de la Wikipedia porque los conceptos están mejor explicados allí)

Conferencia de Pablo Jarillo-Herrero en la UPV que lleva por título "Grafeno: electrónica cuántica en la punta de un lápiz". La conferencia trata de las propiedades nanofísicas de este material, el grafeno, descubiertas hace apenas 5 años, y de sus posibilidades. El grafeno no es más que una lámina de grafito compuesta por átomos de carbono dispuestos en una sola capa.

Un minipunto menos ¡transparencias en powerpoint y encima usando  Comic Sans! :-D

Empezamos para ver la escala de la que estamos hablando: milímetros, micrómetross (micras) y nanómetros. Elementos típicos de esta dimensión son los virus o el diámetro de una secuencia de ADN. Un nanómetro equivale a 10 átomos de hidrógeno. Y aunque parece imposible, ya se producen elementos a esta escala de forma artificial (cinta gecko -ver video- o en puertas lógicas en transistores, por ejemplo). Trabajar con átomos individuales es algo habitual. Pero en esta escala es necesario un enfoque multidisciplinar (física, química, biología e ingeniería).

El grafeno es una lámina formada por átomos de carbono. Dependiendo de cómo se organicen los átomos, podemos formar "esferas" llamadas fulerenos (0D), nanotubos (1D) o láminas (2D), que reciben el nombre de grafeno. Es el material más fino que existe (monoatómico) : 1 millón de veces más fino que una hoja de papel. Pero a pesar de su grosor, las láminas (y los tubos) pueden tener una dimensión de varios centímetros. La forma de crear la muestras es realmente simple (exfoliación): basta con coger polvo de grafito de la mina de un lápiz, se esparce sobre una cinta de celo; se pega y despega varias veces para separar las láminas. Esta cinta se coloca sobre una placa de sicilio y con un microscopio óptico (200x) puede verse directamente.

El carbono es un metal: es el más ligero y el más fuerte y al ser realmente un semimetal conduce mejor que que los mejores metales (incluso el oro) y no hay otro material con una movilidad electrónica más alta a temperatura ambiente. También es un buen conductor térmico y soporta densidades de corriente muy altas.

Pero tiene otras propiedades interesantes: es un material ambipolar y su estructura (bandas, distribución de electrones/huecos) puede controlarse aplicando campos electromagnéticos (ver una explicación en el programa de televisión "Placebus ¿ciencia o magia?").

Todo comenzó en 2004, cuando se vio que podría hacerse litografías (imprimirse circuitos) sobre una placa de grafeno (Novoselov, 2004). Pero al año siguiente se descubrió también que los electrones se comportaban de forma distinta al resto de materiales (Novoselov, 2005). De hecho, su interacción sigue las ecuaciones de Dirac y no las ecuaciones de Schrödinger (se comportan como fermiones = partículas sin masa) y esto desató la "fiebre" del grafeno.

El grafeno son átomos de carbono en una red bidimensional hexagonal y su estructura cristalina forman una red triangular con una base de dos átomos. Y al calcular su estructura de bandas, es un semimetal y su superficie de Fermi se reduce a 6 puntos (viene dada por un cono -> cero gap-> punto de Dirac)

NOTA: dice que esto es una aproximación para bebés y a mi me cuesta entenderlo ¿tengo que preocuparme?

En la mecánica clásica y en la mecánica cuántica a bajas velocidades, la relación energía/momento es parabólica (ecuaciones de Newton y Schrödinger respectivamente). Pero cuando los objetos se mueven a velocidades próximas a la velocidad de la luz (mecánica cuántica relativista) las propiedades se rigen por la ecuación de Dirac y la relación entre energía/momento ya no es parabólica, sino lineal. Pero sólo se pueden estudiar a altas energías (acelerador de partículas en el CERN). El grafeno presenta estas mismas propiedades, pero a bajas energías (se mueven despacio). Así tenemos una nueva partícula sin masa (como los fotones y los fermiones): los electrones del grafeno.

Pablo está explicando un montón de estructuras que se pueden hacer con grafeno y sus propiedades. Toda esta nueva física puede dar lugar a anuevos dispositivos. Algunas aplicaciones inmediatas son la construcción de transistores, estructuras nanomecánicas (como resonadores y membranas) o nanosensores (detecta moléculas individuales). En el futuro un poco más lejano, puntos cuánticos (para qbits y computación cuántica sin que se produzca decoherencia tan rápidamente). Es una lámina completamente impermeable perfecta o permite también diseñar circuitos a nivel atómico.

Todavía no está disponible en vídeo de la conferencia (y no sé si estará). Mientras tanto, te dejo la entrevista que le hizo Adolfo Plasencia para su programa Tecnólopis. Para verla, pincha sobre la imagen (o descárgala usando el botón derecho del ratón)

Pablo-Jarillo-Herrero en Tecnópolis

Pablo-Jarillo-Herrero en Tecnópolis

Referencias a los artículos originales

K.S. Novoselov et al.: Electric Field Effect in Atomically Thin Carbon Films.- En Science, vol. 306, núm. 5696, págs.: 666-669.- Octubre 2004.

K.S. Novoselov et al.: Two-Dimensional Gas of Massless Dirac Fermions in Graphene.- En Nature vol. 438, págs. 197-200.- Noviembre 2005.

The Temporal Logic of Rewriting

Conferencias/Charlas, Lógicas y métodos formales Comentarios desactivados en The Temporal Logic of Rewriting

Charla invitada de José Meseguer en el DSIC. Puede que sea útil para la formalización que queremos hacer de los servicios semánticos para Thomas incluyendo aspectos normativos. Como aún no ha empezado, os dejo el resumen.

In this talk, we present the temporal logic of rewriting TLR*. Syntactically, TLR* is a very simple extension of CTL* which just adds action atoms, in the form of spatial action patterns, to CTL*. Semantically and pragmatically, however, when used together with rewriting logic as a "tandem" of system specification and property specification logics, it has substantially more expressive power than purely state-based logics like CTL* , or purely action-based logics like A-CTL*. Furthermore, it avoids the system/property mismatch problem experienced in state-based or action-based logics, which makes many useful properties inexpressible in those frameworks without unnatural changes to a system's specification. The advantages in expresiveness of TLR* are gained without losing the ability to use existing tools and algorithms to model check its properties: a faithful translation of models and formulas is given that allows verifying TLR* properties with CTL* model checkers.

El model checking se ha usado con éxito sobre lógicas modales (LTL, CTL y CTL*) basadas en estados. Por otro lado, las lógicas de acción como HML ó A-CTL* permiten superar algunas de sus limitaciones, pero sin poder expresar propiedades sobre estados.

Las especificaciones formales tienen dos tareas:

  1. especificación del sistema
  2. especificación de las propiedades

Y la verificación trata de demostrar que una especificación satisface una determinada propiedad $latex \mathcal{S} \models \varphi$. El problema es que las lógicas usadas en cada parte no "encajan" bien, de forma que en ocasiones es necesario inventarse unas especificaciones y unas fórmulas distintas. Por ejemplo, en una lógica basada en estados como CTL no se puede hablar de acciones, por lo que es necesario añadir artificialmente variables con historia para realizar una traza de las acciones que se han aplicado. Los tandems de lógicas, como Kripke/CTL*, ó LTS/HML son muy utilizados pero adolecen de este problema. Se busca un tandem $latex \mathcal{L}/ \mathcal{L}$' más expresivo que permita en ambos casos expresar propiedades basadas en estados y en acciones. La propuesta es usar un tandem RewritingLogic/TLR*. Con una teoría de reescritura $latex \mathcal{R}=(\Sigma, E, R)$ que generaliza la representación de estados y acciones además de concurrencia real. Y por otra parte TRL* es una generalización de CTL* y A-CTL*.

TRL* es una lógica muy sencilla y muy semejante a CTL*. Simplemente añade una acción espacial $latex \delta$ que indica cómo y donde se aplican las reglas (reglas de reescritura etiquetadas) $latex l:t(x_1,\ldots,x_n) \rightarrow t$'$latex (x_1,\ldots,x_n)$.

Los modelos de TRL* se interpretan sobre una teoría de reescritura $latex \mathcal{R}$. Las fórmulas de camino se interpretan sobre computaciones $latex (\pi,\gamma)$ de la forma

$latex \pi(0) \xrightarrow{\gamma(0)_1} \pi(1) \xrightarrow{\gamma(1)_1}\pi(2)$ $latex \ldots \pi(n) \xrightarrow{\gamma(n)_1} \pi(n+1)$ $latex \ldots$

La semántica de nuevo es la misma que CTL*, añadiendo la interpretación de la nueva primitiva $latex \delta$. La expresividad se muestra con un ejemplo simple: un protocolo cliente-servidor con paso de mensajes asíncrono y tolerante a fallos. Por ejemplo, con una lógica como CTL* no se puede demostrar una propiedad de equidad (fairness) como que eventualmente un cliente b va a recibir un mensaje de confirmación del servidor a. Con lógicas basadas en estados no podemos hablar de qué reglas se han aplicado para llegar hasta allí (de forma directa).

Pero el model checking sobre CTL* es muy eficiente, así que es interesante poder reducir automáticamente las propiedades en TRL* a una lógica temporal basada en estados. Muestra de nuevo el ejemplo anterior, adaptado al nuevo sistema de reescritura. Lo interesante es cómo añade una componente con "memoria" que indica quién ha realizado la última acción.

$latex \mathcal{R},t \models \varphi$ $latex \iff$ $latex \mathcal{R}_w, (t,\delta) \models $ $latex \widetilde{\varphi}$

Básicamente, lo que hace es sustituir las acciones por un $latex \bigcirc$ (next) con un predicado del mismo nombre que se considera no como la ejecución de la acción, sino como una comprobación de que la acción se ha ejecutado. Este sistema genera estados infinitos, pero puede solucionarse mediante una abstracción ecuacional que lo reduzca a un sistema de estados finitos (eliminando la "recursividad"). Pero esto puede hacer que el sistema colapse determinados estados que hagan que el sistema ya no sea coherente, por lo que será necesario añadir manualmente algunas reglas (en el ejemplo, acerca de la posible pérdida de los mensajes.

Esta no es la única aproximación que permite integrar estados y acciones. Nombra

  • modal $latex \mu$-calculus
  • extensiones de A-CTL* (Fantechi y también Pecheur y Raimondi)
  • Propositional dynamic logic
  • VLRL
  • Spacial logic for concurrency (Caires y Cardelli)
  • Temporal Action Logic (Lamport)

Uno de los trabajos pendientes es poder comprobar las propiedades directamente sobre TRL*. Con eso se eliminarían las etiquetas que ahora es necesario incluir en los estados de CTL*. Además, sería mucho más eficiente y se podrían eliminar también los problemas/transformaciones necesarias para tratar con los estados infinitos. Por cierto, que los demostradores están escritos en C++.

Después de oirlo (y de recordar muchas cosas que casi se me habían olvidado), se me ocurren muchas cosas, y no todas aplicables a la especificación de servicios.

Una de ellas es ver cómo "casa" esta forma de especificar los problemas con la TBox y la ABox de las lógicas DL. Posiblemente sea suficiente con usar LTL como extensión temporal. ¿Y qué tal un sistema de reescritura que pase de TRL al formalismo de SWRL-Tab?

Para saber más...

J. Meseguer: The Temporal Logic of Rewriting.- Tech. Report UIUCDCS-R-2007-2815. Dept of Computer Science. Univ. Illinois. Feb.  2007: Urbana-Champaign

WP Theme & Icons by N.Design Studio | Modified by M. Rebollo
RSS Entradas Acceder
Blog logo: MC MECHANIC-HAND FIXING HAND Homage to MC Escher. (c) Shane Willis