Tuesday, November 30, 2010

Robustness versus evolvability


La siguiente nota se extrae en parte del Articulo del HFSP Journal, titulado “Robustness versus evolvability: A paradigm revisited,” de autores Erich Bornberg-Bauer y Linus Kramer.

Este artículo trata de la relación que existe entre la "Evolucionabilidad" y la Robustez en los sistemas biologicos. Evolucionabilidad es la característica de muchos sistemas de biologicos de adaptarse a nuevos requerimeintos del medio ambiente. La Robustez aparentemente corresponde a una característica opuesta. Sin embargo, muchos sistemas biologicos presentan ambas características, lo que a sido fuente de muchos debates en las decadas pasadas. Un modelo publicado recientemente por Draghi et al. [Nature 463, 353–355 (2010)], de manera elegante evita complicaciones derivadas de observaciones de laboratorio de sistemas moleculares, al proponer una solución analítica, la que sorprendentemente, es independiente de los parametros escogidos. Dependiendo de la cantidad de mutaciones, y la cantidad de fenotipos accesibles para cualquier genotipo, la Evolucionabilidad y la Robuistez pueden reconciliarse.

Para ir al articulo (en ingles) presionen aca.

The following news item is taken in part from the June, 2010 issue of HFSP J titled “Robustness versus evolvability: A paradigm revisited,” by Erich Bornberg-Bauer and Linus Kramer.

Evolvability is the property of a biological system to quickly adapt to new requirements. Robustness seems to be the opposite. Nonetheless many biological systems display both properties–a puzzling observation, which has caused many debates over the last decades. A recently published model by Draghi et al. [Nature 463, 353–355 (2010)] elegantly circumvents complications of earlier in silico studies of molecular systems and provides an analytical solution, which is surprisingly independent from parameter choice. Depending on the mutation rate and the number of accessible phenotypes at any given genotype, evolvability and robustness can be reconciled.

A link to this article can be found at http://dx.doi.org/10.2976/1.3404403.

Sunday, May 30, 2010

Influencia oculta de las redes socialesHidden influence of Social Networks

Charla en TED de profesor Nicholas A. Christakis, sobre como las redes sociales influyen el desarrollo de fenomenos sociales. La importancia de las redes no es siempre obvia y esta charla promueve muy bien el interés por identificar esa importancia e ilustrar sus efectos, en especial con la caracterizacion de fenomenologias complejas como la obesidad.
En ingles.

TED talk by Nicholas A. Christakis on how social networks influence the development of social phenomena. The importance of networks is not always obvious, and this talk does a very good job in identifying this importance andd highlighting its effects, specially with regard to complex social phenomena such as obesity.



Investigador
El profesor Christakis enseña en la universidad de Harvard y mayor información sobre su trabajo se puede encontrar en: Professor Christakis teaches at Harvard University and more information on his work can be found at:
1.- Su pagina en Harvard / His harvard page
2.- Pagina EDGE sobre su biografía / EDGE article
3.- Wikipedia

Thursday, May 27, 2010

Opinion de la mayoria y Teorema del Jurado / Majority Opinion and the Jury Theorem


El gran poder de la diversidad se muestra completamente al usar la opinion de la mayoria para realizar decisiones.

Michael Mauboussin produce una muy buena demostracion de esto con sus estudiantes en la escuela de negocios de Columbia. Cada año justo antes de que los premios de la academia sean anunciados, se efectúa una votacion respecto de quienes creen que serán ganadores en cada una de las 12 categorías en las que se entregan premios. No solo categorías populares como "mejor actor" sino que categorias mas ocultas como "mejor edición de pelicula" o "mejor direccion artistica".
El 2007, el promedio de respuestas correctas individuales fue 5 de 12. Sin embargo, el promedio de respuestas correctas para el grupo completo fué 11 de 12!

Porque esta la mayoria acertada en sus respuestas de forma tan frecuente? Una razón puede ser ilustrada por la historia del desarrollo de la Consititución de USA, y dos de sus mas famosos artifices, Bejamin Franklin y Tomas Jefferson.

Franklin y Jefferson ambos pasaron un tiempo en Paris antes de participar en la creación de la constitución, la que fue adptada el 1787. Ambos se involucraron en doscusiones con intelectuales franceses responsables principalmente por la pirmera constitucion francesa, la que fue completada en 1789. Uno de esos intelectales fue Marquis de Condorcet.

Condorecet había comenzado su carrera como un matematico y que en ese tiempo trabajaba como inspector de monedas en la Casa de moneda de Paris. A él le fascinaba la idea de que la matematica puediese ser utilizada para obtener argumentos que apoyaran los derechos humanos y los principios morales.

Franklin se reunión con Condercet muchas veces despues de llegar a Paris, y quedó muy impresionado de los avances que Condorcet había alcanzado con su "matematica social", indicando que "debía ser discutida". No había nada aun escito al respecto, pero todo eso cambió luego de la publicación del ensayo de Condorcet sobre la aplicacion de Analisis a la probabilidad de la decision de las mayorias, publicado en 1785.

Franklin claramente fue influenciado por las ideas de Condorcet, en especial por su prueba matemática hoy conocida como el "Teorema del Jurado de Condorcet", teorema que es considerado hoy una de los fundamentos para nuestro entendimiento del proceso democrático.

Condorcet quería encontrar una razón matemática para que un ciudadano racional aceptara la autoridad del estado como se expresa a través de la eleccion democrática. Él argumentaba que la mejor razón sería si su probabilidad individual de efectuar la decision correcta era menor que la probabilidad colectiva de escoger la alternativa correcta. Su teorema aparece probar que este es casi siempre el caso.

El teorema en su forma mas simple dice que si cada miembro del grupo tiene un 50% de posibilidad de obtener la respuesta correcta a un problema con solo 2 posibles respuestas, entonces la posibilidad de un veredicto por mayoría se acerca rapidamente al 100% a medida que el tamaño de grupo aumenta.

Incluso si la posibilidad individual de obtener la respuesta correcta es de 60%, la posibilidad de que la mayoría obtenga la respuesta correcta aumenta al 80% para un grupo de 17 personas y a 90% para un grupo de 45 personas.El teorema de jurado de Condorec aparece como una impresionante justificación matemática de la potencia que tiene la inteligencia grupal en el proceso democratico. Depende sin embargo de 5 supuestos basicos:

1.- Los individuos del grupo deben ser independientes, esto es, no deben influenciar las opiniones entre sí,

2.- No deben tener opinionbes tendenciadas (preconcevidas),

3.- Todos deben estar intentando responder la misma pregunta,

4.- Deben estar suficientemente bien informados: La probailidad de cad aindiviuo de obtener respuesta correcta debe ser mayor al 50%,

5.- Debe haber una respuesta correcta.


Estos cinco requerimientos implican que el teorema del jurado es util solo en muy restringido grupo de cisrcumstancias - aunque fue, y continua siendo, el punto de partida para discusiones sobre como se puede hacer funcionar a la democracia.

Caso práctico:

Si se analizan casos prácticos, cuando se aplica esta logica al show de televisión "quien quiere ser millonario", se encuentra que las respuestas de "consultar al publico" (90%) consistentemente son mas acertadas que las hechas por "pregunte al experto" (66%)

Además el supuesto que cada miembro de la audiencia necesita tener una probabilidad de mas del 50% de obtener una respuesta correcta, tampoco es necesaria. Un examen mas cercano revela que la inteligencia de grupo aun funciona si solo unos pocos conocen la respuesta y el resto de los individuos solo escogen con variadas probabilidades de acertar.

Para ver como funciona esto, intenten la siguiente pregunta con amigos, situación originalmente formulada por Scott Page: De las siguientes personas, ¿Quién no fué miembro del grupo musical "the Monkees" en los años 60?: Peter Tork, Davy Jones, Roger Noll, o Michael Nesmith?

Si esta pregunta se formula a 100 personas, un escenario posible es que mas de dos tercios (por ejemplo 68%) diga que no tiene idea, 15 conocerían el de uno de los miembos del grupo, 10 personas podrían identificar a 2 miembros, y solo 7 podrían saber la respuesta correcta. La respuesta correcta es Roger Noll, economista de Stanford. Cuantos votos obtendría él?

- 68 personas sin idea: implica que van a escoger al azar cualquiera de las 4 opciones: 25% de ellos escogerán la respuesta correcta: 17
- 15 identifican solo 1 miembro del grupo, escogerán al azar de cualquiera de las 3 opciones restantes: 33% de respuestas correctas: 5
- 10 personas identifican a 2 miembros del grupo: 50% de posibilidades de respuesta correcta: 5
- 7 personas que tienen 100% de obtener respuesta correcta: 7

Esto da un total de 34 respuestas correctas, superior al 22% de respuestas para cada una de las otras opciones, una mayoria clara.

Por tanto la inteligencia de grupo funciona en estos casos con solo unas pocas personas tengan conocimiento de las respuestas. En el problema anterior, la probabilidad de escoger la respuesta correcta sería mayor incluso si 68 personas no tuviesen idea de la respuesta correcta, y las 34 restrantes solo supieran el nombre de 1 integrante del grupo. Esto daría 28 votos a la respuesta correcta y solo 24 a cada una de las restantes posibilidades.

La Distribución estadística de conocimiento puede tornar este pronostico algo menos efectivo, pero si el tamaño de grupo aumenta, la diferencia se hace mas significativa hacia la respuesta correcta.

Ahora, cuando la población alcanza los millones, el voto de la mayoría puede proveer de una guia muy acertada, razón por la cual motores de busqueda como Google, Yahoo o Digg.com, lo usan como una guia muy importante en sus algoritmos de ranking.

The remarkable power of diversity reveals itself fully when it comes to using majority opinion to make decisions. Michael Mauboussin produces a neat demonstration in another experiment with his Columbia Business School students. Each year, just before the Academy Awards are announced, he gets the students to vote on who they think will win in each of twelve categories—not just popular categories like best actor but relatively obscure ones, like best film editing or best art direction.

In 2007, the average score for individuals within the group was 5 out of 12. The group as a whole, though, got 11 out of 12 right!

Why is the majority so often right? One reason can be illustrated by the story of the Constitution, and of two of its principle framers, Benjamin Franklin and Thomas Jefferson.

Franklin and Jefferson both spent time in Paris before working on framing the Constitution, which was adopted in 1787. Both of them became involved in discussions with French intellectuals who were primarily responsible for the first French constitution, which was completed in 1789. One of those intellectuals was the Marquis de Condorcet, a corresponding member of the American Philosophical Society, founded by Franklin in 1743 (and still going strong).

Condorcet had begun his career as a mathematician, but when Franklin met him he had been appointed as inspector-general of the Paris Mint at the instigation of the reforming economist Anne-Robert-Jacques Turgot. Turgot didn’t last long in the atmosphere of intrigue and double-dealing that characterized Louis XVI’s court, but Condorcet prospered. He also became fascinated by the idea that mathematics could be used to support arguments for human rights and moral principles.

Franklin met up with Condorcet many times after he arrived in Paris and was impressed by the progress that Condorcet had made with his “social mathematics,” saying at dinners he attended that it “had to be discussed.” Nothing was yet on paper, but that soon changed with the publication of Condorcet’s remarkable work Essay on the Application of Analysis to the Probability of Majority Decisions, published in 1785.

There is a copy of the book, signed by Condorcet himself, in Jefferson’s library.

Franklin was clearly influenced by Condorcet’s ideas, in particular by his mathematical proof of what is now known as “Condorcet’s jury theorem.” John Adams told Jefferson that Condorcet was a “mathematical charlatan,” but this was far from being the case, and Condorcet’s theorem is now regarded as a cornerstone for our understanding of democratic decision-making processes.

Condorcet wanted to find a mathematical reason for a rational citizen to accept the authority of the state as expressed through democratic choice. He argued that the best reason would be if his or her individual probability of making a correct choice was less than the collective probability of making a correct choice. His theorem appears to prove that this is nearly always the case.

The theorem in its simplest form says that if each member of a group has a better than 50:50 chance of getting the right answer to a question that has just two possible answers, then the chance of a majority verdict being correct rapidly becomes closer to 100 percent as the size of the group increases. Even if each individual has only a 60 percent chance of being right, the chance of the majority being right goes up to 80 percent for a group of seventeen and to 90 percent for a group of forty-five.

Condorcet’s jury theorem looks like a stunning mathematical justification of the power of group intelligence in the democratic process, but it relies on five crucial assumptions, some of which are similar, though not identical, to the elements of cognitive diversity:

1.- the individuals in the group must be independent, which means that that they mustn’t influence each other’s opinions

2.- they must be unbiased

3.- they must all be trying to answer the same question

4.- they must be well-informed enough to have a better than 50:50 chance of getting the right answer to the question

5.- there must be a right answer

These requirements mean that the jury theorem is useful only in a very restricted range of circumstances—although it was (and continues to be) a concrete starting point for discussions on how democracy can best be made to work, and on the way that consensus decisions are arrived at in nature. Condorcet even used it after the French Revolution to suggest the best method of jury trial for the king, but his ideas were not taken up in an atmosphere that was more concerned with retribution than with fairness.

Condorcet also invoked the jury theorem in a discussion about the structure of government under the new U.S. Constitution. A point on which all the Framers were firm was that the new government should consist of two houses—a House of Representatives, representing the people, and a Senate, representing the states. When copies of the U.S. Constitution arrived in Paris in November 1787, Condorcet wrote to Franklin, complaining that such a bicameral legislature was a waste of time and money because, according to his mathematical approach to decision making, “increasing the number of legislative bodies could never increase the probability of obtaining true decisions.”

The point that Condorcet missed was that the two houses were put in place to answer slightly different questions. The U.S. Supreme Court made this clear in a 1983 judgment about the functions of the two houses when it said, “the Great Compromise [of Article I], under which one House was viewed as representing the people and the other the states, allayed the fears of both the large and the small states.” In other words, the House of Representatives is there to ask, “Is X good for the people?” while the Senate’s job is to ask, “Is X best implemented by the federal government or by the states?” The fact that the two houses are answering slightly different questions negates Condorcet’s argument that one of the houses is redundant.

It might appear that the jury theorem is more relevant to the functioning of juries themselves, but here again it is a matter of how juries are set up. To take maximum advantage of group intelligence, jurors need to be truly independent, which means that each would need to listen to the arguments of both sides and then make a decision without discussing it with the other jurors. The decisions would then be pooled, and the majority decision accepted.

Condorcet suggested that Louis XVI’s jury be set up in this way, but his ideas were rejected, and as far as I can find there have been no tests of his proposal since, in France or elsewhere. It does seem a pity, because discussions between jury members before coming to a decision mean that one of the main foundations of group intelligence (that of independence) is lost. Discussions certainly have their value—allowing people to change their minds under the influence of reasoned argument—but other forces can also be at work. One of these is the social pressure to conform with other members of the group that goes under the name of “groupthink,” and which I discuss in the next chapter. So long as members of juries continue to thrash out the merits of a case between themselves before coming to a conclusion in the manner depicted in the film Twelve Angry Men, the jury theorem will largely be irrelevant to their deliberations.

It comes into its own, however, when applied to the game show Who Wants to Be a Millionaire? although it turns out that our collective judgment is even more reliable than the theorem suggests. James Surowiecki points out that the “Ask the Audience” option consistently outperforms the “Call an Expert” option. This group of “folks with nothing better to do on a weekday afternoon” produces the correct answer 90 percent of the time, while preselected experts can only manage 66 percent.

It seems like an ideal case for the jury theorem. The selections are independent. The audience is presumably unbiased. Its members are all trying to answer the same question, and the question has a definite right answer.

The assumption that all members of the audience need to have a better than 50 percent chance of getting the answer right, however, is not necessary. Close examination reveals that their group intelligence still works even if only a few people know the answer and the rest are guessing to various degrees.

To see how this works, try the following question, originated by Scott Page, on your friends. Out of Peter Tork, Davy Jones, Roger Noll, and Michael Nesmith, which one was not a member of the Monkees in the 1960s?

If you ask this question of 100 people, one possible scenario is that more than two-thirds (68, say) of them will have no clue, 15 will know the name of one of the Monkees, 10 will be able to pick two of them, and only 7 know all three. The non-Monkee is Roger Noll, a Stanford economist. How many votes will he get?

Seventeen of the 68 will choose Noll as a random choice. Five of the 15 will select him as one choice out of three. Five of the 10 will select him as one choice out of two. And all of the 7 will choose him. This gives a total of 34 votes for Noll, compared to 22 for each of the others—a very clear majority.

So group intelligence can work in this case with only a few moderately knowledgeable people in the group. It would even have a fair chance of working if 68 people had no clue and the remaining 32 only knew the name of one Monkee. One-third of these (11 to the nearest whole figure) would choose Noll as the exception, giving an average total of 28 votes for Noll and 24 for each of the others.

Statistical scatter makes this prognostication less sure, but with increasing group size the difference becomes more meaningful.

When it reaches the millions, the majority vote can provide a very sure guide, which is why search engines such as Google, Yahoo, and Digg.com use it as an important guide in their ranking algorithms.

Sunday, May 23, 2010

Dinamica de multitudes y propuestas de diseño / Crowd Dynamics and design proposals

Un interesante paper de investigacion donde se analizan una serie de situación de flujo de multitudes, y donde se proponen alternativas de diseño para evitar los efectos no deseados mas comunes en estas situaciones.

An interesting research paper where crowd dynamics in flow situations are analyzed, and design considerations are proposed to avoid their most usual unwanted results.

Self-Organized pedestrian crowd dynamics, experiments simulations and design solutions

Saturday, May 22, 2010

Alerta: primera Celula Sintetica / Alert: first Synthetic cell

En un anuncio esperdo pero preocupante el 21 de mayo 2010, Craig Venter anuncia la creacion de la primera celula sintetica, cuyo DNA fue disenado por un computador.

In an expected but anyway unsettling announcement on 21 may 2010, Craig Venter informs on the successful creation of an synthetic Cell, whose DNA has been completely designed by a computer.

Thursday, May 20, 2010

Swarm intelligence for optimal path solution / Inteligencia de enjambre para soluciones de ruta optima


El proceso de optimizacion de colonia de hormigas es un proceso de reglas muy simples pero de efecto muy potente en condiciones de información limitada (como en el caso de la mayoria de nuestros problemas reales), y por medio de uso de agentes que van dejando "rastros" de su paso por una ruta especifica.

¿Podemos usar este metodo para la resolucion de problemas prácticos en nuestra vida diaria? En efecto, sí se puede. Esta aproximación a un problema práctico se plantea hace muchos años en 1856, y a la hora de que los diseñadores del Parque Central en Nueva York debian definir las rutas que tendrían los pasos peatonales.

La respuesta de Robert J. Dillon, uno de los diseñadores, fue que la definición de estos caminos debía postponerse hasta que los mismos peatones hubieran establecido las mejores rutas por su uso. Esto es, propuso apovechar la inteligencia de enjambre de la población de Nueva York que hacía uso del parque, para determinar las rutas mas eficientes. Aquellos caminos mas utilizados se irian marcando solos a medida que el paso de peatones impide el crecimiento de vegetación.

El paso de peatones y el subsecuente retraso en el crecimiento de la vegetación por este paso, equivale al rastro de feromona que dejan las hormigas. Además el crecimiento posterior de vegetacion en caso de no haber mucho transito de peatones, equivaldría a la evaporación de feromonas, resultando en una disminución no lineal de rastros, y borrado de rutas no privilegiadas.

Este fenomeno es ampliamente visible en una variedad de situaciones y por una variedad de fuentes:
1.- Caminos mas transitados por montañistas en los cerros,
2.- Sitios de recomendación de otros sitios de Internet (tales como Digg.com, o Stumbleupon, en cuales casos los cibernautas dejan recomendaciones de sitios preferidos, equivalentes a "rastros" de feromona visibles por otros cibernautas),
3.- Senderos trazados por los bosquimanos en el desierto del Kalahari,
4.- Senderos cordilleranos usados por ganado pastando o migrando, senderos en bosques utilizados por pequeños mamiferos,
5.- etc.

Desafortunadamente la idea no fue acogida, pero este ejemplo de feedback positivo ha sido probado ser un metodo de obtencion de soluciones eficientes.

"Ant Colony" optimization is a process of very simple rules, but of very powerful effect in conditions of limited information (most of our real problems), and through the use of agents that leave trails of their path through a specific route.

Could we use a similar procedure to resolve traveling and networking problems in our own lives? Robert J. Dillon, one of the original Central Park commissioners, had one idea when he suggested in 1856 that the planning of pathways in the park should be postponed until New York City pedestrians had established them by habit, with the more deeply marked paths corresponding to those that were most used and therefore most efficient.

In other words, he proposed making use of the Swarm Intelligence of the population that used Central Park to determine those routes. Those routes used most frequently would become clear as each transit delayed vegetation growth (equivalent to the pheromone trail in the case of an ant colony). On the other hand, if a route was less travelled, vegetation would slowly start to grow again, process that would be equivalent to feromone evaporation, leading to a non-linear elimination of less-privileged routes.

This phenomenon is evident in a series of situations:
1.- Walking trains in mountains, situation similar to the central park example,
2.- Recommendation sites such as Digg.com or StumbleUpon (user recommendation would amount to "pheromone" creation as the recomendation is seen by other users),
3.- Bushmen trails through the kalahari desert,
4.- Trails through forests as used by small animals, etc.

Dillon did not get his way, but recent research by German traffic engineer Dirk Helbing and his colleagues has shown that Dillon’s solution, a neat example of ant colony optimization as practiced in human society, would have been a good one.

Tuesday, May 18, 2010

Dinamica de redes por estudio de muestras / Sample study of network dynamics


El estudio de redes por medio de teoría de grafos, por ejemplo, nos puede llevar a mejor entender la distribución de información a través de la red. Un caso muy particular es la dinámica en el contagio de enfermedades. Dependiendo del contacto que cada nodo tenga con otros nodos de la red, esto influirá directamente en el esparcimiento del contagio.

Sin embargo, configurar grafos de redes sociales no es un tema simple, dado que estas redes tienden a esparcirse muy rápidamente, y en un contexto social es muy raro el caso donde todos los contactos entre agentes estén restringidos a solo unos cientos de individuos. Cualquier estudio de distribución de contactos debe incluir varios miles de agentes para poder contener alguna información de valor.

Dentro de este contexto, existen estudios para intentar explicar dinamicas de contagio al tomar solo algunas muestras de la poblacion y estudiar sus relaciones de primer nivel.

Ver estudio (en ingles) aqui


The study of Networks through graph theory, for instance, can lead us to better understand the distribution of information within a network. A very particular case is the instance of contageous outbreaks. Depending on the contact each node has with other nodes, this will directly influence the contagious outbreak development.

However, making the graph distribution even of a very simple group is no easy task., since contacts tend to radiate very quickly, and it is a very rare instance where all possible contacts can be reduced to a few hhundred individuals. Any study on the distribution of contacts will include at least a few thousand individuals to deliver any meaningful information.

Within this context, there has been the development of studies to substantiate the possibility of making approximations to the dynamics of contageous outbreaks through the use of sample individuales and the study of only these individual's first tier contacts.
Access this study here

Wednesday, March 3, 2010

La Cultura - una fuerza evolutiva? / Culture, an evolutionary force?

En un interesante articulo publicado esta semana por en New York Times, el periodista cientifico Nicholas Wade informa de la teoria que a raiz de la tecnologia humana, la que ha impedido la seleccion natural actue por medio de las restricciones tradicionales como Pandemias, Hambrunas o el Clima, a permitido que otras fuerzas entren en accion para configurar la evolucion de la humanidad: su Cultura.

La idea de que los genes y la Cultura Coevolucionan esta siendo propuesta por Robert Boyd de la Universidad de California, Los Angeles, y Peter J. Richerson de la University de California, en Davis.

Lean este interesante articulo aqui


In an intersting article published this week in the New York Times, the scientific journalist Nicholas Wade informs on the recent theory that, due to human technology, nature has been restricred from effecting evolution through the usual restrictions such as Pandemics, Famine or Climate, and has allowed other forces to come into action for the evolution of humanity: its Culture.

The idea that the genes and Culture Coevolve, is being proposed by Robert Boyd at the University of California, Los Angeles, and Peter J. Richerson at the University of California, Davis.

Read this interesting article here






Product Details (Amazon)
Paperback: 656 pages
Publisher: Stanford University Press (August 1, 1992)
Language: English
ISBN-10: 0804721564
ISBN-13: 978-0804721561
Product Dimensions: 9.4 x 6.5 x 1.5 inches

Thursday, February 18, 2010

Paper - Complejidad, Habitos y evolucion

Complexity, Habits and Evolution
Este articulo aborda lo que es descrito como Sistemas Adaptativos Complejos. Tipicamente estos sistemas involucran poblaciones de entidades que almacenan y replican información. Sin embargo estos microaspectos, no son muy profundamente explorados normalmente, quedandose los analisis en sus macroefectos, especialmente la auto-organizacion y las propiedades emergentes. Estas omisiones son enfrentadas aquí, con un enfasis partiular en hábitos individuales y rutinas organizacionales. Se argumenta que tales consideraciones abren la posibilidad de un marco evolutivo meta-teorico para entender sistemas complejos adaptativos. Este ensayo tambien utiliza conceptos de la economia evolutiva e institucional y contrasta este enfoque con algunos supuestos estandar de la economia tradicional ortodoxa (mainstream).

This article addresses what are often described as ‘complex adaptive systems.’ Typically such systems involve populations of entities that store and replicate information. But these micro aspects are less fully explored in most accounts, which concentrate on macro-outcomes of complex adaptive systems, particularly self-organisation and emergent properties. These omissions are addressed here, with a stress on the roles of individual habits and organisational routines. It is argued that such considerations open up the possibility of a meta-theoretical evolutionary framework for understanding complex adaptive systems. This essay also makes use of some insights from evolutionary and institutional economics and contrasts its approach with some standard assumptions in mainstream economics.

Friday, February 12, 2010

Curso: Modelacion de Sistemas Adaptativos Complejos a traves de Modelación por Agentes

La Universidad de Delft Ha generado un curso llamado SPM 955x - Agent Based Modeling of Complex Adaptive Systemspara el 2010, y ha compartido en linea sus apuntes y notas de clases.

La improvisacion y los Sistemas Adaptativos Complejos


La teoria de los Sistemas Adaptativos Complejos tiene influencias en todos los ambitos, y el ensayo sobre los "Sistemas Adaptativos Complejos y la improvisacion teatral" es una clara muestra de ello. El colectivo que piensa sobre este paradigma esta utilizando los conceptos de adaptacion, caos y restricciones de medio ambiente para explorar efectos en la improvisacion teatral, derivando una serie de principios que segun la experiencia de la autora, son determinantes en generar interacciones consistentes, aparentemente pauteadas, pero enteramente espontaneas:

1.- "Si Y". Aceptar enteramente la realidad que se estaba presentando, y el añadir una NUEVA pieza de información - Esto es lo que ella considera que lo hace adaptable, que se mueva hacia adelante y que se mantenga como interaccion generativa. Cada protagonsita (agente) le es ofrecido y ofrece una contribucion unica.

2. "Haz que todos los otros se vean bien". Lo que significa que uno no tenga que estar defendiendo o justificando su posicion - Los otros lo hacen por ti y tu lo haces por los demas. Sin el peso de la competencia o necesidad de defensa, todos son libres de crear. Personajes complejos pueden tomar forma que permiten la emergencia de acciones y direcciones impredecibles.

3. "Cambia por lo dicho y por lo que pasa". En cada momento, nueva informacion es una invitacion para una nueva reaccion, o para que tu personaje experimente un nuevo aspecto de estos. El cambio inspira nuevas ideas, y eso naturalmente desencadena lo que sigue. Tu te adaptas a medida que una estructura se disipa y reorganiza en una nueva estructura, que expande, e incluye lo que lo precede.

4. "Co-Crea una agenda compartida". Este principio implica el reconocer que incluso los mejores planes pueden ser abandonados en un momento, y para servir la realidad de lo que esta en frente tuyo. Tu estas entonces co-creando una agenda compartida en tiempo real. A fin de mantener el juego, tu respondes en el momento y asi emerge una agenda que es mas inclusiva que cualquier cosa que oudiera haber sido planificada. No es consensus, que reduce, sino que es Co-creativa, que expande.

5. "Los Errores son invitaciones". En las improvisaciones, los errores son bienvenidos, son las anomalias que estimulan a los protagonistas a un nuevo nivel de creatividad. Al usar tecnicas de improvisacion, tales como ustificar cualquier error, it can be transformado en un ingenioso argumento o dialogo que nunca habría ocurrido al seguir los patrones convencionales. Al improvisar, la justificacion crea orden desde el caos. Errores quiebran los patrones y permiten la emergencia de patrones nuevos.

6. "Mantén la energía fluyendo". No importando lo dado, o lo que ocurra, aceptalo y mantente en movimiento. Por el contrario a la vida comun, donde la gente se para a analizar, criticar o negar, al improvisar, debes mantenerte en movimiento. Si ocurre un error, dejalo y avanza. Si lo inesperado emerge, usalo para avanzar. Si alguien se olvida de algo importante, justificalo y avanza. Si estas perdido o confundido, inventa algo y confia en el proceso. Solo mantente en movimiento. El sistema no es estatico, sino que esta vivo y es dinamico.

7. "Sirve el bien del todo". Siempre lleva esta pregunta: "Como puedo servir el bien de esta situacion?", para asi tener un mejor sentido de cuando ingresar o cuando retrasar tu entrada, cundo tomar el foco o cuando darlo, y como mejor apoyar a tus compañeros de escena y como mejor apoyar la escena. En vez de enfocarte en como te ves, y mejor enfocandote en servir el bien superior - la vitalidad del sistema - tienes mas impulsos creativos y recursos a tu disposicion en cada momento, y las elecciones que hagas estarán mas alineadas con los niveles mas altos de integracion creativa que forman una obra coherente.

Para mi, estos principios y conceptos, enteramente derivados de la experiencia, tienen aplicacion en una serie de problematicas organizacionales y adptativas. Para leer el articulo en ingles, ingresa aqui.

Saturday, February 6, 2010

Superorganismos - Superorganisms


Superorganismos son individuos agregados que poseen un comportamiento de un organismo unificado. Miembros de un superorganismo tiene instintos sociales altamente especializdos, division de trabajo, y son incapaces de sobrevivir lejos del su superorganismo por mucho tiempo. El ejemplo estandar para un superorganismo son las colonias de hormigas, pero existen muchos otros -- colonias de termitas, abejas, nidos de abispas, coral, sociedades de arboles geneticamente identicos, etc.

Este video muestra una charla en relacion al libro "Super-Organismo", publicado el 2009, y escrito por Bert Hölldobler & E.O. Wilson (autor además del clasico "Sociobiologia")

A superorganism is any aggregate of individual organisms that behaves like a unified organism. Members of a superorganism have highly specialized social cooperative instincts, divisions of labor, and are unable to survive away from their superorganism for very long. The standard example of a superorganism is an ant colony, but there are many others -- termite mounds, bee hives, wasp nests, coral reefs, fungal colonies, groves of genetically identical trees, etc.

This video shows a talk in relation to the 2009 published book "Super-Organism" by Bert Hölldobler & E.O. Wilson (Author also of the classic work "Sociobiology")






Product Details (Amazon)
Hardcover: 544 pages
Publisher: W. W. Norton & Company; 1 edition (November 17, 2008)
Language: English
ISBN-10: 0393067041
ISBN-13: 978-0393067040
Product Dimensions: 10.1 x 8.1 x 1.6 inches






Product Details (Amazon)
Paperback: 720 pages
Publisher: Belknap Press of Harvard University Press; Twenty-Fifth Anniversary Edition edition (March 4, 2000)
Language: English
ISBN-10: 0674002350
ISBN-13: 978-0674002357
Product Dimensions: 9.7 x 9.7 x 1.5 inches

Sunday, January 31, 2010

La vida Secreta del Caos - The Secret Life of Chaos

Este es un programa de la BBC de Londres, que investiga el desarrollo de la Ciencia del Caos y la Complejidad. Fascinante. Esta en Ingles.

This is a program from BBC broadcasted in 2010, and which investigates the development of complexity Science. Fascinating.

PART 1 / PARTE 1


PART 2 / PARTE 2


PART 3 / PARTE 3


PART 4 / PARTE 4


PART 5 / PARTE 5


PART 6 / PARTE 6

Saturday, January 16, 2010

Sintesis de los Sistemas Complejos


Este diagrama muestra de forma resumida los factores mas importantes que inlfuyen en la generación de comportamientos emergentes.
Elemento de Variacion en el ambiente, influye en generar las condiciones para la adpatabilidad de nuevas alternativas, acogiendo nuevas alternativas organicas.
Elemento de Escasez impulsa a la generacion de alternativas organicas para el uso mas eficiente de recursos o la explotacion de nichos de desarrollo.
Elemento de Redes posibilita la busqueda de estrategias distintas en atacar problemas de forma organizada
Elemento de Cooperacion contribuye con estrategias que no necesariamente explotan maximos locales sino que se atreven a explorar mas alla en la busqueda de maximos globales de eficiencia en uso de recursos.

Thursday, January 7, 2010

Estructuras complejas - Enjambres


Este impresionante video muestra el resultado de cientos de miles de pajaros volando y las impresionantes estructuras que forman a la distancia.

Complejidad - Quien es quien

Navegando por Internet y a fin de entender cual es el alcance de las investigaciones actuales en el tema de los Sistemas Complejos, llegue a una interesante lista de los grandes nombres en el tema de la Cibernetica y los pensadores sistemicos:

Para acceder presiona aqui

Wednesday, January 6, 2010

Midiendo la Complejidad


Uno de los problemas actuales en el estudio de los sistemas complejos en general y de los Sistemas Adaptativos Complejos en particular, es cómo podemos medirlos, y dado que la medicion de estos sistemas es un requerimiento basico a a hora de comparar sistemas de forma cientifica y de buscar su optimizacion.

Esta es una pregunta abierta, pero existen alternativas que han sido propuestas, la ultima de las cuales lei en el libro "Cosmic Evolution: The Rise of Complexity in Nature. Eric J. Chaisson".

Al presentar la historia de la complejidad el autor intenta probar 2 cosas. Por una parte pretende mostrar que los aumentos en complejidad son compatibles con la segunda ley de termodinamica. La segunda ley, en su interpretacion mecanica-estadistica, requiere que el desorden aumente en un sistema cerrado, lo que implicaría que la complejidad (lo contrario a desoden) debería disminuir. Sin embargo, una estructura compleja como una galaxia, una estrella o un organismo es un sistema abierto, capaz de sustentar complejidad al exportar suficiente desorden a su ambiente, para mas que justificar sus aumentos de complejidad internos. De hecho, la segunda ley se mantiene dado que el desorden si aumenta en el sistema mayor, aquel que consiste de la estructura compleja mas su ambiente circundante. Por ejemplo, el aumento de complejidad en una estrella joven, tiene su balance en el desorden que exporta a su ambiente a traves de la radiacion.

Su segunda meta es demostrar que el fenomeno fisico que produce complejidad es la misma para todas estas transiciones. De forma muy basica el fenomeno que el explica es como sigue: Donde existen fuertes gradientes de energía, a veces las condiciones son correctas para la emergencia espontanea de estructuras que tiendan a disipar estos gradientes. Mientras este gradiente exista, esas estructuras posrán ser estables, mantenidas en un cuasi estado-estable de alta complejidad, esto es lejos de equilibrio en el sentido estadistico-mecanico, por el flujo de energia a traves de ellas.

Un ejemplo clasico son los huracanes. Esta es una estructura que nace de un gradiente termico entra la alta y la baja atmosfera. Esta estructura es compleja, y disipativa, esto es, que permite la reduccion de este gradiente al transferir aire caliente desde la superficie marina a la fria atmosfera superior.

El autor argumenta que las estrellas tambien son estructuras disipativas, dsipando los gradientes de energia producido por las nubes de hidrogeno colapsando por la fuerza gravitacional, o que los organismos biologicos tambien confirmarían estructuras disipadoras de la especie de gradiente de alta energia contenida entre las estructuras quimicas complejas de su fuente de alimento, y la baja complejidad de sus excrementos.

Pero como medimos la complejidad? Este autor propone que una medida de su complejidad puede ser la densidad de energia. o la razon de flujo de energia a traves dek sistema por unidad de masa, o φm. Esta cantidad, argumenta, sería inversamente proporcional al desorden del sistema, y por tanto en correlacion directa con su complejidad.

Esta afirmacion no esta excenta de problemas, sin embargo φm tiene la gran virtud de ser medible en sistemas reales. En este libro el autor nos muestra calculos de su medicion para un amplio rango de sistemas, incluyendo el sol (φm ~ 2 ergs/seg/gramo), la mente humana (150,000 ergs/seg/gram) y la civilizacion humana(500,000 ergs/seg/gram). Ademas en una serie de diagramas muy interesantes, el muestra que φm aumenta de galaxia a sociedad, y por tanto tambien aumenta en el tiempo.

Porque existiria entonces esta tendencia en φm? Basicamente el autor explica que en sistemas lejos de equilibrio, (incluyendo el universo) las estructuras disipativas dominantes serán aquellas que sean capaces de capturar la mayor proporcion del flujo de energia. Por tanto φm debería aumentar a medida que nuevas estructuras emergen (por fluctuaciones o mutaciones) y a medida que el sistema "descubre" nuevas rutas disipativas.

Esta es una alternativa interesante en el aprendizaje sobre sistemas complejos, su modelacion y cuantificacion.





Product Details (Amazon)
Paperback: 288 pages
Publisher: Harvard University Press (October 15, 2002)
Language: English
ISBN-10: 0674009878
ISBN-13: 978-0674009875
Product Dimensions: 9 x 5.9 x 0.8 inches

Centro de Ciencia de la Complejidad en Univ. de Warwick


La Universidad de Warwick se esta convirtiendo en uno de los centros mas importantes a nivel europeo y mundial en la investigacion de sistemas adaptativos complejos. Es necesario saber como funcionan, como es posible influir sobre sus efectos, como es posible medir la complejidad.
Este video muestra la actividad de este centro y entrega una pequeña introduccion en aplicaciones pracicas potenciales de esta forma de enfrentar los fenomenos complejos.

Warwick University is quickly becoming on the main research centres at a european level in the subject of Complexuty Science and Complex Adaptive Systems. It's necessary to determine how they work, how is it possible to influence their effects and how the complexity can be measured, for effective scientific approach to its management.
This video shows the activity of ths Research Center, and introduced briefly some practical ways in which this new form of approaching complex problems can be applied.

Tuesday, January 5, 2010

Resolviendo el trafico como las hormigas


El uso de algoritmos basados en la organizacion de las hormigas para la generacion de modelos para el control de trafico, parece ser una prometerdora aplicacion de la inteligencia distribuida de enjambres, y la modelacion basada en agentes. Reportaje está en ingles.

The use of algorithms based on ant organization for the generation of trafic control models, appears to be a promessing application for distributed inteligence, and agent based models. Video in english

ShareThis