ÉCONOMIE COGNITIVE
Ile de Berder (Morbihan) 14-19 mai 2000
retour à la page d'accueil de l'Ecole :
Programme et résumés
© CNRS 2000
Une version papier de ce document a été distribuée sur place aux participants.
Lundi 15 mai
9h-10h30 : André Orléan : Problématiques de lEconomie Cognitive
11h-12h30 Bernard Walliser : Révision des croyances
16h-19h30 Jean-Yves Jaffray et Michèle Cohen : Révision des croyances non probabilistes : théories et expérimentations
18h-19h30 Jean Baratgin : Psychologie de la révision des croyances : le modèle bayésien en question
Mardi 16 mai
9h-10h30 Paul Bourgine : Modèles de la cognition
11h-12h30 Alan Kirman : Modèles de la rationalité
16h-19h30 Bertrand Munier : Rationalité face au risque et expérimentation
18h-19h30 Paul Bourgine et Benoit Leloup : Compromis exploration/exploitation
Mercredi 17 mai
9h-10h30 Jacques Lesourne : Marché et Auto-organisation
11h-12h30 Marco Valente : Learning and Evolutionary Economics
13h30-15h Gérard Weisbuch : Oranisation des marchés en rationalité limitée
13h30-15h Patrick Cohendet : Routines et connaissances
15h- après-midi libre
Jeudi 18 mai
9h-10h30 Jean-François Lallier : Théorie des jeux evolutionistes
11h-12h30 Jean-Pierre Nadal : Apprentissage, Réseaux de neurones et phénomènes collectifs
16h-17h30 Marie Cottrell : Apprentissage auto-organisateur : applications à lanalyse exploratoire de données
18h-19h30 Marco Valente : Models of learning : GA, CS ans GP
16h-17h30 Bernard Ruffieux : Approches expérimentales de lefficacité informationnelle des marchés
18h-19h30 Jean-Michel Dalle : Ordre endogène et diffusion des innovations
Vendredi 19 mai
9h-10h30 Serge Galam : Imitation et dynamique de la formation des opinions
11h-12h30 André Orléan : Institutions, rationalité et conventions
14h-15h30 Denis Phan : Apprentissages individuels et collectifs dans un système multi-agent reposant sur la programmation objet
14h-15h30 Bastien Choppard : Modèles de compétition dopinions
16h-17h30 : Synthèse
RESUMES
Problématiques de
lÉconomie cognitive André Orléan
CEPREMAP
andre.orlean"at"cepremap.cnrs.fr
La notion déconomie cognitive me semble pouvoir être revendiquée par trois approches. La première correspond aux nombreux travaux que mènent économistes et gestionnaires à propos des décisions individuelles et de la manière de les modéliser. Il sagit dune tradition fort ancienne qui remonte à la naissance même de ces disciplines. Cette économie peut, à lévidence, être qualifiée de " cognitive " puisquelle a pour objet les processus mentaux des agents économiques. Rationalité procédurale, rationalité limitée, révision des croyances, comportement face au risque sont quelques-uns des domaines explorés par cette " économie cognitive ". Notre école thématique lui consacrera les journées de lundi et mardi. Notons que la communauté de recherche qui est ici concernée nest nullement limitée aux seuls économistes et gestionnaires. Tout au contraire, elle est le lieu dune forte interdisciplinarité qui rassemble des psychologues et des logiciens. Herbert Simon symbolise parfaitement cette dimension interdisciplinaire.
Une deuxième définition de léconomie cognitive prend appui sur lexistence de convergences de facto entre théorie économique et sciences cognitives naissantes autour de lutilisation doutils formels spécifiques comme les modèles connexionnistes ou les systèmes de classeurs. Il sest ainsi créé une interdisciplinarité sauvage, fort féconde. La liste de ces rencontres est longue et disparate car les outils concernés peuvent appartenir à des disciplines très diverses (intelligence artificielle, physique statistique, neurobiologie, mathématiques, etc.). Je classerais volontiers les travaux et les publications du Santa Fe Institute dans cette catégorie. Dans cet exemple précis, ce sont les outils formels propres à lanalyse des systèmes complexes qui ont été mobilisés. Au cours de notre école thématique, cette forme déconomie cognitive est bien représentée : le compromis exploration/exploitation, le modèle connexionniste, les sytèmes de classeurs ou la notion dauto-organisation sont quelques illustrations de convergences entre économie et sciences cognitives.
Enfin, une troisième acception du terme " économie cognitive " a été avancée pour désigner un programme de recherches propre à la théorie économique. Ce programme de recherches met en avant les impasses actuelles du paradigme dominant en Économie, trop peu sensible au rôle que jouent les représentations, les croyances et les institutions. Il sagit alors de développer une économie qui donne toute sa place à ces notions. Cette attitude trouve, en France, plusieurs défenseurs. On pense, par exemple, à léconomie des conventions qui a construit ses analyses autour de la question de la coordination des croyances individuelles et des " dispositifs cognitifs collectifs ". Soulignons quil sagit dun courant pluridisciplinaire puisque la sociologie y joue un grand rôle avec les travaux de Mark Granovetter sur les réseaux ou ceux de Laurent Thévenot sur la notion dobjet. Les travaux de Bernard Walliser sont également représentatifs de cette troisième approche. Il définit léconomie cognitive à la convergence dune approche cognitiviste stricto sensu et dune approche évolutionniste. Cette troisième perspective est présente implicitement dans un grand nombre des exposés que propose notre école thématique.
Si distinguer ces trois définitions peut être éclairant pour qui veut démêler certaines des confusions auxquelles lutilisation du terme " économie cognitive " donne lieu, il nen reste pas moins que ces trois approches partagent de nombreux points communs que lexposé mettra en évidence. On insistera tout particulièrement sur la dimension interdisciplinaire de léconomie cognitive.
BIBLIOGRAPHIE
Anderson, P. ; Arrow, K. et D. Pines (éds.), The economy as an evolving complex system, Santa Fe Institute in the Sciences of Complexity, Addison-Wesley Publishing Company, 1988.
Boltansky, Luc et Laurent Thévenot, De la justification, Gallimard, 1991.
Conein, B. ; Dodier, N. et L. Thévenot (éds.), Les objets dans laction, série " Raisons pratiques ", n°4, Paris, Éditions de lEHESS, 1993.
Lesourne, Jacques et André Orléan (éds.), Advances in Self-Organization and Evolutionary Economics, Economica, 1999.
Munier, Bertrand et André Orléan, Rapport sur les liens entre sciences cognitives et sciences économiques et de gestion, décembre 1993.
Orléan, André (éd.), Analyse économique des conventions, Presses Universitaires de France, 1994
Walliser, Bernard, Léconomie cognitive, Odile Jacob, 2000.
LA REVISION DES CROYANCES Bernard Walliser
ENPC-Ecole Polytechnique
walliser"at"pss.enpc.fr
En contrepoint de la formalisation classique des préférences de lacteur, se développe actuellement une formalisation de ses croyances, qui sappuie tant sur la logique épistémique que sur le calcul des probabilités. Ces croyances sexpriment de façon équivalente sous une forme syntaxique (propositions et opérateurs de connaissance) ou sémantique (mondes possibles et relations daccessibilité). Elles traduisent lincertitude de lacteur sous forme ensembliste (propositionnelle) ou probabiliste, voire prennent en compte une incertitude plus radicale et des possibilités derreur. Elles adoptent une structure hiérarchique quand un acteur a des croyances sur ses propres croyances (incertitude +ambiguïté), comme dans le cas des fonctions de croyances ou des familles de probabilités. Elles sont surtout hiérarchiques quand les acteurs ont des croyances croisées (´ je sais que tu sais que je sais . ª), une situation typique dans les interactions stratégiques de la théorie des jeux.
Le problème central est dès lors celui de la révision des croyances, pertinente aussi bien dans un raisonnement éductif que dans un apprentissage épistémique. Cette révision intervient dans deux contextes distincts :
a) le ´ revising ª, lorsquun message apporte une information nouvelle sur un contexte inchangé (ce message pouvant être en contradiction avec la croyance initiale)
b) l ´updating ª, lorsquun message apporte une information sur lévolution du contexte (ce message étant toujours compatible avec la croyance initiale).
La révision est alors soumise à des axiomes traduisant la rationalité cognitive de lacteur , auxquels correspondent des règles de révision explicites. Dabord étudiée dans un cadre ensembliste, elle peut être étendue à un cadre probabiliste, où la règle de Bayes, habituellement utilisée en revising , voit son domaine dapplication mieux cerné.
La révision des croyances peut également être appliquée à des croyances hiérarchiques, avec lapparition dun nouveau contexte de révision , le ´ focusing ª, relatif à un message sur un objet tiré au hasard dans une population. Le problème de la révision se pose également lorsquun acteur reçoit un message incertain et celui de la révision itérée lorsque lacteur reçoit plusieurs messages successifs. Enfin, la révision des croyances est étroitement liée à dautres modes de raisonnement comme la déduction non monotone, labduction ou le raisonnement conditionnel (en particulier contrefactuel), également mobilisés en théorie des jeux .
BIBLIOGRAPHIE
Billot,A.-B.Walliser (1998) : Epistemic properties of belief hierarchies, Journal of Mathematical Economics , 32, 185-205.
Dubois,D.-Prade,H.(1994) : A survey of belief revision and updating rules in various uncertainty models, International Journal of Intelligent Systems,9,61-100.
Gardenfors,P .(1988) : Knowledge in flux, MIT Press.
Hughes,G.-Creswell,M.(1985) : An introduction to modal logic, Methuen.
TARK5 1986-1988-1990-1992-1994-1996-1998) : Biannual conferences on Theoretical Aspects of Reasoning and Rationality,Morgan Kaufmann.
Walliser,B.(2000) : LEconomie Cognitive, Odile Jacob.
Walliser,B.-D.Zwirn(2000) : Can Bayes rule be justified by cognitive rationality principles ?, mimeo CREA
Psychologie de la révision des croyances : le modèle bayésien en question Jean Baratgin baratgin"at"staps.univ-mrs.fr Depuis les années 1960, de nombreux courants de
recherches en psychologie se sont efforcés de vérifier si
lêtre humain révise ses degrés de croyances de
manière cohérente en prenant comme modèle la
" théorie bayésienne ". Les principales
conclusions de ses études (souvent citées en économie)
sont globalement pessimistes sur le " caractère
bayésien " de lagent. Il est trouvé
" conservateur " car ses révisions se
révèlent moins optimales que ce que prescrit la règle
de Bayes (cf. par exemple : Phillips et Edwards, 1966 ; Peterson
et Beach, 1967 ; Edwards, 1968), il néglige les taux de base
(la référence numérique qui décrit la
distribution d'un caractère dans une population) assimilés
dans les expériences aux degrés de croyance a priori
(Kahneman et Tversky, 1972 ; Kahneman et Tversky, 1973), il est plus
performant sous un format fréquentiste (Gigerenzer, Hell et Blank,
1988, Gigerenzer et Hoffrage, 1995). Cette littérature, cependant,réduit souvent le bayésianisme au simple usage de la règle
de Bayes. Il apparaît en conséquence légitime avant
tout travail expérimental de préciser la notion de
" cohérence bayésienne ". En particulier,
dans une interprétation radicalement subjective du modèle
bayésien (interprétation épistémique de la
probabilité et apprentissage subjectif du nouveau message par
lagent, cf. par exemple de Finetti, 1937), les résultats
expérimentaux sont questionnables. Cette interprétation a
comme implication principale pour létude expérimentale
de considérer le protocole informationnel utilisé par
lagent (et donc lobligation de considérer les facteurs
pragmatiques et contextuels de la tâche expérimentale).
Suivant ce point de vue, le problème phare de la littérature
expérimentale de lutilisation des taux de base est revue. Les
deux résultats principaux trouvés sont dune part, le
lien entre le respect de la contrainte de complémentarité et
lutilisation des taux de base, et dautre part,
lutilisation des taux de base quand ceux-ci coïncident avec les
croyances a priori des sujets (Baratgin et Noveck, 2000). Enfin, une
perspective de recherche expérimentale sur laspect dynamique
de la révision des croyances est proposé en mettant
laccent sur létude des propriétés
formelles de la révision des croyances (cf. Walliser et Zwirn,
2000). BIBLIOGRAPHIE Baratgin, J et Noveck, I. (2000). "Not only the base
rates are neglected in the Engineer-Lawyer problem : an investigation
of reasoners underutilization of complementarity". Memory and
Cognition. 1, 519-590. De Finetti, B. (1937). " La prévision,
ses lois logiques, ses sources subjectives ". Annales de
linstitut Henri Poincaré, Vol. VII, p. 1-68. Edwards, W. (1968). "Conservatism in human
processing". In Kleinmuntz, B. (Ed.), Formal representation of human
judgment. New-York: Wiley. Plusieurs passages sont repris dans
Kahneman, Slovic, et Tversky (1982), p. 359-369. Gigerenzer, G. et Hoffrage, U. (1995). "How to Improve
Bayesian Reasoning Without Instruction: Frequency Formats".
Psychological Review, 102, p. 684-704. Gigerenzer, G., Hell, W. et Blank, H. (1988).
Presentation and content: The use of base rates as a continuous variable.
Journal of Experimental Psychology: Human Perception and Performance,
14, p. 513-525. Kahneman, D. et Tversky, A. (1972a). "On prediction and
judgment". ORI Research Monograph, 12(4). Kahneman, D. et Tversky, A. (1973). "On the psychology
of prediction". Psychological Review, 80, p. 237-251. Peterson, C. R. et Beach, L. R. (1967). "Man as an
intuitive statistician". Psychological Bulletin, 68, p.
29-46. Phillips, L. D. et Edwards, W. (1966). "Conservatism in
a simple probability inference task". Journal of Experimental
Psychology, 72, p. 346-354. Walliser, B. et Zwirn, D. (2000). "Can Bayes rule be
justify by cognitive rationality principles ". CREA
Révision des croyances non probabilistes : théories et expérimentations Michèle Cohen* et Jean-Yves Jaffray** *EUREQua-Université Paris 1 - **LIP6-Université Paris 6 cohenmd"at"asterix.univ-paris1.
fr jean-yves.jaffray"at"lip6.fr Les procédures de révélation
des probabilités subjectives se heurtent fréquemment au
phénomène suivant : la probabilité dun
événement et celle de son complémentaire ont une somme
inférieure à lunité
(´ défaut ªde probabilité ), (
Ellsberg, 1961). Cet écart entre observation et théorie
disparaît dans les modèles où les croyances sur les
événements ne sont plus additives. Nous introduirons le modèle CEU, (Denneberg,
1994, Schmeidler, 1982, 1989, Cohen et Tallon, 2000)
´ espérance dutilité à la
Choquet ª dans lequel les capacités des
événements peuvent sinterpréter soit comme des
probabilités inférieures, (modèle à lois a
priori multiples, Gilboa et Schmeidler, 1989), soit plus
généralement comme des combinaisons de probabilités
inférieures et supérieures (modèle de Hurwicz
généralisé, Hurwicz, 1951, Jaffray et Philippe,
1997). Nous présenterons également des
modèles où les capacités ne sont pas
interprétées comme des probabilités imprécises
mais des fonctions de croyance ( Shafer, 1976, Jaffray et Wakker, 1994), ou
de possibilité/nécessité, ( Dubois et Prade, 1994). La révision des croyances pose, dans ces
modèles, des problèmes qui napparaissent pas dans le
modèle Bayésien : il existe en effet plusieurs
façons dacquérir de linformation ( Cohen, Gilboa,
Jaffray et Schmeidler, 2000). La formule de conditionnement de Bayes peut se
généraliser de diverses manières ( Fagin et Halpern,
1990, Gilboa et Schmeidler, 1993, Walley, 1981, 1991) et la formule la plus
appropriée à tel ou tel type dinformation nest
pas forcément évidente ; lexistence même
dun conditionnement transformant les capacités en
dautres capacités est elle-même discutable ( Jaffray,
1992). Une petite illustration expérimentale
sensibilisera les participants aux problèmes liés à la
diversité des types dinformation. Partant de la typologie standard ( focusing, updating,
Dubois et Prade, 1994 ), on discutera de lexistence et de la forme
dun conditionnement dans chacun des types introduits. BIBLIOGRAPHIE Cohen, M. et J.M. Tallon, 2000,
´ Décision dans le risque et lincertain :
Lapport des modèles non-additifs ª, Revue
déconomie politique, Bilans, essais, n°3. Dempster A.P., 1967 :``Upper and lower probabilities
induced by a multivalued mapping``. Ann. Math. Statist., 38, 325-339. Denneberg, D. (1994) : Non-additive measure and
integral. Kluwer Academic Publishers, Dordrecht. Dubois, D. and H. Prade (1994) :`` Focusing versus
Updating in Belief Function Theory ``, in Advances in the Dempster-Shafer
Theory of Evidence (M. Fedrizzi, J. Kacprzyk and R.R. Yager, Eds), Wiley
and Sons. Ellsberg, D.(1961) : ''Risk, Ambiguity and the Savage
axioms'', Quartely Journal of Economics, 75, 643-669. Fagin R. and J.Y. Halpern, (1990) :``A new approach to
updating beliefs``, Proc. of 6th Conference on Uncertainty in A.I. Gilboa I. and D. Schmeidler, (1989) :`` Maxmin Expected
Utility with Non-Unique Prior``, Journal of Mathematical Economics``, 18,
141-153. Gilboa I. and D. Schmeidler, (1993) :``Updating
Ambiguous beliefs``, Journal of Economic Theory, 59, 33-49. Hurwicz, Leonid, Optimality Criteria for Decision Making
Under Ignorance, Cowles Commission Discussion Paper, Statistics, n°
370, 1951 (mimeographed). Jaffray J.Y. (1992) :``Bayesian updating and belief
functions``, IEEE transactions on systems, man, and cybernetics, 22, 5,
1144-1152. Jaffray, J.Y. and F. Philippe (1997) :`` On the
Existence of Subjective Upper and Lower Probabilities``, Mathematics of
Operations Rechearch, 22, n°1, 165-185. Jaffray, J.Y. and P. Wakker, (1994) : `` Decision Making
with belief functions : Compatibility and incompatibility with the sure
thing principle``, Journal of Risk and Uncertainty, 8, 255-271. Schmeidler, D.(1982) :`` Subjective probability without
additivity ``(temporary title), Working Paper, Foerder Institute for
Economic Research, Tel Aviv University. Schmeidler, D.(1986) :`` Integral Representation without
Additivity``, Proceedings of the American Mathematical Society, 97,
253-261. Schmeidler, D., (1989) :``Subjective probability and
expected utility without additivity``, Econometrica, 57, 571-587. Shafer, G. (1976). A mathematical theory of evidence,
Princeton Uty Press. Walley, P. (1981) : ''Coherent lower (and upper)
probabilities'', Statistics Research Report 22, University of Warwick,
Coventry, U.K. Walley P.(1991). : Statistical Reasoning and Imprecise
Probabilities, Chapman \& Hall, London.
Modèles de la Cognition Paul Bourgine CREA, Ecole Polytechnique bourgine"at"poly.polytechnique.fr Depuis une vingtaine d'années les sciences de la
cognition (psychologie cognitive, neurosciences, linguistique, intelligence
artificielle) tendent à devenir un champ unifié, soumis
à un nomadisme de concepts et de modèles traversant les
diverses disciplines. Parmi eux, les paradigmes de la cognition ont
joué historiquement et continuent à jouer un rôle
majeur non seulement dans le développement de chaque discipline mais
encore dans l'unification du champ tout entier. Ces paradigmes de la
cognition, au premier rang desquels il faut citer le cognitivisme, le
connexionnisme et le constructivisme, ont suscité des débats
très stimulants pour toutes les disciplines. Et les divergences,
après avoir été longtemps la source de fortes
oppositions, peuvent aussi être envisagées comme des vues
complémentaires de ce qu'est la cognition, en tant qu'objet de
science. Plutôt que d'examiner directement ces paradigmes
de la cognition, on les traite à travers deux activités qui
sont essentielles aussi bien pour la compréhension des
mécanismes cognitifs que pour celui des processus de décision
: la résolution de problème et l'apprentissage. La résolution de problème est d'abord
envisagée à partir des expérimentations en psychologie
cognitive. Le point de vue est alors celui du paradigme cognitiviste : la
cognition est conçue comme manipulation de symboles, qui
représentent les états du monde. Les expérimentations
mettent en évidence les limites des capacités cognitives des
sujets et la manière dont ils utilisent leurs connaissances expertes
pour résoudre des problèmes. Sous l'influence de la
psychologie de la Gestalt, elles permettent aussi de bien montrer
l'importance du processus de formulation et de reformulation d'un
problème. La résolution de problème est ensuite
étudiée du point de vue des neurosciences. Le point de vue
est celui du paradigme connexionniste. Les symboles ne sont plus là
pour coder les états du monde mais l'idée
représentationnaliste reste présente : la cognition est
conçue comme une dynamique d'états du réseau neuronal,
qui représentent les états du monde. Le critère de
réussite est celui d'une bonne anticipation des conséquences.
Ces anticipations dans des environnements complexes sont expliquées
par les capacités d'apprentissage. L'attention se déplace
fondamentalement des processus de résolution de problème vers
les processus d'apprentissage. Les paradigmes cognitivistes et connexionnistes, en
partageant l'idée représentationnaliste, sont en fait des
théories d'un pur esprit. Le paradigme constructiviste met
davantage l'accent sur l'idée moniste de l'unité du corps et
de l'esprit et sur l'importance de l'activité interprétative
qui affaiblit l'idée représentationaliste. Cet examen des différents paradigmes de la
cognition permet de dresser une synthèse des modes de
résolution de problème et des modes d'apprentissage et de
mieux comprendre les modes de raisonnements et la nature de la
connaissance. BIBLIOGRAPHIE Aubin J.P.,1991. Viability Theory,
Birkhäuser. Bourgine P., 1994, What is knowledge?, in AIFA
proceedings. Bourgine P., 1996, modèles dagents
autonomes et leurs interactions co-évolutionnistes, in Penser lEsprit, V. Rialle et D.
Fisette (eds), Presses universitaires de Grenoble, 1996. Brooks R., 1991. Intelligence without representation.
Artificial Intelligence,47, Jan., 139-159. Dreyfus Hubert L., 1972, Intelligence Artificielle,
mythes et réalités, Flammarion, Paris, 1984. Holland, J.H., 1975. Adaptation in natural and
artificial systems. Ann Arbor : the university of Michigan Press. Kohonen T., 1984. Self-Organization and Associative
Memory. Springer Verlag. McCulloch W.S. et Pitts W., 1943. A logical calculus of
the ideas immanent in nervous activity. Bull. Mathem. Biophys, 5,
p.115-133. Minsky M., 1975. A framework for representing knowledge.
in P.Winston (Ed.), The psychology of computer vision. New york: Mc
Graw-Hill, 211-277. Newell A. et Simon H.A., 1972. Human Problem
Solving. Englewood, Prentice Hall. Peirce Charles S., Textes fondamentaux de
sémiotique, Méridiens Klincksiek, Paris, 1987. Petitot J., 1990, Physique du sens, editions du
CNRS. Rosh E., 1978, Principles of Categorization, in
Cognition and Categorization, ed. E.Rosh and B.B.Lloyd, Lawrence
Erlbaum, Hillsdalle, N.J., 27-48. Rumelhart D.E. and J.Mc Clelland, 1986, Parallel
Distributed Processing, MIT Press/ Bradford Books. Simon H.A., 1976. From subtantive to procedural
rationality. Method and Appraisal in Economics, Latsis S.J.(ed.), p.
129-148. Cambridge University Press, Cambridge. Varela F.,1990, Connaître les sciences
cognitives, Seuil. Varela F., E. Thompson & E. Rosch, 1991, The
Embodied Mind, MIT Press. Watkins C., 1989, Learning with Delayed Reward,
PhD, Cambridge University Psychology Department. Wilson S.W., 1987, Classifier systems and the animat
problem. Machine Learning 2, p. 199-228
La rationalité individuelle et la
rationalité collective: L'importance des interactions entre des individus. Alan Kirman I.U.F., Université d'Aix-Marseille, GREQAM, EHESS, Marseille kirman"at"ehess.cnrs-mrs.fr La notion de structure organisationnelle et de
réseau de relations interpersonnelles est centrale dans la plupart
des sciences sociales. Pourtant, ces aspects préoccupent
relativement peu les économistes. J'essaierai dans mon cours de
démontrer quil y a une relation étroite entre la notion
de rationalité de l'économiste et l'organisation de
l'économie qu'il suppose. La préoccupation de base des
économistes a été de définir les états
déquilibre dune économie résultant des
choix dindividus optimisateurs mais tous autonomes. Ceci est dû
aux origines de léconomie théorique moderne et au fait
que les économistes persistent à vouloir travailler sur une
base microéconomique "rigoureuse". Je suggèrerai que les
économistes devraient sintéresser davantage aux
interactions directes entre les agents économiques et à
lévolution des réseaux gouvernant ces interactions. Je discuterai aussi du rôle de la théorie
des jeux où, certes, les interactions directes sont
envisagées mais où la rationalité attribuée aux
agents est à ce point extrême que l'on est obligé de se
limiter à des exemples presque caricaturaux. Je suggèrerai
que nous pouvons éviter d'imposer une forme de rationalité
très poussée et que lon peut attribuer aux individus
des règles très simples de choix d'actions. Ceci dit, on doit
constater que la rationalité collective est dans un certain sens
supérieure ou au moins différente de la rationalité
des individus. L'agrégation "produit" la rationalité et n'est
pas simplement la somme des actions rationnelles. Je donnerai des exemples
de cette émergence de la rationalité collective. Ceci nous
permet dexpliquer des comportements macroéconomiques qui
cadrent mal avec le modèle standard et rapprochent la vision de
léconomie de celle des autres sciences sociales. En particulier, nous pouvons adopter une approche
´ cognitive ª de l'étude de l'individu dont
lintérêt est de considérer lidentité
individuelle et les institutions comme émergentes dans le sens
où elles sont définies dans le cadre du système.
Cela signifie que non seulement les objectifs mais aussi les
préférences des agents sont formés par la
société. Il ny a quun pas à faire pour
estimer que le récent travail de Young, ainsi que dautres, sur
lévolution des conventions et des normes, entrent dans cette
catégorie. Je mentionnerai certains de ces travaux dans le cours.
L'approche que j'envisage est beaucoup plus dynamique
que l'approche par l'équilibre standard. Pour citer un exemple,
considérons la façon dont les agents économiques
prennent leurs décisions. Si les agents agissent
séquentiellement, ils peuvent très bien inférer des
informations des actes des autres. Cela peut amener à des
"comportements grégaires" et une littérature s'est
développée récemment pour expliquer comment de tels
comportements peuvent amener à la formation de bulles
spéculatives sur les marchés financiers. Ainsi, au fur et
à mesure que se développent les échanges, des
individus peuvent influencer les anticipations des autres individus et des
fluctuations peuvent en résulter ; par ailleurs, certains
individus peuvent négliger leurs propres informations en faveur de
celles qui découlent des actions des autres, ce qui peut donner lieu
à une "cascade informationnelle". Je donnerai des exemples de ce
phénomène. L'émergence des liens entre les individus peut
être expliquée par l'utilisation de règles de
comportement très simples, sans avoir recours à un
comportement optimisateur ou stratégique. J'en présenterai
des exemples. En conclusion, mon but est de suggérer que la
rationalité traditionnelle des agents économiques est
excessive et artificielle. Une économie où les agents ont un
comportement simple et où ils interagissent avec un sous-groupe des
autres agents mais où, néanmoins, le résultat
agrégé a une certaine cohérence, me semble plus
convaincant et plus plausible que le modèle standard. BIBLIOGRAPHIE Banerjee A. (1992), "A simple model of herd behaviour",
Quarterly Journal of Economics, 108, pp. 797-817. Bikhchandani S., Hirschleifer D. et Welch I. (1992), "A
theory of fads, fashion, custom and cultural change as informational
cascades", Journal of Political Economy, 100, pp. 992-1026. Kirman A, (1999) ´ Aggregate Activity and
Market Organisation", Revue européene des sciences
sociales, 1999, vol 37, pp.189-230 Weisbuch G., A.P. Kirman, and D. Herreiner (2000),
"Market Organisation and Trading Relationships". A paraître
Economic Journal, Avril 2000
Rationalité face au risque et
expérimentation Bertrand Munier GRID-ENS Cachan munier"at"grid.ens-cachan.fr Depuis longtemps déjà, Herbert
Simon a souhaité, en diverses occasions, quune étude
des processus de décision des agents économiques soit
menée. Il a bien lui-même fourni un cadre dans lequel on peut
postuler que sinscrivent ces processus de décision, mais il
na jamais fait de test formel, ni empirique ni expérimental,
de ce quil a avancé. Cest dautant plus curieux
quil a fait la critique de ce quil appelle " armchaireconomics " en affirmant que les économistes ne prennent pas la
précaution de dégager de leurs tests limpact que
peuvent y avoir les modèles de décision. En particulier, on
peut se demander pourquoi il nexiste pas de test formel des processus
de décision en rationalité limitée. La plupart des
économistes reconnaissent que les arguments de la rationalité
limitée sont à prendre en considération, mais il est
très difficile de savoir sils attribuent un effet important ou
pas à ce type de rationalité. On propose donc ici dexaminer, en recourant
à des méthodes expérimentales détude de
la décision face au risque, comment lon peut mettre en
évidence lexistence de schémas de
rationalité limitée. Après avoir discuté
comment on peut formuler une hypothèse qui soit testable à
cet égard (I), on rapporte une série
dexpérimentations qui permettent de tester la formulation
proposée, même si ce nétait pas là
lobjet premier de ces expérimentations (II). Dans un
troisième temps, on se propose dexaminer si des modèles
généraux comme le modèle à dépendance de
rangs peuvent rendre compte des comportements observés : selon
la réponse que lon pourra apporter à cette question, on
pourra qualifier de façon assez restrictive la notion de
rationalité limitée mise en évidence, ou au contraire
lui donner une portée à la fois très
générale et très substantielle (III). Enfin, on
cherchera à savoir si la considération de critères
multiples permet dobtenir des précisions sur les
caractères de la rationalité limitée mise en
évidence (IV). Lensemble constitue une contribution à
la façon dont on peut considérer que les agents
économiques organisent leurs investigations pour
décider face au risque. La première partie précisera comment on
peut mettre en correspondance la notion de rationalité
limitée et celle de décision programmable au sens
de Simon lui-même. On en tirera la formulation recherchée,
permettant de dégager une hypothèse testable. La difficulté de la seconde partie sera de mettre
au point des méthodes non paramétriques qui permettent
dobserver, de la façon la plus dégagée possible
dhypothèses auxiliaires, les choix exprimés par des
sujets. On débouchera sur un principe simple, qui permet de
concevoir la méthode dite " du resserrement
progressif " aux fins de déterminer les loteries que les
sujets considèrent comme équivalentes à celle
quon leur propose. On montrera que lon peut tirer de cette
démarche simple beaucoup dinformation sur les
caractéristiques de ces indifférences locales. On conclura
à la mise en évidence dune rationalité
limitée. Mais sagit-il deffets dont des
modèles les plus généraux tels que le modèle
à dépendance de rangs peuvent rendre compte ? Ou
sagit-il de phénomènes que même ces
modèles plus généraux ne parviennent pas à
saisir ? La réponse est, cette fois-ci, plus difficile à
donner et demandera à être qualifiée de façon
spécifique. Mais il reste que lexpérimentation sur la
décision face au risque est un domaine privilégié de
léconomie cognitive, plus précisément une
méthode dexamen possible des caractéristiques
cognitives des agents économiques. Enfin, la quatrième partie du propos
nécessite un détour productif. Celui--ci consiste à
généraliser la théorie de lutilité
multi-attribut pour la dégager des contraintes de
lutilité espérée. Ces contraintes apparaissent
en effet comme paravents derrière lesquels il est difficile
d'observer le traitement cognitif des probabilités, comme cela est
maintenant connu. Mais cette généralisation nest
certainement pas une évidence. A travers des théorèmes
de décomposition, quil suffit détendre, on
parvient à montrer que la théorie de lutilité
multiattribut peut être appuyée sur une fonctionnelle de
préférence à dépendance de rangs. Plusieurs
questions peuvent alors être éclairées. Dune
part, la transformation des probabilités est-elle une question de
perception des probabilités ? Ou sagit-il dun
traitement décisionnel du risque ? Si cest la seconde
branche de lalternative, quels facteurs peuvent influer sur ce
traitement décisionnel ? La mise au point dun logiciel
interactif permet lencodage soit en laboratoire
dexpérimentation, soit dans un laboratoire vivant
comme une entreprise des fonctions de transformation de
probabilités, des fonctions dutilité partielles et des
coefficients déchelle. On peut alors tenter de répondre
aux questions précédentes. Létude des aspects
cognitifs de la décision face au risque se trouve ainsi
substantiellement avancée. BIBLIOGRAPHIE Abdellaoui, M. and B. Munier, 1994a, ´ The
Closing In Method : An Experimental Tool to Investigate Individual
Choice Patterns under Risk ª, in : Munier, B. and M.J.
Machina, eds., Models and Experiments in Risk and Rationality,
Kluwer Academic Publishers, Dordrecht/Boston, pp. 141-155. Abdellaoui, M. and B. Munier, 1994b,
´ On the Fundamental Risk-Structure Dependence of Individual
Preferences under Risk : An Experimental Investigation ª,
NR GRID 94-07. Abdellaoui, M. and B. Munier, 1998, ´ The
Risk-Structure Dependence Effect : Experimenting with an Eye to
Decision-Aid ª, Annals of Operations Research, vol. 80,
pp. 237-252. Abdellaoui, M. and B. Munier, 1999, ´ How
consistent are Probability trade-offs in individual preferences under
risk ? Some preliminary results ª, in : Machina, M.J.
and B. Munier, eds., Beliefs, Interactions and Preferences in Decision
Making, Dordrecht/Boston, Kluwer A.P. pp. 285-296. Allais, M., 1953, ´ Le Comportement de
lHomme rationnel devant le Risque : Critique des Postulats et
Axiomes de lEcole Américaine ª, Econometrica,
vol. 21, pp. 503 et s. Beaudouin, F., B. Munier and Y. Serquin, 1999,
´ Multi-Attribute Decision-aid in Nuclear Power Plants
Maintenance under Generalized Expected Utility ª, in :
Machina, M.J. and B. Munier, eds., op. cit. Camerer, C., 1992, ´ Recent Tests of
Generalizations of Expected Utility Theory ª, in : W.
Edwards, ed., Utility Theories, Measurements and Applications,
Dordrecht/Boston, Kluwer Academic Publishers. Hammond, P., 1996, ´ Consequentialism,
Structural Rationality and Game Theory ª, in : K.J. Arrow,
E. Colombatto et al., The Rational Foundations of Economic
Behaviour, London, MacMillan. pp. 25-42. Kreps, D.M., 1997, ´ Bounded
Rationality ª in : P. Newman (ed.), The New Palgrave
Dictionary of Economics and the Law, London, Macmillan. P. 168-173. Machina, M.J. and B. Munier, eds., 1999, Beliefs,
Interactions and Preferences in Decision Making, Dordrecht/Boston,
Kluwer Academic Publishers. Munier, B., 1989, ´ Calcul économique
et révision de la théorie de la décision en avenir
risqué ª, Revue dÉconomie Politique,
vol. 99, n°2, pp. 276-306. Munier, B., 1995, ´ Entre rationalités
instrumentale et cognitive : contributions de la dernière
décennie à la modélisation du risque ª,
Revue deconomie Politique, vol. 105, n°1, pp. 5-70. Munier, B., 1996, ´ Hammonds
Consequentialism : A Qualification ª, published as
´ Comment ª, in : Arrow, K.J., E. Colombatto, , M.
Perlman, C. Schmidt, eds., Rational Foundations for Economic Behaviour,
London, Macmillan. Munier, B., R. Selten et al., 1999
´ Bounded Rationality Modeling ª, Marketing Letters,
vol. 10, n°3, pp. 233-248. Quiggin, J., 1993, Generalized Expected Utility, The
Rank-Dependent Model, Kluwer Academic Publishers, Boston/Dordrecht. Rubinstein, A., 1998, Modeling Bounded Rationality,
Cambridge, Massachussets, MIT Press. Simon, Herbert A., 1955-1983, ´ The Role of
Expectations in an Adaptative or Behavioristic Model ª, in :
Herbert A. Simon, 1983, Models of Bounded Rationality, Cambridge,
Mass., Harvard University Press, pp. 380-399, see p. 391 in particular. Simon, H.A., 1978, ´ Rationality as a Process
and as a Product of Thought ª, American Economic Review,
vol. 68, n°1, pp. 1-16. Simon, H.A., 1986, ´ The Failure of Armchair
Economics ª, Challenge , (November-December), p. 18-25.
Compromis exploration/exploitation Paul Bourgine* et Benoît
Leloup** *CREA, Ecole Polytechnique et **GRID, ENS Cachan bourgine"at"poly.polytechnique.fr, leloup"at"grid.ens-cachan.fr Le dilemme exploration/exploitation est inhérent
aux processus cognitifs et évolutionnistes. En effet, l'agent est
génériquement en situation d'avoir des croyances incertaines
: il a des probabilités 'subjectives' et non pas 'objectives' ; il a
des hésitations sur la manière de raisonner les
conséquences, etc.. Cette situation générique
d'incertitude produit un dilemme : si l'agent veut gagner davantage
à court terme, il va rejouer la stratégie qu'il croit
être la meilleure au vu de ses informations incertaines
présentes ; mais si l'agent veut gagner davantage sur le long terme,
il lui faut diminuer ses incertitudes sur quelle est la meilleure
stratégie. Il est utile de remarquer que ce dilemme existe
même en l'absence de coûts d'exploration. Le dilemme provient
en fait d'une contrainte informationnelle : il est nécessaire
d'essayer des stratégies même médiocres pour
acquérir davantage d'information à leur sujet. Le dilemme
ainsi compris doit être géré à tous les niveaux
dorganisation, depuis lindividu jusquaux plus grandes
organisations : toute gestion de ce dilemne aboutit à des
compromis dexploration/exploitation. Nous nous intéresserons d'abord au paradigme
standard du compromis exploration/exploitation, les bandits à k-bras
et on donne quelques bases théoriques sur le compromis. Nous
examinerons ensuite un protocole computationnel relatif au paradoxe de
l'ultimatum. Nous en tirerons enfin quelques implications pour
l'économie cognitive. La solution théorique au problème du
bandit à k-bras consiste à introduire, de différentes
manières, un indice associé à chaque bras,
appelé l'indice de Gittins. La théorie indique que les
stratégies optimales sont les stratégies à base
d'indice : il faut choisir à chaque instant le bras qui a le
meilleur indice. Le problème k-dimensionnel se ramène
à k-problèmes 1-dimensionnel de détermination de
l'indice de chaque bras. On examine le cas d'un bras obéissant
à la loi normale, qui fournit une solution générique
approchée au calcul de l'indice. Le protocole computationnel utilise la solution
théorique précédente. Il met en scène une
population d'offreurs et une population de répondants, jouant au jeu
répété de l'ultimatum. Dans le jeu de l'ultimatum,
l'offreur propose le partage d'une certaine somme entre lui et le
répondant : si le répondant accepte, le partage
proposé devient effectif ; s'il refuse, personne ne garde rien.
L'équilibre de Nash de ce jeu est une proposition (100%,e%) que le répondant accepte toujours. Les
expérimentations ne sont pas conformes à ce résultat
théorique : les offres sont en moyenne de 20% inférieure et
30% des répondants refusent le partage. C'est ce qu'on appelle le
paradoxe du jeu de l'ultimatum. Sous l'hypothèse que la population
des répondants modifie beaucoup plus lentement ses comportements que
celle des offreurs, on montre que les stratégies d'apprentissage
optimales sont les stratégies à base d'indices. Les
résultats des simulations sont compatibles avec la diversité
des offres constatées expérimentalement. Les implications du compromis exploration/exploitation
pour la théorie microéconomique sont intéressantes :
des agents apprenant de façon optimale ne convergent pas
nécessairement vers les mêmes stratégies, même
lorsque leur environnement est homogène et stationnaire ; leurs
stratégies restent hétérogènes et
dépendantes du chemin. Il en résulte aussi, en contrepoint,
un résultat de limitation : on ne peut à la fois être
optimal dans le processus d'apprentissage et dans le résultat de ce
processus. Ces conclusions s'imposent encore davantage si les agents
n'apprennent pas de façon optimale et si leur environnement n'est
pas homogène ou pas stationnaire. BIBLIOGRAPHIE Bellman, R. E. (1956): "A Problem in the Sequential
Design of Experiments." Sankhyã Series: A, 30,
221-252. Bellman, R. E. (1957): Dynamic Programming,
Princeton University Press. Bernardo, J. M., and A. F. M. Smith (1994): Bayesian
Theory, John Wiley & Sons. Binmore, K., A. Shaked, and J. Sutton (1989): "An
Outside Option Experiment." Quarterly Journal of Economics,
104, 753-770. Binmore, K., P. Morgan, A. Shaked, and J. Sutton (1991):
"Do People Exploit their Bargaining Power?: An Experimental
Study." Games and Economic Behavior, 3, 295-322. Bolton, G. E. (1991): "A Comparative Model of
Bargaining: Theory and Evidence." American Economic Review, 81,
n°5, 1096-1136. Forsythe, R., J. L. Horowitz, N. E. Savin, and M. Sefton
(1994): "Fairness in Simple Bargaining Experiments." Games and
Economic Behavior, 6, 347-369. Gale, J., K. Binmore, and L. Samuelson (1995):
"Learning to be Imperfect: the Ultimatum Game." Games and
Economic Behavior, 8, 56-90. Gittins, J. C. (1979): "Bandit Processes and
Dynamic Allocation Indices." Journal of the Royal Statistical
Society, Series: B, 41, 148-177. Gittins, J. C. (1989): Multi-armed Bandit Allocation
Indices, John Wiley & Sons. Güth, W., and S. Huck (1997): "From
Ultimatum Bargaining to Dictatorship - An Experimental Study of Four Games
Varying in Veto Power." Metroeconomica, 48, n°3. Güth, W., R. Schmittberger, and B. Schwarz (1982):
"An Experimental Analysis of Ultimatum Bargaining." Journal of
Economic Behavior and Organization, 3, 367-388. Güth, W., and R. Tietz (1990): "Ultimatum
Bargaining Behavior: A Survey and Comparison of Experimental Results."
Journal of Economic Psychology, 11, 417-449. Ochs, J., and A. Roth (1989): "An Experimental
Study of Sequential Bargaining," American Economic Review, 79,
355-384. Roth, A. E. (1995): "Bargaining Experiments."
The Handbook of Experimental Economics, editor, John H. Kagel and
Alvin E. Roth, Princeton University Press, Chap. 4, 253-348. Roth, A. E., and I. Erev (1995): "Learning in
Extensive-Form Games: Experimental Data and Simple Dynamics Models in the
Intermediate Term." Games and Economic Behavior, 8, 164-212. Roth, A. E., V. Prasnikar, M. Okuno-Fujiwara, and S.
Zamir (1991): "Bargaining and Market Behavior in Jerusalem, Ljubljana,
Pittsburgh, and Tokyo: An Experimental Study." American Economic
Review, 81, 1068-1095. Rothschild, M. (1974): "A two-armed Bandit Theory
of Market Pricing." Journal of Economic Theory, 9, 185-202. Savage, L. J. (1954): The foundations of
statistics, John Whiley. Selten, R. (1967): "Die Strategiemethode zur
Erforschung des Eigeschrankt Rationalen Verhaltens im Rahmen eines
Oligopolexperiments", in Beitrage zur Experimentellen
Wirtschaftsforschung, Sauermann, H., editor, Mohr, J.C.B., Tubingen,
136-168. Stähl, I. (1972): Bargaining Theory,
Stockholm: Stockholm School of Economics. Thäler, R. H. (1988): "Anomalies: The
Ultimatum Game." Journal of Economic Perspective, 2,
185-206. Winter, E., and S. Zamir (1997): "An Experiment
with Ultimatum Bargaining in a Changing Environment." December,
Working Paper n°157, Center for Rationality and Interactive
Decision Theory, The Hebrew University of Jerusalem. The main characteristic that put apart EE from
mainstream neoclassical economics concerns the methodology implicitly
suggested. Mainstream economic thinking, borrowing the scientific
methodology from Physics, develops from the concept of equilibrium,
focusing on the conditions that provide such state and overlooking the
actual events out of equilibrium. The most evident example of this approach
concerns the "as · if" hypothesis (Friedman, 1953): this states that
it is possible to neglect the actual mechanisms driving real world events,
as long as we can analyse the constraints which select the equilibrium out
of the all possible results. At the opposite, EE thinking starts from the
definition of the basic units of analysis building constructively a model
of the world, which may or may not be an equilibrium. And therefore, EE
necessitates a way to represent explicitly economic events. In particular,
concerning human economic behaviours, EE necessitates to represent
heterogeneous, learning agents, such as the boundedly rational
behaviour (Simon, 1982). The necessity to represent the action of learning
brought many EE scholars to develop an interest in the area artificial of
adaptive systems. These are systems that, with different approaches, aim at
reproducing some of the characteristics of actual learning: the Genetic
Algorithms, Classifier Systems and Genetic Programming. These systems share
the basic concept of being adaptive systems: they apply a trial-and-error
strategy to develop knowledge about a give problem tuning the trade-off
between the exploitation of the knowledge gained and the exploration of new
knowledge. The use of artificial adaptive systems has become very
popular because they do not require any prior knowledge of the problem on
which they are applied and don't need to make specific assumptions about
the capacity of agents. Users just need to define: - a research space (the set of whole possible solutions,
which may also be extremely large) - an objective function (a way to measure the relative
goodness of attempted solutions) Such limited requirements make these systems very
attractive. In fact, it is possible to build models (which are, by
definition, simplifications of real world realities) in which agents are
endowed an adequately limited rational capacity. However, there are few
aspects concerning the use of adaptive systems in Economics that need to be
carefully considered. First, it is frequent that economic models do not have
an exogenous objective function, but this is collectively determined by the
very elements subject to it. Think, for example, of competing firms in an
oligopoly: their outcome depends on the behaviour of the competitors, and
therefore the same strategy may be a success or a failure. Second,
modellers may intend to represent learning at different levels. That is, we
may want to implement a learning mechanism at level of individual agents
(e.g. firm learning a R&D strategy), or at level of whole aggregates
(markets learning to supply high quality products). A third aspect concerns
the timing issue: learning systems develop their own knowledge while acting
in an environment. This means that the modeller has to decide, often on the
base of rather arbitrary assumptions, the relation between the frequency of
learning and the frequency of acting. Note that these are not only
technical problems for the implementation of the model, but theoretical
decisions concerning the model design and their analytical use. Frequently,
reasoning about the design of the model, which is disciplined by the need
to express in computational terms, rather than in mathematical terms,
provide very useful insights even before testing the earliest results. BIBLIOGRAPHY Andersen, E.S., 1994, Evolutionary economics:
post-Schumpeterian Contributions, Francis Pinter, London. Aversi,R., G.Dosi, G.Fagiolo, M.Meacci and C.Olivetti,
1999, "Demand Dynamics With Socially Evolving Preferences ", Industrial
and Corporate Change, 8-2, p.353-408 Brenner, T. (ed.), 1999, Computational Techniques for
Modelling Learning in Economics, Kluwer. Cohen, CD, R Burkhart, G Dosi, M Egidi, L Marengo, M
Warglien and S Winter, 1996, "Routines and other recurring action patterns
of organizations: contemporary research issues", Industrial and
Corporate Change, Vol. 5:3 Dosi, G., Marengo, L., Fagiolo, G., 1996, "Learning in
Evolutionary Environments", CEEL Working Papers, WP 1996-05, Trento,
http://www-ceel.gelso.unitn.it/LabEcSper/PUBLICATIONS/paperCeel.html Dosi,G., Marengo,L., Bassanini,A. and Valente,M.
,1999, "Norms as Emergent Properties of Adaptive Learning: the Case of
Economic Routines", Journal of Evolutionary Economics, 9-1,
p.5-26. Goldberg, D.E., 1989, Genetic Algorithms in Search,
Optimization and Machine Learning, Addison-Wesley. Hodgson, G.N., 1993, Economics and Evolution,
Cambridge, Polity Press. Holland, J.H., 1975, Adaptation in Natural and
Artificial Systems, Ann Arbor, University of Michigan Press. Holland, J.H., K.J.Holyoak, R.E.Nisbett and P.R.
Thagard,(1986), Induction: Processes of Inference, Learning, and
Discovery, MIT Press,Cambridge,Massachusetts. Koza, J.R., 1992, Genetic Programming: On the
Programming of Computers by Means of Natural Selection, MIT Press,
Cambridge, MA, USA. Marengo L., "Alternative methodologies for modelling
evolutionary dynamics: Introduction". Journal of Evolutionary
Economics, 1997, Vol. 4, pp. 331-338. Marengo L., Tordjman H., "Speculation, Heterogeneity and
Learning: A Model of Exchange Rate Dynamics". Kyklos : internationale
Zeitschrift für Sozialwissenschaften, 1996, Vol. 49, pp.
407-438. Marengo L., Tamborini R., Beltrametti L., Fiorentini R.,
1997, "A Learning-to-Forecast Experiment on the Foreign Exchange Market
with a Classifier System", Journal of Economic dynamics &
control, Vol. 21, pp. 1543-1575. Nelson,R., 1995, "Recent Evolutionary Theorizing about
Economic Change ", Journal of Economic Literature ,vol 33,p.48-90. Nelson,R. and Winter,S., 1982, An Evolutionary Theory
of Economic Change, Cambridge, Harvard University Press. Simon, H.A., 1982, Models of Bounded Rationality,
Cambridge, MIT Press. Valente, M., 2000, Evolutionary Economics and
Computer Simulations - A Model for the Evolution of Markets, PhD
Thesis, Aalborg, Denmark, http://www.business.auc.dk/~mv/ThesisHome/ThesisHeader.html Vriend, N.J., 2000, "An Illustration of the
Essential Difference between Individual and Social Learning, and its
Consequences for Computational Analyses", Journal of Economic Dynamics
and Control, 24, 1-19 [Web Search Departing Sites] http://www.econ.iastate.edu/tesfatsi/ http://cournot.u-strasbg.fr/yildi/ http://www.santafe.edu/ http://pscs.physics.lsa.umich.edu/PEOPLE/rlr-home.html http://gal4.ge.uiuc.edu/
http://liinwww.ira.uka.de/bibliography/Ai/genetic.programming.ht
ml
http://cyclone.cs.clemson.edu/GA/clife/Welcome.html
http://www.faqs.org/faqs/ai-faq/genetic/part2/index.html
http://www.soc.surrey.ac.uk/~scs1ec/emssbib.html
BIBLIOGRAPHIE
M.D.Cohen et alii, "Routines and other recurring action patterns of organizations", ICC, 1996
B.Reynaud "Types of rules, Interpretation and economic dynamics", ICC, 1996
G.Dosi, L.Marengo, L.Bassanini, M.Valente "Norms as emergent properties of adaptative learning, the case of economic routines", Journal of evolutionary economics, 1999
B.Coriat, G.Dosi "Learning how to govern and learning how to solve problems", IIASA working paper, 1994
B.Ancori, A.Bureth, P.Cohendet " the economics of knowledge: recent debates on tacitness and codification", ICC, 2000
Nous supposerons que les agents ont une stratégie probabiliste. Leur problème est alors de passer de l'ensemble I(t) des informations dont ils disposent au temps t à une probabilité d'achat P(t) dans le simplex Sm, où m est le nombre des choix offerts :
* le texte complet est disponible en http://www.lps.ens.fr/~weisbuch/chap4b/chapac.html
BIBLIOGRAPHIE
Anderson S. P., A. de Palma and J.F. Thisse (1993), Discrete Choice Theory of Product Differentiation, Cambridge (MA): MIT Press.
Arthur, B. W. (1994) "Increasing Returns and Path Dependence in the Economy'', (University of Michigan Press).
Durlauf S. (1990), "Locally Interacting Systems, Coordination Failure and the Behaviour of Aggregate Activity", mimeo, Stanford University, Stanford, CA.
Föllmer H. (1974) "Random Economies with Many Interacting Agents", Journal of Mathematical Economics, 1/1, 51-62.
Kilani, K. and J. Lesourne (1995), "Endogeneous Preferences, Self-Organizing Systems and Consumer Theory", Mimeo 95-6, Laboratoire d'Econométrie, Conservatoire National des Arts et Métiers, Paris.
Kirman, A.P. and A. Vignes (1991), "Price Dispersion. Theoretical Considerations and Empirical Evidence from the Marseilles Fish Market", in K.G. Arrow (ed), Issues in Contemporary Economics, London (UK): Macmillan.
Lesourne, J. (1992), The Economics of Order and Disorder, Oxford: Clarendon Press.
Orléan A. (1995), "Bayesian Interactions and Collective Dynamics of Opinions: Herd Behavior and Mimetic Contagion", Journal of Economic Behavior and Organization, 28, 257-274.
Vriend N. (1994), "Self-Organized Markets in a Decentralized Economy", Working Paper 94-03-013, Santa Fe Institute, Santa Fe, NM.
Weisbuch G. (1990), Complex Systems Dynamics, Redwood City (CA): Addison Wesley.
Weisbuch G., Kirman A. and Herreiner D. (2000), "Market Organisation and Trading Relationships'', Economic Journal.
Objet du cours: Le cours expose quelques définitions et résultats de la Théorie des Jeux Evolutionniste. On rappelle d'abord le vocabulaire de base de la Théorie des Jeux: stratégies, paiements, équilibres. Ensuite on présente les modèles standards de la dynamique des populations. Troisièmement on discute les re-interprétations de ces modèles biologiques populationnels en des modèles d'apprentissage individuel, et on explique les autres approches de l'apprentissage individuel dans les jeux. Quatrièmement on discute les ré-interprétations des mêmes modèles en des modèles de l'apprentissage des normes dans les sociétes humaines, et on explique les autres approches de l'apprentissage collectif. A travers ces considérations, on souhaite donner aux auditeurs les éléments nécessaires pour qu'ils puissent juger des forces et des faiblesses de la métaphore évolutionniste en Sciences Sociales.
BIBLIOGRAPHIE
Un classique très recommendable:
Maynard Smith, J. (1982) Evolution and the Theory of Games, Cambridge University Press.
Un autre classique, particulièrement clair du point de vue mathématique:
Weibull, J. (1995) Evolutionary Game Theory, MIT Press.
La lecture des deux livres suivants nécessitent une cannaissance préalable de la théorie des jeux:
Samuelson, L. (1997) Evolutionary Games and Equilibrium Selection, MIT Press.
Fudenberg, D. and D. Levine (1998) The Theory of Learning in Games, MIT Press.
Les deux monographies suivantes sont plus orientées en direction des applications:
Vega-Redondo, F. (1996) Evolution, Games and Economic Behavior , Oxford University Press.
Young, H. P. (1998) Individual Strategy and Social Stucture, An Evolutionary Theory of Institutions, Princeton University Press.
Enfin un livre très accessible, sans technique, presque de la vulgarisation. L'auteur pousse à fond l'usage de la métaphore évolutionniste pour la discussion politique et éthique.
Skyrms, B. (1996) Evolution of the Social Contract, Cambridge University Press.
réseaux de neurones et neurosciences computationnelles
:théorie de l'information
:inférence statistique, apprentissage et physique statistique
:une introduction avancée aux réseaux de neurones
:
physique statistique des sytèmes complexes : pour ceux qui veulent aller (beaucoup) plus loin...
:un exemple de (bonne) application des réseaux de neurones et autres techniques d'apprentissage
:Livres en Français :
Hérault et Ch. Jutten, Réseaux neuronaux et traitement du signal Hermes, 1994
J.-P. Nadal, Réseaux de neurones : de la physique à la psychologie, Armand Colin/Dunod, 1993
Thiria S., Lechevallier Y., Gascuel O. et Canu S., Statistique et méthodes neuronales, Dunod, 1997.
G. Weisbuch, Dynamique des systèmes complexes : une introduction aux réseaux d'automates InterEditions/Editions du CNRS, 1989
Models of Learning: GA, CS and GP Marco Valente This talk describes in some detail the main
systems used to represent adaptive learning: Genetic Algorithms (GA),
Classifier Systems (CS) and Genetic Programming (GP). The goal of the talk
is to provide the elements to decide which system may be more appropriate
for a purported use. It will also be discussed the kind of problems that
generally emerge during the implementation of these systems, that is, the
use of simulation models for economic research. The systems of learning with genetic flavour have been
proposed in the early 70's in the area of artificial intelligence. The
"traditional" AI tried to use the computers to reproduce intelligent
behaviours by means of feeding the machine with as much "basic knowledge"
as possible, and then using the speed of data retrieving and logical
elaboration to select the correct piece to be used at any given moment.
These produced, for example, the "expert systems" (find the correct
suggestion an expert would give in that situation), or logical machines
(develop the whole set of logical implications from given assumptions).
J.Holland instead used a different approach (Holland, 1975). His idea was
to provide the computer with a "basic language" and a fitness function,
resembling the "language" of genetic coding (all possible combinations of
the basic genes) and the biological response (fitness of individual in a
given environment). The computer started with a random sample of strings
(i.e. random "words" of the language), assigning each the fitness response.
Then the program continuously creates new strings in a similar way that new
genetic material is produced by existing one, exploring better and better
areas of the whole potential space of research. The power of this genetic system resides in the fact
that the number of "words" represented by the basic language may be
virtually unlimited. The exploration does not necessitate considering at
once the whole space of research, but only a very small portion of it.
Using the bits of information obtained from the fitness responses it is
therefore possible to obtain increasingly better elements. This system, the
GA, was basically designed after the biological evolution of species.
Initial random individuals survive from one generation to the next in
proportion to their relative fitness. New individuals are created by mixing
chunks of existing individuals' genetic material, and mutating with low
probability. However, this system did not seem adequate for the
representation of knowledge evolution followed by humans. In Holland et
al., 1986, is formally faced this problem. One of the proposals is the Classifier System (see also Goldberg, 1989). The CS uses the GA way to explore,
select and retain new knowledge (i.e. random initial endowment, selection,
and genetical recombination and mutation). However, the basic element of
knowledge is not a generalized "word" of a language, but it is a
"classifier" condition-action. The condition- part operates a
classification of the states on which the action part can be successfully
operated. In this way, it is considered explicitly the human activity of
developing a classification of relevant states of the world, on each of
which different actions need to be operated. CS improve GA in that allow
the learning system to develop differentiated responses for different
states of the world (a fundamental condition for representing human
behaviour). Moreover, CS introduces the differentiation between the timing
of action of the simulated agent and the timing of elaboration of
information. From the theoretical viewpoint, the CS allows to develop quite
sophisticated structures, like the default hierarchies, that are
thought to be at the base of the intelligent behaviour when coping with
real world complex situations. On the other hand, CS require quite high
technical skills for their implementation. Moreover, they often fail to
succeed in developing "intelligent" behaviour, since the calibration is
very complex. In the early 90's a new system was proposed: Genetic
Programming (Koza, 1992). The goal of this new system is to make computers
develop their own programs, aimed at solving a given problem. The Genetic
Programming, GP, is very similar to the GA, but instead of using a basic
language of "static" elements (i.e. 0's and 1's forming strings), it uses
elementary functional elements, like arithmetical operators, conditional
statements, etc. Of course, the GP are, in theory, far more general than
any other system, since their "research space" includes any conceivable
computable structure, including the classification represented in CS. Although many researchers from different areas
contributed to the development of the above mentioned systems, the common
environment for their development is highly technical. This, for example,
is responsible for the potential conflict between who uses learning systems
for pure optimization purposes (the "engineer approach") and the ones that
prefer a more social attitude, requiring learning systems to have the same
balance between intelligent and · non-intelligent (satisficing?)
behaviour that humans show. The software tools made available are themselves mainly
thought for technical applications, and need a quite high degree of
programming skills to be applied to a specific context. Moreover, besides
the simplicity of their basic design, the actual implementation often
requires many specifications that require, again, a deep understanding of,
both, the problem to which they are applied and the internal mechanism of
the artificial learning system. Besides the development of a learning system, a more
general concern is the use of simulation models in social sciences. That
is, the development of an artificial economy, intrinsically dynamical, in
which artificial agents act and develop gives rise to many technical
problems that are not yet fully solved by off-the-shelves products.
Moreover, differently from "engineering" problems, simulation models in
social sciences do not need to "solve the problem", but have the more vague
goal of increasing our knowledge. This means that the simulation need to
provide all the information concerning whole patterns followed and help in
finding the explanation for the simulated events. BIBLIOGRAPHY Andersen, E.S., 1994, Evolutionary economics:
post-Schumpeterian Contributions, Francis Pinter, London. Aversi,R., G.Dosi, G.Fagiolo, M.Meacci and C.Olivetti,
1999, "Demand Dynamics With Socially Evolving Preferences ", Industrial
and Corporate Change, 8-2, p.353-408 Brenner, T. (ed.), 1999, Computational Techniques for
Modelling Learning in Economics, Kluwer. Cohen, CD, R Burkhart, G Dosi, M Egidi, L Marengo, M
Warglien and S Winter, 1996, "Routines and other recurring action patterns
of organizations: contemporary research issues", Industrial and
Corporate Change, Vol. 5:3 Dosi, G., Marengo, L., Fagiolo, G., 1996, "Learning in
Evolutionary Environments", CEEL Working Papers, WP 1996-05, Trento,
http://www-ceel.gelso.unitn.it/LabEcSper/PUBLICATIONS/paperCeel.html Dosi,G., Marengo,L., Bassanini,A. and Valente,M.
,1999, "Norms as Emergent Properties of Adaptive Learning: the Case of
Economic Routines", Journal of Evolutionary Economics, 9-1,
p.5-26. Goldberg, D.E., 1989, Genetic Algorithms in Search,
Optimization and Machine Learning, Addison-Wesley. Hodgson, G.N., 1993, Economics and Evolution,
Cambridge, Polity Press. Holland, J.H., 1975, Adaptation in Natural and
Artificial Systems, Ann Arbor, University of Michigan Press. Holland, J.H., K.J.Holyoak, R.E.Nisbett and P.R.
Thagard,(1986), Induction: Processes of Inference, Learning, and
Discovery, MIT Press,Cambridge,Massachusetts. Koza, J.R., 1992, Genetic Programming: On the
Programming of Computers by Means of Natural Selection, MIT Press,
Cambridge, MA, USA. Marengo L., "Alternative methodologies for modelling
evolutionary dynamics: Introduction". Journal of Evolutionary
Economics, 1997, Vol. 4, pp. 331-338. Marengo L., Tordjman H., "Speculation, Heterogeneity and
Learning: A Model of Exchange Rate Dynamics". Kyklos : internationale
Zeitschrift für Sozialwissenschaften, 1996, Vol. 49, pp.
407-438. Marengo L., Tamborini R., Beltrametti L., Fiorentini R.,
1997, "A Learning-to-Forecast Experiment on the Foreign Exchange Market
with a Classifier System", Journal of Economic dynamics &
control, Vol. 21, pp. 1543-1575. Nelson,R., 1995, "Recent Evolutionary Theorizing about
Economic Change ", Journal of Economic Literature ,vol 33,p.48-90. Nelson,R. and Winter,S., 1982, An Evolutionary Theory
of Economic Change, Cambridge, Harvard University Press. Simon, H.A., 1982, Models of Bounded Rationality,
Cambridge, MIT Press. Valente, M., 2000, Evolutionary Economics and
Computer Simulations - A Model for the Evolution of Markets, PhD
Thesis, Aalborg, Denmark, http://www.business.auc.dk/~mv/ThesisHome/ThesisHeader.html Vriend, N.J., 2000, "An Illustration of the
Essential Difference between Individual and Social Learning, and its
Consequences for Computational Analyses", Journal of Economic Dynamics
and Control, 24, 1-19
Apprentissage auto-organisateur : application à lanalyse exploratoire de
données Marie Cottrell Samos-Université Paris 1 Marie.Cottrell"at"univ-paris1.fr Lalgorithme de Kohonen est un des algorithmes
dapprentissage les plus célèbres. On lappelle
aussi algorithme dauto-organisation, ou carte de Kohonen, ou plus
brièvement SOM (Self-Organizing Map). Il a été défini par Teuvo Kohonen,
dans les années 80, à partir de motivations
neuromimétiques (cf. Kohonen, 1984, 1995). On sait que des signaux
dentrée voisins excitent des régions voisines dans
différents cortex comme le cortex visuel, auditif, sensoriel, par
exemple. Cette ´ organisation ª des champs
récepteurs se met en place progressivement au cours dun
apprentissage (plus ou moins long). Cest cette observation qua
exploitée T.Kohonen pour définir son algorithme, qui a pour
caractéristique essentielle de faire correspondre à des
entrées voisines des unités (et des vecteurs-codes)
identiques ou voisins. Ce résultat sobtient après un
processus dapprentissage stochastique, non supervisé, puisque
les correspondances entrées-sorties ne sont pas
prédéterminées. Il existe aussi une version batch de
cet algorithme, mais on perd alors l'aspect progressif et dépendant
de lexpérience de lalgorithme original. Dans le contexte danalyse des données qui
nous intéresse ici, lensemble des entrées (ou inputs)
est un ensemble fini rangé dans une matrice de données,
formée de N individus ou observations, décrits par un
identificateur et p variables. Lalgorithme regroupe alors les
observations en classes, en respectant la topologie de lespace des
observations. Cela veut dire quon définit a priori une
notion de voisinage entre classes et que des observations voisines dans
lespace des variables (de dimension p) appartiennent
(après classement) à la même classe ou à des
classes voisines. Les voisinages entre classes peuvent être choisis
de manière variée, mais en général on suppose
que les classes sont disposées sur une grille rectangulaire
qui définit naturellement les voisins de chaque classe. On peut
aussi considérer une topologie unidimensionnelle dite en
ficelle, ou éventuellement un tore ou un cylindre. Principe de lalgorithme de Kohonen Lalgorithme de classement est itératif.
Linitialisation consiste à associer à chaque classe
un vecteur code (ou représentant) de p
dimensions choisi de manière aléatoire. Ensuite, à
chaque étape, on choisit une observation au hasard, on la compare
à tous les vecteurs codes, et on détermine la classe
gagnante, cest-à-dire celle dont le vecteur code est le plus
proche au sens dune distance donnée a priori. On rapproche
alors de lobservation les codes de la classe gagnante et des classes
voisines. Cet algorithme est analogue à la version
stochastique de lalgorithme des centres mobiles, mais dans ce dernier
cas, il nexiste pas de notion de voisinage entre classes et on ne
modifie à chaque étape que le code (ou
représentant) de la classe gagnante. Nous présenterons les principales
propriétés de lalgorithme de Kohonen et des
applications en analyse de données et prévision. Nous
définirons plusieurs variantes de lalgorithme de base
permettant de faire de lanalyse exploratoire de données tant
quantitatives que qualitatives. BIBLIOGRAPHIE E. de Bodt, P.Grégoire, M.Cottrell :
Simulation de l'évolution de la structure à terme des taux
d'intérêt: une approche non paramétrique, Banque
& Marchés, 36, p. 21-28, 1998. E.de Bodt M.Verleysen, M.Cottrell : Kohonen Maps
versus Vector Quantization for Data analysis Proc. of ESANN97,
Avril 1997, Brugge, M.Verleysen Ed., Editions D Facto, Bruxelles, p.
211-218, 1997. M.Cottrell, P.Letremy, E.Roy : Analyzing a
contingency table with Kohonen maps : a Factorial Correspondence Analysis,
Proc. IWANN93, J.Cabestany, J.Mary, A.Prieto Eds., Lecture
Notes in Computer Science, Springer-Verlag, 305-311, 1993. M.Cottrell, S.Ibbou : Multiple correspondence
analysis of a crosstabulation matrix using the Kohonen algorithm, Proc.
ESANN'95, M.Verleysen Ed., Editions D Facto, Bruxelles, 27-32, 1995. M.Cottrell, B.Girard, Y.Girard, C.Muller,
P.Rousset : Daily Electrical Power Curves : Classification and
Forecasting Using a Kohonen Map, From Natural to Artificial Neural
Computation, Proc. IWANN'95, J.Mira, F.Sandoval eds., Lecture Notes
in Computer Science, Vol.930, Springer, 1107-1113, 1995. M.Cottrell, E. de Bodt : A Kohonen Map
Representation to Avoid Misleading Interpretations, Proc.
ESANN96, M.Verleysen Ed., Editions D Facto, Bruxelles, 103-110,
1996. M.Cottrell, E. de Bodt, E.F.Henrion : Understanding
the Leasing Decision with the Help of a Kohonen Map. An Empirical Study of
the Belgian Market, Proc. ICNN'96 International Conference}, Vol.4,
2027-2032, 1996. M.Cottrell, P.Rousset :, The Kohonen algorithm: A
Powerful Tool for Analysing and Representing Multidimensional Quantitative
and Qualitative Data, Proc. IWANN97, 1997. M.Cottrell, J.C.Fort, G.Pagès : Theoretical
aspects of the SOM Algorithm, WSOM97, Helsinki 1997,
Neurocomputing 21, 119-138, 1998. M.Cottrell, P.Rousset, B.Girard : Forecasting of
curves using a Kohonen classification, Journal of Forecasting, 17,
p. 429-439, 1998. M.Cottrell, E.de Bodt, E.Henrion, C.VanWymeersch :
Self-Organizing Maps for Data Analysis: An Application to the Belgian
Leasing Market, J. of Computational Intelligence in Finance, Vol. 6,
n°6, p.5-23, 1998. E.de Bodt M.Cottrell et M.Verleysen : Using the
Kohonen algorithm for quick initialization of Simple Competitive Learning),
Proc. of ESANN99, Avril 1999, Brugge, M.Verleysen Ed.,
Editions D Facto, Bruxelles, p. 19-26, 1999. G.Deboeck, T.Kohonen : Visual Explorations in Finance
with Self-Organization Maps, Springer, 1998. P.Gaubert, M.Cottrell : Neural network and
segmented labour market, European Journal of Economics and Social
Systems, Vol. 13, N°1, p.19-40, 1999. P.Gaubert, M.Cottrell : A dynamic analysis of
segmented labor market, Fuzzy Economic Review, Vol. IV, N° 2,
p.63-82, 1999 P.Gaubert, M.Cottrell : Classification of recurring
unemployed workers and unemployment exits, ACSEG98,
Louvain-la-Neuve, European Journal of Economics and Social Systems,
Jan 2000 S.Kaski: Data Exploration Using Self-Organizing
Maps, Acta Polytechnica Scandinavia, 82, 1997. T.Kohonen: Self-Organization and Associative
Memory, (3rd edition 1989), Springer, Berlin, 1984. T.Kohonen: Self-Organizing Maps, Springer,
Berlin, 1995. A.Lendasse, M.Verleysen, E.de Bodt, P.Grégoire,
M.Cottrell : Forecasting Time-series by Kohonen Classification,),
Proc. of ESANN98, Avril 1998, Brugge, M.Verleysen Ed.,
Editions D Facto, Bruxelles, p. 221-226, 1998. E.Oja and S.Kaski: Kohonen Maps, Elsevier, 1999.
Approches expérimentales de lefficacité informationnelle des
marchés Bernard Ruffieux E.N.S.G.I.-Grenoble Bernard.Ruffieux"at"inpg.fr Smith et al. (1988) created laboratory asset markets in
which they observed that market prices consistently differed from the
fundamental value of the asset, and labeled the price patterns as
"bubbles" and "crashes". In subsequent work, laboratory
asset market bubbles have been given the definition "trade at high
volumes at prices that are considerably at variance from intrinsic
values" (King et al. 1993). A market crash can be defined as a rapid
drop in transaction prices. The markets studied by Smith et al. (1988)
traded assets with a lifetime of a known finite number of periods, in which
the asset paid a dividend in each period, and the dividend was typically
the only source of intrinsic value. The dividend paid was identical for
each trader and the dividend process was common information to all traders.
When subjects participated in this type of market for the first time, the
prices tended to climb to levels higher than the fundamental value, and
then to crash toward the fundamental value near the end of the time
horizon. A typical time series of prices shows that prices increase to a
level greater than the fundamental value, and then a crash occurs. After
the crash, prices closely track the fundamental value. The sharp differences between the observed prices and
the fundamental values have motivated several extensions of the original
Smith et al. (1988) experiment. The extensions examine the robustness of
the bubble and crash phenomenon. King et al. (1993) study the effect of
allowing short selling, allowing margin buying, having an equal initial
endowment of the asset for each agent, imposing a fee on transactions
(Tobin tax style), imposing limits on price changes, and using
businesspeople as subjects. They observe bubbles in all of their
treatments. Fisher and Kelly (1998) construct two asset markets operating
simultaneously and observe bubbles and crashes in both markets. Porter and
Smith (1995) study the effect of futures markets and of removing the
uncertainty in the dividend process. The futures market reduces the bubble,
but does not dampen it. Van Boening et al. (1993) study asset market with
call markets (two-sided sealed-bid auctions), and also observe price
bubbles and crashes. During the session, we shall produce an experimental
bubble with the students, then we shall present general procedures and
results from the literature, and recent works. We shall finish with a
discussion on the implications for cognitive approaches. BIBLIOGRAPHY Ball, S., and C. Holt (1998), "Classroom Games:
Speculation and Bubbles in an Asset Market," Journal of Economics
Perspectives, 12(1), pages 207-218. Camerer, C., and Weigelt (1991), "Information
Mirages in Experimental Asset Markets", Journal of Business,
64(4), pp. 463-493. Duxbury D. (1995) "Experimental Asset Markets
Within Finance", Journal of Economic Surveys, 9(4),
pages 331-371. King R., V. Smith, A. Williams, and M. Van Boening
(1993), "The Robustness of Bubbles and Crashes in Experimental Stock
Markets," in Nonlinear Dynamics and Evolutionary Economics, I
Prigogine, R. Day and P. Chen eds., Oxford University Press. Noussair Ch., Robin S., Ruffieux B. (1998), Bubbles
and Anti-Crashes in Laboratory Asset Markets with Constant Fundamental
Values, Working Paper, Krannert Graduate School of Management, Purdue
University. Noussair Ch., Robin S., Ruffieux B. (2000), Price
Bubbles in Laboratory Asset Markets with Constant Fundamental Values,
Experimental Economics, 2nd submission. Porter, D., and V. Smith (1995), "Futures
Contracting and Dividend Uncertainty in Experimental Asset Markets,"
Journal of Business, 68(4), pages 509-541. Smith V., G. Suchanek, and A. Williams (1988),
"Bubbles, Crashes and Endogenous Expectations in Experimental Spot
Asset Markets," Econometrica, 56, 1119-1151. Smith, V, M. Van Boening, and C. Wellford (2000),
Dividend Timing and Behavior in Laboratory Asset Markets, University
of Mississippi working paper. Sunder S. (1995), Experimental Asset Markets: A
Survey, in The Handbook of Experimental Economics, J. Kagel
and A. Roth, eds, Princeton University Press. Van Boening, M., A. Williams, and S. LaMaster (1993),
"Price Bubbles and Crashes in Experimental Call Markets",
Economics Letters, Vol. 41, pages 179-185.
Ordre endogène et diffusion des innovations Jean-Michel Dalle ENS-Cachan et IDHE jmdalle"at"dir.ens-cachan.fr Létude de la diffusion des
innovations technologiques constitue une question essentielle de
léconomie de linnovation, qui a donné lieu depuis
les années 50 à de nombreux travaux empiriques et
théoriques importants (Griliches, 1957 ; Mansfield, 1961 ;
pour un survey récent : Lissoni & Metcalfe, 1994). La
nature même de la question a au demeurant conduit les
économistes à se confronter très tôt dans ce
domaine à la prise en compte de phénomènes dynamiques
où lexistence dinteractions et
lhétérogénéité des acteurs jouent
un rôle important, et donc à un nécessaire effort de
modélisation sur des voies relativement originales. Aucun modèle nest pourtant
véritablement parvenu jusquà récemment à
intégrer de manière satisfaisante lexistence
dinteractions/externalités ainsi que
lhétérogénéité des adopteurs
potentiels tout en préservant un degré de
généralité satisfaisant, alors même que les
phénomènes mis en évidence empiriquement se
caractérisent au contraire par la présence de très
fortes régularités : celles-ci tiennent notamment
à la bien connue forme logistique des courbes de diffusion, pour
laquelle il na donc longtemps pas existé de véritable
explication structurelle, sans parler dune liaison robuste entre les
caractéristiques des trajectoires de diffusion et celles des
innovations et des marchés. Lapparition récente de nouveaux outils de
modélisation en économie de linnovation a permis de ce
point de vue des progrès très importants. Cette apparition
est due à la conjonction de plusieurs évolutions qui tiennent
notamment à la mise en évidence du rôle que jouentles
interactions directes entres les acteurs, i.e. des interactions non
médiées par des prix (Kirman, 1983, 1992, 1997) et en
particulier, dans le cas plus spécifique de léconomie
de linnovation, les externalités positives locales et globales
(David, 1988 ; Arthur, 1989) mais aussi à la nécessaire
prise en compte de processus à proprement parler dynamiques et non
plus simplement statiques (Nelson & Winter, 1982 ; David,
1985 ; Dosi, 1988), et généralement à la remise
au goût du jour depuis Schelling (1971, 1978) de la traditionnelle
question de lagrégation des actions individuelles, qui
nest autre que la question de la compréhension des
phénomènes collectifs, et qui se pose en effet
désormais dans un contexte où lon doit
considérer lévolution au cours du temps de populations
dagents hétérogènes entre lesquels existent des
structures dinteractions. Comme dautres phénomènes
économiques, la diffusion des innovations est donc marquée et
influencée par différentes formes dendogène, si
lon caractérise ainsi ´ à la
Schelling ª lapparition déquilibres
métastables communs à la totalité ou à un
sous-ensemble des trajectoires possibles dun système et dus
à la coordination décentralisée des actions de
nombreux acteurs (Dalle, 1997). Il sagit typiquement de ce que
nous avons appelé des ordres endogènes de type 1, liés
à luniformisation des comportements des acteurs et donc
ici à la standardisation (David, 1985 ; Arthur, 1989) mais dont
lanalogue sur les marchés financiers serait la formation de
bulles spéculatives (Orléan, 1990, 1992), mais aussi
dordres endogènes de type 2, liés à
lapparition de territoires, quil sagisse de niches
ou denclaves technologiques (Dalle, 1995 ; David, Foray &
Dalle, 1998), mais aussi dordres de type 3, précisément
liés à la forme logistique des courbes de diffusion,
à laquelle il devient ainsi facile de donner une explication
générale, mais aussi aux variations de la vitesse de
diffusion en fonction de la répartition statistique des
comportements probables dadoption, cest-à-dire en
fonction des caractéristiques des produits et des marchés
(Dalle, 1998). Tous ces résultats ne sont évidemment pas
neutres en termes dintérêt général. La
question centrale tient de ce point de vue essentiellement aux
conséquences éventuellement fâcheuses des
phénomènes de standardisation et a lapparition de
standards inefficaces, phénomènes dont les
conséquences font au demeurant aujourdhui largement la une des
journaux. Au delà de lexplication de tels
phénomènes (David, 1985, 1987), il devient possible avec une
compréhension plus fine des phénomènes collectifs
sous-jacents de suggérer dans ce domaine différentes pistes
à laction publique, qui peuvent certes conclure à son
inefficacité hors dune fenêtre initiale dont la
durée peut toutefois être évaluée, mais aussi
suggérer différentes stratégies susceptibles par
exemple dallonger la durée de cette fenêtre et de
favoriser ainsi lapprentissage collectif qui ensemble permettront la
sélection des meilleurs standards (Dalle & Foray, 1998,
1999). BIBLIOGRAPHIE Arthur W.B. (1989), Competing technologies,
increasing returns and lock-in by historical events, Economic Journal 99:
116-131. Dalle J.-M. (1995), Dynamiques dadoption,
coordination et diversité, Revue Economique, 46: 1081-1098. Dalle J.-M. (1997), La question de lordre
endogène en économie, Thèse de doctorat, Ecole
Polytechnique, 300 p., non publiée. Dalle J.-M. (1998), Local interaction structures,
heterogeneity, and the diffusion of technological innovations, in Lesourne
J. & Orléan A. (eds), Self-organization and evolutionary
approaches: new developments, Economica: Paris, pp. 240-261. Dalle J.-M., Foray D. (1998), The innovation vs.
standardization dilemma : some insights from stochastic interaction
models, in Schweitzer F. & Silverberg G. (eds), Evolution and
Self-Organization in Economics, Duncker & Humblot : Berlin, pp.
147-182. Dalle J.-M., Foray D. (1999), Quand les agents
économiques sont-ils négligeables (ou décisifs)?, in
Callon M. et al. (eds), Réseau et coordination, Economica :
Paris, pp. 111-131. David P.A. (1985), Clio and the economics of QWERTY,
American Economic Review (Papers and Proceedings) 75: 332-337. David P.A. (1987), Some new standards for the economics
of standardization in the information age, in Dasgupta, Stoneman Eds.,
Technology policy and economic performance, Cambridge UP, Cambridge, Mass.,
pp. 206-239. David P.A. (1988), Putting the past into the future of
economics, Technical Report 533, Institute for Mathematical Studies in the
Social Sciences: Stanford University. David P.A., Foray D., Dalle J.-M. (1998), Marshallian
externalities and the emergence and spatial stability of technological
enclaves, Economics of Innovation and New Technology 6: 147-182. Dosi G. (1988), Sources, procedures, and microeconomic
effects of innovation, Journal of Economic Literature 26: 1120-1171. Griliches Z. (1957), Hybrid corn: an exploration into
the economics of technical change, Econometrica 25: 501-522. Kirman A.P. (1983), Communication in markets, Economic
Letters 12: 101-108. Kirman A.P. (1992), Whom or what does the representative
individual represent?, Journal of Economic Perspectives 6: 117-136. Kirman A.P. (1997), Economies with interacting agents,
in Arthur, Durlauf, Lane (eds), The Economy as an Evolving Complex System
II ; Santa Fe Institute, Studies un the Sciences of Complexitity,
Addison-Wesley : Reading, Mass. Lissoni F., Metcalfe J.S. (1994), Diffusion of
innovation ancient and modern: review of the main themes, in Dodgson M.,
Rothwell R. eds, The Handbook of Industrial Innovation, Edward Elgar, 1994,
pp. 106-141. Mansfield E. (1961), Technical change and the rate of
imitation, Econometrica 29: 41-66. Nelson R.R., Winter S.G. (1982), An evolutionary theory
of economic change, Harvard University Press: Cambridge MA. Schelling T.C. (1971), Dynamic models of segregation,
Journal of Mathematical Sociology 1: 143-186. Schelling T.C. (1978), Micromotives and macrobehavior,
Norton: New York.
Imitation and dynamics of opinion
forming Serge Galam Laboratoire des Milieux
Désordonnés et
Hétérogènes-Université Paris 6 galam"at"ccr.jussieu.fr Every day, millions of people get together to
make up a decision about some issue of interest for the group or the
collectivity they represent. The spectrum of group nature is almost
infinite. It includes professionnal groups having to decide on some
technical issue, as well as all kind of friendly groups. The nature of the
decision itself is even more diversified. It can be a high rank political
issue related to some military retaliation, like recently about bombing
Yougoslavia. It can be also a public jury to decide about a murder guilt.
But it can equally be casual with some school board to decide on the
cafeteria setting. A priori to decide about bombing a country or painting a
dinning room seems and is of a totally different nature. Especially the
decision cost and the associated human consequences. Nevertheless it may be
that the respective groups undergoing the decision making do obey an
identical process of group decision making. At least that is the hypothesis
behind our approach. In this work, we are assuming here the existence of
some universal mechanisms which produce group decision making. Of course, we are dealing with the character of the
decision rather than with the nature of the decision itself. We aim to
determine for a given issue the psycho-sociological conditions under which
a group either polarize or get to a compromise [1]. Modelizing a complex social situation using Statistical
Physics have started long ago [2]. For instance to study strike process
[3]. They are getting more numerous in recent years. Among others, we can
cite voting in political organisations [4], group power dynamics [5],
social impact [6], outbreak of cooperation [7], stock market [8], and more
recently traffic flows [9] and sexual reproduction [10]. To keep the presentation simple, we used a model in
which a group of N persons has to make up a decision with respect to two
options "yes" and "no". The model is articulated around a Postulate of
minimum conflict. Competing interactions are also present. Formally we are using a random field Ising ferromagnetic
model in an external magnetic field at zero temperature. However here the
system is finite in size. Moreover "random fields" may have a non-zero
configurational average. Results may also depend on the field
configuration. Our model does not aim at novelty in Statistical
Physics. It is aimed instead at drawing the psycho-sociological
implications of a human-like version of a physical model. We will first consider the simplest situation with only
pair interactions. A measure of the group conflict is determined. The
concept of a symmetry breaking choice is introduced. Then we deal with
quantizing the anticipation effect at work in the group process of making
up a collective choice. Surrounding pressure as well as individual biases
will be included. Given a class of individual conflicts we study mechanisms
by which either a compromise or a polarization of the group is produced.
Examples will discussed in details. Last, but not least we will comment on
the possible extension to non-rational behavior, i. e., in physical terms,
to non-zero temperatures. BIBLIOGRAPHY [1] S. Galam and S. Moscovici, Towards a theory of
collective phenomena. I: Consensus and attitude change in groups,
European Journal of Social Psychology, 21, 49-74 (1991) [2] S. Galam and S. Moscovici, Collective Phenomena and
the Applications of Physics to Other Fields of Science, in N. A. Chigier
and E. A. Stern (eds.), Brain Research Publications, New York (1974) [3] S. Galam, Y. Gefen, and Y. Shapir, Sociophysics: a
new approach of sociological collective behavior, J. Math. Sociology
9, 1 (1982) [4] S. Galam, Majority rule, hierarchical structure and
democratic totalitarianism, J. Math. Psychology , 30, 426
(1986); [4] S. Galam, Social paradoxes of majority rule voting
and renormalization group, J. Stat. Phys. 61, 943-951
(1990) [5] S. Galam and S. Moscovici, Towards a theory of
collective phenomena. II: Conformity and Power, Euro. J. Social
Psychology 24, 481 (1994); [5] S. Galam and S. Moscovici, Towards a theory of
collective phenomena. III: Conflicts and Forms of Power, Euro. J. Social
Psychology 25,217 (1995) [6] M. Lewenstein, A. Nowak, and B. Latané,
Statistical mechanics of social impact, Phys. Rev. A45, 1
(1992) [6] G. A. Kohring, Ising models of social impact: the
role of cumulative advantage, J. Phys. I. France 6, 301
(1996) [7] N. S. Glance and B. A. Huberman, The outbreak of
cooperation, J. Math. Sociology 17(4), 281 (1993) [8] M. Levy, H. Levy and S.Solomon, Microscopic
simulation of the stock market, J. Phys. I. France 5,1087
(1995) [9] D. Helbing, A. Hennecke, and M. Treiber, Phase
diagram of traffic states in the presence of inhomogeneities, Physical
Review Letters 82, 4360 (1999) [10] D.Stauffer, P.M.C.de Oliveira, S.Moss de Oliveira
and R.M.Zorzenon dos Santos, Monte Carlo Simulations of Sexual
Reproduction, Physica, A231, 504 (1996)
Imitation, rationalité et convention André Orléan CEPREMAP andre.orlean"at"cepremap.cnrs.fr Limitation intéresse
léconomie cognitive parce quelle est, parmi les
processus de diffusion de croyances au sein dune population, une des
formes les plus simples et les plus communément utilisées. Le
présent exposé se propose dillustrer cette thèse
à laide de plusieurs exemples. Pour ce faire, on partira
dune typologie distinguant trois formes distinctes dimitation,
ce quon appellera le " mimétisme
normatif ", le " mimétisme
informationnel " et le " mimétisme
autoréférentiel ". Par mimétisme normatif,
nous entendons la conduite qui consiste à faire siens les
comportements ou les croyances des autres dans le but de se faire admettre
au sein dun groupe ou par peur des sanctions que ferait courir une
attitude déviante. Le mimétisme informationnel consiste
à imiter les autres parce quon les suppose mieux
informés que nous le sommes. Le mimétisme
autoréférentiel sintéresse à des
situations sociales complexes dans lesquelles les individus cherchent
à se rapprocher dune opinion majoritaire qui nest pas
déterminée ex ante, lexemple le plus classique nous
étant donné par le fameux " concours de
beauté " de Keynes. On commencera par montrer lintérêt de
ces concepts au travers dune série dexemples
économiques, le plus souvent tirés de la finance. Notre
thèse est que les dynamiques financières ne peuvent
être rendues intelligibles uniquement à partir dune
analyse des fondamentaux économiques mais nécessitent
impérativement une prise en compte de la dimension cognitive des
interactions. On retrouve ici la thèse fondamentale de
léconomie cognitive. Dans un second temps, on analysera les
modélisations qui ont été proposées pour rendre
compte de ces différentes formes dimitation. La question qui
est alors centrale est celle des liens entre imitation et
rationalité : sagit-il de comportements rationnels ?
Sous quelles conditions ? Une grande variété de
modèles sera mise en évidence et étudiée (entre
autres Akerlof pour létude des sanctions, Bickchandani et
alii pour lanalyse des cascades informationnelles et B. Arthur
pour celle des externalités positives et des standards). Pour conclure, nous nous intéresserons plus
spécifiquement à la dimension auto-organisatrice de
limitation : sous quelles conditions les dynamiques de contagion
peuvent-elles déboucher sur lémergence de nouvelles
conventions ? Ici, cest le mimétisme
autoréférentiel quon étudiera. Lexemple
financier et monétaire nous conduira à mettre en avant
certaines contraintes portant sur la plus ou moins grande
légitimité intrinsèque des opinions en concurrence. BIBLIOGRAPHIE Akerlof, G. A., " A theory of social
custom, of which unemployment may be one consequence ",
Quaterly Journal of Economics, vol. 94, juin 1990, 599-617. Arthur, B., " Competing technologies,
increasing returns, and lock-in by historical events ",
Economic Journal, vol. 99, mai 1989, 116-31. Arthur, B. et D.A. Lane, " Information
contagion ", Structural Change and Economic Dynamics, vol.
4, 1993, 81-104. Asch, S., " Effects of group pressure upon
modification and distorsion of judgment " in H. Guetzkow
(éd.), Groups, leadership, and men, Varnegie Press, 1951. Banerjee, A., " A simple model of herd
behavior ", Quarterly Journal of Economics, vol. 107,
août 1992, 797-817. Bickchandani, S., Hirshleifer, D. et I. Welch,
" A theory of fads, fashion, custom, and cultural change as
informational cascades ", Journal of Political Economy,
vol. 100, n°5, 1992, 992-1026. Boyer, R. et A. Orléan, " Persistance
et changement des conventions ", in A. Orléan (éd.)
Analyse déconomique des conventions, PUF, 1994. Boyd, R. et P.J. Richerson, " Rationality,
imitation, and tradition " in R. Day et P. Chen (éds.),
Nonlinear dynamics and evolutionary economics, Oxford University
Press, 1993. Douglas, M., Ainsi pensent les institutions,
Usher, 1989. Kirman, A., " Ants, rationality, and
recruitment ", Quarterly Journal of Economics, vol. 108,
février 1993, 137-56. Sugden, R. The evolution of rights, cooperation, and
welfare, Basil Blackwell, 1986. Young, P., " The evolution of
conventions ", Econometrica, vol. 61, n°1, janvier
1993, 57-84.
mv"at"business.auc.dk