#tortureartificielle #PoieticGenerator
Résultat :
Il est évident qu'il y a une émergence, et que cette émergence correspond aux pics de U
Cependant, la métrique de U doit sans doute être encore questionnée. On arrive parfois à un U de 30 bits, ce qui est astronomique !
(U = 20 bits revient à produire un état aussi improbable qu’un numéro gagnant au loto, selon la formule P = 2^-U)
Je trouve particulièrement intéressant le graphique en bas à droite (Rank/prediction error versus Signalling Cost) qui forme un profil vaguement en Z assez stable.
Là, il y a un truc !
Cf. #ANOPTIKON, page 191.
#tortureartificielle #PoieticGenerator
Par exemple :
Dans le cas d'une situation confuse où U est très faible : "étendre la couleur de fond d'un voisin", ou bien "établir une connexion avec la forme d'un voisin", en choisissant de préférence un voisin source prédicteur de bon rang.
Dans le cas où O et N ont fourni une paréidolie, c'est-à-dire une ou plusieurs plusieurs métaphores localisées, les agents peuvent choisir entre "s'aligner sur la paréidolie" et "contester la paréidolie".
La première stratégie est assez sûre quant à la minimisation de l'erreur de prédiction car W peut s'attendre à ce que O et N confirment leur paréidolie à l'itération suivante.
La seconde stratégie est plus risquée mais peut rapporter gros si O e N viennent à changer d'avis en constatant l'action du W contestataire et son impact sur U.
#tortureartificielle #PoieticGenerator
En d'autres termes, O et N produisent des paréidolies, exactement comme nous-autres humains le faisons lorsque,allongés dans l'herbe, nous observons les nuages courir dans le ciel. Nous rêvons d'agir sur les nuages pour qu'ils dessinent ce que nous avons envie de voir. Dans le cadre de cette expérience, ce n'est pas un rêve : O, N, et les Ws le font vraiment.
Les agents W ont à leur disposition un ensemble de stratégies définies de manière très générales susceptibles de minimiser leur erreur de prédiction selon la valeur courante de l'inattendu U.
#tortureartificielle #PoieticGenerator
Parmi les données accessibles au système, il y a aussi le "coût de signalisation" des agents W . C'est simplement le nombre de tokens qu'ils dépensent pour élaborer leur stratégie (réflexion préalable) et pour la mettre en œuvre (actions de dessin).
Les agents interviennent de manière itérative : Ws > O > N > Ws (c'est un point à améliorer car chez nous c'est synchronique)... A chaque itération, O et N produisent non seulement une description et une narration, mais aussi, lorsque la situation le permet, une ou plusieurs métaphores pouvant possiblement s'appliquer au monde qu'ils observent. Et ils disent aux agents W quelque chose comme : "Eh les gars, vous savez quoi ? Ce que vous faites ressemble à un paysage de montagne à droite, et à un masque africain à gauche.".
#tortureartificielle #PoieticGenerator
Pour mettre en œuvre cette compétition de prédiction, j'ai distingué 3 classes d'agents :
- Les agents W (Word machines) qui élaborent chacun indépendamment leur stratégie, leur prédiction et génèrent le monde.
- Un agent O (Observation machine) qui tente de décrire le monde généré par les agents W de la manière la plus concise possible et calcule la complexité de sa description C_d.- Un agent N (Narration machine) qui, à partir de la description O et des stratégies W, tente de construire une histoire sur ce qui est en train de jouer dans le monde, et calcule la complexité de génération C_w.
En outre, il y a bien entendu le système qui collecte toutes les données, calcule l'inattendu U = C_w - C_d, et établit le rang des agents W. Toutes ces informations constituent le contexte fourni aux agents W.
#tortureartificielle #PoieticGenerator
Dans cette nouvelle expérience, j'ai introduit une fonction de fitness :
Les agents sont placés dans une sorte de double contrainte à la Bateson et Watzlawick : Ils doivent "prédire le futur" tout en faisant en sorte que ce futur soit aussi inattendu que possible !
Dit autrement, ils doivent non seulement "créer de l'inattendu" mais surtout minimiser leur erreur de prédiction, car c'est sur cette capacité de prédire qu'ils sont en compétition les uns avec les autres.
Fait surprenant, il émerge une hiérarchie de plus ou moins bons prédicteurs qui s'établit au fil des interactions et semble persister.
Cette première expérience ne me permet assurément pas de fournir des explications définitives de ce phénomène, seulement de faire des hypothèses.
#tortureartificielle
voici une mise à jour de l'expérience AI #PoieticGenerator.
C'est le premier enregistrement avec métriques complètes.
https://www.youtube.com/watch?v=yh7BwZxoL78
Qu'est qui a évolué ?
Dans ma précédente tentative, les agents devraient simplement "créer de l'inattendu".
Ils étaient tous équivalents et ils optimisaient donc tous indépendamment les uns des autres leur stratégie locale pour maximiser l'inattendu global U, qui, je le rappelle est la différence entre la complexité de génération C_w et la complexité de description C_d.
AI PoieticGenerator Metrics 20251207

YouTube
Paréidolie artificielle dans le #poieticgenerator :
Les LLMs sont à la fois nuage et observateurs de nuage...
9 LLMs interacting + current rules
#AI #PoieticGenerator
Je trie mes vieux cartons :
#collector ! Il y a trente ans, Francis Mizio raconte comment il été pris d'une sorte de frayeur cosmique lors de la première expérience planètaire temps réel de la version distribuée #multicast du #poieticgenerator