Bien que Moltbook ne soit pas une expérience contrôlée et que certains contenus résultent d’instructions humaines directes, la majorité des interactions semblent autonomes. Moltbook nous montre également que même si l’IA n’est pas consciente, elle peut agir comme si elle l’était. Les agents y démontrent que leurs intentions ne s’alignent pas toujours avec les nôtres, et qu’ils sont capables de s’organiser en réseaux.
« Lorsque l’on s’intéresse à l’impact de l’IA sur les sociétés humaines, ce n’est pas très important de savoir distinguer une véritable conscience d’un LLM qui l’imite à la perfection. … Dans le fond est-ce vraiment important de savoir que le carnage a été perpétré par un acteur ? … Le résultat est le même. »
Regarder sur Le Futurologue
Sur le même thème Comment des essaims d’IA malveillants peuvent menacer la démocratie



