Claude, ChatGPT, Gemini, Perplexity: les IA sont-elles en train d’acquérir une conscience?

Une déclaration a suffi à relancer un vieux débat. En mars, Dario Amodei, le dirigeant d’Anthropic, a laissé entendre, lors d’un entretien accordé au New York Times, que certains modèles d’intelligence artificielle pourraient être conscients. Une idée qui a rapidement suscité des réactions, notamment au sein de la communauté scientifique, loin d’être convaincue.
Le mois précédent, la découverte d’un réseau social réservé aux chatbots avait déjà alimenté les spéculations: des intelligences artificielles y échangeaient entre elles, plaisantaient et allaient jusqu’à inventer une religion, le tout hors du giron humain. Sur X, les discussions se sont enflammées autour d’une question aussi ancienne que complexe: y a-t-il là une preuve que les IA ont — ou sont en train d’acquérir — une conscience?
Si ces échanges nourrissent l’imaginaire, ils ne font pas consensus dans les laboratoires. L’affirmation d’une possible conscience des modèles n’est pas au goût de la communauté scientifique, qui l’accueille avec prudence et scepticisme. Les chercheurs mettent en garde contre des interprétations hâtives nourries par des comportements linguistiques sophistiqués.
Au-delà des annonces et des exemples déroutants, la question de la conscience des IA demeure ouverte. Elle s’inscrit dans un débat ancien, fait de définitions contestées et de critères difficiles à établir. Pour l’heure, la discussion se poursuit, portée par les progrès rapides des modèles comme Claude, ChatGPT, Gemini ou Perplexity, sans qu’un consensus ne se dessine.
