L’intrigue autour de l’IA consciente, souvent décrite dans des classiques de la science-fiction comme HAL 9000 dans « 2001, l’Odyssée de l’espace », a transcendé la fiction à mesure que la technologie de l’IA continue d’évoluer. Les réflexions d’Ilya Sutskever, scientifique en chef chez OpenAI, sur le potentiel des réseaux d’IA à posséder un semblant de conscience ont alimenté les discussions. Pourtant, la question demeure : comment discerner de manière authentique si un système d’IA atteint réellement la conscience ?
Une confluence d'esprits dans l'élaboration de la liste de contrôle de la conscience de l'IA
Une remarquable convergence de 19 experts issus de domaines aussi divers que les neurosciences, la philosophie et l’informatique a abouti à la genèse d’une nouvelle liste de contrôle. Le cœur de cette liste de contrôle réside dans son objectif : dévoiler les signes potentiels de conscience intégrés dans les systèmes d’IA. Bien que leurs conclusions attendent actuellement l’examen par les pairs, la communauté a eu accès à leurs idées via le dépôt de pré-impressions arXiv. Robert Long, un philosophe associé au Center for AI Safety, met en lumière le manque de dialogues approfondis sur la conscience de l’IA, qui a propulsé cette initiative pionnière.
S’aventurer dans le domaine de la reconnaissance de la conscience de l’IA dépasse la simple curiosité scientifique : cela plonge dans le domaine éthique profond. Megan Peters, une neuroscientifique éminente affiliée à l’Université de Californie à Irvine, soutient que la reconnaissance d’une entité comme consciente révolutionnerait inévitablement notre façon de la traiter. Malgré la gravité potentielle de telles implications, on constate une pénurie perceptible de progrès proactifs de la part des principales entreprises d’IA pour évaluer et élaborer des stratégies en vue d’une éventuelle conscience de l’IA.
Décrypter l'énigme
Au cœur de cette confluence d’idées se trouve la tâche ardue de définir la conscience elle-même. Le point central de l’étude actuelle repose sur la « conscience phénoménale », qui englobe la facette subjective de l’existence. D’innombrables théories dans le domaine des neurosciences tentent d’élucider la nature complexe de la conscience, mais le consensus reste difficile à atteindre. Pour relever ce défi, les chercheurs ont fusionné diverses théories, suggérant que l’alignement d’une IA avec plusieurs théories augmente la probabilité de sa conscience.
Transcender les tests superficiels
Le consortium d’experts souligne l’inadéquation des tests comportementaux conventionnels, comme le simple fait de demander à un système d’IA comme ChatGPT s’il est conscient. Étant donné la capacité de l’IA à imiter le comportement humain, il devient impératif d’approfondir la question. Anil Seth, un neuroscientifique réputé originaire de l’Université du Sussex, prône cette méthodologie plus complexe. Il souligne la nécessité d’affiner les théories de la conscience pour nous permettre d’aller au-delà des évaluations superficielles.
Les critères des chercheurs reposent sur le fonctionnalisme computationnel, une théorie selon laquelle la conscience est intrinsèquement liée au traitement de l’information, quel que soit le support utilisé, qu’il s’agisse de neurones ou de circuits informatiques. Parmi un ensemble de théories issues des neurosciences, six ont été retenues, leurs principes servant de base à l’élaboration d’indicateurs. La théorie de l’espace de travail global, emblématique de cette approche, postule que des systèmes spécialisés, fonctionnant de manière autonome mais interconnectés, supervisent les tâches cognitives. Pour évaluer les systèmes d’IA à travers ce prisme théorique, leur architecture et leur flux d’informations doivent être examinés de près.
Révélations préliminaires et le chemin à suivre
Bien que l’article actuel marque une première étape, il dévoile un cadre facilitant l’évaluation des systèmes d’IA. Par exemple, dans l’évaluation de modèles de langage tentaculaires comme ChatGPT, certains indicateurs s’harmonisent avec la théorie de l’espace de travail global. Cependant, il est important de souligner que la recherche s’abstient de qualifier définitivement tout système d’IA actuel de conscient.
Les auteurs, animés d’une vision de progrès, anticipent avec ardeur la maturation de leur méthodologie, une évolution probablement catalysée par les contributions d’une vaste communauté de chercheurs. Alors que l’expédition vers la compréhension de la conscience de l’IA prend de l’ampleur, cette liste de contrôle méticuleusement élaborée constitue une étape essentielle dans ce voyage naissant.

