Forum Marxiste-Léniniste
Forum Marxiste-Léniniste
Administrateurs : Finimore, ossip, Xuan
 
 Forum Marxiste-Léniniste  Théorie  sciences & techniques 

 IA

Nouveau sujet   Répondre
 
Bas de pagePages : 1  
Xuan
Grand classique (ou très bavard)
18423 messages postés
   Posté le 10-06-2025 à 21:47:51   Voir le profil de Xuan (Offline)   Répondre à ce message   Envoyer un message privé à Xuan   

CHINE / SOCIÉTÉ
Des scientifiques chinois confirment que l'IA est capable de développer spontanément des capacités cognitives de niveau humain
Par Global Times



L'intelligence artificielle (IA) peut-elle reconnaître et comprendre des choses comme les êtres humains ? Des équipes scientifiques chinoises, en analysant des expériences comportementales en neuroimagerie, ont confirmé pour la première fois que les grands modèles de langage multimodaux (MLM) basés sur l'IA peuvent former spontanément un système de représentation de concepts d'objets très similaire à celui des humains. En termes simples, l'IA peut développer spontanément une cognition de niveau humain, selon les scientifiques.

L'étude a été menée par des équipes de recherche de l'Institut d'automatisation de l'Académie chinoise des sciences (CAS) et de l'Institut des neurosciences de la CAS, ainsi que d'autres collaborateurs.

L'article de recherche a été publié en ligne sur Nature Machine Intelligence le 9 juin. Il affirme que les résultats font progresser la compréhension de l'intelligence artificielle et éclairent le développement de systèmes cognitifs artificiels plus proches de l'humain.

Les humains peuvent conceptualiser des objets du monde naturel, et cette capacité cognitive est depuis longtemps considérée comme le cœur de l'intelligence humaine. Lorsque l'on voit un « chien », une « voiture » ou une « pomme », on peut non seulement reconnaître leurs caractéristiques physiques (taille, couleur, forme, etc.), mais aussi comprendre leurs fonctions, leurs valeurs émotionnelles et leurs significations culturelles, a déclaré Du Changde, de l'Institut d'automatisation de l'ACS et premier auteur de l'article, rapporté par China News.

Du a ajouté que ces représentations conceptuelles multidimensionnelles constituent la pierre angulaire de la cognition humaine.

Ces dernières années, avec le développement fulgurant de LLM tels que ChatGPT, la question fondamentale de savoir si ces grands modèles de langage peuvent développer des représentations de concepts d'objets similaires à celles des humains à partir de données linguistiques et multimodales a émergé et suscité un large intérêt.

He Huiguang, chercheur à l'Institut d'automatisation de l'ACS et auteur correspondant de l'article, a souligné que la recherche traditionnelle en IA s'est concentrée sur la précision de la reconnaissance d'objets, mais a rarement exploré la question de savoir si les modèles « comprennent » réellement le sens des objets. « L'IA actuelle peut distinguer les images de chats et de chiens, mais la différence essentielle entre cette “reconnaissance” et la “compréhension” humaine doit encore être clarifiée », selon un communiqué de presse envoyé au Global Times par l'ACS mardi.

L'équipe chinoise a combiné des expériences comportementales et des analyses de neuroimagerie pour explorer la relation entre les représentations objet-concept dans les LLM et la cognition humaine.

Elle a collecté 4,7 millions de jugements triplets issus de LLM et de LLM multimodaux afin d'obtenir des plongements de faible dimension capturant la structure de similarité de 1 854 objets naturels.

Les plongements de 66 dimensions obtenus étaient prédictifs stables, présentant un regroupement sémantique similaire à celui des représentations mentales humaines.

Fait remarquable, les dimensions sous-jacentes étaient interprétables.suggérant que les LLM et les LLM multimodaux développent des représentations conceptuelles d'objets de type humain.

L'équipe a ensuite comparé la cohérence entre les modèles de sélection comportementale des LLM et des humains. Les résultats ont montré que les LLM étaient plus performants en termes de cohérence. L'étude a également révélé que les humains ont tendance à combiner caractéristiques visuelles et informations sémantiques lors de la prise de décision, tandis que les LLM s'appuient davantage sur des étiquettes sémantiques et des concepts abstraits.

Il a déclaré que l'étude est passée de la « reconnaissance automatique » à la « compréhension automatique ». Les résultats montrent que les LLM ne sont pas des « perroquets stochastiques ». Au contraire, ces modèles possèdent une compréhension interne des concepts du monde réel, tout comme les humains. La principale conclusion est que la « dimension mentale » parvient à des destinations cognitives similaires par des voies différentes.


Edité le 10-06-2025 à 22:01:56 par Xuan




--------------------
contrairement à une opinion répandue, le soleil brille aussi la nuit
Haut de pagePages : 1  
 
 Forum Marxiste-Léniniste  Théorie  sciences & techniques  IANouveau sujet   Répondre
 
Identification rapide :         
 
Divers
Imprimer ce sujet
Aller à :   
 
créer forum
En consultant ce site vous acceptez l'utilisation de cookies.