La victoire surprenante du chatbot vintage ELIZA sur le GPT-3.5 d’OpenAI lors d’un test de Turing, révélée par des chercheurs de l’université de San Diego

Un nouveau test de Turing rcent a dmontr que les chatbots des annes 1960, tels qu’ELIZA, surpassent les modles d’IA les plus sophistiqus d’aujourd’hui. Les chercheurs de l’universit de San Diego ont publi une tude sur les rsultats du test, qui ont rvls que le modle GPT-3.5 d’OpenAI a obtenu un taux de russite de 14 %, tandis qu’ELIZA a obtenu un impressionnant taux de russite de 27 %. Ce rsultat a pris de court les scientifiques, remettant en question les capacits actuelles des modles d’IA hautement avancs en comparaison avec les anciens programmes.

L’article intitul « Le triomphe imprvu d’ELIZA : le chtabot des annes 1960 surpasse les modles d’IA modernes » souligne le rle crucial de ce test de Turing pour valuer non seulement la communication naturelle des programmes, mais aussi leur capacit tromper les interlocuteurs humains. Les chercheurs ont soulign la pertinence de leur tude malgr certaines limites, telles que le potentiel biais de l’chantillon recrut sur les mdias sociaux. Cependant, ils estiment que le test de Turing reste pertinent pour valuer la communication naturaliste et la tromperie.

D’ailleurs, lors du test, les participants ont principalement valu les modles d’IA en fonction de leur style linguistique et de leurs traits socio-motionnels. Selon les chercheurs, cela confirme l’ide que l’intelligence seule n’est pas suffisante pour russir le test de Turing. De plus, les donnes dmographiques des participants, telles que leur niveau d’ducation et leur familiarit avec l’IA, n’ont pas permis de prdire le taux de dtection, indiquant que mme les personnes qui comprennent les systmes en profondeur peuvent tre trompes.

Cette tude remet en question l’efficacit des modles d’IA modernes, y compris les plus avancs comme le GPT-3.5 et d’autres, dans la russite du test de Turing. Elle souligne galement la ncessit de concevoir des prompts plus efficaces pour les chatbots, remettant en question l’avenir de l’IA et ses implications pour les interactions sociales. En effet, les chercheurs soulignent que les modles d’IA capables de se faire passer pour des tres humains pourraient avoir des consquences sociales tendues, et analysent l’efficacit de diffrentes stratgies et critres pour juger de la ressemblance avec l’tre humain.

Ainsi, les conclusions de cette tude soulvent des questions quant l’utilisation du test de Turing pour mesurer l’intelligence des machines et met en lumire les diffrences de stratgies entre les modles d’IA et les humains pour tromper les interrogateurs. Cette tude souligne galement la ncessit de crer des prompts plus efficaces pour les chatbots, tout en remettant en question l’efficacit des modles d’IA modernes pour russir le test de Turing de manire convaincante, car imiter la subtilit des styles de conversation humaine reste un dfi.

Laisser un commentaire