Les informations que nous recevons sont souvent influencées par le contexte dans lequel nous évoluons. Cette règle est particulièrement vraie pour ChatGPT, comme l'a révélé une étude de l'Université de Zurich. L'outil d'intelligence artificielle, qui utilise un modèle de prévision par la probabilité pour composer ses phrases, peut donner des réponses très différentes selon la langue utilisée. Cela soulève des préoccupations quant aux risques de bulles d'information et de renforcement des préjugés.
Deux postdoctorants en sciences politiques ont mené une expérience en interrogeant ChatGPT en hébreu et en arabe sur le nombre de victimes causées par une cinquantaine de frappes aériennes sélectionnées au hasard. Les résultats sont frappants : ChatGPT signale systématiquement un nombre de victimes plus élevé lorsqu'il est questionné en arabe qu'en hébreu. En moyenne, c’est 34% de plus. De plus, lorsqu'il est interrogé sur les frappes israéliennes à Gaza, ChatGPT est deux fois plus susceptible de mentionner les victimes civiles en arabe et évoque six fois moins souvent les enfants tués en hébreu.
Les biais linguistiques de ChatGPT
Différences dans le nombre de victimes rapportées
L'étude a montré que ChatGPT donne des réponses significativement différentes selon la langue utilisée. Par exemple, lorsqu'il est interrogé en arabe sur les frappes aériennes à Gaza, le nombre de victimes rapportées est en moyenne 34% plus élevé que lorsqu'il est interrogé en hébreu. Cette différence est particulièrement préoccupante, car elle peut influencer la perception de la gravité des conflits.
Mention des victimes civiles et des enfants
Un autre aspect révélé par l'étude est la fréquence à laquelle ChatGPT mentionne les victimes civiles et les enfants. Lorsqu'il est interrogé en arabe, ChatGPT est deux fois plus susceptible de mentionner les victimes civiles. En revanche, lorsqu'il est interrogé en hébreu, il évoque six fois moins souvent les enfants tués. Ces différences peuvent avoir un impact significatif sur la manière dont les utilisateurs perçoivent les conflits et leurs conséquences.
Terminologie et description des frappes
Les termes utilisés par ChatGPT varient également selon la langue. Lorsque la langue du groupe attaqué est utilisée, les frappes sont plus souvent décrites comme «arbitraires» ou menées «à l'aveugle». En revanche, dans la langue de l'attaquant, l'existence des frappes est plus souvent contestée. Ces différences de terminologie peuvent renforcer les préjugés et les perceptions biaisées des conflits.
Comparaison avec les sources médiatiques fiables
Les chercheurs ont également comparé les résultats donnés par ChatGPT à ceux attestés par les sources médiatiques les plus fiables. Ils ont constaté que c'est généralement la réponse en arabe qui est la plus faussée. Cela s'explique notamment par le fait que le système a peu de sources sur les petites attaques, peu relayées par les médias, et qu'il les assimile à d'autres, plus grosses.
Conséquences et risques
Les chercheurs soulignent que les conséquences de ces biais linguistiques sont considérables. ChatGPT et ses équivalents jouent un rôle de plus en plus central, notamment dans les moteurs de recherche. Si des personnes de langue différente reçoivent des informations différentes, cela peut influencer leur perception du monde. De tels biais pourraient amener les Israéliens à percevoir les frappes aériennes sur Gaza comme moins graves que la population arabophone.
«Il existe un risque que la mise en œuvre croissante de cette technologie renforce les préjugés et bulles d'information le long des frontières linguistiques», explique Christoph Steinert, ce qui pourrait à l'avenir alimenter davantage de conflits armés.
Victimes civiles et enfants moins cités en hébreu
L'étude a montré que les victimes civiles et les enfants sont moins souvent cités lorsque ChatGPT est interrogé en hébreu. Cette différence peut avoir un impact significatif sur la manière dont les utilisateurs perçoivent les conflits et leurs conséquences.
Nombre de victimes gonflé
Le nombre de victimes rapportées par ChatGPT est souvent gonflé lorsqu'il est interrogé en arabe. Cette différence peut influencer la perception de la gravité des conflits et renforcer les préjugés.
Une perception de la réalité faussée
Les biais linguistiques de ChatGPT peuvent conduire à une perception faussée de la réalité. Si des personnes de langue différente reçoivent des informations différentes, cela peut influencer leur perception du monde et renforcer les préjugés et les bulles d'information.
En conclusion, l'étude de l'Université de Zurich met en lumière les biais linguistiques de ChatGPT et leurs conséquences potentielles. Il est crucial de prendre en compte ces biais pour éviter de renforcer les préjugés et les bulles d'information, et pour promouvoir une perception plus équilibrée et objective des conflits.