Intelligence artificielle : la contamination des anciennes générations

Depuis que ma mère a découvert l’existence de ChatGPT, elle ne sait plus s’en passer : une douleur physique ? On va demander à Chat ; la matière d’un tissu pour le fauteuil de ses rêves ? On va demander à Chat ; « Pourquoi ma fille me dit que je ne dois pas me fier à toi ? Hein Chat ? ». L’intelligence artificielle est devenue son nouveau réflexe.

En réalité, ma mère, 45 ans, n’est pas la seule à utiliser sans cesse ChatGPT : selon une étude de l’Université de Michigan (National Poll on Healthy Aging), 55 % des adultes de 50 ans et plus ont déjà utilisé une technologie d’intelligence artificielle, que ce soit via des assistants vocaux, des outils de recherche automatisés ou des systèmes intelligents à domicile. De son côté, l’AARP (American Association of Retired Persons) montre que la majorité des plus de 50 ans se disent familiers avec certaines formes d’IA (reconnaissance vocale, texte prédictif), même s’ils ne maîtrisent pas toujours le concept d’« IA générative ». L’usage dépasse donc largement les jeunes générations.

Google n’est plus trop utilisé, le cerveau encore moins

Les sondages de l’Economic Observatory, un projet de recherche britannique dont la mission est de rendre les analyses économiques accessibles au grand public, montrent en effet que de nombreux adultes plus âgés utilisent désormais l’IA pour s’informer, poser des questions de santé, traduire un texte, planifier ou vérifier une information, parfois avec plus de rapidité que les moteurs de recherche traditionnels. Pourtant, près de la moitié d’entre eux déclarent avoir peu ou pas confiance dans les informations générées par l’IA, preuve d’une relation paradoxale : usage fréquent, mais méfiance persistante.

J’ai beau expliquer à ma mère que ces robots sont bien conçus pour nous accompagner, mais ils ont, eux aussi, des défauts, tout comme l’être humain. L’hallucination, d’abord : la capacité d’inventer des sources ou des faits inexistants ;
l’anthropomorphisme, ensuite : l’adoption d’un discours plus « humain » par l’IA qui renforce la confiance ; et enfin, la flagornerie, ce que ma mère ne comprend pas : la formulation des réponses qui plaisent ou confirment les attentes de la personne qui l’interroge. 

Les études du RWS, une entreprise britannique spécialisée dans les services assistés par l’IA, montrent que de nombreux adultes plus âgés souhaitent davantage de transparence : comprendre l’origine des informations et les risques liés à leur utilisation. Un constat qui rejoint les recherches de l’Université de Michigan, selon lesquelles ils sont de plus en plus nombreux à vouloir se former pour mieux appréhender les limites de ces outils.

Le retour de l’esprit critique : une nécessité

L’enjeu semble moins être de rejeter ces outils que de comprendre dans quels contextes leur usage est pertinent. Certaines utilisations, comme les diagnostics médicaux complexes, restent particulièrement sensibles et soulèvent des limites.

Sa « bonne utilisation » est ce qu’on appelle le prompting : savoir formuler une demande claire, précise, contextualisée. Cela rappelle que l’intelligence artificielle n’est ni une experte absolue ni une conscience autonome. C’est un outil puissant qui nécessite de l’esprit critique.

Cette évolution interroge la place accordée à la recherche, à la lecture et à la vérification de l’information. Il est donc très courant de recourir à l’IA pour corriger un texte, clarifier une idée ou approfondir un sujet, à condition d’identifier et de vérifier les références mobilisées, comme le soulignent le Cyril de Sousa Cardoso et la chercheuse Fanny Parise, dans un article sur l’intégration des IA génératives dans les pratiques professionnelles.

Ainsi, l’intelligence artificielle ne contamine pas les générations plus âgées. Elle les séduit. Reste à savoir comment elles apprendront à composer avec cet outil, sans en ignorer les limites.

Retour en haut