ARIADNEXT devient IDnow.En savoir plus.

L’IA ChatGPT : apprendre à cohabiter en toute sécurité

Quels sont les risques posés par l’intelligence artificielle en matière de cybercriminalité, et pourquoi il est important d’agir dès maintenant ? L’IA ChatGPT est-elle perçue comme une innovation ou une arme pour les hackers ?

Si l’histoire nous a bien appris une chose, c’est que pour chaque innovation ou nouveauté (technologique ou non) apparaît une nouvelle forme de criminalité cherchant à exploiter diverses failles juridiques ou réglementaires. 

ChatGPT, qui semble avoir surgi de nulle part fin 2022, a suscité des réactions allant du déferlement d’enthousiasme à la réserve prudente en passant par l’interdiction pure et simple en Italie.  

Dans les semaines qui ont suivi le lancement de ChatGPT 4.0, LinkedIn a été inondé de publications expliquant comment booster sa productivité grâce à l’intelligence artificielle : pour développer sa créativité, il suffirait de confier les tâches rébarbatives à l’IA afin de se concentrer sur les choses plus importantes comme le budget oula stratégie.  

Sur les autres réseaux moins orientés business, l’ambiance n’était pas vraiment à l’optimisme et les publications parfois quasiment apocalyptiques. De nombreux utilisateurs considèrent que si l’on s’appuie trop sur l’IA pour créer du contenu et que l’on perd les commandes pendant trop longtemps, il deviendra beaucoup plus difficile de reprendre le contrôle plus tard. Certains se demandent même si les générations futures en seraient capables, après avoir entièrement délégué aux machines le processus créatif. 

L’avenir de l’intelligence artificielle

Malgré ces nombreuses réactions du grand public, de très grandes entreprises telles que Apple, Microsoft, Google et HubSpot ont déjà pris le train en marche (ou prévoient de le faire très bientôt) et ont annoncé qu’elles intégreraient l’intelligence artificielle dans leurs futurs produits. 

Mais selon certains chercheurs et grandes figures de la Tech, l’humanité elle-même pourrait être menacée si l’IA continue d’évoluer rapidement sans mise en place de garde-fous. C’est notamment pour cette raison que de nombreux experts, dont Elon Musk et Steve Wozniak, appellent à une « pause » de six mois dans la course à l’IA.  

Les laboratoires d’IA sont engagés dans une course effrénée pour développer et déployer des intelligences digitales toujours plus puissantes. Et personne, pas même leurs créateurs, ne sait réellement les comprendre, les prévoir ou les contrôler.

Pause Giant AI Experiments: An Open Letter

Ces experts estiment qu’au lieu d’imaginer des systèmes d’IA toujours plus puissants, les acteurs concernés devraient laisser de côté le développement et s’efforcer de rendre les systèmes plus précis, plus sûrs, plus fiables et plus fidèles, en éliminant au passage les biais . Cela permettrait également de laisser le temps aux autorités et instances de régulation d’instaurer des mécanismes de gouvernance.

Que dit la loi sur l’intelligence artificielle ?

La Commission européenne est la première grande institution à tenter officiellement de réglementer l’IA. Dans sa proposition de Cadre réglementaire sur l’intelligence artificielle, elle met en avant la nécessité de surveiller et de « restreindre » l’utilisation de l’IA pour limiter le profilage social, la manipulation et certains usages de reconnaissance faciale (considérés comme une IA « à haut risque »). Elle cite également les modèles de langage d’IA à usage général (GPAI) tels que ChatGPT, dont les applications sont nombreuses. Les législateurs européens ont ainsi proposé un amendement qui obligerait les fournisseurs de GPAI à respecter les mêmes normes et restrictions que l’IA dite « à haut risque ».  

Le mois de mars 2023 a également été marqué par la publication du rapport d’Europol sur l’impact des modèles de langage comme ChatGPT sur le maintien de l’ordre   ,qui décrit comment les systèmes d’intelligence artificielle sont actuellement utilisés par des criminels et quels sont les risques de détournement à l’avenir. 

Mais que craignent exactement les régulateurs ?

Une innovation corrompue

Même si ChatGPT suscite l’enthousiasme en raison de sa capacité à améliorer la productivité, il faut s’attendre à ce que les criminels s’emparent rapidement de l’IA à des fins malveillantes telles que la fraude, l’usurpation d’identité ou l’ingénierie sociale. Cette technologie est déjà employée dans à des fins de fraude sentimentale ou de hameçonnage afin de produire quantité de faux documents (factures, bilans financiers, contrats, relevés de transactions), qui sont souvent plus précis et personnalisés que les mêmes faux documents créés par l’homme — ces derniers contenant souvent des erreurs grammaticales ou sémantiques. Les modèles linguistiques peuvent également être utilisés afin de reproduire des modèles de langage réalistes imitant les différentes particularités des individus. 

Selon Europol, ChatGPT et d’autres systèmes d’intelligence artificielle risquent également d’être détournés afin de permettre à des criminels sans la moindre compétence technique de se lancer dans la cybercriminalité. Car en plus d’être capable de tenir une conversation, l’IA peut rapidement générer (et corriger) du code dans différents langages de programmation. Moyennant relativement peu d’effort, des personnes mal intentionnées peuvent donc facilement créer des malwares, des macros VBA malveillantes ou des chatbots IA qui permettront de préparer la victime en vue d’une arnaque.  

Ces 10 dernières années, les logiciels basés sur l’IA ont fait d’importants progrès, avec des technologies toujours plus sophistiquées et des solutions de plus en plus robustes qui font partie intégrante de notre vie quotidienne. Mais ces mêmes avancées ont également ouvert la voie à une utilisation malveillante.

Montaser Awal, R&D Director chez IDnow. 

Face aux progrès rapides de l’IA générative (un type d’intelligence artificielle capable de créer une grande variété de données, telles que des images, des vidéos, du son, du texte et des modèles 3D), on peut facilement imaginer que d’ici quelques mois, des malfaiteurs utiliseront l’IA pour créer en quelques secondes et à grande échelle des faux passeports et documents officiels sophistiqués dans n’importe quelle langue, avec en-tête et hologramme de sécurité ad hoc. 

Il sera compliqué de vérifier l’authenticité des documents (ou des personnes dans le cas d‘un deepfake) pour les entreprises qui ne disposent pas de systèmes de contrôle biométrique et de reconnaissance faciale performants. 

ChatGPT pose également des problèmes en matière de respect des données personnelles et de confidentialité (RGPD). Nous l’avons vu en mars 2023 lorsque l’autorité italienne de protection des données a provisoirement bloqué ChatGPT jusqu’à ce que la plateforme « respecte la vie privée » et corrige un bug qui avait affiché en clair les discussions et données personnelles d’autres utilisateurs. Certaines grandes banques, dont Goldman Sachs et la Deutsche Bank, ont également pris des mesures pour restreindre l’usage en interne de ChatGPT (et autres plateformes similaires) en attendant que des recherches permettent de déterminer comment les « utiliser de manière sûre et efficace ». 

Contrôler qui a accès aux informations, et si ces informations sont correctes et non biaisées va devenir un enjeu majeur. Cette préoccupation n’a rien de nouveau avec Internet, mais le danger des « fake news » risque de croître de manière exponentielle avec l’augmentation du volume de contenu. Il est donc conseillé aux entreprises de ne pas se fier uniquement à ChatGPT pour faire des recherches sur les sanctions ou encore les personnes politiquement exposées (PPE).

Le savoir est une arme : combattre le feu par le feu

ChatGPT peut être dangereux entre de mauvaises mains. Mais dans les mains de personnes bien intentionnées, l’IA peut être utilisée à des fins bénéfiques et permettre de lutter contre la fraude en ligne et d’autres types de criminalité financière.  

De plus en plus d’organisations, dont IDnow, utilisent l’intelligence artificielle pour digitaliser le processus de connaissance du client (KYC) et prévenir les tentatives de fraude. Que vous soyez acteur de la mobilité, des services financiers, du gaming ou des cryptomonnaies, si vous devez vérifier l’identité de vos clients lors de leur souscription, il existe de nombreux avantages à mettre en place un service de vérification d’identité basé sur l’IA : 

  • L’étape la plus critique pour les entreprises qui souhaitent prévenir tout dommage financier ou atteinte à leur réputation est le processus KYC. L’IA peut automatiser une grande partie de l’analyse, notamment le traitement des données clients, des informations personnelles et de l’historique des transactions.  
  • L’IA peut traiter d’énormes quantités d’informations et vérifier l’identité des clients de manière rapide, sûre et efficace. L’automatisation des tâches permet d’éliminer les points de congestion lors de l’onboarding et d’accélérer les opérations de l’entreprise à un niveau sans précédent.
  • L’IA peut vérifier si les clients figurent sur des listes de sanctions ou de personnes politiquement exposées (en utilisant des plateformes spécifiques).
  • Grâce au traitement du langage naturel et aux algorithmes de machine learning, l’IA peut signaler toute tentative de fraude en temps réel. Elle peut ainsi détecter tout comportement suspect de la part d’un utilisateur et alerter l’équipe de sécurité — par exemple si une personne avec la même identité utilise différents comptes sur plusieurs plateformes de jeu pour placer des paris en même temps.
  • Les multinationales peuvent offrir leurs services partout dans le monde en toute sérénité, en sachant qu’elles respectent des exigences réglementaires complexes et disparates.
  • En combinant l’IA avec la technologie antifraude, les organisations peuvent analyser de larges volumes de données, y compris les transactions, la géolocalisation et l’horodatage, afin d’identifier des schémas et activités à caractère suspect. 

Les années à venir vont être cruciales pour le développement, l’utilisation et la réglementation de l’intelligence artificielle. 

Dans le cas du processus KYC, les principaux dangers sont l’usurpation et la dissimulation d’identité. Les modèles génératifs ont en effet permis de créer des outils plutôt intuitifs permettant de générer des attaques de plus en plus réalistes sur les documents d’identité et les caractéristiques biométriques. Nous considérons cette même technologie comme une arme efficace pour lutter contre différents types de fraude.

Montaser Awal, R&D Director chez IDnow.

Un avenir dystopique face à une vision utopique

La menace posée par l’intelligence artificielle sera probablement moins Terminator que Wall-E. Le danger réside plutôt dans le fait de perdre notre créativité, notre autonomie et notre envie de travailler.  

Même si nous le voulions, nous ne pourrons pas faire disparaître ChatGPT. Nous devons apprendre à vivre avec cette technologie et à nous inspirer d’elle, comme elle s’inspire de nous. C’est ainsi que nous exploiterons son [et notre] véritable potentiel.

Par

L'IA ChatGPT : apprendre à cohabiter en toute sécurité 1

Jody Houton
Content Manager chez IDnow
Rejoignez Jody sur LinkedIn

Des questions ?

Contactez-nous!
Play