ChatGPT a fait une entrée fracassante sur Internet, avec des milliers d’utilisateurs depuis son lancement en novembre 2022. Mais cette innovation suscite des questionnements.
En effet, suite à un bug ayant affecté ChatGPT Plus, l’offre payante de la plateforme, des conversations d’utilisateurs, des adresses e-mail et des numéros de téléphone, ainsi que des informations de paiement des abonnés ont été rendues publiques le 20 mars dernier.
L’Autorité italienne de protection des données personnelles, la Garante per la protezione dei dati personali, veillant au respect du RGPD (Règlement général sur la protection des données) sur le territoire italien a ainsi pris ce 31 mars 2023 la décision de bloquer ChatGPT dans le pays, avec effet immédiat.
L’institution italienne reproche notamment au chatbot d’OpenAI de ne pas avoir averti ses utilisateurs de l’existence d’une faille de sécurité. Elle dénonce aussi l’illégalité de la collecte et de la conservation en masse de leurs données personnelles.
Également sous le collimateur, le manque de contrôle concernant l’âge des utilisateurs, alors que ChatGPT n’est pas censé être accessible aux moins de 13 ans.
Si OpenAI n’apporte pas de réponses au terme d’un délai de 20 jours, elle s’expose, conformément aux dispositions du RGPD en vigueur au sein de l’Union européenne, à une amende pouvant atteindre jusqu’à 20 millions d’euros ou jusqu’à 4 % du chiffre d’affaires annuel à l’international.
Dans le même temps, des centaines d’experts mondiaux s’inquiètent qu’un développement trop rapide de l’intelligence artificielle mène l’humanité à sa perte et ont lancé une pétition en faveur d’une « pause d’au moins six mois » dans la recherche sur les intelligences artificielles. Elon Musk, lui-même signataire, estime que le chatbot présente « des risques majeurs pour l’humanité ». À noter cependant que de nombreux signataires de cette pétition sont des concurrents d’OpenAI qui ont un intérêt à voir l’arrêt des recherches de Microsoft sur le sujet.
Cette décision des autorités italiennes s’inscrit dans la continuité d’autres suspensions visant des plateformes du même type. Le 3 février, c’est par exemple Replika, une entreprise proposant un « ami virtuel » doté de l’intelligence artificielle, qui s’est vu interdire d’exercer sur le territoire italien, en raison de ses conséquences néfastes pour les mineurs et les personnes émotionnellement fragiles.
Ces différentes mesures mettent donc en avant les risques engendrés par l’expansion de l’intelligence artificielle sur les mineurs. À ce titre, l’UNICEF avait déjà publié en novembre 2021, un guide sur l’IA à l’intention des parents. D’autres s’insurgent contre les risques d’une utilisation non réfléchie de l’IA dans les écoles, susceptible de perpétuer des inégalités déjà présentes dans le système éducatif.
Et en France ?
Le RGPD formant un socle européen, les inquiétudes de nos voisins transalpins pourraient gagner nos contrées. Mais pour l’instant, rien n’indique que la France interviendra.
L’Union européenne prépare actuellement un projet de régulation de l’IA, susceptible d’être finalisé début 2024, celui-ci ne sera très certainement appliqué que plusieurs années après sa finalisation, laissant alors une importante fenêtre à l’expansion incontrôlée de l’IA.