Que ce soit pour générer des images, rédiger des textes ou même ébaucher des concepts, l’intelligence artificielle a un potentiel apparemment gigantesque. Les modèles de langage comme ChatGPT pourraient faciliter le travail du personnel cantonal. Néanmoins, la prudence reste de mise, comme l’explique l’avocat Thomas Fischer dans un entretien avec BEinfo.

Son arrivée est déjà accueillie comme une révolution médiatique: l’agent conversationnel ChatGPT, de la société OpenAI, fonctionne avec l’intelligence artificielle (IA). Il peut répondre à des questions, générer des codes de programmation ou encore traduire, résumer ou simplifier des textes. Mais qu’entend-on exactement par «intelligence artificielle»? Sa définition n’est pas encore figée, mais Inis Ehrlich, spécialiste en numérisation et IA, la comprend ainsi: «l’IA est la tentative de rendre l’ordinateur intelligent en lui donnant la capacité d’apprendre et de penser comme un être humain.» Autrement dit, un système d’intelligence artificielle a pour vocation de pouvoir répondre à des questions et résoudre des problèmes de manière autonome, sans avoir été programmé pour cela.
Faut-il en déduire qu’un jour les membres du personnel cantonal n’auront plus besoin de taper leurs courriels eux-mêmes ni de résumer des dossiers complexes parce qu’une IA le fera à leur place? BEinfo a interrogé Thomas Fischer, le délégué à la sécurité de l’Office d’informatique et d’organisation (OIO): il nous explique où en est l’administration cantonale avec l’intelligence artificielle.
Thomas Fischer, cela fait quelques mois que ChatGPT a été rendu public. Les membres du personnel cantonal ont-ils le droit de recourir à cette IA ou à des programmes analogues pour leur travail?
Pas encore et pas sans procédure établie, mais nous y travaillons. Dans tous les cas, il y a un principe essentiel à respecter: on ne rentre pas dans des systèmes publics d’IA des informations qui ne sont pas publiques.
Quelles sont les données qui doivent être considérées comme des «informations non publiques»?
Les données personnelles, comme les noms et les adresses électroniques, et les informations classifiées, qu’elles soient à usage interne, confidentielles ou secrètes. Il en va de même des informations soumises au secret de fonction ou au secret professionnel. Lorsque nous saisissons des informations dans ChatGPT, ou sur un autre site d’IA, nous partageons ces données avec les personnes qui font fonctionner le site en question. Or, la législation cantonale interdit de communiquer des informations non publiques du canton à des tiers indéterminés.
L’OIO prévoit-il de bloquer ChatGPT et d’autres programmes d’IA?
Non, ce n’est pas prévu. Il serait de toute façon impossible d’interdire l’accès à tous les sites d’IA car de nouveaux modèles apparaissent en permanence.
À part l’absence de protection des données, quels sont les risques auxquels on s’expose en utilisant ChatGPT?
Les modèles de langage tels que ChatGPT génèrent souvent des textes qui ont l’air plausible, mais qui sont faux. L’intelligence artificielle les a tout simplement inventés, ou «hallucinés» comme on dit dans ce milieu. En tant qu’employé∙e∙s du canton, nous sommes responsables de l’exactitude de nos textes. Mais nous ne pouvons pas garantir cette exactitude si un ordinateur fait le travail de réflexion à notre place. C’est pourquoi nous devons vérifier par nous-mêmes les résultats fournis par l’IA.
L’administration cantonale reste-t-elle une zone d’exclusion de l’IA?
Non, nous voulons exploiter le potentiel de cette technologie pour accomplir nos tâches plus vite et de manière plus efficiente. Mais pour pouvoir l’utiliser sans danger, nous devons la maîtriser.
Qu’est-ce que cela signifie concrètement?
Cela signifie que les autorités qui souhaitent recourir à l’IA doivent d’abord étudier les dispositions cantonales en matière de sécurité et de protection des données. Ce n’est qu’une fois cet examen accompli et après validation officielle d’une solution d’IA que l’intelligence artificielle pourra être utilisée dans l’administration cantonale, et uniquement dans le cadre réglementaire fixé par l’autorité responsable. C’est par exemple ce que la Chancellerie d’État a fait pour la plateforme de traduction DeepL, déjà en usage dans l’administration. Les travaux de planification nécessaires pour pouvoir recourir à d’autres systèmes comme ChatGPT viennent de commencer.
Selon Donatella Pulitano, qui dirige les Services linguistiques centraux, on ne sait pas encore exactement à partir de quand ChatGPT pourra être utilisé dans l’administration cantonale. Les analyses à mener prendront encore pas mal de temps. Il faut en outre élaborer ou adapter un certain nombre d’instructions, une tâche à laquelle l’administration s’attellera prochainement.
Interview et photo: Salome Heiniger
Publié le 29.6.2023