Il ne faut pas attendre que le gouvernement comble le vide de la gouvernance de l'IA.

Une image de , Sécurité & Data, Il ne faut pas attendre que le gouvernement comble le vide de la gouvernance de l'IA.

En juillet de cette année, le Royaume-Uni a présenté une nouvelle AI «règlement» proposant comment cette technologie transformatrice peut être réglementée à l'avenir. Équilibrant le soutien à l'innovation en IA avec le besoin de protection du public, il ouvre un débat public sur le rôle des régulateurs au sein des structures de gouvernance de l'IA. Cependant, les organisations ne peuvent pas attendre que ce règlement soit finalisé pour traiter les questions que pose l'IA.

Les préoccupations concernant les algorithmes de boîte noire opaques aux questions concernant l'utilisation éthique des données personnelles et les responsabilités liées à la sécurité et à la confidentialité ont fait de l'IA un foyer de dilemmes éthiques modernes.

Ces dilemmes doivent être résolus par les pans entiers d'organisations publiques et privées qui s'appuient désormais sur l'IA pour alimenter l'innovation. Cependant, malgré la prolifération de l'IA dans l'entreprise, de nombreuses organisations ne disposent toujours pas d'une solide gouvernance de l'IA, essentielle pour garantir l'intégrité et la sécurité des systèmes basés sur les données.

En fait, les dernières recherches d'O'Reilly montrent que plus de la moitié des produits d'IA en production dans les organisations mondiales n'ont toujours pas de plan de gouvernance supervisant la façon dont les projets sont créés, mesurés et observés. Ce qui est profondément préoccupant, c'est que la confidentialité et la sécurité - des problèmes qui peuvent avoir un impact direct sur les individus - figuraient parmi les risques les moins cités par les organisations lorsqu'elles ont été interrogées sur la façon dont elles évaluent les risques pour les applications d'IA. Les organisations habilitées par l'IA signalent que les «résultats inattendus» sont le risque le plus important auquel sont confrontés les projets d'IA, suivis de près par l'interprétabilité et la dégradation des modèles, qui représentent des problèmes commerciaux. L'interprétabilité, la confidentialité, l'équité et la sécurité sont toutes classées en dessous des risques commerciaux.

Il peut y avoir des applications d'IA où la confidentialité et l'équité ne sont pas des problèmes (par exemple, un système intégré qui décide si la vaisselle de votre lave-vaisselle est propre). Cependant, les entreprises qui pratiquent l'IA doivent donner la priorité à l'impact humain de l'IA à la fois comme un impératif éthique et une priorité commerciale essentielle.

Comme le souligne UKRI (UK Research and Innovation), "l'utilisation responsable de l'IA s'avère être un différenciateur concurrentiel et un facteur clé de succès pour l'adoption des technologies d'IA". Cependant, les défis culturels, et en particulier le manque de confiance, sont toujours considérés comme les principaux obstacles empêchant une adoption plus large et plus rapide de l'IA. »

Le manque de gouvernance n'est pas seulement une préoccupation éthique. La sécurité est également un problème majeur, l'IA étant sujette à de nombreux risques uniques : empoisonnement des données, entrées malveillantes qui génèrent de fausses prédictions et modèles d'ingénierie inverse pour exposer des informations privées, pour n'en nommer que quelques-uns. Cependant, la sécurité reste proche du bas de la liste des risques perçus pour l'IA.

Alors que les cybercriminels et les acteurs malveillants progressent dans leur adoption de technologies sophistiquées, la cybersécurité ne peut pas rester en retrait dans la course pour réaliser la promesse de l'IA. Il s'agit d'un volet essentiel de la gouvernance de l'IA dont nous avons tant besoin. La gouvernance doit remonter la matrice des facteurs de risque des projets d'IA, devenir la pierre angulaire de tout programme de développement et de déploiement.

La gouvernance de l'IA en bref

Dans cet esprit, qu'est-ce que la gouvernance de l'IA ? Selon Deloitte, il englobe un « large éventail de capacités axées sur l'utilisation responsable de l'IA ». Il combine des concepts de gouvernance traditionnels (politique, responsabilité, etc.) avec des concepts différentiels tels que l'examen éthique, les tests de biais et la surveillance. La définition se résume à une vision opérationnelle de l'IA et comporte trois composantes : données, technique/algorithme et contexte métier.

En résumé, "pour parvenir à une utilisation généralisée de l'IA, il faut une gouvernance efficace de l'IA grâce à une gestion active des risques liés à l'IA et à la mise en œuvre de normes et de routines habilitantes".

Sans formaliser la gouvernance de l'IA, les organisations sont moins susceptibles de savoir quand les modèles deviennent obsolètes, les résultats biaisés ou les données mal collectées. Les entreprises qui développent des systèmes d'IA sans gouvernance stricte pour résoudre ces problèmes mettent leurs activités en danger. Ils laissent la voie libre à l'IA pour prendre efficacement le contrôle, avec des résultats imprévisibles qui pourraient causer des dommages irréparables à la réputation et des jugements importants.

Le moindre de ces risques est que la législation impose la gouvernance, et ceux qui n'ont pas pratiqué la gouvernance de l'IA devront rattraper leur retard. Dans le paysage réglementaire en évolution rapide d'aujourd'hui, rattraper son retard est un risque pour la réputation et la résilience de l'entreprise.

Qu'est-ce qui a créé le fossé de la gouvernance de l'IA ?

Les raisons de l'échec de la gouvernance de l'IA sont complexes et interconnectées. Cependant, une chose est claire : le développement et l'adoption accélérés de l'IA n'ont pas été accompagnés d'une augmentation de l'éducation et de la sensibilisation à ses risques. Cela signifie que l'IA souffre d'un problème de personnes.

Par exemple, les goulets d'étranglement les plus importants à l'adoption de l'IA sont le manque de personnes qualifiées. Nos recherches démontrent d'importantes lacunes en matière de compétences dans des domaines technologiques clés, notamment la modélisation ML et la science des données, l'ingénierie des données et la maintenance des cas d'utilisation métier. Le déficit de compétences en IA est bien documenté, avec de nombreuses discussions et politiques gouvernementales visant à développer les compétences en matière de données grâce à un enseignement supérieur ciblé et à une mise à niveau/recyclage.

Cependant, les compétences technologiques ne suffisent pas à combler le fossé entre l'innovation et la gouvernance. Il n'est ni conseillé ni juste de laisser la gouvernance aux seuls talents techniques. Sans aucun doute, ceux qui ont les compétences nécessaires pour développer l'IA doivent également être dotés des connaissances et des valeurs nécessaires pour prendre des décisions et résoudre des problèmes dans le contexte plus large dans lequel ils opèrent. Cependant, la gouvernance de l'IA est vraiment un travail d'équipe et représente les valeurs d'une organisation qui prennent vie.

Cela signifie qu'aucune organisation ne peut être complaisante lorsqu'elle intègre l'éthique et la sécurité dans les projets d'IA dès le départ. Tout le monde dans l'organisation, du PDG à l'analyste de données, du DSI au chef de projet, doit s'engager dans la gouvernance de l'IA. Ils doivent s'accorder sur la raison pour laquelle ces problèmes sont importants et sur la manière dont les valeurs de l'organisation se traduisent par les implémentations de l'IA.

L'innovation en matière d'IA progresse tandis que les gouvernements et les régulateurs du monde entier rattrapent leur retard sur ce que ces nouvelles technologies signifient pour la société au sens large. Toute organisation moralement consciente place la confidentialité, la sécurité et la protection du public avant tout, mais sans une gouvernance stricte de l'IA en place, il existe un vide moral potentiel. Nous ne pouvons pas attendre que cela soit rempli par règlement. Les organisations doivent être aussi proactives pour faire face à ces questions difficiles que pour embrasser la puissance et la promesse de l'IA.

Le métaverse change le lieu de travail

Luc Conrad • 28 février 2022

Nous examinons les différentes façons dont le Metaverse changera le lieu de travail et le fonctionnement des entreprises, avec les commentaires de Phil Perry, responsable du Royaume-Uni et de l'Irlande chez Zoom et de James Morris-Manuel, MD EMEA chez Matterport.