• Maison
    /
  • Ressources
    /
  • Meilleures pratiques et perspectives
    /
  • Podcast
    /
  • L'émission improvisée, épisode 4 : L'IA générative responsable avec Sriram Subramanian

L'émission improvisée, épisode 4 : L'IA générative responsable avec Sriram Subramanian

L'émission improvisée, épisode 4 : L'IA générative responsable avec Sriram Subramanian

L'IA générative est un écosystème en pleine expansion qui suscite un vif intérêt. Dans cet épisode, Dormain Drewitz interroge Sriram Subramanian sur les principaux défis liés à une mise en œuvre responsable de l'IA générative, notamment les contenus nuisibles, inexacts ou qui enfreignent les normes de confidentialité et de sécurité. Sriram présente les six principes de Microsoft pour une IA générative responsable, ainsi que la notion de responsabilité partagée entre les fournisseurs de plateformes, les LLM (Learning Management Languages) fondateurs et les développeurs et ingénieurs de données qui s'appuient sur ces technologies. Il répond également aux questions sur les premiers pas en IA générative en toute sécurité et partage sa méthode pour identifier les opportunités de création de valeur.

Ressources mentionnées :
Article de Marc Andreesen

Résumé créé avec l'aide de chatGPT

Dans cet épisode d'Unplanned Show, l'animateur interviewe Sriram Subramanian de Microsoft sur l'IA générative responsable, en explorant les considérations éthiques et pratiques. Sriram, chef de programme principal chez Microsoft, souligne les inquiétudes croissantes liées à la puissance des capacités de l'IA générative, notamment les problèmes de contenu préjudiciable, d'inexactitudes et de sécurité/protection de la vie privée. Il met en lumière le risque de génération de contenu biaisé et inapproprié, et exhorte les développeurs et les organisations à la vigilance. L'intégration de l'IA générative dans les processus métier des organisations peut s'avérer complexe. Parmi les citations marquantes, on retiendra l'analogie de Sriram comparant les grands modèles de langage à des adolescents sûrs d'eux lorsqu'ils génèrent du contenu sans en maîtriser pleinement les aspects.

« Les titulaires d'un LLM sont comme des adolescents de lycée qui, s'ils ne maîtrisent pas le sujet, ont toute l'audace et le courage d'écrire quelque chose avec une assurance déconcertante, comme si c'était un fait avéré. C'est tout à fait envisageable avec l'IA générative. »

Ensuite, l'animateur et Sriram abordent la question de savoir si les problèmes liés aux contenus préjudiciables, aux inexactitudes et à la sécurité/confidentialité dans l'IA générative peuvent être résolus au sein même des grands modèles de langage (LLM) ou s'ils nécessitent des contrôles externes. Sriram met l'accent sur les principes fondamentaux de responsabilité de Microsoft, axés sur l'équité, la transparence, la responsabilité, l'inclusion, la confidentialité, la fiabilité et la sécurité. Il décrit l'approche recommandée par le secteur, qui comprend la gouvernance, les règles, la formation et les outils nécessaires pour garantir des pratiques d'IA responsables. Sriram observe des évolutions parallèles au sein du secteur : les LLM améliorent intrinsèquement les pratiques d'IA responsable, tandis que les entreprises s'efforcent de rendre ces capacités plus transparentes pour les utilisateurs finaux. Il souligne l'importance d'une responsabilité partagée, où fournisseurs et développeurs/utilisateurs d'applications ont tous deux un rôle à jouer pour garantir la sécurité, la fiabilité et l'absence de biais des applications d'IA générative.

« Au final, ce sera une responsabilité partagée. Un développeur d'applications – un utilisateur final – doit également contribuer à garantir la sécurité et la confidentialité. Il est essentiel de s'assurer que les outils envisagés pour le développement d'applications respectent les bonnes pratiques. »

L'accent est ensuite mis sur le concept de simplification des bonnes pratiques et sur la responsabilité partagée face aux défis de l'IA générative. La discussion s'articule autour des différentes couches nécessaires à une IA responsable : le modèle fondamental au cœur, suivi des systèmes de sécurité, du développement applicatif et de l'expérience utilisateur. L'animateur souligne le parallèle avec les problématiques d'ingénierie de plateforme en DevOps et l'importance de pérenniser le processus pour la création de code fiable, sûr et sécurisé. Sriram enrichit la discussion en présentant les quatre couches et en insistant sur le fait que, si la responsabilité des systèmes de sécurité du modèle fondamental incombe principalement aux fournisseurs et aux plateformes, les développeurs d'applications ont également un rôle à jouer dans l'ajout de mécanismes de sécurité. La nature continue et itérative du processus est similaire aux pratiques DevOps. Il est également nécessaire d'être préparé à d'éventuelles perturbations au sein de l'architecture complexe de l'IA générative.

« Il s'agit plutôt d'un processus en boucle : identifier, mesurer, atténuer et exploiter. Une fois le problème identifié, on met en place des systèmes, on évalue leur efficacité et on poursuit le processus. Ce ne sera jamais un effort ponctuel ; ce sera un processus continu. »

Cette discussion propose des recommandations pratiques pour les particuliers et les entreprises souhaitant se lancer dans l'IA générative. Sriram insiste sur une approche progressive, en commençant par des succès faciles à obtenir sans introduire de données sensibles, comme l'utilisation de modèles fondamentaux pour générer des documents utilisateur ou des réponses de chat. Il décrit trois niveaux de mise en œuvre : le premier concerne des cas d'utilisation simples, le deuxième intègre l'IA comme copilote du code, et le troisième introduit des données personnalisées pour des résultats plus précis et pertinents. La conversation aborde également l'importance des pratiques responsables, notamment l'amélioration des invites pour de meilleurs résultats, l'exploitation de l'apprentissage sans contexte, sans contexte et multi-contexte, ainsi que la mise en place d'une modération et d'une limitation du débit de contenu pour garantir une utilisation éthique. Sriram souligne la nécessité d'une attitude responsable, recommandant aux utilisateurs de ne pas considérer le contenu généré tel quel et d'appliquer systématiquement des filtres ou une modération.

« À l’heure actuelle, la compréhension ou le processus de réflexion autour de l’apprentissage contextuel est plus bénéfique, plus précis, ou du moins, c’est un moyen beaucoup plus simple d’atteindre le niveau de précision requis que d’essayer de réentraîner le modèle par un réglage fin. »

En conclusion de l'entretien, Sriram présente trois dimensions clés – fondements, forme et adéquation – à considérer pour saisir les opportunités offertes par l'IA générative. Il suggère que la différenciation peut s'opérer par l'innovation au niveau algorithmique (fondements), la création d'expériences utilisateur inédites (forme) ou la spécialisation dans des domaines ou langages spécifiques (adéquation). La discussion souligne l'importance de comprendre ces axes pour les startups et les entreprises souhaitant exploiter efficacement l'IA générative.

« Si vous essayez de créer une startup ou si quelqu'un essaie de [décider] « comment me différencier, que devons-nous construire » en utilisant l'IA générative, j'aime utiliser un modèle en trois parties : fondation, forme et adéquation. »

Regardez l'interview


« La PagerDuty Operations Cloud est essentielle pour TUI. C'est ce qui va réellement nous permettre de nous développer en tant qu'entreprise et de garantir des services de qualité à nos clients. »

- Yasin Quareshy, responsable de la technologie chez TUI

G2 Leader Enterprise 2025 G2 Easiest to Use Enterprise 2025 G2 Top 50 Products 2025