Salesforce dévoile ses 6 principes pour le développement responsable de l'intelligence artificielle et de l'IA générative
Salesforce, éditeur de solutions cloud et CRM, marque son engagement pour une intelligence artificielle plus éthique et basée sur la confiance. L'entreprise partage ainsi six principes clés pour favoriser le développement responsable de l'IA générative.
Favorable à une régulation de l'intelligence artificielle, Salesforce souhaite réaffirmer son engagement pour développer une IA éthique, responsable et basée sur la confiance. Le tout sans mettre de côté l'innovation. À mesure que les entreprises accélèrent leur développement et gagnent en productivité grâce à l'intelligence artificielle, elles doivent placer la notion de confiance au coeur de leurs priorités. À ce titre, Salesforce publie ses lignes directrices en réponse aux risques posés par l'intelligence artificielle et l'IA générative en particulier, qu'il s'agisse de la confidentialité, de la sécurité ou encore de l'exactitude du contenu généré.
Selon Salesforce, cette ambition est réalisable pour tous les cas d'usage, du chatbot basé sur l'IA, à des outils de diagnostics médicaux complexes qui nécessitent une supervision accrue. Mais pour cela, la régularisation doit se faire de manière adaptée. En effet, un modèle unique risquerait de ne pas fonctionner voire créer une concurrence déloyale ou encore retarder le déploiement de nouvelles technologies de pointe.
Une approche fondée sur les risques
L'approche de l'IA doit prendre en compte le contexte dans lequel cette technologie est utilisée. Dans certains secteurs comme celui de la santé, elle est davantage susceptible de présenter des risques élevés pour les populations et la société dans son ensemble.
À ce titre, une régulation de l'IA doit avant tout se focaliser sur les cas d'usages à haut risque, en particulier ceux dont les implications juridiques, financières et éthiques peuvent être à l'origine de préjudices importants, ou remettre en question les droits et les libertés des individus.
Lire aussi : Salesforce lance Agentforce en France
Des adaptations selon le contexte et l'utilisation qui en est faite
Les réglementations doivent tenir compte du contexte, du contrôle et des usages des technologies et mettre en place des dispositifs de protection adéquats. Par exemple, les développeurs d'IA génératives doivent être responsables de l'entraînement des modèles et des jeux de données utilisés. De leur côté, les équipes en charge du déploiement de ces technologies décident de la manière dont l'outil sera utilisé, et doivent donc être responsables de la mise en place des règles qui régiront les interactions avec l'IA.
Des lois sur la confidentialité des données
La mise en place de réglementations sur la protection des données protégeant le droit à la vie privée est la base d'une régulation responsable de l'IA. Celle-ci s'appuyant sur la data, les nouvelles réglementations spécifiques à l'IA générative doivent donc permettre de régir l'utilisation et la confidentialité des informations destinées à l'entraînement de futurs modèles, par souci de protection des données personnelles.
De la transparence !
Les systèmes basés sur l'intelligence artificielle peuvent fonctionner comme des boîtes noires, ce qui complique l'analyse de leurs processus de prise de décisions. Les individus doivent pouvoir en être informés, comprendre le raisonnement effectué derrière toute recommandation fournie et savoir s'ils interagissent avec un être humain ou un personnage virtuel. La transparence est donc de mise.
Un contrôle et une responsabilité des pouvoirs publics
Mener des évaluations sur l'impact de l'IA est une manière de promouvoir la responsabilité et la confiance vis-à-vis des systèmes présentant des risques élevés. Les autorisations ou déclarations d'utilisation peuvent jouer un rôle important en matière de conformité, mais elles doivent être mises en place en fonction du niveau effectif des risques encourus. Elles doivent par ailleurs promouvoir un équilibre entre conformité, accès au marché, concurrence et innovation.
Une harmonisation avec les réglementations existantes
Plusieurs lois et politiques mises en oeuvre offrent déjà des garde-fous quant à l'utilisation de l'IA, à l'image des différentes réglementations mises en place à l'échelle mondiale sur la protection des données personnelles. Les législateurs et autres parties prenantes qui veulent définir de nouvelles normes réglementaires doivent donc évaluer les textes existants pour vérifier s'ils ne répondent pas déjà à certaines de leurs préoccupations et les adapter si besoin.
De plus, compte tenu du développement rapide des technologies d'intelligence artificielle, les différentes réglementations relatives à l'IA doivent être à la fois compatibles à l'échelle mondiale, durables, et évolutives. Elles doivent offrir un cadre éthique pour le développement et le déploiement de systèmes d'intelligence artificielle, et non se focaliser sur une technologie spécifique à un moment donné.
Pour favoriser la mise en place de réglementation, Salesforce déclare s'engager à collaborer avec les pouvoirs publics et toutes les autres parties prenantes pour promouvoir des normes responsables.
Sur le même thème
Voir tous les articles Data & IA