Fond abstrait avec des lignes vibrantes et des points lumineux, créant un affichage visuel captivant.

Tendances de risque en 2024 et par la suite : L'intelligence artificielle

Tendances de risque en 2024 et par la suite : L'intelligence artificielle

Résumé
4 minutes de lecture

Les instruments d’IA générative comme ChatGPT ont le fort potentiel de bouleverser le monde des affaires. Les risques associés à leur utilisation sont toutefois considérables : failles de sécurité, vol de propriété intellectuelle et hallucinations fréquentes générant des erreurs coûteuses ou de mauvaises informations.

Les organisations et les particuliers qui ignorent l’IA le feront à leurs risques et périls. La technologie progresse rondement au point d’être devenue courante dans nombre d’applications. Les usagers doivent bien réfléchir à leur façon de s’en servir et à son utilité en fonction de leurs objectifs.

Le conseil d’administration et la haute direction de chaque organisation ont un rôle à jouer en s’assurant de comprendre les tendances et le contexte actuels et en veillant à ce que des politiques et règles convenables soient en place pour encadrer l’usage interne de l’IA.

Connaissez-vous les éléments les plus vulnérables de votre entreprise à surveiller dans l’année à venir? Notre rapport sur les tendances de risque en 2024 fait l’analyse de 15 d’entre eux sur lesquels porter votre attention. Découvrez tous les risques abordés dans le rapport de cette année.

L’IA est partout : quels sont ses avantages? Quels sont ses risques?

C’est en novembre 2022 que la société OpenAI a rendu ChatGPT accessible au grand public. Bien des gens ont alors découvert l’immense puissance – autant que le potentiel de perturbation – de l’intelligence artificielle générative. Les premières appréciations s’émerveillaient du caractère vraisemblable des textes générés et des économies que la variété des usages, si nombreux, laissait entrevoir. Or, très vite, il s’est avéré que tout n’était pas rose.

Presque tous les utilisateurs de ChatGPT et d’instruments d’IA générative analogues ont vécu la même sorte d’hallucination : l’algorithme semble en faire à sa tête et propose des données qui sont fausses, qui n’ont pas été sollicitées ou qui, plus généralement, ne correspondent pas à l’invite.

Si les mises à jour subséquentes ont réduit la fréquence de ces hallucinations, il reste impossible de les empêcher complètement. L’IA peut interpréter de plus d’une manière une question posée, selon sa formulation, et une même invite peut générer une quantité infinie de résultats. Les usagers doivent donc bien réfléchir à leur usage de l’IA, mais aussi à l’utilité des textes, images et codes informatiques qu’elle génère quand ils l’interrogent.

Les préoccupations soulevées concernent aussi les sources de données utilisées pour entraîner les applications d’IA et le potentiel d’utilisation inappropriée. Saisir des données sensibles ou privées (volontairement ou pas) dans un programme d’IA, c’est risquer de causer de graves failles de sécurité, vols de propriété intellectuelle ou violations du droit d’auteur. Des pirates pourraient mobiliser l’IA pour mettre en branle des attaques de piratage psychologique complexes et fort crédibles. Les étudiants pourraient s’en servir pour tricher dans leurs travaux écrits.

La plus grande leçon que le monde de l’IA nous a servie en 2023 est celle-ci : c’est à leurs risques et périls que les organisations l’ignoreront. La technologie progresse avec bien plus de célérité que tout ce qu’on pouvait imaginer. Nous n’avons fait qu’effleurer son potentiel de bouleverser nos vies, pour le meilleur et pour le pire.

Risques connexes

  • Biais de l’IA menant à des décisions moins qu’optimales
  • Vol ou perte de propriété intellectuelle ou de données privées ou confidentielles
  • Problèmes d’exploitation causés par des erreurs de jugement de l’IA
  • Cybersécurité compromise
  • Plagiat
  • Perte de son avantage concurrentiel si aucun cas n’est fait de l’IA

""Questions importantes à vous poser

  • Avez-vous fait une liste des technologies, systèmes, processus et emplois touchés par l’IA – ou qui pourraient l’être?
  • L’organisation dispose-t-elle d’un mécanisme d’évaluation des risques pour chaque nouvelle technologie, y compris l’IA, qu’elle envisage ou adopte?
  • Avez-vous demandé à vos fournisseurs et à vos tiers les plus importants de quelle manière ils entendaient intégrer l’IA à leurs technologies, systèmes et processus?
  • Quels types d’usages de l’IA votre organisation jugerait-elle inacceptables (p. ex., véhicule de livraison sans chauffeur)?
  • Les politiques et directives de votre organisation sur les usages acceptables de l’IA sont-elles adéquates?
  • Comment les utilisateurs de l’IA valident-ils la qualité des recommandations, explications et sources que celle-ci leur propose?

""Signaux d’alerte

  • Risques et conséquences de l’utilisation de l’IA non considérés dans les projets
  • Peu de données quantifiables sur l’utilisation de l’IA recueillies par l’organisation
  • Solutions d’IA non adaptables ou évolutives
  • Activités ralenties par de grands volumes de données générées par l’IA et l’incapacité de composer avec ces volumes
  • Incapacité de l’IA d’exploiter les données volumineuses convenablement ou efficacement
  • Données confidentielles se retrouvent sur ChatGPT ou des plateformes analogues
  • Décisions moins qu’optimales en raison d’une utilisation inadéquate et les biais de l’IA
  • Ratés concernant les prévisions de demande ou leur optimisation découlant du recours à l’IA
  • Répercussions négatives sur les facteurs ESG en raison d’une dépendance à l’IA

Audits internes à considérer

Audit opérationnel des modèles d’IA
Il se penche sur la précision, l’efficacité et la fiabilité des modèles d’IA employés par l’organisation pour garantir l’exactitude et la qualité des résultats.
Audit de la qualité des données d’entraînement de l’IA 
Il examine la qualité, l’exhaustivité et la pertinence des données d’entraînement des modèles d’IA pour en garantir la qualité et pour découvrir et corriger tout biais potentiel.
Audit de gouvernance et de supervision de l’IA
Il évalue la structure de gouvernance et les mécanismes de supervision de l’organisation en rapport avec le développement et le déploiement de l’IA pour garantir la clarté des responsabilités et des mesures de reddition de compte en place.
Audit d’éthique et d’équité de l’IA
Il évalue les ramifications éthiques des systèmes d’IA et constate s’ils sont conçus pour chaque personne et chaque groupe avec équité et impartialité.
Audit de sécurité et confidentialité de l’IA
Il examine les mesures de protection des systèmes d’IA et des données qu’ils traitent pour garantir que ces systèmes ne posent aucun risque de sécurité et que la confidentialité des données n’est aucunement menacée.
Audit de transparence de l’IA 
Il détermine si les modèles d’IA et leurs décisions peuvent être expliqués et bien compris, afin de garantir qu’ils ne fonctionnent pas comme une boîte noire et que leur raisonnement est clair.
Audit de conformité de l’IA 
Il évalue si les systèmes d’IA respectent les lois, règlements et normes qui la concernent sur des questions comme la protection des données et l’éthique.
Audit des données d’entraînement et de mise à l’épreuve de l’IA 
Il analyse les données d’entraînement et de mise à l’épreuve de l’IA pour garantir qu’elles sont à la fois représentatives, mais aussi adéquates pour leur usage projeté.
Audit de gestion des fournisseurs tiers de services d’IA 
Il se penche sur la gestion organisationnelle des fournisseurs de services tiers de l’IA pour garantir que la sélection des fournisseurs, les contrats et les prestations de service respectent les exigences et normes de l’organisation.
Audit de préparation en cas d’incident lié à l’IA 
Il examine le degré de préparation de l’organisation à répondre à des incidents liés à l’IA – défaillance des systèmes, présence de biais, violation éthique, etc. – et la nature des mesures en place pour y remédier.
Audit des formations en IA
Il évalue la qualité des formations dispensées au personnel sur l’éthique, les usages et les risques de l’IA.
Audit des retours sur le capital investi en IA 
Il se penche sur la valeur stratégique et financière dérivée des recours à l’IA pour garantir que les projets d’intelligence artificielle correspondent aux objectifs organisationnels et génèrent des retombées concrètes.

Les risques : tendances pour 2024 et par la suite

Découvrez tous les risques abordés dans le rapport de cette année. 

Points de vue

  • Confiance

    Le parlement adopte le projet de loi S-211 : êtes-vous prêt à répondre à ses exigences?

    Le parlement canadien a adopté le projet de loi S-211, Loi édictant la Loi sur la lutte contre le travail forcé et le travail des enfants dans les chaînes d’approvisionnement, qui a pour but de réduire le risque de recours au travail forcé ou au travail des enfants au sein des chaînes d’approvisionnement utilisées par les entités canadiennes. Découvrez l’incidence de cette loi pour votre entreprise.

  • Confiance

    30 septembre 2024

    Cybersécurité 101 : se relever après avoir été victime d’une cyberattaque

    Les cyberattaques peuvent avoir des effets dévastateurs sur les petites entreprises, savoir comment s’en remettre peut tout changer.

  • Performance

    24 septembre 2024

    Transformez les activités de votre concession grâce aux services informatiques gérés

    Qu’ils soient courants ou inattendus, vos besoins en TI ne devraient pas vous empêcher de conclure une affaire.