Contenu Menu

Numéro spécial 2024 sur l'intelligence artificielle responsable centrée sur l'humain

APPEL À DES ÉTUDES DE CAS ET À DES NOTES PÉDAGOGIQUES 

Numéro spécial coédité par :
Pierre-Majorique Léger, Ph.D., HEC Montréal
Foutse Khomh, Ph.D., Polytechnique Montréal
Sylvain Sénécal, Ph.D., HEC Montréal

responsible-human-centered-AI« Métaphore futuriste et haute résolution de l’intelligence artificielle avec interaction humaine » Human x DALL. E 

« L’IA fait penser à l’avènement de l’électricité. De la même manière que le courant électrique a tout métamorphosé il y a un siècle, il m’est difficile aujourd’hui de concevoir un secteur que l’IA ne viendra pas transformer dans les prochaines années. Toutefois, je pense qu’il importe d’être attentif à la manière dont nous accompagnons les différents intervenants dans cette aventure. » – Andrew Ng, expert en AI

Nous avons le plaisir d’annoncer un appel d’études de cas, portant sur l’intelligence artificielle responsable centrée sur l’humain, en vue d’une publication dans la Revue internationale de cas en gestion (RICG) (ISSN 1911-2599).

L’IA responsable centrée sur l’humain consiste en la mise au point et en l’usage des technologies de l’IA qui profitent aux particuliers, à la société et à l’environnement, tout en limitant les risques de conséquences néfastes. Elle englobe cinq principes complémentaires : (i) croissance inclusive, développement durable et bien-être ; (ii) valeurs centrées sur l’humain et équité ; (iii) transparence et explicabilité ; (iv) robustesse, sûreté et sécurité ; (v) responsabilité.[1]

Alors qu’en 2022, non moins de 98 % des dirigeants déclaraient avoir des ambitions responsables en matière d’IA, seule la moitié d’entre eux disposaient de plans d’action en la matière.[2] Et seulement 19 % ont déclaré posséder une pratique mature et responsable en matière d’IA (IAR) et récolter les fruits de leurs efforts.[3] Tout le monde ne s’entend pas sur la nature même de l’IAR. En outre, les facteurs organisationnels (savoir-faire, talent, formation, connaissances, et priorités des dirigeants), ainsi que la complexité de l’opérationnalisation des principes de valeur centrés sur l’humain tout au long du cycle de vie de l’IA (au-delà des solutions algorithmiques) charrient leur lot de difficultés nouvelles.

Ce numéro spécial offrira au secteur des affaires des cas d’enseignement portant sur la mise au point et la mise en œuvre de l’IA dans les organisations. Nous invitons universitaires et praticiens à soumettre des études de cas qui non seulement explorent les défis et débouchés associés à cette mise au point et mise en œuvre responsables, mais qui donnent aussi un aperçu des stratégies réalisables que les entreprises peuvent déployer pour concevoir et exploiter des systèmes responsables.

Nous acceptons les propositions faites sur un large éventail de sujets, notamment :

  • Considérations éthiques qui sous-tendent la mise au point de systèmes IA
  • Garantie de l’équité et réduction des biais dans les systèmes IA
  • Conception de systèmes IA transparents et explicables
  • Gestion des risques liés aux technologies IA
  • Évaluation de l’impact social et éthique de l’IA
  • Renforcement de la confiance dans les technologies IA
  • Stratégies de mise en œuvre d’une IA responsable dans les entreprises
  • Mesure de la réussite des initiatives en matière d’IA responsable
  • Meilleures pratiques fondées sur des données probantes provenant des leaders du secteur de l’IAR mature
  • Parcours de la mise en œuvre de l’IAR depuis le début jusqu’à la maturité (partielle) qu’on constate aujourd’hui
  • Pratiques holistiques au-delà des solutions technologiques qui concernent notamment le leadership, les processus, la culture organisationnelle, les mécanismes de gouvernance, l’engagement des parties prenantes, la conformité à la réglementation
  • Mesure des avantages commerciaux de l’IAR
  • Mises en œuvre de l’apprentissage machine de l’IA dans un cadre technologique en plein devenir
  • Mises au point IA en interne, ce qui inclut les outils issus de tierces parties

Les résumés détaillés (750 à 1 000 mots) des cas proposés doivent être soumis au format Word d’ici le 30 août 2023 et doivent être envoyés à mariko.dupuis@hec.ca. Ils doivent inclure le titre de l’étude de cas, une liste de mots-clés, une brève description ou un récit, ainsi que les principaux enseignements à tirer. Les auteurs recevront avant le 30 octobre 2023 des commentaires sur les résumés soumis. Les études de cas et les notes pédagogiques complètes doivent être soumises sur la plateforme de soumission de la RICG avant le 30 décembre 2023. Une décision définitive sera rendue en mars 2024.

Dans son numéro spécial de 2024, la RICG espère faire la lumière sur un sujet important pour les organisations : la mise au point et la mise en œuvre de systèmes d’IA responsables. Cet appel d’articles vise donc des études convaincantes assorties de notes pédagogiques circonstanciées. Les auteurs sont invités à prendre connaissance des définitions et des guides de la RICG avant de faire une soumission de texte :
https://www.hec.ca/centredecas/guides-ecriture/index.html

Lorsque vous soumettez une étude de cas complète, veillez à écrire "HCAI - Titre de votre cas" dans le titre et à choisir l'une des deux options suivantes (voir l'image ci-dessous) lors de la soumission pour le numéro spécial. Un lien vers Editorial Manager, notre plateforme de soumission, est disponible sur notre site web sous les Consignes aux auteurs.

EM-soumisssion-HCAI

Veuillez noter que les auteurs peuvent soumettre un maximum de deux cas pour ce numéro spécial, et que les cas divulguant le nom des entités décrites (cas non anonymisés) seront traités en priorité.

Échéances importantes :

  • Date limite pour la soumission des résumés : le 30 août 2023
  • Rétroaction donnée aux auteurs sur la soumission initiale : au plus tard le 30 octobre 2023
  • Date limite de soumission des cas et des notes pédagogiques : le 30 décembre 2023
  • Notification des auteurs quant au premier cycle de révisions : le 30 janvier 2024
  • Décision définitive : mars 2024
  • Publication du numéro spécial : juin 2024

Grâce notamment à un accord de distribution avec Harvard Business Publishing, les cas parus dans la RICG sont utilisés dans plus de 500 universités dans le monde.

[1] OCDE, Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449
[2] PwC’s 2022 AI Business survey, https://www.pwc.com/us/en/tech-effect/ai-analytics/ai-business-survey.html#intro-section 
[3] MIT Sloan Management Review and Boston Consulting Group, 2022


 

Inscrivez-vous à notre infolettre

SUIVEZ-NOUS :

LinkedIn Facebook YouTube Twitter

S'identifier et s'inscrire

Afin d'accéder aux documents du Centre de cas, vous devez être inscrit sur notre site.
 
Logo HEC Montréal

Facebook YouTube Flickr Twitter LinkedIn Instagram
© HEC Montréal, 2024  Tous droits réservés.