Landry Simo

4 min.

10 février 2022

Après avoir significativement amenuisé le protectionnisme ambiant d’antan à travers le décloisonnement des marchés, la globalisation peut à juste titre être mise sur le banc des accusés pour avoir favorisé la création de nouvelles frontières virtuelles concernant la propriété exclusive des données et l’avènement du Big data. La guerre des débouchés a ainsi cédé la place à celle des données et des algorithmes.

L’IA prend inexorablement du terrain, damant ipso facto très souvent le pion à l’humain. Les organisations prennent ainsi le parti de l’automatisation de plus en plus croissante des tâches auparavant dévolues aux humains, dans une quête certaine - mais peut-être pas saine - de performance toujours plus élevée et de coûts encore plus bas. Dans une ère sociétale où le caractère multidimensionnel de la performance organisationnelle – autrefois querellé – fait l’objet d’un consensus aussi enthousiasmant qu’inégalé, naît dès lors un questionnement préjudiciel tenant au caractère socialement responsable de l’IA et la prépondérance algorithmique qu’elle induit.

La norme ISO 26 000 dont s’inspirent les Labels RSE met en exergue les différents piliers de la RSE que sont le développement durable, le bien-être des parties prenantes, l’éthique organisationnelle, entre autres.

Il est dorénavant moins sujet à caution que - toutes proportions gardées et tous critères combinés- les algorithmes réalisent un score de rationalité et de performance décisionnelles supérieur à celui des humains.

Cependant, il est fort à propos de relever que cet indéniable attribut de rationalité décisionnelle dont jouit l’IA, quoiqu’optimisatrice de coût et de rentabilité, n’est au demeurant pas inéluctablement garante des critères de labellisation RSE et de la performance éponyme pour au moins trois raisons auxquelles peut s’adjoindre une quatrième :

  • Sur les plans éthique et social, l’IA détruit d’innombrables emplois humains quoique via le mécanisme schumpétérien de destruction créatrice, de nouveaux emplois voient le jour. Il n’est pas garanti que le fait d’avoir des machines comme collègues de travail soit tout autant vecteur de bien-être organisationnel que l’est la socialisation rendue possible par les relations interpersonnelles. L’IA prend des décisions en s’appuyant sur des statistiques susceptibles d’être biaisées et peut produire des résultats inexacts, discriminatoires, non-transparents et injustes. N’ayant pas la capacité irréfutable de réaliser des mises en perspective, l’IA peut s’avérer anéthique. Par ailleurs, la performance algorithmique pourrait supplanter la performance humaine si la rentabilité économique plus élevée de l’IA entraîne mutatis mutandis une plus grande propension et capacité à investir dans le domaine social ou philanthropique. Cette déduction n’est cependant pas sans avoir de limites car tout dépendra de la politique managériale impulsée au sein de l’organisation concernée.
  • Sur le plan environnemental, mue par l’énergie chimique, l’IA est plus énergivore que l’humain, mu par l’énergie circulatoire. Dépendamment de la modalité d’approvisionnement énergétique, la main d’œuvre algorithmique peut s’avérer moins écologique que l’alternative humaine.
  • Sur le plan économique, l’automatisation contribue certes à des revenus plus élevés et des coûts plus bas mais n’optimise pas nécessairement le bien-être de toutes les parties prenantes. De plus, l’IA induit des investissements faramineux dans l’édification des bases de données, la construction des algorithmes et surtout dans la protection des données ainsi amassées et devenues vulnérables. Ces coûts sont donc de nature à édulcorer les gains économiques liés à l’IA et influencer la création de valeurs pour les parties prenantes.
  • Sur le plan sécuritaire, l’IA consacre la transition du « terrorisme attentatoire » classique à une nouvelle forme de terrorisme : le « terrorisme algorithmique ». En effet, notre ère est de plus en plus marquée par la cybercriminalité qui représente l’une des principales préoccupations liées au développement de l’IA. A titre d’illustration, de nos jours, la plupart des tentatives sophistiquées de manipulation et de détournement des marchés financiers et des systèmes de santé se déroulent exclusivement dans le cyberespace et s’attaquent aux systèmes d’IA. Cette menace omniprésente ne doit point du tout être mésestimée.

Quoiqu’admettant les bienfaits indéniables de IA sur l’automatisation des tâches, la rapidité d’exécution et la rationalité moins faillible, il convient de relever que l’intervention humaine reste (du moins pour le moment) la pierre philosophale d’une digitalisation réussie. La précision et la fiabilité des algorithmes dépendant intrinsèquement de la qualité et de la fiabilité des “inputs” (interface, codes et données), qui demeurent des œuvres humaines. En somme, le triptyque IA, décision algorithmique et RSE pourrait constituer un ménage paisible si un cadre juridique approprié et une armée algorithmique bien entrainée sont mis en place à l’effet d’édulcorer voire d’estomper les limites ci-dessus évoquées et les risques inhérents à l’IA : condition sine qua non de l’atteinte de la performance organisationnelle dans les diverses facettes de la RSE. Toutefois, est-il aisé de mettre en œuvre un tel cadre juridique susceptible d’intégrer la diversité et la complexité des caractéristiques idiosyncrasiques de l’IA à l’effet d’en limiter les inconvénients et subséquemment de favoriser la RSE ? Rien n’est moins sûr ! Il demeure néanmoins inoxydable qu’en user ainsi contribuera à sublimer l’Intelligence Artificielle en la rendant plus intelligente et ipso facto moins artificielle. Cela fera l’objet d’une prochaine publication.

Partager ce post sur

Articles récents

Voir tous les articles