Challenges des nouvelles technologies, entreprises, IA Intelligence Artificielle, particuliers, personnes électroniques, robots, personnalité juridique, constructeur, responsabilité, traçabilité, libre arbitre, protection juridique, risques, environnement
De nombreux observateurs du monde de l'IA préconisent d'attribuer une « personnalité électronique » à certains robots. De sorte qu'en cas de dommage causé par ces derniers, leurs responsabilités puissent être engagées de la même façon que pour des personnes physiques (particuliers) ou des personnes morales (entreprises).
Dans ce cadre le Parlement européen très en pointe sur ces questions a préconisé : « qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis y compris celui de réparer tout dommage causé à un tiers ».
Ainsi « serait considéré comme une personne électronique tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers. »
Mais aujourd'hui les règlementations nationales ou internationales sont dans ce domaine très embryonnaires et ne permettent pas sur un plan juridique de prendre en compte toutes les conséquences qui vont résulter des interactions entre les robots de service et les humains.
[...] Ainsi se dégagent de cette approche deux principes centraux qui peuvent constituer les fondements éthiques d'une intelligence artificielle au service de l'humanité tout entière. Ils peuvent s'inscrire utilement dans l'élaboration d'un socle de droits fondamentaux et de valeurs éthiques répondant aux enjeux de l'ère numérique. Le principe de Loyauté Le premier est organisé autour du principe dit de loyauté [HYPERLINK: https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf] Il s'applique à tous les algorithmes qui dépassent les individus, particuliers ou entreprises, du fait de leurs impacts collectifs. [...]
[...] De même dans le domaine des services l'IA, grâce à la gestion des données fournissent aussi des moyens pour accroître les compétences individuelles, grâce au partage des connaissances entre pairs et à l'apprentissage à distance. Enfin, l'IA permet d'augmenter l'efficacité des interventions humaines grâce à l'automatisation qui libère des hommes et les femmes qui peuvent ainsi mieux se consacrer à des tâches plus complexes ou à plus forte valeur ajoutée. L'Intelligence artificielle, grâce à sa capacité de traitement d'importants volumes de données, rend plus aisé le fonctionnement écologique des entreprises en limitant l'impact de leurs activités de production et de commercialisation sur les comportements humains, facilitant ainsi la gestion de l'allocation de l'énergie et des ressources. [...]
[...] Ne perdons pas de vue que l'IA est avant tout composé d'algorithmes qui traitent et analysent des données programmées et ordonnées par des concepteurs de type de personnes physiques. [HYPERLINK: https://www.lisez.com/livre-grand-format/lintelligence-artificielle-nexiste-pas/9782412043400] Ces derniers en amont de l'outil technologique procèdent à des «arbitrages éthiques» qui répondent en premier lieu à leurs propres valeurs et à leur conception du sens de leur responsabilité sociale et sociétale. Pratiquement, l'éthique de l'IA se doit d'être avant tout le point de départ d'une réflexion plus globale sur l'usage de l'ensemble des technologies NBIC qui concurrent à faire vivre l'IA : nanotechnologie, biotechnologie, technologie de l'Information et technologie cognitive. [...]
[...] Ces logiciels prédisent à partir des caractéristiques sociales et des antécédents du prévenu, la probabilité de récidive. Ainsi, la légitimité des calculs du logiciel repose sur le recueil des données sociales brutes et l'établissement mécanique de corrélations entre les données collectées. Or, il est tout à fait contestable sur le plan éthique d'assigner de manière automatique, générale et impersonnelle de futurs comportements individuels à partir de données collectives par nature hétérogènes. L'intelligence artificielle ne choisit pas l'option la plus juste parce qu'elle est la plus juste, mais pour donner suite à un calcul. [...]
[...] On retrouve donc pour l'essentiel dans cette catégorie des applications d'IA qui manipulent le comportement humain afin de priver les utilisateurs de leur libre arbitre ou de leur discernement. L'objet des exigences renforcées sur ces systèmes à risques inacceptables est de permettre aux autorités nationales, en cas d'infraction de disposer d'informations nécessaires pour déterminer si le système d'IA a été utilisé dans un cadre légal et pour le moins licite et approprié. Pour veiller au respect de ces règles, les États nationaux sont chargés du contrôle du respect de cette règlementation et de la surveillance de la conformité des dispositifs d'IA. [...]
Référence bibliographique
Source fiable, format APALecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture