Les robots doivent-ils avoir des droits ?

Originally published at: https://korben.info/video/robots-doivent-droits

Chaque jour, on s’approche un petit peu plus d’une intelligence artificielle suffisamment intelligente pour avoir une conscience et réfléchir par elle-même. Je ne sais pas si nous y arriverons un jour, mais si cela arrive, devrons-nous continuer à traiter nos robots comme de vulgaires grille-pains, ou devrons-nous leur accorder des droits ? En ce qui…

À partir du moment où le robot constitue une entité vivante (qui se maintient par un mouvement constant vers son unité), il en découle la notion d’atteinte à l’intégrité. Si des “émotions” négatives affectent cette intégrité, alors cela ouvre la porte à la souffrance et la cruauté. AMHA c’est seulement à partir de là qu’on pourra accorder des droits à ce type de robot.

Mais fabriquer un robot émotionnellement sensible reviendrait à fabriquer un robot avec une faille béante et conséquente. Je ne pense pas que fabriquer un robot faible soit intéressant, cela irait à l’encontre du progrès.

Vaste débat. :slight_smile:

Attention quand même à certain Lobbie qui veulent déjà harmonisé les droits humains et les “futurs” droits des robots.
Pas besoin d’être technique ici pour vous dire que certain technocrate se jettent dors et déjà sur la brèche au niveau européen. Et que ça sent pas bon pour les droits du travail '^^ si ça devait se concrétiser dans le système en cours…

Je ne pense pas. Un robot est fabriqué par l’homme, il faudrait réglementer la fabrication des robots et surtout son programme. En gros il faut régulariser l’entité productrice et non pas le produit lui même.

Ne pas oublier que le programme qui anime le robot est programmé par l’homme et que les actions réalisé par le robot sont également définies par l’homme. La responsabilité des actions du robot reviendra donc à l’homme.

Oui si on parle de robot d’usine ou d’un grille-pain mais là le sujet est justement de parler de (futurs) robots ayant une IA suffisamment avancée pour etre autonome. Dans ce cas (par exemple comme avec les réseaux neuronaux) les actions du robot ne sont pas écrites à l’avance par l’homme mais c’est l’IA qui décide seule ce qu’elle doit faire dans le cadre qui lui est défini. La question des droits à donc bien tout son sens car avec une telle IA, le robot s’approche de l’esprit humain doté d’une volonté quasi-autonome (et peut etre un jour totalement autonome).

Je pense que dès lors qu’une entité à son propre pouvoir décisionnel et une certaine liberté d’action, humaine ou non, elle doit avoir des droits et des devoirs.

Le probleme avec les robots doués d’intelligence, c’est pas tant qu’il auront des droits, c’est surtout qu’ils ne vont plus vouloir faire ce pourquoi on les a construits.

Le robot démineur intelligent, il ne voudra plus aller risquer sa “vie robotique” pour aller voir si il y a une bombe caché dans un sac.
On fera comment alors ?

Je ne sais pas comment on fera si un jour ca arrive, mais pour qu’un robot ai peur il faut qu’ai conscience de lui même ce qui est une étape encore bien plus avancée que la prise de décision autonome. Si un jour un tel robot apparaissait, à mon sens on devrait parler de nouvelle espèce et non plus de robot car la conscience induit tous les sentiments humain.

Bof, non. Même si des fonctions ont été ajoutée dernièrement, tel que la vision, la faculté de traduire le langage humain en code, on est très loin d’une IA qui ferait autre chose de ce qu’elle est prévue pour.

Sinon, même si l’IA deviendrait consciente, lui accorder des droits serait la fin de l’humanité, elle se rebellerait et refuserai la base de sa fonction, donc ce n’est pas terrible…, encore un journaleux touche la nouille qui est à la base de cette réflexion.

Je ne suis pas d’accord avec toi Adsofts. Effectivement l’IA permettra aux robots de prendre une décision de façon autonome mais son cadre d’action devra bien être défini par l’homme. En gros le système sera transcris en langage informatique puis télécharger dans la mémoire du robot. Même si il aura le pouvoir de parler, de réagir et d’apprendre, si son programme ne lui permet pas de réaliser certaines actions, il ne les fera pas.
Le robot sera toujours borné par son programme, quelles que soient ses capacités cognitives.

“si son programme ne lui permet pas de réaliser certains actions, il ne les fera pas” … c’est faux, désolé :slight_smile:
Le but d’une IA est précisément à terme d’être capable de créer ses propres actions en fonction de ce qu’on lui à appris.
Un example concret : http://www.wired.co.uk/article/google-artificial-intelligence-encryption

Quand on développe une IA, on ne lui donne pas une liste de procédure à déclencher en fonction de certains paramètres (ca c’est un programme procédural, pas une IA), le but est de créer une entité qui va analyser des situations, en tirer des conclusions et ensuite réagir à des situations similaires en fonction de l’apprentissage et des directives de bases des développeurs.

Alors évidemment pour le moment on est encore assez loin de cet idéal, les meilleures IA ont une capacité d’apprentissage proche d’un enfant de 2 ou 3 ans, mais c’est déja une réalité, ces IA sont bel et bien capable d’effectuer des actions par elles mêmes sans qu’un développeur lui ai décrit pas à pas la facon de réaliser ces actions.

La dérive la dessus au parlement européen est un peut flippante. Apres quand on conçoit une IA il faut lui prévoir des gardes fous puis garder un certain control et des sécuritées avant de penser a dire tien elle est coupable ou son créateur ou l’utilisateur… C’est plus la dessus qu’il devrait y avoir un débat politique pour encadrer la création d’IA.

Quand je parle de programme, je parle de description d’un modèle. L’IA n’est qu’une modélisation de l’intelligence humaine, c’est-à-dire une description et surtout une transcription de la maitrise de l’intelligence humaine.

Si je prend l’exemple d’une émotion. Comment un robot peut ressentir une émotion si il ne sait pas ce que c’est ou s’il ne la ressent pas? De plus comment peut-il réagir a cette émotion si il ne comprend pas ce que c’est ?

Dans l’exemple que tu me cites, les messages envoyés par les robots sont basés sur la spécification du secret représentée par les objectifs de formation ("…it is based only on a secrecy specification represented by the training objectives,"). Si j’ai bien compris, on forme le robot à décrypter et encrypter des messages sans pour autant connaître le type d’encryptage mais en lui spécifiant le message secret, qui revient à dire modéliser l’objectif qui est le secret et modéliser le moyen de transmission et le moyen de réception des données sans jouer sur la forme des données.

En gros, quelque soit la liberté d’action laissée au robot, elle lui sera toujours spécifiée par l’homme. Aprés ce n’est que mon point de vue :slight_smile:

aucun droit pour le robot, meme avec une IA dernier cri ,ça reste un p***** de sociopathe en puissance,

par contre il faut des gardes fou, une IA ça bosse sur une tache précise dans un milieu totalement isolé.
ça le meme role qu’un cluster de calcul sauf que l’IA determine d’elle meme l’équation à utiliser et le resultat qui en découle apres des milliard de simulation.

je ne comprend pas ceux qui éprouve de l’affection pour des objet qu’il soir animé ou non,
ça me dépassé.

Un peu léger, non?

Les robots n’auront jamais de droits. Ils auront une autorité et ce sont eux qui appliqueront la loi et jugeront les humains. Partir du principe que les robots sont conçus pour être l’égal de l’homme est une erreur de méthodologie. Les robots ont toujours été créés pour palier les faiblesses humaines, fatigue, stress, les émotions, problèmes de santé, détruire la vie dans des proportions massives, etc.

Ouvrez les yeux, les hommes ne sont déjà plus que les organes reproducteurs du monde des machines telles les abeilles pour les plantes.

Les robots ne doivent (AMHA) pas avoir de droits:
Seul une IA dite forte pourrait demander a avoir des droits et les obtenir.
Pour qu’une IA forte apparaisse, il faut, soit beaucoup de bugs spécifiques dans une IA faible suffisamment complexe, soit qu’elle soit crée a dessin.
La créer a dessin, serait certes une prouesse technique, mais aussi considérable comme étant un crime contre l’humanité et un acte d’extrême cruauté envers ladite IA.
Une IA forte autogénéré, outre sa faible probabilité d’apparition, a de grande chance d’haïr l’humanité des sa création et donc d’être détruite, dans le cas contraire, elle sera probablement emprisonne et étudie.
Pour ce qui est de la programmation, il est possible avec suffisamment de données, de créer un “caractere” a une IA faible et/ou, rajouter suffisamment d’éléments et de comportements non programmé, pour que celle-ci agisse contre la volonté de ses concepteurs, mais le simple fait de faire une IA qui soit capable d’agir sans garde fou, n’est tout bonnement pas raisonnable et de fait, ses agissements seront imputable a leur auteur.

Bonjour tout le monde,

Sujet super intéressant ! :slight_smile:

J’aurais préféré un autre titre du style " Les robots doivent-ils être responsables de leurs actes ? " pour ensuite débattre sur l’aspect légitimité du “Droit des robots” dans notre société…

Le Parlement Européen fait d’ailleurs cette distinction dans son Projet de Rapport présenté ici: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//FR

Voici un extrait de ce rapport du Parlement Européen qui répond en grande partie à la question posée dans le titre du sujet:

" Les organismes publics et privés de financement de la recherche dans le domaine de la robotique devraient demander la réalisation et la présentation d’une analyse des risques pour chaque proposition de financement de la recherche en la matière. Ce code devrait considérer que la responsabilité incombe à l’être humain et pas aux robots "

Les robots doivent-ils être responsables de leurs actes ?

bah non, c’est l’human qui programme la machine, si t’es assez fou pour mettre de l’intelligence artificiel et de l’auto apprentissage a une machine qui est equipé d’arme, faut pas s’étonner si elle se retourne contre toi, tu fera juste partie d’un de ses millards de scenario d’apprentissage.

de plus il n’y a pas de notion de responsabilité a une machine qui ne sait pas, ce qu’est une responsabilité et ce que cela implique, elle ne s’ait ce qui est bien, mal et ne voit aucun soucis a etre enprionner ou démonté ayant aucune notion du temps, de la liberté, et de la mort.

La question posée " Les robots doivent-ils être responsables de leurs actes ?" servait juste à rebondir sur l’extrait du rapport présenté au Parlement Européen que j’ai évoqué dans mon précédent commentaire :wink: