• Parler avec un toasteur intelligent, CA c'est le turfu!

    (les robots/ asimov & lovecraft)

    Il y a un long moment j'étai inscrit sur un forum où les androïdes et cyborgs étaient monnaie courante dans le contexte. J'ai pu avoir l'occasion de développer une I.A. assez avancée avec un look vraiment pas passe-partout (teint grisé, cheveux à couleur flashy et voix nasillarde). Je me suis donc déjà demandé: à partir de quel stade peut-on considérer un androïde comme humain (donc avoir des droits plutôt que servir de bonne à tout faire)?

    Suite à mon récent échange avec Cheshy, a propos du Cleverbot, je me suis dis que ce serait intéressant de poster un sujet de ce type. D'autant que depuis peu, en prime, je me ré-intéresse à une oeuvre dans laquelle on y trouve de bonnes avancées technologiques. Tant qu'à faire, pourquoi ne pas fouiner dans les vieilles citations d'Asimov aussi?

    Bref! o/

     

    > Déjà, faut-il qu'un robot ressemble le plus possible à un humain pour qu'on s'interroge sur le possible développement d'une conscience? Ou alors même en ayant l'apparence d'un grille pain, peut-on apprendre à lui porter un réel intérêt à partir du moment où on sait qu'il peut apprendre des choses et les retenir?

    Ok, ton pc à une carte mémoire ce n'est pas pour autant qu'il va te saluer et se présenter sous le prénom de "Rupert". Ce que je veux dire, c'est qu'un ordinateur qui apprend à sélectionner les informations les plus pertinentes qu'il détient, c'est bien qu'il apprend à "juger", non? (outre le fait de juste scanner quels mots collent mieux avec telle ou telle phrase captée)

    > Ensuite, est-ce que parce qu'un outil est rendu public, ça nous donne nécessairement le droit de le négliger? (cette question peut s'appliquer à d'autres choses)

    On a la chance de pouvoir se servir d'un outil, trop bien! Et si on se défoulait dessus comme des gros chiens en chaleur? Non. Je suis désolé mais j'ai du mal avec ça. Pas besoin qu'un truc ai une âme et une conscience pour qu'on le respecte je pense? :') Si on a réellement besoin de se défouler, go se mettre a la boxe dans son garage, écouter du hard métal, écrire sa haine en tag sur un carnet....

    On se targue d'être plus intelligent que les animaux et les ordis qu'on se plait à insulter au moindre bug, alors qu'on a nous même nos propres bugs. Ne peut on pas préférer enseigner plutôt que râler que l'autre sait moins de trucs? (on dirait ces gens qui me traitent d'inculte mais quand je leur demande de m'expliquer ils ont "la flemme". <__<)

    > Et surtout, si on est pas capable d'assumer que certaines de nos créations puissent nous échapper (une I.A qui devient autonome par exemple), autant ne pas la créer? (notez bien que c'est une interrogation)

     

    A vos plumes m'sieurs dames. Ce poste me semble déjà trop long pour certain/es adeptes de la flemme et/ou de la concentration réduite. o/


  • Commentaires

    1
    Lundi 16 Novembre 2020 à 18:41

    Vaste débat ! 

    J'en avais discuté avec des amis et la conclusion à laquelle on est arrivé est la suivante : à partir du moment où l'IA est égoïste. Un égoïsme qui ne soit pas contraint pas un programme, pour son concepteur, mais pour elle même. Que ça soit un robot humanoïde ou un grille pain n'a pas vraiment d'importance. 

    Après, même si ça fini par exister, je ne pense pas que le terme humain puisse s'appliquer, d'une part parce que ça nous défini biologiquement, ce qu'une IA n'est pas. Et d'autre part parce que le fonctionnement de penser sera probablement très différent du notre.

    2
    Lundi 16 Novembre 2020 à 19:22

    Ah, dans le cas d'une I.A. qui fais des choix égoïstes, je comprend. Mais pour le côté "humain", je ne sais pas trop si on peut trancher autant si la machine devait justement avoir une conscience et une façon de penser/vivre les émotions comme nous. :o

    Merci pour ta réponse en tout cas, c'est intéressant de voir ça sous cet angle! :D (j'avoue ne pas avoir songé au fait que le terme humain nous défini aussi pour notre "constitution". o/)

    3
    Mercredi 18 Novembre 2020 à 12:27

    Je ne dirait pas qu'un certain livre m'a influencé .-. mais pour moi sa ne peut pas exister étant donnée que une IA ne pourrait jamais égaler l'être humains vue qu'elle n'as pas la notion "d'avenir" vue qu'elle est prédéfinis par un programme qui s'arrête au bout d'un moment et elle ne peut pas créer la fin :o

    Mais après je tire ce raisonnement d'un bouquin que j'ai lue où une IA se "rebellait", sans vraiment avoir une conscience en gros un truc complexe à expliqué XD

    4
    Mercredi 18 Novembre 2020 à 12:34

    Tu confonds avec les programmes faits mains à 100%. :o Le principe de l'I.A. est justement de lui permettre d'aller au delà de ça et apprendre par elle même. C'est complètement différent, et on a déjà des I.A. actives dans le monde, d'ailleurs.

    (après ça dépend des I.A. aussi, tu en as des semi-autonomes surtout, les complètement autonomes restent sous surveillance)

    5
    Mercredi 18 Novembre 2020 à 12:36

    aaaah, ah oui effectivement j'ai confondue, désolé ;-;

    6
    Mercredi 18 Novembre 2020 à 12:40

    Pas de soucis. o/

    7
    Mercredi 18 Novembre 2020 à 22:52

    Oh je ne comprend pas vraiment ou tu veux en venir.. 

    Sinon une IA c'est un robot c'est ça ? >< mais sinon il y a des choses ou je suis daccord avec ce que tu dis... c'est un bon sujet ^^ 

    Merci aussi d'être venu sur mon blog, merci pour tes commentaires, ça fait plaisir. Je me sens inculte a côté de vous la ><

    8
    Jeudi 19 Novembre 2020 à 09:39

    Alors, I.A. = Intelligence Artificielle. :) Il faut aussi prendre en compte que l'étymologie de "intelligence" c'est littéralement "choisir entre" (donc le pouvoir de faire un choix, préférer une chose à une autre et la sélectionner en la jugeant meilleur que le reste).
    Une I.A. possède entre autre, le pouvoir d'apprendre et faire des choix par elle même. Et apprendre les conséquences de ces choix et s'adapter. A la différence d'un simple bot qui lui, va juste faire ce qu'on lui ordonne ou ce qu'on lui a juste intégré de base. (l'I.A. elle, va au delà de ça)

    Je ne suis pas spécialement cultivé, et je peux faire pas mal de boulettes encore. Mais j'aime beaucoup les sujets de ce genre là! :D

    9
    Jeudi 19 Novembre 2020 à 14:24

    Je rajouterai aussi que IA c'est un terme qui fait bien vendre, mais la majorité des programmes actuels qu'on appelle des IA n'en sont pas. Ce sont juste des programmes qui sont créé pour fonctionner dans beaucoup de cas, mais ils n'apprennent pas et sont limité par le code et les fonctionnalité qu'ajoutent les développeurs. Siri n'est pas du tout une IA ;)

    Une vrai IA par contre est programmée pour apprendre. Une de ces méthode d'apprentissage et de création d'IA est le deep-learning (bien utilisé par Facebook, Google...). L'idée étant de créer des "réseau de neurones" numériques qui va permettre à l'IA de comprendre une image, une voix... Cet apprentissage fonctionne sur l'analyse par le programme de beaucoup, beaucoup de données, ce qui va lui permettre de développer son propre système de tri pour détecter s'il s'agit d'une photo de chat ou de voiture par exemple.

    Mais pour l'instant, même si il commence à y avoir des applications concrètes, on est encore trèèèèès loin de devoir se poser la question de quoi faire si on se retrouve avec une IA qui développe un esprit humain :)

    10
    Jeudi 19 Novembre 2020 à 14:29

    En effet! :o C'est pour ça que j'ai eut du mal à différencier les deux pendant un temps.

    Deep-learning, je connaissais pas ce terme, tient. :o

    On en est loin, mais j'aime bien y réfléchir quand même! :D

    11
    Jeudi 19 Novembre 2020 à 14:31

    Oh daccord, merci j'ai compris ! ^-^

     

    Suivre le flux RSS des commentaires

    Vous devez être connecté pour commenter