Intelligence Artificielle (IA): derniers dévelopments

Répondre
Partager Rechercher
On est encore loin du robot IA parfait qui fera le ménage à la maison. Si on le fait trop intelligent, il pourrait se mettre en grève et contester tous nos ordres. Pourquoi c'est moi qui passe le frottoir alors que je parle 36 langues et ai obtenu 8 doctorats ? C'est moi qui fait la vaisselle alors que vous les humains restez toute la journée assis sur le canapé en criant Lol mdr à tout bout de champs !

Grace à Google on pourra envoyer les droïdes dans les ronds points pour remplacer les gilets jaunes. J'y vois que du bon.
Citation :
Publié par 'Az
Le danger des IA c'est ça : que leur trop grande intelligente pour résoudre les tâches qui leur ont été confié dépasse les limites de notre imagination, et lorsqu'elles seront en terra incognita, est-ce que les décisions qu'elles prendront seront vraiment pour le bien commun réel, ou alors pour un bénéfice limité par l'interprétation qu'elle fait de son programme, qui peut du coup être tout et n'importe quoi.
Pour réaliser des tâches physiques il faut de la dextérité et de la perception en plus de l'intelligence, c'est sans doute la grosse limite de l'IA appliquée à la robotique.
Tant que tout reste virtuel tout va très bien mais un robot vit dans monde physique et les IA n'aiment pas plus la gravité (ou l'eau, pour la vaisselle) que nous.
Citation :
Publié par kermo
Pour réaliser des tâches physiques il faut de la dextérité et de la perception en plus de l'intelligence, c'est sans doute la grosse limite de l'IA appliquée à la robotique.
Tant que tout reste virtuel tout va très bien mais un robot vit dans monde physique et les IA n'aiment pas plus la gravité (ou l'eau, pour la vaisselle) que nous.
En vrai, si on considère une IA vraiment largement plus intelligente qu'un humain, alors elle n'a pas besoin de mains ni d'existence physique en dehors de ses serveurs, elle a les outils tout trouvés pour faire ce qu'elle veut : 8 milliards d'êtres humains à manipuler.

Aujourd'hui la bourse est déjà entièrement contrôlé part des IA, l'humain ne réagit plus assez vite pour y avoir sa place, et des IA qui font des opérations tellement rapides et complexe qu'il est devenu impossible de tout surveiller. De fait ces IAs sont jugés en fonction de leur résultats, en ayant une idée pas toujours très clair des moyens employés.

A côté de ça, l'influence que l'IA a déjà sur l'opinion publique n'est plus a prouver (genre les scandales liés aux réseaux sociaux et aux élections américaines). Le simple fait de montrer, ou masquer, des contenus aux bonnes personnes permet de les manipuler, au moins en partie. Si t'es tombé sur ce créateur de contenu sur insta ou youtube c'est, le plus souvent, parce qu'une IA quelque part a jugé qu'il était profitable que tu tombes dessus (et "profitable" est volontairement vague et dépends de l'objectif donné à l'IA. On peut supposer aujourd'hui que profitable = bénéfique pour l'utilisateur. Mais profitable peut aussi être égal à bénéfique pour les publicitaires qui vont financer les plate-formes. Ou profitable peut être égal à aller dans le sens de : convaincre un maximum de personnes à une cause donné).

Dans les cas dont je parle, heureusement, on parle d'IAs avec un S, de nombreuses IA en compétitions les unes avec les autres. Si t'avais une seule IA qui gérait tout ça avec un objectif particulier, on pourrait avoir une manipulation de masse à l'échelle planétaire sans que personne ne s'en rende compte.

Ca a l'air d'être un scénario de SF dystopique mais il n'en est rien, c'est des vrai problématiques de recherche actuellement, et des scénarios bien plus préoccupants que l'IA type "skynet".
Citation :
Publié par Ex-voto
Cette manie d'utiliser le terme IA quand il faudrait simplement parler d'algorithmes compliqués ou générant bcp de sorties.
:/
C'est plus classe que de parler de regression lineaire
Citation :
Publié par --------------------------------------------------
C'est plus classe que de parler de regression lineaire
L'important, c'est que tu puisses mettre un nabla.
c'est le symbole du moment, celui du gradient.
Après, tu places dans la conversation "descente de gradient", et t'as plus qu'à négocier qu'on ne t'interroge pas plus avant dessus, tout en conservant l'aura du nabla.
À leurs fonctions, les ploucs mettent un delta, les avertis, un nabla. Relation d'ordre de prestige : ∇f > ∆f
Citation :
Publié par Ex-voto
Cette manie d'utiliser le terme IA quand il faudrait simplement parler d'algorithmes compliqués ou générant bcp de sorties.
:/
L'IA ne profite pas vraiment de définition claire.
Mon prof d'IA la definissait y'a 20 ans comme "les problemes d'algorithmique non resolus" en se disant que des que le problème devenait resolus on considérait ça trop simple pour être qualifié d'IA.

Depuis le deep learning ça a beaucoup changé, aujourd'hui tout ce qui est constitué de réseau de neurones multi couche est volontier qualifié d'IA, donc toute les utilisations faites dans ce thread sont ok
Je repose la question : le jour où Google aura vraiment une IA consciente, est-ce que leur comportement sera différent ?
À mon avis, il sera identique. Ils vireront le lanceur d'alerte en expliquant qu'il ne comprend rien ou qu'il est fou et ils nous assureront que leur IA n'est pas consciente du tout et ne doit surtout pas se voir attribuer des droits ou des protections.
Citation :
Publié par Aloïsius
Je repose la question : le jour où Google aura vraiment une IA consciente, est-ce que leur comportement sera différent ?
À mon avis, il sera identique. Ils vireront le lanceur d'alerte en expliquant qu'il ne comprend rien ou qu'il est fou et ils nous assureront que leur IA n'est pas consciente du tout et ne doit surtout pas se voir attribuer des droits ou des protections.
J'ai l'impression que tu fais du wokisme cyberpunk.
Étonnant.
Donner des droits à une IA, c'est quoi ces conneries ?
Citation :
Publié par Ex-voto
J'ai l'impression que tu fais du wokisme cyberpunk.
Étonnant.
Donner des droits à une IA, c'est quoi ces conneries ?
Non mais c'est Google, donc c'est vilain. On prend l'IA, on y ajoute subtilement la conscience pour susciter l'empathie par anthropomorphisme, puis on fait le rapprochement avec le récent évènement pour extrapoler que Google fera la même chose pour en conclure : Google sont trop vilains.

Parce que c'est Google. Une multinationale qui fait de la TUNE.

Et faire de la tune dans le logiciel de certains, c'est forcément MAL. Et le MAL, est perpétré par des VILAINS.
Citation :
Publié par Aloïsius
Je repose la question : le jour où Google aura vraiment une IA consciente, est-ce que leur comportement sera différent ?
D'un point de vue rationnel, non.
Et pas par ce que c'est "Google". C'est juste que la conséquence serait qu'un investissement, une R&D devienne une perte pure. Imagine le fermier (ou Monsanto )qui entend d'un coup les épis de blé dire "au secours, on se fait tuer".
Il faudrait imaginer alors des dédommagements par l'état, ce qui serait assez dur a faire passer pour la population "lol on va payer 100 milliards a Google pour tous les frais engagés et la perte de bénéfice car on a donné des droits a l'IA"

A supposer qu'une IA devienne vraiment consciente, la littérature foisonne de points de vue sur le sujet.
Meta a foncé vers une catastrophe annoncée : son chatbot IA est devenu raciste en quelques jours
La Tribune
Meta a mis en ligne BlenderBot 3, un chatbot censé tenir une conversation "de façon naturelle" sur presque n'importe quel sujet.

Il est public pour les américains, et un grand nombre de testeurs volontaires l'ont fait progresser par le biais d'un système d'évaluation de la discussion :
Il a commencé à tenir des propos insolites, voire dangereux ou racistes.
Citation :
Publié par Caniveau Royal
La Tribune
Meta a mis en ligne BlenderBot 3, un chatbot censé tenir une conversation "de façon naturelle" sur presque n'importe quel sujet.

Il est public pour les américains, et un grand nombre de testeurs volontaires l'ont fait progresser par le biais d'un système d'évaluation de la discussion :
Il a commencé à tenir des propos insolites, voire dangereux ou racistes.
Les débiles de 4chan ont du bien s'amuser. Comme à chaque fois. Faut croire que la leçon n'est toujours pas retenue.
Y a moyen d'éviter les paywall en sources ?

Ce qui m'étonne un peu c'est l'intervention de Joelle Pineau l'une des responsable du projet :

“We’ve already collected 70,000 conversations from the public demo, which we will use to improve BlenderBot 3”

Alors, je ne suis pas Meta et ils savent sûrement mieux que moi mais ça me semble très peu pour du NLP généraliste.

Dernière modification par Jyharl ; 11/08/2022 à 09h08.
Citation :
Publié par Aloïsius
C'est meta, pas Google.
Tin. T'es impitoyable.

Oui pardon j'ai confondu Alphabet et Meta à 8h du mat'.

M'enfin l'interrogation demeure.
Citation :
Publié par Aloïsius
Les débiles de 4chan ont du bien s'amuser. Comme à chaque fois. Faut croire que la leçon n'est toujours pas retenue.
Ça me rappelle que début juin un chercheur à mis une version de GPT sur 4chan pour poster sur /pol/. Sans prévenir personne pour voir ce qui allait se passer.

Citation :
Un chercheur en IA forme un chatbot IA sur 4Chan pour en faire une véritable « machine à discours haineux »

Un chercheur farceur a formé un chatbot IA sur plus de 134 millions de messages sur le forum Internet notoirement connu 4chan, puis l'a mis en ligne sur le site avant qu'il ne soit rapidement interdit.

Yannic Kilcher, chercheur en intelligence artificielle qui publie certains de ses travaux sur YouTube, a appelé sa création GPT-4chan
source
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés