Une vidéo intéressante sur les algorithme, et une critique du livre Filterworld.
Bref, les hallucinations sont inévitable et en plus sont amplifié par comment les IA sont faites : récompensées dès qu'elles réussissent à répondre. Non seulement c'est le modèle mathématique qui pose soucis, mais les méthodes d'évaluations empire ça, n'entrainant pas les IA à être "prudente" ce qui mitigerait un peu.
Et c'est logique, les IA sont vendus comme étant le truc magique qui peut répondre à tout, tout faire. Renvoyer une réponse qui ressemble à une réponse vrai est bien plus intéressant commercialement que de renvoyer un "désolé je ne sais pas", parce que c'est frustrant pour les utilisateur⋅ices et cela diminue leur argument de vente qui est la magie de l'IA qui va tous⋅tes nous remplacer.
De plus, la pensée techbro étant à fond dans le go fast and break things, ça amplifie ça.
Bref les hallucinations sont :
- Un effet inévitable des modèles mathématiques
- Amplifié par un modèle techbros qui répond à tout prix
- Amplifié par le modèle même de ce qui est venu dans l'IA, cet oracle qui répond à tout.
Visiblement la présentation des lunettes de Meta a été pleine de gros fails.
C'est pas étonnant, la "super high tech" que vendent les entreprises est en grande partie un mythe, une esthétique. Le besoin d'avoir le nouvel internet, la nouvelle révolution technologique les poussent à mentir sur le truc, puis quand le produit arrive vraiment, c'est bien moins que ce qu'ils disaient.
- Le métavers nous était présenté comme tout les mondes virtuels de SF, on s'est retrouvé avec des mondes 3D foireux mal fagoté qui font au final moins bien que juste discuter et jouer à des jeux avec ses potes via Discord ou autre.
- Les cryptomonnaies étaient présenté comme la monnaie du futur, décentralisée, sans banque et ont été des outils de spéculations lent, dépensant des ressources énergétique monstre pour des frais de fonctionnement abusés.
- L'IA nous est présenté comme cette intelligence incroyable, toujours à quelques mois de l'arrivée de "l'AGI" pour au final générer constamment de la merde peu inspirée, ou s'effondrer dès qu'une question est un peu trop compliquée et stagner de dingue ces derniers mois (et dépensant des ressources monstre aussi)
Ils ont besoin de vendre le futur, mais le futur est souvent décevant. Pourquoi l'iPhone a été une révolution, pourquoi internet ont été une révolution ? Parce qu'au final, ils avaient une offre simple : internet connectait le monde entier, l'iPhone misait sur son design pour être un produit intelligent.
Et pour chaque révolution, il y a eut des dizaines de "moi j'ai la nouvelle révolution".
Un comics sur les luddites, écrit par Hbomberguy et illustré par Skutch, qui rappelle ce que sont vraiment les luddites
Un article très intéressant de Ed Zitron sur le fait que l'IA a un cout financier énorme, pour très très peu de revenu, et que visiblement personne n'a vraiment envie d'être "celui qui paie" à long terme.
L'article a été résumé par @UnePorte@elderitch.cafe ici : https://eldritch.cafe/@UnePorte/114986962031526715
Un excellent article sur les soucis de greenwashing chez Ecosia.
Cramer la planète pour faire moins bien, plus vite. La définition du capitalisme et du manque de créativité de la sillicon valley in a nutshell.
Que toute cette bulle éclate.
Une vidéo assez intéressante sur comment la manière d'agir de Google à pourri internet pour tout le monde, et à des effets néfastes, et sur le besoin d'utiliser les loi antitrust.
Microsoft veut rajouter de la génération par IA dans les jeux vidéo… Meh. Cela semble surtout un gros moyen de rentabiliser tout le fric qu'ils ont mis dans l'IA en en mettant partout.
Le seul cas ou je trouve que cela peut servir, c'est pour tout le "fluff" : les PNJ un peu osef dans un RPG/MMo qui servent juste à rajouter un peu d'ambiance, ou pour les quêtes un peu bullshit. Mais d'un autre côté, c'est aussi des trucs utile pour faire vivre des artistes, et surtout bah je pense que ce serait plus utile de les faire en réflexions à l'histoire pour donner un univers vraiment cohérant. J'ai l'impression que ça se combine bien avec la tendance dans les jeux vidéo de mettre des tonnes de contenus "fluff" pas très utiles.
Ouais pour moi, ça me semble pas une idée géniale, et surtout ça me semble surtout un moyen de hyper les IA. Autant je peux voir l'attrait d'une IA qui serait faite de manière éthique sur des contenus du domaine public pour servir un peu de "compagnon" (d'ailleurs je trouve le terme "copilote" très mauvais, les "IA générative" ne peuvent et ne doivent surtout pas surtout participer au pilotage même avec un humain à côté). Genre on écrit notre texte, on demande de générer une scène très précise par IA (genre "décrit moi un canard qui invoque un démon, dans une ambiance sombre, un peu gothique, dans sa cave"), et on pioche deux trois trucs utiles. Cependant même dans ce cas, cela ne serait pour moi viable que si on trouvait un moyen de décroitre dramatiquement les soucis de consommation d'énergie des IA.
Les IA peuvent être au mieux un petit compagnon utile permettant d'accélérer certaines tâches moins intéressante, ou d'aider à trouver des idées en cas de syndrome de la page blanche, mais ne seront vraiment viable que si elles sont conçu éthiquement (sans voler massivement des contenus, et sans profiter de travail trop peu rémunéré), écologiquement (on les travaille pour moins bouffer d'énergie) et qu'on ne les utilise pas à tors et à travers comme outil "générant" à la place des artistes. (Elles doivent donc être conçu AVEC des artistes, ce qui veut dire déjà calmer le délire techbro de "ouin ouin on aime pas les artistes, maintenant de toute façon on peut faire comme eux").
Du coup, les IA ne pourront devenir pleinement utile pour les personnes que si la hype autour baisse.
Une des firmes de "tests génétiques de descendant" à eut une fuite de donnée, et visiblement les attaquant visait particulièrement les Juifs Ashkenaze, visant explicitement à vendre des informations génétiques sur des célébrités juives (où ayant des ancêtres juives) à des conspirationnistes antisémite.
De cela, on peut tirer deux trucs :
- On ne peut pas confier des données aussi sensibles à des grosses entreprises qui vont les concentrer. Je ne vais pas attaquer ceux qui ont fait les tests - ils sont les victimes dans cette histoire. Mais le fait que ces entreprises aient été autorisées à exister est une démonstration des soucis du capitalisme avec les données personnelles.
- Le "danger" qui arrive, c'est pas juste des hackers qui attaqueraient de manière indiscriminée. Nous sommes à une époque ou l’extrême droite monte énormément, le temps avec son tas de théories conspirationnismes, d'antisémitisme, de racisme, etc. Il va y avoir des attaques visant les minorités, plongée dans des visions fascistes.
Et du coup les inquiétudes peuvent encore moins être dissipée à l'aide de "mais si t'as rien a cacher". Ce genre de fuite est très grave.