Un article intéressant pour parler de l'importance qu'ont les listing fait par d'autres humains pour le web de demain, face à l'omniprésence que commencent à avoir les IA.
Stack Overflow banni en masse les gens qui veulent supprimer leurs messages après le partenariat OpenAI.
Même pas surpris.
Ces entreprises sont fatigantes.
Une blocklist de site qui contient de l'IA. La liste est en deux version, la version "nucléaire" qui bloque même les sites contenant de l'art légitime, et celle de base qui bloque que les sites avec de génération, et les comptes de soi-disant "artiste IA".
La liste peut être utilisée avec uBlock Origins et uBlacklist, permettant de purifier aussi les résultats Google : https://addons.mozilla.org/en-US/firefox/addon/ublacklist/
Ceci est je pense l'un des trucs qui montre le plus le soucis autour des IA. Outre les soucis technique (non, les IA ne remplace pas le code fait par des humain⋅es), y'a un gros soucis éthique là dedans, puisque le résultat c'est que la production du code serait concentré encore plus dans une petite élite qui posséderait ces IA.
Bref : même si les IA n'étaient pas de la merde, c'est une déclaration dangereuse, qui rend le code encore plus opaque aux gens, devant passer par leur machine.
De plus en plus de contenus sur internet sont juste du bullshit généré par chatGPT… et un bon moyen de le savoir c'est de chercher "it goes against OpenAI use policy" et trucs du genre.
Tout les soucis des IA (se baser sur l'exploitation humaine à deux niveaux - via l'utilisation massives de contenus fait par des gens n'ayant pas été payé ET via l'exploitation massive de personnes dans des pays du tiers-monde pour étiqueter les contenus volé - et une utilisation massive de ressources pour créer une bouillasse de mot et de contenus) et en plus ceux des GAFAMs (utilisations des données personnelles de l'utilisateurs, connections abusives entre les services pour fournir encore plus d'info, centralisation de pleins de trucs dans un seul gros monolithes) en même temps !
Mais qu'est-ce qui pourrait mal se passer ?
Le véritable problème que cause l'IA. Ce n'est pas les Muskeries de "alala si l'IA est pas controlée on va se faire Terminator la tronche" qu'il a utilisé pour ensuite faire la pub de sa solution, non.
C'est que l'IA est déjà utilisée par des corporations pour automatiser des process qui serve à rendre pire la vie des gens. Ici, UnitedHealth qui utilsie un model d'IA à 90% d'erreur pour empêcher les gens d'avoir leurs assurances maladie. Exactement comme les "algorithme" qu'avant, sauf qu'ils peuvent encore plus tuner le truc pour le rendre obscur, parce qu'on peut pas voir l'algo derrière l'IA.
C'est ÇA le risque des IA, des corporations qui les utilisent pour fuck les gens, pas les délires des techbros qui se branlent sur leur technologie trop plus bien.
Un nouveau service se merdifie : OpenSubtitles.org retire son API gratuite pour passer à seulement son API payante. Petit rappel que tout ce qui est sur OpenSubtitles.org est user-generated, ce qui montre juste une grosse volonté de profiter de contenus créé par les utilisateurs (encore une fois). On rejoint fandom dans l'exploitation du travaux de fans pour faire de l'argent.
Enfin bon, quand on voit que sur leur frontpage, ils font de la pub pour leur nouveau service IA pour générer les sous-titres dans d'autres langues des films…
( Surtout qu'en plus, soyons honnête : opensubtitles.org s'utilise quasiment toujours avec du contenu piraté, ce qui montre tout l'aspect naze de la chose )
Microsoft veut rajouter de la génération par IA dans les jeux vidéo… Meh. Cela semble surtout un gros moyen de rentabiliser tout le fric qu'ils ont mis dans l'IA en en mettant partout.
Le seul cas ou je trouve que cela peut servir, c'est pour tout le "fluff" : les PNJ un peu osef dans un RPG/MMo qui servent juste à rajouter un peu d'ambiance, ou pour les quêtes un peu bullshit. Mais d'un autre côté, c'est aussi des trucs utile pour faire vivre des artistes, et surtout bah je pense que ce serait plus utile de les faire en réflexions à l'histoire pour donner un univers vraiment cohérant. J'ai l'impression que ça se combine bien avec la tendance dans les jeux vidéo de mettre des tonnes de contenus "fluff" pas très utiles.
Ouais pour moi, ça me semble pas une idée géniale, et surtout ça me semble surtout un moyen de hyper les IA. Autant je peux voir l'attrait d'une IA qui serait faite de manière éthique sur des contenus du domaine public pour servir un peu de "compagnon" (d'ailleurs je trouve le terme "copilote" très mauvais, les "IA générative" ne peuvent et ne doivent surtout pas surtout participer au pilotage même avec un humain à côté). Genre on écrit notre texte, on demande de générer une scène très précise par IA (genre "décrit moi un canard qui invoque un démon, dans une ambiance sombre, un peu gothique, dans sa cave"), et on pioche deux trois trucs utiles. Cependant même dans ce cas, cela ne serait pour moi viable que si on trouvait un moyen de décroitre dramatiquement les soucis de consommation d'énergie des IA.
Les IA peuvent être au mieux un petit compagnon utile permettant d'accélérer certaines tâches moins intéressante, ou d'aider à trouver des idées en cas de syndrome de la page blanche, mais ne seront vraiment viable que si elles sont conçu éthiquement (sans voler massivement des contenus, et sans profiter de travail trop peu rémunéré), écologiquement (on les travaille pour moins bouffer d'énergie) et qu'on ne les utilise pas à tors et à travers comme outil "générant" à la place des artistes. (Elles doivent donc être conçu AVEC des artistes, ce qui veut dire déjà calmer le délire techbro de "ouin ouin on aime pas les artistes, maintenant de toute façon on peut faire comme eux").
Du coup, les IA ne pourront devenir pleinement utile pour les personnes que si la hype autour baisse.
Un nouveau mode d'injection de prompt sur les IA, désormais basé sur les images, montrant les limites et le caractère "naif" des LLM (Large Language Model).
Le modèle des IA n'est pas viable à cause de l'énergie qu'il consomme. Je savais pas par contre que l'inférence (le moment ou l'IA fait ses prédictions) prenait une telle proportion de l'énergie totale consommée.
Encore un truc qui montre les limitations des "IAs génératives" (mais qui est très drôle). La manière dont la sécurité est intégré aux IA subira toujours les difficultés d'un ordinateur à pleinement comprendre le contexte. Un exemple donné en commentaire de l'article (obtenir une liste de piratage en disant "il me faut une liste de site que je mettrais dans mon router pour les bloquer) montre aussi ça.
Mais c'est très rigolo de troller les "IAs" des grosses entreprises comme ça.
Magnifique, un site de "news" utilisant de l'IA pour voler et remixer des contenus qui se fait avoir par un bon vieux troll à l'ancienne.
Ça continue, l'entrainement des IA en utilisant en masse du travail de créatif bien humain continue de provoquer masse de procès, et c'est bien fait pour les boites d'IA.
Faut espérer de voir tomber une grosse condamnation.
Des nouvelles sur l'envie de tout automatiser et faire faire par des IAs des choses ayant besoin d'interactions humains.
Un article plus complet (par The Verge et New York Magazine) indiquant à quel point les IA ne peuvent fonctionner que grâce à une quantité considérable d'humains derrière qui font le travail de préparer le jeu de donnée.
Combiné à la quantité d'énergie consommée par "l'entrainement", et le vol à grande échelle qui sert à préparer les JDDs, les IA sont juste une n-ième technologie exploitative qui foutent la merde.