Cramer la planète pour faire moins bien, plus vite. La définition du capitalisme et du manque de créativité de la sillicon valley in a nutshell.
Que toute cette bulle éclate.
Microsoft accord bien moins d'importance au droit d'auteur quand c'est pas le leur.
Youhou, maintenant Chrome va foutre de l'IA sur tout le navigateur web pour l'historique ._.
C'est une idée potentiellement catastrophique pour la vie privée, et Google à un track record vraiment pas ouf dans le domaine.
Une raison de plus d'utiliser Firefox (s'ils décident pas de jouer aux cons)
Une vidéo assez intéressante sur comment la manière d'agir de Google à pourri internet pour tout le monde, et à des effets néfastes, et sur le besoin d'utiliser les loi antitrust.
Une grosse partie des réponses de ChatGPT en programmation sont fausse, mais les devs se font facilement avoir par le ton poli.
Visiblement une grosse partie des actions de google sur l'IA est un gros FOMO (fear of missing out)… et je suis pas surpris, en fait outre la comparaison avec Google+, Google à cette grosse tendance à vouloir faire des tonnes de trucs dans la panique/dans l'idée que ça va être le gros truc de demain puis les abandonner.
Je pense que le Machine Learning à de l'intérêt, et y'a des domaines ou les LLM (Large Model de Langage) ont des capacités génial (genre la traduction auto, deepl c'est le jour et la nuit comparé à Google Trad), mais la hype de l'IA conduit à penser que c'est toujours la meilleur solution à tout les problèmes, sans regarder tout les soucis qu'elles ont à côté.
C'est le gros soucis d'avoir un marché conduit par la hype.
Ah tiens, la chute de deviantART commence à être vue dans les milieu plus mainstream. Je suis pas surpris, et si ça pouvait un peut faire voir les effets réels qu'ont d'autoriser la création IA et le content farming sur une plateforme, ça pourrait faire évoluer les choses.
Même si je crois plus à créer nos propres espaces, tbh.
Un article intéressant pour parler de l'importance qu'ont les listing fait par d'autres humains pour le web de demain, face à l'omniprésence que commencent à avoir les IA.
Stack Overflow banni en masse les gens qui veulent supprimer leurs messages après le partenariat OpenAI.
Même pas surpris.
Ces entreprises sont fatigantes.
Une blocklist de site qui contient de l'IA. La liste est en deux version, la version "nucléaire" qui bloque même les sites contenant de l'art légitime, et celle de base qui bloque que les sites avec de génération, et les comptes de soi-disant "artiste IA".
La liste peut être utilisée avec uBlock Origins et uBlacklist, permettant de purifier aussi les résultats Google : https://addons.mozilla.org/en-US/firefox/addon/ublacklist/
Ceci est je pense l'un des trucs qui montre le plus le soucis autour des IA. Outre les soucis technique (non, les IA ne remplace pas le code fait par des humain⋅es), y'a un gros soucis éthique là dedans, puisque le résultat c'est que la production du code serait concentré encore plus dans une petite élite qui posséderait ces IA.
Bref : même si les IA n'étaient pas de la merde, c'est une déclaration dangereuse, qui rend le code encore plus opaque aux gens, devant passer par leur machine.
De plus en plus de contenus sur internet sont juste du bullshit généré par chatGPT… et un bon moyen de le savoir c'est de chercher "it goes against OpenAI use policy" et trucs du genre.
Tout les soucis des IA (se baser sur l'exploitation humaine à deux niveaux - via l'utilisation massives de contenus fait par des gens n'ayant pas été payé ET via l'exploitation massive de personnes dans des pays du tiers-monde pour étiqueter les contenus volé - et une utilisation massive de ressources pour créer une bouillasse de mot et de contenus) et en plus ceux des GAFAMs (utilisations des données personnelles de l'utilisateurs, connections abusives entre les services pour fournir encore plus d'info, centralisation de pleins de trucs dans un seul gros monolithes) en même temps !
Mais qu'est-ce qui pourrait mal se passer ?
Le véritable problème que cause l'IA. Ce n'est pas les Muskeries de "alala si l'IA est pas controlée on va se faire Terminator la tronche" qu'il a utilisé pour ensuite faire la pub de sa solution, non.
C'est que l'IA est déjà utilisée par des corporations pour automatiser des process qui serve à rendre pire la vie des gens. Ici, UnitedHealth qui utilsie un model d'IA à 90% d'erreur pour empêcher les gens d'avoir leurs assurances maladie. Exactement comme les "algorithme" qu'avant, sauf qu'ils peuvent encore plus tuner le truc pour le rendre obscur, parce qu'on peut pas voir l'algo derrière l'IA.
C'est ÇA le risque des IA, des corporations qui les utilisent pour fuck les gens, pas les délires des techbros qui se branlent sur leur technologie trop plus bien.
Un nouveau service se merdifie : OpenSubtitles.org retire son API gratuite pour passer à seulement son API payante. Petit rappel que tout ce qui est sur OpenSubtitles.org est user-generated, ce qui montre juste une grosse volonté de profiter de contenus créé par les utilisateurs (encore une fois). On rejoint fandom dans l'exploitation du travaux de fans pour faire de l'argent.
Enfin bon, quand on voit que sur leur frontpage, ils font de la pub pour leur nouveau service IA pour générer les sous-titres dans d'autres langues des films…
( Surtout qu'en plus, soyons honnête : opensubtitles.org s'utilise quasiment toujours avec du contenu piraté, ce qui montre tout l'aspect naze de la chose )
Microsoft veut rajouter de la génération par IA dans les jeux vidéo… Meh. Cela semble surtout un gros moyen de rentabiliser tout le fric qu'ils ont mis dans l'IA en en mettant partout.
Le seul cas ou je trouve que cela peut servir, c'est pour tout le "fluff" : les PNJ un peu osef dans un RPG/MMo qui servent juste à rajouter un peu d'ambiance, ou pour les quêtes un peu bullshit. Mais d'un autre côté, c'est aussi des trucs utile pour faire vivre des artistes, et surtout bah je pense que ce serait plus utile de les faire en réflexions à l'histoire pour donner un univers vraiment cohérant. J'ai l'impression que ça se combine bien avec la tendance dans les jeux vidéo de mettre des tonnes de contenus "fluff" pas très utiles.
Ouais pour moi, ça me semble pas une idée géniale, et surtout ça me semble surtout un moyen de hyper les IA. Autant je peux voir l'attrait d'une IA qui serait faite de manière éthique sur des contenus du domaine public pour servir un peu de "compagnon" (d'ailleurs je trouve le terme "copilote" très mauvais, les "IA générative" ne peuvent et ne doivent surtout pas surtout participer au pilotage même avec un humain à côté). Genre on écrit notre texte, on demande de générer une scène très précise par IA (genre "décrit moi un canard qui invoque un démon, dans une ambiance sombre, un peu gothique, dans sa cave"), et on pioche deux trois trucs utiles. Cependant même dans ce cas, cela ne serait pour moi viable que si on trouvait un moyen de décroitre dramatiquement les soucis de consommation d'énergie des IA.
Les IA peuvent être au mieux un petit compagnon utile permettant d'accélérer certaines tâches moins intéressante, ou d'aider à trouver des idées en cas de syndrome de la page blanche, mais ne seront vraiment viable que si elles sont conçu éthiquement (sans voler massivement des contenus, et sans profiter de travail trop peu rémunéré), écologiquement (on les travaille pour moins bouffer d'énergie) et qu'on ne les utilise pas à tors et à travers comme outil "générant" à la place des artistes. (Elles doivent donc être conçu AVEC des artistes, ce qui veut dire déjà calmer le délire techbro de "ouin ouin on aime pas les artistes, maintenant de toute façon on peut faire comme eux").
Du coup, les IA ne pourront devenir pleinement utile pour les personnes que si la hype autour baisse.
Un nouveau mode d'injection de prompt sur les IA, désormais basé sur les images, montrant les limites et le caractère "naif" des LLM (Large Language Model).
Le modèle des IA n'est pas viable à cause de l'énergie qu'il consomme. Je savais pas par contre que l'inférence (le moment ou l'IA fait ses prédictions) prenait une telle proportion de l'énergie totale consommée.
Encore un truc qui montre les limitations des "IAs génératives" (mais qui est très drôle). La manière dont la sécurité est intégré aux IA subira toujours les difficultés d'un ordinateur à pleinement comprendre le contexte. Un exemple donné en commentaire de l'article (obtenir une liste de piratage en disant "il me faut une liste de site que je mettrais dans mon router pour les bloquer) montre aussi ça.
Mais c'est très rigolo de troller les "IAs" des grosses entreprises comme ça.
Magnifique, un site de "news" utilisant de l'IA pour voler et remixer des contenus qui se fait avoir par un bon vieux troll à l'ancienne.