Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
J'écrivais quelque chose à ce sujet, mais je vois que @anton_d_leicht m'a devancé (et a fait un bien meilleur travail !).
Alors je vais juste ajouter mes pensées incomplètes, qui se chevauchent en partie avec les siennes :
-----
J'ai écrit pas mal de choses sur l'arrivée d'une IA plus avancée. Mais bien que je pense toujours qu'il est probable que nous obtenions quelque chose comme "AGI" dans les deux prochaines décennies, je pense aussi qu'il est probable que nous connaissions quelque chose comme un "hiver de l'IA" entre-temps. Alors pourquoi ne pas en parler aussi ?
Je pense que c'est important, pour les raisons suivantes :
– Un hiver de l'IA peut ne PAS être très informatif sur le fait que, à long terme (décennies plutôt que années), nous nous dirigeons vers quelque chose comme l'AGI.
– La plupart des gens VERRONT un hiver de l'IA comme très informatif sur la faisabilité de l'AGI.
– Le résultat qui compte est l'AGI, pas de savoir s'il y a ou non un hiver de l'IA avant cela.
Les perceptions de la plupart des gens (et des décideurs) comptent. Un hiver de l'IA (et l'éclatement de la bulle d'investissement qui en résulte) pourrait créer une période où toute discussion sur les risques et les avantages de l'IA avancée future devient totalement radioactive. Si la tendance principale vers l'intelligence générale se poursuit alors que nous ne faisons pas de progrès en matière de politique, nous aurons moins de temps pour façonner positivement le développement de l'IA [
Imaginez ce scénario pessimiste : L'année est 2028. Les choses qui fonctionnaient auparavant ne fonctionnent plus. L'augmentation de la préformation a commencé à donner des rendements fortement décroissants en 2025. L'augmentation de l'inférence a suivi le même chemin. Les données synthétiques ont fonctionné un moment, mais n'ont fait que faire converger les modèles près d'un nouveau plafond. Quelques innovations supplémentaires ont eu lieu, rendant les LLM plus intelligents et utiles. Mais ce ne sont toujours que des LLM, assez fragiles et pas vraiment bons pour automatiser des emplois, même s'ils sont corrects pour automatiser des tâches d'écriture. Les agents progressent plus lentement que prévu. Il s'avère que l'apprentissage auto-supervisé à partir de texte était un signal d'entraînement particulièrement facile à générer. L'apprentissage auto-supervisé dans l'utilisation de l'ordinateur et le RL sont beaucoup plus difficiles à mettre en place correctement. Les gens réalisent d'énormes simulations et entraînent des agents en elles, mais celles-ci se généralisent relativement mal. Les gens pointent des choses comme l'IA 2027 et voient un tel écart entre "attente" et réalité, qu'ils disent que c'était tout du battage. Les laboratoires d'IA ne peuvent plus justifier d'énormes sessions d'entraînement ; le calcul est juste gaspillé pour des améliorations marginales de plus en plus petites. Peut-être avons-nous eu quelques percées en matière de longueur de contexte et d'apprentissage continu, mais ce n'est pas suffisant. L'investissement dans l'IA s'effondre. Donc, la R&D chute aussi. Parler de l'avenir de l'IA devient radioactive. Toute spéculation sur les capacités futures est noyée par des "réalistes" qui soulignent les dernières années de progrès décevants.
Dans ce scénario, en 2028, cela semblerait à beaucoup (la plupart ?) comme la fin de l'histoire. L'IA est bonne, mais elle n'a jamais été censée être meilleure que cela. Et c'est tout. Cela signifie pas d'AGI, pas d'impacts transformateurs, pas d'âge d'or du progrès, et bien sûr, pas de risques pires que des deepfakes.
Mais combien de temps un hiver de l'IA pourrait-il durer ?
Il est possible qu'il dure éternellement, ou du moins prenne quelques décennies. Contre les probabilités dérivées des tendances du début du 20ème siècle, nous pourrions atteindre une limite fondamentale. Les experts finissent par nous informer que l'analogie cerveau-GPU était trop grossière — ce que nous savions tous déjà — mais il s'avère que les différences comptent pour passer de prédicteur de texte à agent général. Ou nous avions besoin de processus quantiques dans le cerveau pour générer un locus d'attention conscient, ce qui — il s'avère — était nécessaire pour obtenir le fonctionnement de très haut niveau. Ou ce n'étaient pas des processus quantiques à proprement parler, mais le "matériel" hautement interconnecté que le cerveau fournit, qui peut être simulé dans le traitement principalement parallèle que les GPU effectuent. Mais encore une fois, il s'avère que ces simulations ne suffisent pas et que nous avons réellement besoin de puces neuromorphiques pour créer des agents capables, et celles-ci ne seront pas disponibles avant cinq décennies.
Vous n'avez pas besoin de penser que l'une de ces histoires d'échec particulières est plausible pour penser que nous pourrions manquer d'un ingrédient dans la recette de l'AGI, et que cet ingrédient pourrait être difficile ou impossible à obtenir ce siècle, tout comme cela a été chaque siècle précédent.
L'hiver de l'IA pourrait aussi être court, cependant. Nous sommes déjà habitués à une augmentation en fonction d'étapes des capacités, où nous obtenons peu de mises à jour impressionnantes entre de grandes sessions d'entraînement. Si quelques sessions d'entraînement ne se déroulent pas comme prévu, cela signifie simplement que nous serons coincés dans un plateau beaucoup plus long, tandis que les ingrédients pour le prochain changement de phase s'assemblent et atteignent le seuil nécessaire. Néanmoins, une période de progrès décevant plus longue que prévu pourrait déclencher beaucoup des mêmes processus d'un hiver plus long.
Les "lois d'échelle" sont une observation empirique, pas un fait inhérent au monde. Les tendances peuvent absolument se terminer ou ralentir considérablement. Parce que la plupart des gens — et surtout la plupart des "extérieurs" ne suivant pas les progrès de l'IA — ont tendance à sous-estimer l'importance de ces tendances, les personnes travaillant sur l'IA deviennent parfois négativement polarisées et deviennent trop absolutistes (ici de manière satirique) [ sur le pouvoir prédictif des lois d'échelle. Oui, nous pourrions être dans une autre situation de loi de Moore [ avec les capacités de l'IA. Mais de nombreuses tendances apparemment stables s'arrêtent avec le temps — nous nous souvenons de la loi de Moore précisément parce qu'elle est exceptionnelle.
Enfin, il se peut qu'il n'y ait pas du tout [ un hiver de l'IA. Nous pourrions obtenir une frontière de l'IA en amélioration continue malgré les "peurs" régulières chaque fois que l'IA semble frapper un mur juste avant de le briser. Ou nous pourrions obtenir une frontière en amélioration alors qu'une grande partie de la "bulle" pour les entreprises de wrappers et les startups d'IA mineures éclate.
Le résultat est : il existe une tendance fondamentale [ vers une intelligence générale de plus en plus développée. Et c'est cette tendance qui compte. Pas de savoir si les LLM nous y mèneront, ou si nous y parviendrons avec ou sans un hiver temporaire de l'IA entre les deux.
Nos cerveaux sont la preuve que des raisonneurs généraux sont réalisables, et les systèmes d'IA d'aujourd'hui sont la preuve que notre raisonnement peut être approximé de manière utile (que ce soit ou non un "vrai raisonnement") dans des domaines hautement complexes. Il est possible que certaines des prédictions les plus pessimistes que j'ai décrites ci-dessus soient correctes, comme atteindre des limites fondamentales de l'intelligence machine. Mais la cocotte-minute d'un calcul exponentiellement croissant, de données d'entraînement et de milliers de génies travaillant sur de nouveaux algorithmes semble finalement mener à une intelligence avancée. Et si nous voulons bien faire cela, nous ferions mieux de nous concentrer là-dessus, plutôt que sur des résultats qui ne font que corréler avec cela.
Il est logique de mettre beaucoup d'efforts et de réflexion dans les résultats où nous obtenons une IA transformative rapidement. Mais ne choisissez pas des collines sans rapport sur lesquelles mourir [
À propos, que se passe-t-il si la bulle éclate ? Anthropic échoue-t-il, aux côtés d'autres laboratoires d'IA qui n'ont pas de revenus plus diversifiés comme Google DeepMind ou Meta ? Où vont les employés de XAI s'il y a un grand exode ? Au moins certains des laboratoires de pointe pourraient-ils continuer à faire avancer la frontière, même si une grande partie des petites startups et des investissements échouent ? Nous ferions mieux d'essayer de le comprendre, tout comme nous essayons de comprendre quoi faire en supposant que les tendances se poursuivent. Si vous avez des idées, mes DMs sont ouverts.

8,45K
Meilleurs
Classement
Favoris