Il y a actuellement un débat sur la durée de vie réelle des GPU. CoreWeave modélise environ 6 ans de vie économique utile. Nebius dit que c'est plutôt 4 ans. Les ingénieurs de Google rapportent 1 à 3 ans sous des charges de travail lourdes en datacenter. Et Michael Burry soutient que tout le marché éclate bien avant que la sixième année n'arrive. Le problème pour moi est qu'ils utilisent des moyennes - ce qui cache les données réelles et les scénarios d'utilisation réels. Les GPU ne vieillissent pas avec le temps. Ils vieillissent par comportement. Cela signifie que deux B300 identiques peuvent avoir des vies économiques complètement différentes : Résultat : la courbe de dépréciation effective d'une flotte variait de 30 à 45 % selon les différents clients finaux, même si les GPU étaient des modèles identiques. En d'autres termes, certaines charges de travail des clients ont fait perdre de la valeur à leur matériel presque deux fois plus vite que d'autres. Et c'est exactement là que les prêteurs, investisseurs et opérateurs se font prendre au dépourvu : - Hypothèses de récupération mal évaluées - Offres sur-collatéralisées ou sous-collatéralisées - Conditions de prêt qui se brisent à mi-parcours - Portefeuilles qui soudainement ne s'équilibrent plus La télémétrie est le nouveau sous-critère.