Wikimedia est submergé par le trafic des robots d'IA, les crawlers consommant 65 % des ressources, afin de collecter des données d'entraînement pour les modèles d'IA

Wikimedia est submergé par le trafic des robots d'IA, les crawlers consommant 65 % des ressources, afin de collecter des données d'entraînement pour les modèles d'IA.La fondation Wikimedia a annoncé que le scraping incessant de l'IA mettait à rude épreuve les serveurs de Wikipédia. Des robots automatisés à la recherche de données d'entraînement de modèles d'IA pour des LLM ont aspiré des téraoctets de données, augmentant de 50 % la bande passante utilisée par la fondation pour télécharger des contenus...

Avr 7, 2025 - 04:55
 0
Wikimedia est submergé par le trafic des robots d'IA, les crawlers consommant 65 % des ressources, afin de collecter des données d'entraînement pour les modèles d'IA
Wikimedia est submergé par le trafic des robots d'IA, les crawlers consommant 65 % des ressources, afin de collecter des données d'entraînement pour les modèles d'IA.

La fondation Wikimedia a annoncé que le scraping incessant de l'IA mettait à rude épreuve les serveurs de Wikipédia. Des robots automatisés à la recherche de données d'entraînement de modèles d'IA pour des LLM ont aspiré des téraoctets de données, augmentant de 50 % la bande passante utilisée par la fondation pour télécharger des contenus...