Wikimedia queixa-se do tráfego de bots AI

Também a Wikimedia se queixa do aumento significativo de tráfego, e respectivos custos, causando pelos insistentes bots AI. São cada vez mais os sites, de pequenos sites independentes a sites de maiores dimensão, que se queixam das visitas excessivas (e abusivas) dos bots AI, que fazem aumentar substancialmente o custo de operação do alojamento, nalguns casos fazendo com que deixe de ser viável manter os sites em funcionamento. E também os responsáveis pela Wikipedia têm notado esse efeito. A Wikimedia Commons, a plataforma que aloja imagens, vídeos e ficheiros de áudio utilizados na Wikipedia e noutros projectos, registou um aumento de 50% no tráfego de dados desde Janeiro de 2024. No entanto, este aumento não se deve a utilizadores humanos que visitam a Wikipedia, mas sim a bots AI que continuamente recolhem a máxima quantidade de dados para treinar modelos de inteligência artificial. A Wikimedia Foundation alerta que estes bots consomem recursos de forma desproporcional, aumentando os custos já elevados da plataforma, e colocando em risco a estabilidade do serviço. De acordo com a Wikimedia, os bots representam apenas 35% das visualizações totais de páginas mas são responsáveis por 65% do tráfego mais exigente em termos de recursos. Isto acontece porque os utilizadores humanos acedem a conteúdos que já estão em cache, enquanto os bots AI / scrapers percorrem tudo o que podem, incluindo páginas menos populares. A equipa do site está agora dedicada a bloquear estes bots para garantir um acesso estável aos utilizadores legítimos. Este problema refletce uma tendência crescente na internet. Muitos destes bots AI ignoram as directivas do "robots.txt, que foram criadas para limitar o acesso automatizado de forma voluntária. Para combater isto, empresas como a Cloudflare até já lançaram ferramentas como o AI Labyrinth, que usa conteúdos gerados por AI para ocupar os bots, arruinando a sua missão principal. O grande risco é que muitos sites comecem a optar por outras formas de bloquear o acesso a conteúdos, como através de exigência de criação de conta e login, ou protegendo-os atrás de paywalls e subscrições pagas, fazendo com que a web, em vez de plataforma aberta a todos de partilha de conhecimento, se torne numa rede de sites fechados e pagos.

Abr 3, 2025 - 23:49
 0
Wikimedia queixa-se do tráfego de bots AI
Também a Wikimedia se queixa do aumento significativo de tráfego, e respectivos custos, causando pelos insistentes bots AI.

São cada vez mais os sites, de pequenos sites independentes a sites de maiores dimensão, que se queixam das visitas excessivas (e abusivas) dos bots AI, que fazem aumentar substancialmente o custo de operação do alojamento, nalguns casos fazendo com que deixe de ser viável manter os sites em funcionamento. E também os responsáveis pela Wikipedia têm notado esse efeito.

A Wikimedia Commons, a plataforma que aloja imagens, vídeos e ficheiros de áudio utilizados na Wikipedia e noutros projectos, registou um aumento de 50% no tráfego de dados desde Janeiro de 2024. No entanto, este aumento não se deve a utilizadores humanos que visitam a Wikipedia, mas sim a bots AI que continuamente recolhem a máxima quantidade de dados para treinar modelos de inteligência artificial. A Wikimedia Foundation alerta que estes bots consomem recursos de forma desproporcional, aumentando os custos já elevados da plataforma, e colocando em risco a estabilidade do serviço.
De acordo com a Wikimedia, os bots representam apenas 35% das visualizações totais de páginas mas são responsáveis por 65% do tráfego mais exigente em termos de recursos. Isto acontece porque os utilizadores humanos acedem a conteúdos que já estão em cache, enquanto os bots AI / scrapers percorrem tudo o que podem, incluindo páginas menos populares. A equipa do site está agora dedicada a bloquear estes bots para garantir um acesso estável aos utilizadores legítimos.

Este problema refletce uma tendência crescente na internet. Muitos destes bots AI ignoram as directivas do "robots.txt, que foram criadas para limitar o acesso automatizado de forma voluntária. Para combater isto, empresas como a Cloudflare até já lançaram ferramentas como o AI Labyrinth, que usa conteúdos gerados por AI para ocupar os bots, arruinando a sua missão principal.

O grande risco é que muitos sites comecem a optar por outras formas de bloquear o acesso a conteúdos, como através de exigência de criação de conta e login, ou protegendo-os atrás de paywalls e subscrições pagas, fazendo com que a web, em vez de plataforma aberta a todos de partilha de conhecimento, se torne numa rede de sites fechados e pagos.