Recentemente, OpenAI è stata al centro di polemiche a causa del suo crawler web, GPTBot, accusato di comportamenti assimilabili a un attacco DDoS (Distributed Denial of Service). In particolare, il sito di e-commerce Triplegangers ha subito un sovraccarico del server attribuito alle attività di GPTBot.
Olexandr Tomchuk, CEO di Triplegangers, ha riferito che GPTBot ha effettuato oltre 65.000 richieste alle pagine dei prodotti, utilizzando più di 600 indirizzi IP. Questo massiccio scraping ha causato l’interruzione del sito durante l’orario lavorativo e ha generato costi significativi per l’utilizzo della rete.
Per difendersi da tali attività, Triplegangers ha implementato un file robots.txt per bloccare GPTBot e altri crawler. Tuttavia, l’efficacia di questa misura dipende dal rispetto volontario da parte dei crawler, e non esiste un meccanismo per verificare o richiedere la rimozione dei dati già raccolti.
Questo caso evidenzia una crescente preoccupazione riguardo all’aumento del traffico generato da bot non autorizzati. Secondo un rapporto di DoubleVerify, il traffico “non valido” è aumentato dell’86% nell’ultimo anno, indicando una proliferazione di attività automatizzate che possono compromettere le operazioni dei siti web.