
Zdjęcie ilustracyjne.
Cyberprzestępcy znaleźli nowy sposób na zarabianie na boomie związanym ze sztuczną inteligencją. Tworzą tysiące fałszywych kont, wyłudzają darmowe zasoby obliczeniowe, a następnie sprzedają je na czarnym rynku.
Choć branża AI rozwija się w zawrotnym tempie i osiąga rekordowe wyceny, coraz wyraźniej mierzy się z problemem, który uderza w podstawy jej modelu biznesowego. Jak ujawnił Patrick Collison w podcaście TBPN, nawet co szóste nowe konto zakładane na popularnych platformach AI może być fałszywe. Za procederem stoją zorganizowane grupy cyberprzestępcze wykorzystujące mechanizm określany przez szefa Stripe jako „kradzież tokenów” – informuje magazyn „Fortune”.
Boty generują gigantyczne koszty
W przeciwieństwie do tradycyjnych usług SaaS, gdzie darmowy okres próbny wiąże się z niewielkimi kosztami po stronie dostawcy, w przypadku AI każda interakcja z modelem oznacza realny wydatek. Każde zapytanie zużywa bowiem moc obliczeniową i tzw. tokeny inferencji.
Oszuści zakładają więc masowo konta, aby gromadzić darmowe limity dostępu do modeli AI. Następnie odsprzedają je lub wykorzystują do własnych działań — często niezgodnych z prawem. W efekcie start-upy i dostawcy usług pozostają z ogromnymi rachunkami za infrastrukturę chmurową.
Skala problemu rośnie bardzo szybko. Emily Sands, odpowiedzialna w Stripe za dane i AI, podkreśla, że liczba nadużyć związanych z darmowymi okresami próbnymi wzrosła w ciągu ostatniego półrocza ponad dwukrotnie. Szczególnie gwałtowne przyspieszenie odnotowano w ostatnim miesiącu. Jak zaznacza Sands, atakujący działają „z prędkością maszyny”, błyskawicznie zużywając ogromne ilości zasobów i generując wysokie koszty.
Konsekwencje dla firm technologicznych są coraz poważniejsze. „Fortune” opisuje przypadek start-upu, w którym koszt pozyskania jednego prawdziwego klienta wzrósł aż do 500 dolarów. Powodem była ogromna liczba botów wykorzystujących budżety marketingowe przeznaczone na promocję usług. W odpowiedzi część firm decyduje się nawet na całkowitą rezygnację z darmowych wersji próbnych. Choć ogranicza to straty finansowe, jednocześnie utrudnia pozyskiwanie nowych, uczciwych użytkowników.
ElevenLabs na celowniku oszustów
Aby ograniczyć skalę wyłudzeń, Stripe rozbudowało system Radar o nowe funkcje wykrywania podejrzanych rejestracji. Narzędzie analizuje m.in. reputację adresów IP, historię domen e-mail oraz tzw. cyfrowe odciski urządzeń.
Według firmy tylko w ciągu jednego miesiąca system zablokował ponad 3,3 mln podejrzanych prób założenia kont w ośmiu firmach działających w sektorze AI. Wśród nich znalazły się m.in. polski ElevenLabs oraz Lovable.
Kwestie bezpieczeństwa były jednym z głównych tematów konferencji Stripe Sessions 2026 w San Francisco. Firma zaprezentowała tam pakiet narzędzi Agentic Commerce Suite, przygotowując rynek na rozwój autonomicznych agentów AI, którzy w przyszłości będą mogli dokonywać transakcji w imieniu użytkowników.
Nowy trend rodzi jednak kolejne wyzwania. Branża musi znaleźć odpowiedź na pytanie, jak odróżnić legalnie działającego agenta AI od złośliwego bota zaprogramowanego do wyłudzania zasobów i generowania strat.
rp.pl