Skip to main content
Jeśli klikniesz link i dokonasz zakupu, możemy otrzymać małą prowizję. Zobacz politykę redakcyjną.

Hakerzy obchodzą zabezpieczenia ChatGPT, by tworzyć wirusy i fałszywe maile

Stosunkowo prosta metoda.

Hakerzy znaleźli sposób na obejście zabezpieczeń ChatGPT i sprzedają dostęp do usługi, która pozwala tworzyć złośliwe oprogramowanie oraz wiadomości phishingowe.

ChatGPT blokuje wszelkie żądania użytkowników dotyczące generowania szkodliwych i nielegalnych treści, więc nie można wykorzystać sztucznej inteligencji do tego, by napisała kod wirusa wykradającego dane ze zhakowanych urządzeń czy stworzenia wiadomości phishingowej. Jak jednak donoszą specjaliści od zabezpieczeń z firmy Check Point Research, hakerzy zdołali już znaleźć obejście.

Obecna wersja API OpenAI jest używana przez aplikacje zewnętrzne (na przykład poprzez integrację modelu GPT-3 z kanałami Telegram) i ma bardzo niewiele, jeśli w ogóle, środków zapobiegających nadużyciom. W rezultacie umożliwia tworzenie złośliwych treści, takich jak wiadomości phishingowe i kod złośliwego oprogramowania, bez ograniczeń lub barier, które ChatGPT ustawił w interfejsie użytkownika” - przekazali badacze Check Point Research.

Specjaliści przetestowali API text-davinci-003. Okazało się, że po obejściu zabezpieczeń za pośrednictwem bota na Telegramie rzeczywiście można generować wiadomości phishingowe czy skrypty wykradające dane z zainfekowanego komputera. Badacze stworzyli w ten sposób skrypt, który kopiował pliki PDF, a następnie przesyłał je do atakującego za pośrednictwem protokołu FTP.

Już teraz cyberprzestępcy na Telegramie sprzedają dostęp do botów, które poprzez API text-davinci-003 mają dostęp do niezabezpieczonej wersji ChatGPT. Dzięki temu użytkownicy są w stanie generować nielegalne treści i szkodliwe programy. Pakiet 100 zapytań kosztuje około 25 złotych.

Inna grupa opracowała podobną metodę i udostępniła w serwisie GitHub skrypt pozwalający wykorzystać API ChatGPT do pisania wiadomości udających maile z banków lub prywatnych firm. Oznacza to, że za pomocą kilku stosunkowo prostych sztuczek przestępcy są w stanie wykorzystać ChatGPT do tworzenia i rozpowszechniania szkodliwych treści.

Read this next