Jeśli klikniesz link i dokonasz zakupu, możemy otrzymać małą prowizję. Zobacz politykę redakcyjną.

Activision buduje SI do zwalczania trolli - dzięki danym zebranym od graczy

Firma współpracuje z profesorami Caltech.

Firma stojąca za Call of Duty wykorzystuje dane zebrane od graczy swoich najpopularniejszych produkcji, by stworzyć sztuczną inteligencję, która będzie zapobiegać trollingowi w grach multiplayer.

Activision podjęło w tym celu współpracę z Caltech, czyli Kalifornijskim Instytutem Technologii. Profesorowie i naukowcy biorą udział w dwuletnim projekcie, w trakcie którego nauczą SI wykrywania, zapobiegania i reagowania na toksyczne zachowania, a podstawą będą dane zebrane od grających w Warzone 2 i tryby sieciowe Modern Warfare 2. Zadaniem twórców Call of Duty będzie natomiast implementacja sztucznej inteligencji w swoich grach.

Niezależnie od tego, czy jest to trolling, rasizm, seksizm, doxing, czy po prostu szeroko pojęte nękanie, internet ma duży problem ze złym zachowaniem” - wyjaśnia oświadczenie Caltech. „W miarę rozwijania globalnej sieci, szkodliwe zachowania stawały się coraz bardziej ekstremalne i stało się jasne, że moderatorzy potrzebują lepszych narzędzi do swojej dyspozycji”.

Współpraca z Activision daje naukowcom nie tylko dostęp do danych na temat tego, jak ludzie wchodzą w interakcje w grach online, ale także do specjalistycznej wiedzy deweloperów” - czytamy w dalszej części oświadczenia. - „Projekt przyczyni się do stworzenia sztucznej inteligencji, która wykrywa nadużycia w internecie i pomoże zespołom moderacji firmy Activision w ich zwalczaniu”.

Projektem zajmą się profesor informatyki Anima Anandkumar, która wcześniej wyszkoliła sztuczną inteligencję do latania dronami i badania koronawirusów oraz Michael Alvares - profesor nauk politycznych i obliczeniowych nauk społecznych, który wykorzystał narzędzia uczenia maszynowego do badania trendów politycznych w mediach społecznościowych. Wspierać ich będzie zespół inżynierów z Activision.

Dla badaczy kluczowym zagadnieniem jest zrozumienie tego, jak gracze wchodzą między sobą w interakcje, jakiego języka używają i jakie mają uprzedzenia, co pomoże nauczyć SI rozpoznawać trolling i inne nieodpowiednie zachowania. Na razie nie jest jasne, jakie uprawnienia będzie miał algorytm. Najprawdopodobniej posłuży jedynie jako narzędzie sygnalizujące problem moderatorom, choć niewykluczone też, że maszyna dostanie pewną autonomię.

O autorze
Awatar Marek Makuła

Marek Makuła

News & Content Writer

Marek to miłośnik modów, kawy i jezior. Jego serce bije w 32 bitach. Lubi grać bez minimapy i wspierać fanowskie projekty.

Komentarze