Negatywne skutki AI – dezinformacja i spam

Udostępnij

Rozwój modeli AI takich jak ChatGPT, Jaspis czy Bing Chat z pewnością przynosi ze sobą wiele korzyści, ale równocześnie stwarza nowe wyzwania, szczególnie dla treści dostępnych w Internecie.

Wraz z postępem rozwoju sztucznej inteligencji niewątpliwie rośnie potencjał do generowania dezinformacji i zalewu spamem. Choć, generalnie, technologia AI może być używana do rozwiązywania różnorodnych problemów, istnieje również ciemna strona narzędzi takich jak chatboty, które mogą zostać wykorzystane do manipulacji, wprowadzania w błąd i generowania bezużytecznej, spamującej treści.

Umiejętne korzystanie z AI jest istotne

Kluczowym aspektem jest traktowanie chatbotów jako narzędzi wspomagających pracę, a nie jako jednostek autonomicznych decydujących o przekazie informacji. W kontekście walki z dezinformacją i spamem, istotne jest zapewnienie odpowiedniego nadzoru i kontroli nad działaniami chatbotów.

Artykuł dostępny na stronie liverties.eu pt. „7 wad sztucznej inteligencji, o których każdy powinien wiedzieć” porusza ten temat: “Narzędzie językowe GPT-3 opublikowało niedawno tweety o treści: „Nie mogą mówić o wzroście temperatur, ponieważ to się już nie dzieje”, co miało wywołać sceptycyzm wobec zmian klimatycznych. Z uwagi na ostatnie lata, kiedy Trump stale mówił o fałszywych mediach, takie technologie mogą oznaczać, jak ujął to miesięcznik The Atlantic, „upadek rzeczywistości”. Dzięki deepfake’om i botom internetowym rozpowszechniającym dezinformację społeczeństwo może stanąć w obliczu zacierania się granic między rzeczywistością a fikcją, destabilizując zaufanie do naszych instytucji politycznych.”

Idealnym przykładem zagrożeń są właśnie narastające w ilości deepfake’i, przykładem tego są wcześniej wspomniane tweet’y wygenerowane przez narzędzie językowe GPT-3, które mogły wprowadzić ludzi w błąd w kwestii zmian klimatycznych. W czasach, gdy coraz więcej osób uzależnionych jest od mediów społecznościowych i są one traktowane jako główne źródło informacji, istnieją realne zagrożenia związane z szerzeniem dezinformacji, a co za tym idzie, nawet destabilizacji społeczeństwa oraz osłabienia zaufania do wiarygodnych instytucji i faktów naukowych.

W związku z tym, ważne jest, aby społeczeństwo, instytucje i twórcy polityki podejmowali świadome działania mające na celu zrozumienie i ograniczenie potencjalnych zagrożeń związanych z rozwojem sztucznej inteligencji. Konieczne są regulacje, które zapewnią odpowiedni nadzór nad wykorzystaniem technologii AI, aby zapobiec jej nadużywaniu w celach np. dezinformacyjnych. Równocześnie istotne jest także edukowanie społeczeństwa na temat rozpoznawania fałszywych informacji oraz promowanie krytycznego myślenia wobec treści pochodzących z Internetu.

Spam internetowy

Kolejnym zagrożeniem związanym z chatbotami AI jest generowany na potęgę spam internetowy w kontekście wyszukiwarek, np. Google, który może zaburzać rzetelność wyników wyszukiwania oraz manipulować percepcją użytkowników.

Zagrożeniem nie jest samo używanie chatbotów np. do poprawy treści, redagowania czy tworzenia pomysłów, a masowe działania mające na celu fałszywe podbijanie pozycji stron internetowych, blogów, sklepów poprzez wykorzystanie technik manipulacji algorytmów wyszukiwania.

W rezultacie, użytkownicy mogą być kierowani do stron z nieprawdziwymi lub niezgodnymi z ich zainteresowaniami treściami, co wpływa w sposób negatywny na ich doświadczenie w Internecie oraz zaufanie do wyników wyszukiwania i dostępnych treści.

Według danych z gs.statcounter.com, w ciągu ostatnich 12 miesięcy (od 06.02.2023 do 06.02.2024) aż 70.89% użytkowników w Polsce korzystało z przeglądarki Chrome. Biorąc to pod uwagę, można szacować, że duża część z nich równocześnie korzystała także z innych usług Google, właśnie takich jak wyszukiwarka internetowa od Google.

Ważna staje się więc edukacja społeczeństwa, wprowadzanie odpowiednich regulacji oraz promowanie świadomego korzystania z technologii sztucznej inteligencji. Chodzi o umiejętne wykorzystywanie AI, które znacząco wpływa na takie aspekty jak czas pracy, produktywność oraz efektywność działań. Poprawa procesów automatyzacji dzięki AI może znacząco przyspieszyć wykonywanie rutynowych zadań, pozwalając pracownikom skupić się na bardziej kreatywnych i strategicznych zadaniach.

Fryderyk Waszak
Fryderyk Waszak
Redaktor Portalu Portfel Polaka, absolwent II edycji prestiżowego programu Google Umiejętności Jutra. Aktualnie student zarządzania na Uniwersytecie WSB Merito w Poznaniu, gdzie rozwija swoje umiejętności w obszarze strategii biznesowej i zarządzania. Aktywny zawodowo pasjonata marketingu internetowego, który na co dzień z zamiłowaniem śledzi najnowsze trendy branżowe, by dostarczać czytelnikom Portfel Polaka aktualne i wartościowe informacje z dziedziny finansów, marketingu oraz innowacji.

Najnowsze

Zobacz również