Łączna liczba wyświetleń

64994

sobota, 8 marca 2025

KULTURKAMPF


Rohindża to muzułmańska grupa etniczna z Birmy prześladowana przez buddyjską większość. Niewielu z nas przejmuje się jej losem, ponieważ informacje o czystkach etnicznych w tamtym regionie świata raczej nie trafiają na czołówki serwisów informacyjnych. Co ciekawe oni sami twierdzą, że zamieszkują swoje ziemie od wieków, lecz zdaniem buddyjskich fundamentalistów to przybysze z Bengalu.

Jeśli zaś to zwykli imigranci to można ich legalnie usunąć ze zdrowej tkanki narodu. Tym bardziej że na terenach zajmowanych "bezprawnie" przez tych wieśniaków i rybaków występują takie bogactwa naturalne jak gaz ziemny... W 1991 armia rozpoczęła więc operację "Czysty i piękny naród", aby usunąć wszelki brud i paskudztwo. Rohindżów grabiono, gwałcono, mordowano i zniewalano. Do krwawego konfliktu doszło też w 2012 roku. 

Największa orgia przemocy rozpętała się jednak w 2017 roku, wskutek czego większość Rohindżów mieszka dzisiaj w obozach dla uchodźców w Bangladeszu, ale też Indiach, Malezji czy Pakistanie. Ci którzy zostali w Birmie wegetują tam bez obywatelstwa, edukacji, służby zdrowia czy pracy. Oczywiście to wielka tragedia, ale co ciekawe niemały udział w nakręcaniu ostatniej nacjonalistycznej nagonki odegrały algorytmy Fejsbuka.

Tradycyjnie Mark Zuckerberg umył sobie ręce stwierdzeniem, że to nie technologia jest winna, tylko jej użytkownicy. W końcu radio, telewizja czy prasa też mogą być nośnikami niebezpiecznych idei. Lecz jest jeszcze kwestia moderacji, a przede wszystkim sztucznej inteligencji. Bo okazało się, że algorytmy lubią promować tanią sensację, mowę nienawiści, fejki czy teorie spiskowe - po to żeby "zwiększać zaangażowanie" internautów.

Jeśli coś wywołuje silne emocje takie jak oburzenie skuteczniej przyciąga naszą uwagę. Należy więc szokować, straszyć, antagonizować i dalej w tą stronę. Do takiego wniosku doszła sztuczna inteligencja zaprogramowana na maksymalizację zysków. Według obserwatorów ONZ to właśnie wasz ulubiony portal społecznościowy odegrał kluczową rolę w rozpętaniu wielkiej masakry w Birmie. Oczywiście cyfrowi magnaci robią teraz co mogą żeby nie zapłacić ofiarom ani grosza.

Dzięki sztuczkom obliczeniowym sztuczna inteligencja potrafi manipulować uczuciami człowieka. Algorytmy nagradzają nienawiść, bo treści toksyczne sprzedają się lepiej od tych konstruktywnych. Prowadzi to choćby do narastającej polaryzacji społecznej i wirusowego szerzenia dezinformacji. Doszło już do tego, że rekomenduje się treści o charakterze ekstremistycznym nawet użytkownikom szukającym neutralnej wiedzy.


Moraliści od lat biją na alarm, że system potrzebuje większego nadzoru ze strony człowieka. Lecz gówno z tego wynika, a ostatnio sytuacja wydaje się wręcz eskalować, bo taka "wolność słowa" sprzyja politykom banowanym dotąd w mainstreamowych mediach. Pod niezbyt subtelnym naciskiem Donalda Trumpa wasz ukochany Mark Zuckerberg przyznał ostatnio, że na portalach Meta jest "za dużo cenzury". Trzeba zaniechać proaktywnego monitorowania, gdyż weryfikatorzy faktów "byli zbyt stronniczy politycznie".

Wzorem jakże genialnego Elona Muska trzeba będzie wypierdolić tych poprawnych politycznie pasożytów i powierzyć misję tworzenia "notatek społecznościowych" nieopłacanym użytkownikom. Jednym słowem zablokować kogoś można tylko wysyłając bardzo wiele skarg na takiego patola. Lecz jeśli kłamstwo spodoba się motłochowi to stanie się prawdą. Sęk w tym, że znając nasze preferencje i przyzwyczajenia łatwo stosować wobec nas "broń kulturową".

Po prostu profilujesz przekaz pod konkretnego człowieka, a on staje jego "misjonarzem". Już 70 lajków wystarczy żeby poznać matematycznie twój charakter lepiej od starego przyjaciela. Po przeanalizowaniu 150 lajków system zna twoje potrzeby informacyjne lepiej niż rodzice. Po 300 lajkach maszyna zna cię lepiej od życiowego partnera. Sztuczna inteligencja ma niezwykłą zdolność do wykrywania w śladach cyfrowych zupełnie nieoczywistych powiązań.

Modele robią się tak skomplikowane, że człowiek nie może już wiele z tego zrozumieć. A my zmuszeni jesteśmy coraz bardziej polegać na tajemnej wiedzy cyfrowych "magików". Wobec takiej przepaści w rozumowaniu oczywistym staje się, że będziemy dymani i to bez mydła. Mimowolnie ujawniamy swoje najbardziej intymne sekrety i poglądy. Wiedza ta pozwala wpływać na nasze decyzje. Co ty byś zrobił gdybyś miał taką wiedzę?

Brak komentarzy:

Prześlij komentarz