Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
czwartek, 28 listopada 2024 17:36
Reklama

Facebook oszalał. Masowo blokuje posty

Coś dziwnego dzieje się z Facebookiem. Uznaje niewinne informacje za mowę nienawiści i je blokuje. Grozi przy tym, że wyłączy konto lub „nałoży ograniczenia”.
Facebook oszalał. Masowo blokuje posty

Autor: iStock

 

Twój post narusza nasze standardy społeczności dotyczące mowy nienawiści.

– takie informacje otrzymują na Facebooku internauci

 

I nie mogą zrozumieć, co się dzieje. Wiele osób może nawet pomyśleć, że ktoś przejął kontrolę nad ich kontem. Inni mogą sądzić, że oprogramowanie platformy zaczęło się poważnie mylić.

 

Zdjęcia papieża na cenzurowanym

 

Chodzi o to, że Facebook zaczął za mowę nienawiści uznawać zupełnie niewinne treści. 

 

Zaczęło dochodzić do doprawdy absurdalnych sytuacji. Oberwało się np. zdjęciu papieża Jana Pawła II z czasów pielgrzymki do Kolumbii. Podpis ze zdjęcia był jego cytatem i szczerze mówiąc, ciężko było się tam dopatrzeć jakkolwiek nieodpowiednich elementów.

– przytacza jeden z przykładów Interia

 

Użytkownicy alarmują, że ich posty są blokowane właśnie z tego powodu. 

Co się dzieje? Trudno na to odpowiedzieć wprost, bo właściciel platformy nie zabrał jeszcze głosu w tej sprawie. Są jednak podejrzenia, że zawiniły błędne algorytmy, które niepozorne treści zaczęły odczytywać jako coś złego. 

Inni zrzucają winę na sztuczną inteligencję, która steruje kontrolą treści na FB. A ta się myli. 

 

Ta sztuczna inteligencja i algorytmy (...) Długo się zastanawialiśmy, cóż takiego niezgodne jest z normami (...) I doszliśmy do wniosku, że zbitka trzech słów postawiła algorytmy na baczność: bagażnik, kurier i dystrybucja. Na przyszłość staranniej dobierać będę słowa (...) Post wrzuciłam nowy, będąc oszczędna w słowach(...).

– napisała jedna z internautek

 

 

SI kłamie

 

Czy SI może się pomylić? Oczywiście. Okazuje się, że błędy popełnia bardzo popularny ChatGPT. Nie tylko się myli, ale wręcz zmyśla. Kiedy ostatnio dziennikarz Krzysztof Stanowski poprosił ChatGPT o podanie ostatnich zdań z „Lalki” Bolesława Prusa, system nie tylko podał cytat, którego nie ma w powieści, ale którego nie ma w żadnej książce. 

Czemu ChatGPT kłamie? 

Bo SI nie przyznaje się, że czegoś nie wie. Nie takich odpowiedzi oczekują użytkownicy. Badanie przeprowadzone przez Got It AI wskazuje, że nawet 20 proc. udzielanych przez ChatGPT odpowiedzi może być błędnych. 


Podziel się
Oceń

Napisz komentarz

Komentarze

Reklama