Przejdź do głównych treściPrzejdź do głównego menu
środa, 25 grudnia 2024 04:06
Reklama
Reklama
Reklama
Reklama
Reklama

Algorytmy oszalały. Zablokowano nam post, ale problemy mieli też inni

Dostaliśmy informację, że post zablokowano bo rzekomo występuje mowa nienawiści. Po 2 godzinach przeproszono i dostęp do artykułu odblokowano. Coś dziwnego dzieje się z Facebookiem. Uznaje niewinne informacje za mowę nienawiści i je blokuje. Grozi przy tym, że wyłączy konto lub „nałoży ograniczenia”.

Autor: iStock

Ten post zablokowany dotyczył artykuł "Nie mam telewizora, a Poczta Polska domagała się abonamentu"

„Twój post narusza nasze standardy społeczności dotyczące mowy nienawiści” – takie informacje otrzymują na Facebooku też inni internauci. I nie mogą zrozumieć, co się dzieje. Wiele osób może nawet pomyśleć, że ktoś przejął kontrolę nad ich kontem. Inni mogą sądzić, że oprogramowanie platformy zaczęło się poważnie mylić.

Jak algortmy narobiły takiego bałaganu?

Zdjęcia papieża na cenzurowanym

Chodzi o to, że Facebook zaczął za mowę nienawiści uznawać zupełnie niewinne treści. 

„Zaczęło dochodzić do doprawdy absurdalnych sytuacji. Oberwało się np. zdjęciu papieża Jana Pawła II z czasów pielgrzymki do Kolumbii. Podpis ze zdjęcia był jego cytatem i szczerze mówiąc, ciężko było się tam dopatrzeć jakkolwiek nieodpowiednich elementów” – przytacza jeden z przykładów Interia. 

Użytkownicy alarmują, że ich posty są blokowane właśnie z tego powodu. 

Co się dzieje? Trudno na to odpowiedzieć wprost, bo właściciel platformy nie zabrał jeszcze głosu w tej sprawie. Są jednak podejrzenia, że zawiniły błędne algorytmy, które niepozorne treści zaczęły odczytywać jako coś złego. 

Inni zrzucają winę na sztuczną inteligencję, która steruje kontrolą treści na FB. A ta się myli. 

„Ta sztuczna inteligencja i algorytmy (...) Długo się zastanawialiśmy, cóż takiego niezgodne jest z normami (...) I doszliśmy do wniosku, że zbitka trzech słów postawiła algorytmy na baczność: bagażnik, kurier i dystrybucja. Na przyszłość staranniej dobierać będę słowa (...) Post wrzuciłam nowy, będąc oszczędna w słowach(...)” – napisała jedna z internautek.

SI kłamie

Czy SI może się pomylić? Oczywiście. Okazuje się, że błędy popełnia bardzo popularny ChatGPT. Nie tylko się myli, ale wręcz zmyśla. Kiedy ostatnio dziennikarz Krzysztof Stanowski poprosił ChatGPT o podanie ostatnich zdań z „Lalki” Bolesława Prusa, system nie tylko podał cytat, którego nie ma w powieści, ale którego nie ma w żadnej książce. 

Czemu ChatGPT kłamie? 

Bo SI nie przyznaje się, że czegoś nie wie. Nie takich odpowiedzi oczekują użytkownicy. Badanie przeprowadzone przez Got It AI wskazuje, że nawet 20 proc. udzielanych przez ChatGPT odpowiedzi może być błędnych. 


Podziel się
Oceń

Napisz komentarz

Komentarze

13*52 676 12.05.2023 20:15
CO NA TO MAX Z O RA NGE 33 HA HA AH 3+3=6 SATURN HA HA AH

zasadne pytanie 12.05.2023 17:50
Skoro homo sapiens może stać się zwyrodnialcem i psychopatą - co chroni sztuczną inteligencję przez "zwariowaniem" mówiąc potocznie?

Kudłata 12.05.2023 15:47
Gdybym ci ja miała Algorytmów kupe To bym je wsadziła Facebookowi w ...... Tra la la la bum cyk cyk

lu cyfer 666 12.05.2023 12:28
to czat gpt ai z saturna ha ha ah 13*52 676 zamordyzm ha ha ah

i
oho 12.05.2023 12:23
Jak pisał Lem, maszyny przejmą władze nad ludźmi.

i
proste 12.05.2023 11:22
Sztuczna inteligencja dała plamę.

Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
ReklamaMrówka
Reklama
Reklama