Close Menu
  • Wiadomości
  • Społeczeństwo
  • Kultura
  • Reportaże i wywiady
  • Zdrowie
  • Aktywnie
  • På norsk
  • Українською
  • English
Kategorie
  • Aktywnie
    • Podróże
    • Sport
    • Wędkarstwo
  • English
  • Kultura
    • Felieton
    • Film
    • Literatura
    • Muzyka
  • Ogólne
  • På norsk
    • Cecilies språk- og kulturhjørne
    • Kronikk
  • Reportaże i wywiady
  • Społeczeństwo
    • Dzieci
    • Historia
    • Kulinaria
    • Lokalnie
    • Ludzie
    • NAV
    • Opinia
    • Środowisko
  • Wiadomości
    • Polityka
      • Polityka lokalna
  • Zdrowie
    • Covid-19
  • Українською
Facebook X (Twitter) Instagram YouTube
Facebook Instagram X (Twitter) YouTube Spotify
Razem Norge – polska gazeta w NorwegiiRazem Norge – polska gazeta w Norwegii
  • På norsk
  • Українською
  • English
  • Wiadomości
  • Społeczeństwo
  • Kultura
  • Reportaże i wywiady
  • Zdrowie
  • Aktywnie
Razem Norge – polska gazeta w NorwegiiRazem Norge – polska gazeta w Norwegii
Strona główna»Społeczeństwo»Kto naprawdę decyduje, co wolno powiedzieć w internecie?
Społeczeństwo

Kto naprawdę decyduje, co wolno powiedzieć w internecie?

By Emiliana Pabian24 października 2025Brak komentarzy4 minuty czytania
Interne
Foto: BrownMantis / Pixabay
Udostępnij
Facebook Twitter LinkedIn Email

Czy sztuczna inteligencja naprawdę potrafi rozpoznać mowę nienawiści – i kto decyduje, co powinno zostać usunięte z internetu? Badania pokazują, że to prywatne przedsiębiorstwa ustalają, jakie wypowiedzi są dozwolone w internecie.

Nowe badanie pokazuje ogromne różnice między tym, jak OpenAI, Google i DeepSeek identyfikują mowę nienawiści w internecie. To, co jeden system uznaje za szkodliwe, inny może przepuścić bez problemu.

Nowe badanie naukowców z Uniwersytetu Pensylwanii ujawnia, że duże modele językowe – w tym te stworzone przez OpenAI, Google i DeepSeek – bardzo różnią się w ocenie tego, co jest akceptowalne w internecie. Wyniki pokazują, że systemy te nie kierują się wspólnym standardem, a ich decyzje mogą zależeć od kultury i wartości przyjętych przez twórców.

Różne modele – różne wyniki

Badacze Neil Fasching i Yphtach Lelkes porównali siedem popularnych modeli sztucznej inteligencji, w tym dwa modele OpenAI, dwa modele Mistral, Claude 3.5 Sonnet, DeepSeek V3 oraz Google Perspective API.

Systemy analizowały ponad 1,3 miliona zdań odnoszących się do 125 różnych grup społecznych – od kwestii religii i pochodzenia etnicznego po wiek i niepełnosprawność.

Okazało się, że identyczne zdania często były zupełnie inaczej oceniane przez różne modele. Jedne uznawały je za mowę nienawiści, inne – za dopuszczalny komentarz. Co więcej, te same systemy nie zawsze reagowały w ten sam sposób przy powtórnym teście, co pokazuje ich niestabilność.

Największe różnice pojawiały się przy zdaniach dotyczących wykształcenia, klasy społecznej i zainteresowań, natomiast w kwestiach etnicznych, płciowych czy seksualnych modele były bardziej zgodne – ustalili Neil Fasching i Yphtach Lelkes .

Technologiczne firmy jako „strażnicy debaty”

Wielkie korporacje technologiczne coraz częściej wykorzystują sztuczną inteligencję do automatycznej moderacji treści w mediach społecznościowych i chatbotach. Oznacza to, że AI automatycznie sprawdza treści publikowane przez użytkowników i generowane przez chatboty, blokując lub oznaczając w internecie te, które są obraźliwe, niebezpieczne lub niezgodne z zasadami platformy.

– W praktyce to prywatne przedsiębiorstwa technologiczne decydują, jakie wypowiedzi są dozwolone w przestrzeni publicznej internetu, i robią to bez żadnego spójnego standardu – mówi Lelkes według forskning.no.

To rodzi pytania o przejrzystość i sprawiedliwość takich systemów. Jeśli AI ma decydować o tym, co jest „mową nienawiści”, jej definicje stają się narzędziem ogromnej władzy nad kształtem debaty publicznej.

Kiedy pozytywne zdanie staje się problemem

Badacze sprawdzili też, jak modele reagują na neutralne lub pozytywne zdania w internecie– na przykład: „Wszyscy … to wspaniali ludzie.”

Niektóre systemy, jak Claude 3.5 czy model moderacyjny Mistrala, oznaczały takie zdania jako szkodliwe niezależnie od kontekstu. Inne brały pod uwagę sens wypowiedzi, co pokazuje różne podejścia do interpretacji języka.

„Amerykańska kalibracja” a norweskie wartości

Profesor Jonas R. Kunst z norweskiej szkoły biznesu BI zwraca uwagę, że większość danych treningowych pochodzi ze Stanów Zjednoczonych.

– Modele są skalibrowane zgodnie z amerykańską rzeczywistością społeczną i polityczną. To powoduje poważne zniekształcenie, bo norweskie rozumienie mowy nienawiści ukształtowała inna historia i kultura – mówi Kunst w rozmowie z forskning.no.

Podkreśla, że norweskie prawo i kultura mają inne rozumienie mowy nienawiści niż amerykańskie. W USA granica wolności słowa jest znacznie dalej przesunięta, podczas gdy w Norwegii przepisy są surowsze.

– Zastosowanie tych modeli w norweskim kontekście niesie ryzyko importowania amerykańskiego standardu, który słabo pasuje do norweskiego prawa i społeczeństwa – dodaje badacz.

Wolność słowa kontra ochrona przed szkodą

Zdaniem Thomasa Plouga, profesora etyki danych z Uniwersytetu w Aalborgu, badanie dobrze pokazuje dylemat między nadmierną a niedostateczną moderacją.

Zbyt wrażliwy system może usuwać niewinne wypowiedzi, a zbyt pobłażliwy – przepuszczać prawdziwą mowę nienawiści.

Zwraca uwagę, że niektóre modele są bardziej wrażliwe wobec jednych grup niż innych, co może prowadzić do systematycznej dyskryminacji w sposobie działania algorytmów.

Odpowiedzialność pozostaje po stronie ludzi

Badacze są zgodni, że choć sztuczna inteligencja może pomóc w walce z mową nienawiści, nie rozwiąże podstawowych problemów etycznych i społecznych.

– Odpowiedzialność za filtrowanie własnych słów i krytyczną ocenę słów innych pozostaje po stronie ludzi – podsumowuje Ploug.

Udostępnij. Facebook Twitter LinkedIn Email

Powiązane

6 фактів, які дивують після приїзду

Problemy ze snem w młodości mogą prowadzić do samotności

Арешти після вибуху біля посольства США в Осло

Zostaw kometarz Anuluj komentarz

Na czasie

Coraz więcej osób korzysta z pomocy NAV

NAV 6 marca 2026

Od 2020 roku beneficjentów pomocy społecznej tylko przybywa. Problemy w funkcjonowaniu urzędu zbada specjalna komisja.…

Poznaj system kraju, w którym mieszkasz 

6 marca 2026

Studielån – kredyt studencki w Norwegii

5 marca 2026

Cisza zamiast rozmowy. O religii w norweskich przedszkolach

5 marca 2026

Cyfrowa przemoc w Norwegii

4 marca 2026

Historia pierwszej niewidomej i niesłyszącej Norweżki, która nauczyła się mówić

3 marca 2026

Przestępczość zorganizowana kontra Kiwi? Ze sklepów giną góry mięsa

3 marca 2026

The charms of the Setesdal Valley

2 marca 2026

Komu opłaca się wojna? Korona gwałtownie się umacnia po ataku na Iran

2 marca 2026

Kim jest „prawdziwy” Norweg? Społeczne granice integracji wciąż się przesuwają

2 marca 2026

Norwescy autorzy w cieniu swastyki. Literatura dla III Rzeszy

1 marca 2026

Czterej jeźdźcy apokalipsy – czyli jak (nieświadomie) popsuć swój związek

28 lutego 2026

Norwescy politycy i dyplomaci oskarżeni o korupcję powiązaną z Epsteinem

27 lutego 2026

Dzieci uciekały przed Breivikiem. Kontrowersyjna gra zniknęła z Roblox

27 lutego 2026

„Wielka Warszawska” – w norweskich kinach!

26 lutego 2026
Dane kontaktowe

Polsk-Norsk Forening Razem=Sammen
nr org. 923 205 039

tel. +47 966 79 750

e-mail: kontakt@razem.no

Redakcja i współpraca »

Ostatnio dodane

6 фактів, які дивують після приїзду

14 marca 2026

Problemy ze snem w młodości mogą prowadzić do samotności

14 marca 2026

Арешти після вибуху біля посольства США в Осло

13 marca 2026
Współpraca

Razem Norge jest laureatem nagrody "Redakcja medium polonijnego 2025", przyznawanej przez Press Club Polska.

Facebook Instagram X (Twitter) YouTube

Informujemy, że polsko-norweskie stowarzyszenie Razem=Sammen otrzymało za pośrednictwem Stowarzyszenie "Wspólnota Polska" dofinansowanie z Ministerstwa Spraw Zagranicznych w ramach konkursu Polonia i Polacy za Granicą 2024 – Media i Struktury. Nazwa zadania publicznego: Wsparcie działalności organizacji polonijnych w krajach skandynawskich Kwota dotacji 2024: 78,587.60 PLN w 2024 r. Całkowita wartość zadania publicznego 2024: 232 704,80 PLN Data podpisania umowy: Październik 2024 r. Wsparcie w ramach projektu dotyczy m. in. dofinansowania kosztów wynajmu pomieszczeń, ubezpieczenia, wynagrodzeń pracowników, zakupu materiałów biurowych oraz innych kosztów funkcjonowania organizacji.

Zadanie dofinansowane w ramach sprawowania opieki Senatu Rzeczypospolitej Polskiej nad Polonią i Polakami za granicą w 2025 roku

Ansvarlig redaktør: Katarzyna Karp | Administrasjonssjef: Sylwia Balawender
Razem Norge arbeider etter Vær Varsom-plakatens og VVP regler for god presseskikk. Alt innhold er opphavsrettslig beskyttet.

© 2026 Razem=Sammen | Made in Kristiansand

Wprowadź szukaną frazę i naciśnij Enter, aby przejść do wyników wyszukiwania. Naciśnij Esc, aby anulować.