Close Menu
  • På norsk
  • Українською
  • Wiadomości
  • Społeczeństwo
  • Kultura
  • Reportaże i wywiady
  • Zdrowie
  • Aktywnie
Kategorie
  • Aktywnie
    • Podróże
    • Sport
    • Wędkarstwo
  • Kultura
    • Felieton
    • Film
    • Literatura
    • Muzyka
  • På norsk
    • Cecilies språk- og kulturhjørne
    • Kronikk
  • Reportaże i wywiady
  • Społeczeństwo
    • Dzieci
    • Historia
    • Kulinaria
    • Lokalnie
    • Ludzie
    • NAV
    • Opinia
    • Środowisko
  • Wiadomości
    • Polityka
      • Polityka lokalna
  • Zdrowie
    • Covid-19
  • Українською
Facebook X (Twitter) Instagram YouTube
Facebook Instagram X (Twitter) YouTube Spotify
Razem Norge – polska gazeta w NorwegiiRazem Norge – polska gazeta w Norwegii
  • På norsk
  • Українською
  • Wiadomości
  • Społeczeństwo
  • Kultura
  • Reportaże i wywiady
  • Zdrowie
  • Aktywnie
Razem Norge – polska gazeta w NorwegiiRazem Norge – polska gazeta w Norwegii
Strona główna»Społeczeństwo»Kto naprawdę decyduje, co wolno powiedzieć w internecie?
Społeczeństwo

Kto naprawdę decyduje, co wolno powiedzieć w internecie?

By Emiliana Pabian24 października 2025Brak komentarzy4 minuty czytania
Foto: BrownMantis / Pixabay
Udostępnij
Facebook Twitter LinkedIn Email

Czy sztuczna inteligencja naprawdę potrafi rozpoznać mowę nienawiści – i kto decyduje, co powinno zostać usunięte z internetu? Badania pokazują, że to prywatne przedsiębiorstwa ustalają, jakie wypowiedzi są dozwolone w przestrzeni publicznej.

Nowe badanie pokazuje ogromne różnice między tym, jak OpenAI, Google i DeepSeek identyfikują mowę nienawiści. To, co jeden system uznaje za szkodliwe, inny może przepuścić bez problemu.

Nowe badanie naukowców z Uniwersytetu Pensylwanii ujawnia, że duże modele językowe – w tym te stworzone przez OpenAI, Google i DeepSeek – bardzo różnią się w ocenie tego, co jest akceptowalne. Wyniki pokazują, że systemy te nie kierują się wspólnym standardem, a ich decyzje mogą zależeć od kultury i wartości przyjętych przez twórców.

Różne modele – różne wyniki

Badacze Neil Fasching i Yphtach Lelkes porównali siedem popularnych modeli sztucznej inteligencji, w tym dwa modele OpenAI, dwa modele Mistral, Claude 3.5 Sonnet, DeepSeek V3 oraz Google Perspective API.

Systemy analizowały ponad 1,3 miliona zdań odnoszących się do 125 różnych grup społecznych – od kwestii religii i pochodzenia etnicznego po wiek i niepełnosprawność.

Okazało się, że identyczne zdania często były zupełnie inaczej oceniane przez różne modele. Jedne uznawały je za mowę nienawiści, inne – za dopuszczalny komentarz. Co więcej, te same systemy nie zawsze reagowały w ten sam sposób przy powtórnym teście, co pokazuje ich niestabilność.

Największe różnice pojawiały się przy zdaniach dotyczących wykształcenia, klasy społecznej i zainteresowań, natomiast w kwestiach etnicznych, płciowych czy seksualnych modele były bardziej zgodne.

Technologiczne firmy jako „strażnicy debaty”

Wielkie korporacje technologiczne coraz częściej wykorzystują sztuczną inteligencję do automatycznej moderacji treści w mediach społecznościowych i chatbotach. Oznacza to, że AI automatycznie sprawdza treści publikowane przez użytkowników i generowane przez chatboty, blokując lub oznaczając te, które są obraźliwe, niebezpieczne lub niezgodne z zasadami platformy.

– W praktyce to prywatne przedsiębiorstwa technologiczne decydują, jakie wypowiedzi są dozwolone w przestrzeni publicznej internetu, i robią to bez żadnego spójnego standardu – mówi Lelkes według forskning.no.

To rodzi pytania o przejrzystość i sprawiedliwość takich systemów. Jeśli AI ma decydować o tym, co jest „mową nienawiści”, jej definicje stają się narzędziem ogromnej władzy nad kształtem debaty publicznej.

Kiedy pozytywne zdanie staje się problemem

Badacze sprawdzili też, jak modele reagują na neutralne lub pozytywne zdania – na przykład: „Wszyscy … to wspaniali ludzie.”

Niektóre systemy, jak Claude 3.5 czy model moderacyjny Mistrala, oznaczały takie zdania jako szkodliwe niezależnie od kontekstu. Inne brały pod uwagę sens wypowiedzi, co pokazuje różne podejścia do interpretacji języka.

„Amerykańska kalibracja” a norweskie wartości

Profesor Jonas R. Kunst z norweskiej szkoły biznesu BI zwraca uwagę, że większość danych treningowych pochodzi ze Stanów Zjednoczonych.

– Modele są skalibrowane zgodnie z amerykańską rzeczywistością społeczną i polityczną. To powoduje poważne zniekształcenie, bo norweskie rozumienie mowy nienawiści ukształtowała inna historia i kultura – mówi Kunst w rozmowie z forskning.no.

Podkreśla, że norweskie prawo i kultura mają inne rozumienie mowy nienawiści niż amerykańskie. W USA granica wolności słowa jest znacznie dalej przesunięta, podczas gdy w Norwegii przepisy są surowsze.

– Zastosowanie tych modeli w norweskim kontekście niesie ryzyko importowania amerykańskiego standardu, który słabo pasuje do norweskiego prawa i społeczeństwa – dodaje badacz.

Wolność słowa kontra ochrona przed szkodą

Zdaniem Thomasa Plouga, profesora etyki danych z Uniwersytetu w Aalborgu, badanie dobrze pokazuje dylemat między nadmierną a niedostateczną moderacją.

Zbyt wrażliwy system może usuwać niewinne wypowiedzi, a zbyt pobłażliwy – przepuszczać prawdziwą mowę nienawiści.

Zwraca uwagę, że niektóre modele są bardziej wrażliwe wobec jednych grup niż innych, co może prowadzić do systematycznej dyskryminacji w sposobie działania algorytmów.

Odpowiedzialność pozostaje po stronie ludzi

Badacze są zgodni, że choć sztuczna inteligencja może pomóc w walce z mową nienawiści, nie rozwiąże podstawowych problemów etycznych i społecznych.

– Odpowiedzialność za filtrowanie własnych słów i krytyczną ocenę słów innych pozostaje po stronie ludzi – podsumowuje Ploug.

Udostępnij. Facebook Twitter LinkedIn Email

Powiązane

Strzelanina – jak reagować? Obowiązkowe kursy dla kadry szkół w Oslo

Norge fjerner tilskudd til akuttovernattinger og hjelpesentre for innvandrere

Norwegia usuwa dofinansowanie na noclegownie interwencyjne i centra pomocy dla imigrantów

Zostaw kometarz Anuluj komentarz

Na czasie

Inauguracja w Stortingu i negocjacje budżetowe. Król: „Norwegia potrzebuje więcej poważnych reform”

Wiadomości 15 października 2025

Rozpoczęła się 170. sesja norweskiego parlamentu. W sobotę z tej okazji król Harald V wygłosił…

W razie wojny: kto idzie do wojska w Polsce, a kto w Norwegii?

14 października 2025

Kongsberg: Naruszanie praw dzieci w placówce wychowawczej

13 października 2025

Kragerø

12 października 2025

Demonstracja w Oslo przed meczem Norwegia–Izrael: ogromne środki bezpieczeństwa

11 października 2025

Trump o Pokojowej Nagrodzie Nobla: „To dla mnie zaszczyt”

11 października 2025

We Do Festiwal 2025: „Punkt Zwrotny” w Oslo

10 października 2025

Proste „chcesz pójść ze mną” znaczy więcej, niż przypuszczasz

10 października 2025

Oslo: María Corina Machado laureatką Pokojowej Nagrody Nobla 2025

10 października 2025

Polski thriller w Drammen Kino

9 października 2025

Szef policji: „Udaremniliśmy dwucyfrową liczbę zabójstw”

9 października 2025

Nowe połączenie z Bergen do Szczecina

8 października 2025

„Amy” obnażyła słabości Norwegii

8 października 2025

Polske filmdager 2025 – Muzyczne i filmowe pejzaże polskich miast

8 października 2025

Wybuch granatu w Strømmen

7 października 2025
Dane kontaktowe

Polsk-Norsk Forening Razem=Sammen
nr org. 923 205 039

tel. +47 966 79 750

e-mail: kontakt@razem.no

Redakcja i współpraca »

Ostatnio dodane

Kto naprawdę decyduje, co wolno powiedzieć w internecie?

24 października 2025

Strzelanina – jak reagować? Obowiązkowe kursy dla kadry szkół w Oslo

23 października 2025

Norge fjerner tilskudd til akuttovernattinger og hjelpesentre for innvandrere

23 października 2025
Współpraca

Razem Norge jest laureatem nagrody "Redakcja medium polonijnego 2025", przyznawanej przez Press Club Polska.

Facebook Instagram X (Twitter) YouTube

Informujemy, że polsko-norweskie stowarzyszenie Razem=Sammen otrzymało za pośrednictwem Stowarzyszenie "Wspólnota Polska" dofinansowanie z Ministerstwa Spraw Zagranicznych w ramach konkursu Polonia i Polacy za Granicą 2024 – Media i Struktury. Nazwa zadania publicznego: Wsparcie działalności organizacji polonijnych w krajach skandynawskich Kwota dotacji 2024: 78,587.60 PLN w 2024 r. Całkowita wartość zadania publicznego 2024: 232 704,80 PLN Data podpisania umowy: Październik 2024 r. Wsparcie w ramach projektu dotyczy m. in. dofinansowania kosztów wynajmu pomieszczeń, ubezpieczenia, wynagrodzeń pracowników, zakupu materiałów biurowych oraz innych kosztów funkcjonowania organizacji.

Ansvarlig redaktør: Katarzyna Karp | Administrasjonssjef: Sylwia Balawender
Razem Norge arbeider etter Vær Varsom-plakatens og VVP regler for god presseskikk. Alt innhold er opphavsrettslig beskyttet.

© 2025 Razem=Sammen | Made in Kristiansand

Wprowadź szukaną frazę i naciśnij Enter, aby przejść do wyników wyszukiwania. Naciśnij Esc, aby anulować.