Czy algorytmy powinny decydować o życiu i śmierci? My uważamy, iż NIE

instytutsprawobywatelskich.pl 2 godzin temu

Świat przekroczył niebezpieczną granicę. To, co dotąd było mroczną wizją science-fiction, dzieje się na naszych oczach. W irańskiej szkole w Minab zginęło ponad 100 osób. Eksperci alarmują: to prawdopodobnie skutek ataku autonomicznej broni sterowanej przez AI. Bez emocji, bez sumienia, bez zawahania.

Jeśli pozwolimy, by autonomiczne systemy broni (AWS) decydowały o użyciu siły, to któregoś dnia obudzimy się w świecie, w którym człowiek nie kontroluje swoich decyzji, co najwyżej je zatwierdza – powtarzamy to od dawna w ramach naszych działań w koalicji Stop Killer Robots. I ten dzień się zbliża.

O tym, iż granica, za którą decyzja o życiu i śmierci przestaje być decyzją człowieka, robi się płynna, napisała niedawno „Rzeczpospolita”. Dobrze, iż media głównego nurtu też dostrzegły ten problem. W artykule „AI panem życia i śmierci” miałam okazję podzielić się własnymi spostrzeżeniami.

Piszemy o Ludziach, a nie o władzy

Pokazujemy prawdę o przyczynach, nie o skutkach. Jesteśmy Twoim głosem. Wspieraj niezależność!

Przekaż 1,5% i zostań naszym współwydawcą

Dlaczego to jest moment przełomowy?

Autonomia w warunkach wojennych zaczyna się od pozornie niewinnych narzędzi:

  • analizy ogromnych zbiorów danych,
  • rekomendacji celów, priorytetyzacji, selekcji.

W teorii człowiek znajduje się w pętli decyzyjnej. W praktyce system działa w tempie nieosiągalnym dla ludzi, a operator ma kilkanaście sekund na podjęcie decyzji: zatwierdzenie bądź odrzucenie rekomendacji AI. Czy to realna kontrola?

Kiedy w Genewie toczą się rozmowy ONZ o AWS, pojawiają się informacje pokazujące, iż świat nie czeka na dyplomację.

W ciągu pierwszych 24 godzin wspólnych ataków amerykańsko-izraelskich na Iran trafiono ponad 1000 celów. Podobnie jak w izraelskich systemach Lavender czy Gospel, Claude (model od Anthropic) był wykorzystywany do błyskawicznej analizy danych i wskazywania celów ataków.

Jasne jest, iż granica między systemem, który rekomenduje cel z minimalnym udziałem człowieka, a systemem, który wybiera cele i wykonuje ataki bez realnej kontroli człowieka, staje się bardzo cienka.

Wszystkie agencje federalne w USA dostały zakaz używania narzędzi od Anthropic, kiedy firma nie zgodziła się na nieograniczone wykorzystanie ich przez Pentagon. To miejsce natychmiast zajęło OpenAI, obiecując Pentagonowi wsparcie we wszystkich legalnych celach. Takie sformułowanie jest jednak bardzo śliskie i nie gwarantuje przestrzegania prawa wojennego ani ochrony cywilów.

Działaj!

Widać, jak ogromna jest presja rządów na twórców AI. Gdy interesy wojskowe spotykają się z biznesem, bariery bezpieczeństwa, o których tyle słyszymy, potrafią zniknąć w mgnieniu oka.

Nie chcemy straszyć. Stawiamy proste pytania, które powinniśmy sobie dziś zadać jako społeczeństwo: czy chcemy świata, w którym ludzie są sprowadzani do punktów danych, a decyzja o użyciu siły staje się produktem optymalizacji?

I drugie: jakie bezpieczniki uznajemy za niepodlegające negocjacjom, niezależnie od tego, kto jest u władzy i jaka jest sytuacja geopolityczna?

Idź do oryginalnego materiału