Ta strona używa plików cookie. Pliki cookie pomagają nam świadczyć nasze usługi. Korzystając z naszych usług, wyrażasz zgodę na używanie przez nas plików cookie. Twoje dane są u nas bezpieczne. Nie przekazujemy żadnych danych analitycznych ani kontaktowych stronom trzecim! Więcej informacji można znaleźć w polityce prywatności.
Broń autonomiczna - ostatni bastion Globalnej Elity Finansowej musi upaść!
04.04.2025
Subtitle "Afrikaans" was produced by machine.Subtitle "አማርኛ" was produced by machine.Subtitle "العربية " was produced by machine.Subtitle "Ārāmāyâ" was produced by machine.Subtitle "azərbaycan dili " was produced by machine.Subtitle "беларуская мова " was produced by machine.Подзаглавието "България" е създадено от машина.সাবটাইটেল "বাংলা " মেশিন দ্বারা তৈরি করা হয়েছিল।Subtitle "བོད་ཡིག" was produced by machine.Subtitle "босански" was produced by machine.Subtitle "català" was produced by machine.Subtitle "Cebuano" was produced by machine.Subtitle "ગુજરાતી" was produced by machine.Subtitle "corsu" was produced by machine.Podtitul "Čeština" byl vytvořen automaticky.Subtitle "Cymraeg" was produced by machine.Subtitle "Dansk" was produced by machine.Untertitel "Deutsch" wurde maschinell erzeugt.Subtitle "Untertitel" was produced by machine.Ο υπότιτλος "Ελληνικά" δημιουργήθηκε αυτόματα.Subtitle "English" was produced by machine.Subtitle "Esperanto" was produced by machine.El subtítulo "Español" se generó automáticamente.Subtitle "Eesti" was produced by machine.Subtitle "euskara" was produced by machine.Subtitle "فارسی" was produced by machine.Subtitle "Suomi" was produced by machine.Le sous-titrage "Français" a été généré automatiquement.Subtitle "Frysk" was produced by machine.Subtitle "Gaeilge" was produced by machine.Subtitle "Gàidhlig" was produced by machine.Subtitle "Galego" was produced by machine.Subtitle "Schwizerdütsch" was produced by machine.Subtitle "هَوُسَ" was produced by machine.Subtitle "Ōlelo Hawaiʻi" was produced by machine.Subtitle "עברית" was produced by machine.Subtitle "हिन्दी" was produced by machine.Subtitle "Mẹo" was produced by machine.Subtitle "Hrvatski" was produced by machine.Subtitle "Kreyòl ayisyen " was produced by machine.Subtitle "Magyar" was produced by machine.Subtitle "Հայերեն" was produced by machine.Subtitle "Bahasa Indonesia " was produced by machine.Subtitle "Asụsụ Igbo " was produced by machine.Textun"Íslenska" var framkvæmt vélrænt.Sottotitoli "Italiano" sono stati generati automaticamente.字幕は"日本語" 自動的に生成されました。Subtitle "Basa Jawa" was produced by machine.Subtitle "ქართული" was produced by machine.Subtitle "қазақ тілі " was produced by machine.Subtitle "ភាសាខ្មែរ" was produced by machine.Subtitle "ಕನ್ನಡ" was produced by machine.Subtitle "한국어" was produced by machine.Subtitle "कोंकणी語" was produced by machine.Subtitle "کوردی" was produced by machine.Subtitle "Кыргызча" was produced by machine.Subtitle " lingua latina" was produced by machine.Subtitle "Lëtzebuergesch" was produced by machine.Subtitle "Lingala" was produced by machine.Subtitle "ພາສາ" was produced by machine.Subtitle "Lietuvių" was produced by machine.Subtitle "Latviešu" was produced by machine.Subtitle "fiteny malagasy" was produced by machine.Subtitle "te reo Māori" was produced by machine.Subtitle "македонски јазик" was produced by machine.Subtitle "malayāḷaṁ" was produced by machine.Subtitle "Монгол хэл" was produced by machine.Subtitle "मराठी" was produced by machine.Subtitle "Bahasa Malaysia" was produced by machine.Subtitle "Malti" was produced by machine.Subtitle "မြန်မာစာ " was produced by machine.Subtitle "नेपाली" was produced by machine.Ondertitels "Nederlands" machinaal geproduceerd.Subtitle "Norsk" was produced by machine.Subtitle "chiCheŵa" was produced by machine.Subtitle "ਪੰਜਾਬੀ" was produced by machine.Podtytuł "Polska" został utworzony przez maszynę.Subtitle "پښتو" was produced by machine.Legenda "Português" foi gerada automaticamente.Subtitle "Română" was produced by machine.Subtitle "Язык жестов (Русский)" was produced by machine.Субтитры "Pусский" были созданы машиной.Subtitle "Kinyarwanda" was produced by machine.Subtitle "सिन्धी" was produced by machine.Subtitle "Deutschschweizer Gebärdensprache" was produced by machine.Subtitle "සිංහල" was produced by machine.Subtitle "Slovensky" was produced by machine.Subtitle "Slovenski" was produced by machine.Subtitle "gagana fa'a Samoa" was produced by machine.Subtitle "chiShona" was produced by machine.Subtitle "Soomaaliga" was produced by machine.Titra "Shqip" u krijua automatikisht.Subtitle "србски" was produced by machine.Subtitle "Sesotho" was produced by machine.Subtitle "Basa Sunda" was produced by machine.Undertext "Svenska" är maskinell skapad.Subtitle "Kiswahili" was produced by machine.Subtitle "தமிழ்" was produced by machine.Subtitle "తెలుగు" was produced by machine.Subtitle "Тоҷикй" was produced by machine.Subtitle "ภาษาไทย" was produced by machine.ንኡስ ኣርእስቲ "ትግርኛ" ብማሽን እዩ ተፈሪዩ።Subtitle "Türkmençe" was produced by machine.Subtitle "Tagalog" ay nabuo sa pamamagitan ng makina.Altyazı "Türkçe" otomatik olarak oluşturuldu.Subtitle "татар теле" was produced by machine.Subtitle "Українська " was produced by machine.ذیلی عنوان "اردو" مشین کے ذریعہ تیار کیا گیا تھا۔Subtitle "Oʻzbek" was produced by machine.Phụ đề được tạo bởi máy.Subtitle "Serbšćina" was produced by machine.Subtitle "isiXhosa" was produced by machine.Subtitle "ייִדיש" was produced by machine.Subtitle "Yorùbá" was produced by machine.Subtitle "中文" was produced by machine.Subtitle "isiZulu" was produced by machine.
kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не носи отговорност за некачествен превод.অপর্যাপ্ত অনুবাদের জন্য kla.TV কোন দায় বহন করে না।kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nenese žádnou odpovědnost za chybné překlady.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV übernimmt keine Haftung für mangelhafte Übersetzung.kla.TV accepts no liability for inadequate translationΗ kla.TV δεν φέρει καμία ευθύνη για ανεπαρκή μετάφραση.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV no se hace responsable de traducciones incorrectas.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV n'assume aucune responsabilité en cas de mauvaise traduction.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nem vállal felelősséget a hibás fordításértkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV tekur enga ábyrgð á áræðanleika þýðingarinnarKla.TV non si assume alcuna responsabilità per traduzioni lacunose e/o errate.Kla.TV は、不適切な翻訳に対して一切の責任を負いません。kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV aanvaardt geen aansprakelijkheid voor foutieve vertalingen.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nie ponosi odpowiedzialności za wadliwe tłumaczenie.kla.TV accepts no liability for defective translation.kla.TV não se responsabiliza por traduções defeituosas.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не несет ответственности за некачественный перевод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nuk mban asnjë përgjegjësi për përkthime joadekuate.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.Kla.TV tar inget ansvar för felaktiga översättningar.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV ንዝኾነ ጉድለት ትርጉም ዝኾነ ይኹን ሓላፍነት ኣይቅበልን እዩ።kla.TV accepts no liability for defective translation.kla. Walang pananagutan ang TV sa mga depektibong pagsasalin.kla.TV hatalı çeviriler için hiçbir sorumluluk kabul etmez.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV عیب دار ترجمہ کے لیے کوئی ذمہ داری قبول نہیں کرتا ہے۔kla.TV accepts no liability for defective translation.Kla. TV không chịu trách nhiệm về bản dịch không đầy đủ.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.
Według oficjalnych statystyk armii amerykańskiej, więcej amerykańskich żołnierzy ginie obecnie w wyniku samobójstwa niż działań wroga. Ludzie nie są „maszynami do zabijania” - ale autonomiczne systemy uzbrojenia już tak. Sztuczna inteligencja zabija bez wyrzutów sumienia. Czy to sprawia, że technologia ta staje się coraz bardziej atrakcyjna dla globalnych podżegaczy wojennych? Działacze na rzecz pokoju biją na alarm ...
[Czytaj dalej]
Broń autonomiczna wykorzystuje sztuczną inteligencję do podejmowania decyzji i działania niezależnie, bez interwencji człowieka. Choć są one wciąż w fazie rozwoju, już teraz trzymają światową społeczność w napięciu. Czym dokładnie są i w czym tkwi problem?
Broń autonomiczna, znana również jako zabójcze roboty, jest uważana za „trzecią rewolucję w działaniach wojennych”. Podobnie jak wynalezienie prochu strzelniczego i broni nuklearnej, autonomiczne systemy uzbrojenia radykalnie zmieniają charakter działań wojennych. Broń autonomiczna to systemy, które działają niezależnie.
Są zaprogramowane do identyfikowania i atakowania celów przy pomocy sztucznej inteligencji i bez kontroli człowieka. Mogą to być bezzałogowe drony, ale także statki, czołgi, wyrzutnie rakiet, roboty i inna broń. W pełni autonomiczne systemy uzbrojenia ze sztuczną inteligencją zdolną do uczenia się nie są jeszcze oficjalnie częścią światowych armii.
Od dwa tysiące czternastego roku Organizacja Narodów Zjednoczonych prowadzi rozmowy w Genewie, podczas których siedemdziesiąt pięć państw negocjuje zakaz stosowania śmiercionośnych autonomicznych systemów uzbrojenia w celu uregulowania kwestii robotów-zabójców. Porozumienie jest nierealne, ponieważ niektóre państwa realizują własne interesy. Według działaczy na rzecz pokoju, dwadzieścia sześć państw opowiada się za zakazem takiej broni, w tym Austria i wszystkie kraje rozwijające się.
Chiny opowiedziały się za zakazem ich używania. Według doniesień, U eS A są całkowicie przeciwne ograniczeniom w rozwoju. Istnieją również firmy w Niemczech, które są zaangażowane w ten rozwój, co jeszcze bardziej podsyca międzynarodowy wyścig zbrojeń.
Dlaczego jednak broń autonomiczna cieszy się tak dużym zainteresowaniem, na przykład ze strony amerykańskiego wojska? Spojrzenie na szybko rosnący wskaźnik samobójstw i niszczycielskie zdrowie psychiczne amerykańskich żołnierzy dostarcza jasnej odpowiedzi na to pytanie: zgodnie z oficjalnymi statystykami armii amerykańskiej, więcej żołnierzy amerykańskich umiera obecnie w wyniku samobójstwa niż w wyniku działań wroga.
Z trudem identyfikują się z tak zwanymi „humanitarnymi” wojnami, które w rzeczywistości są niczym innym jak strategicznymi wojnami agresji, i przez całe życie cierpią na wyrzuty sumienia z powodu okrutnych działań wojennych, w tym przeciwko ludności cywilnej.
Weterani wojenni masowo zwracają swoje odznaczenia, ponieważ wstydzą się czynów wojennych i okazują głęboką skruchę. Piloci dronów, którzy zabijają ze swoich biurek, jakby grali w grę komputerową i mają tendencję do mniejszego współczucia ze względu na odległość od pola bitwy, również „zużywają się” już po kilku latach. Dziesięciolecia badań psychologicznych wykazały również, że w większości przypadków żołnierze nie strzelają do wrogich żołnierzy w walce, ale celowo nie strzelają.
"„To jasno pokazuje, że istoty ludzkie nie są „maszynami wojennymi” pod względem ich podstawowego usposobienia. Światowe ruchy i manifestacje pokojowe podkreślają ten fakt.
Mający obsesję na punkcie władzy podżegacze wojenni i stojący za nimi globalni pociągacze za sznurki potrzebują zatem autonomicznych systemów uzbrojenia, to jest zabójczych robotów, które działają bezbłędnie i bezkompromisowo - bez zadawania pytań, bez współczucia, bez sumienia, nie tylko jako ochrona przed rozwścieczonymi tłumami”."
Ponieważ coraz więcej ludzi dostrzega globalne powiązania i nie chce już być wykorzystywanych i instrumentalizowanych. Ludzkość nie zaakceptuje faktu, że kontrola nad całym systemem monetarnym, wszystkimi rządami, krajami i ich zasobami znajduje się w rękach kilku rodzin w perspektywie długoterminowej.
Dlatego też działacze na rzecz pokoju wszelkiego rodzaju i narodowości biją na alarm: rozwój autonomicznych systemów broni musi zostać zakazany na całym świecie. Ponad dwa tysiące pięćset naukowców i sto siedemdziesiąt sześć organizacji z dziedziny sztucznej inteligencji podpisało już dobrowolne zobowiązanie do nieprowadzenia badań nad autonomicznymi systemami śmiercionośnej broni. Składając swój podpis, uczestnicy zobowiązują się „nie wspierać ani nie uczestniczyć w rozwoju, produkcji, handlu lub użyciu autonomicznej broni śmiercionośnej”.
Brakuje jednak wielu wielkich nazwisk. Ani Google, ani spółka holdingowa Google Alphabet nie podpisały dobrowolnego zobowiązania; Boston Dynamics - producent słynnych modeli robotów - również nie znalazł się jeszcze na liście. Brakuje również odpowiednich firm zbrojeniowych. Celem aktywistów jest zatem wywarcie wpływu daleko poza krąg sygnatariuszy poprzez zwrócenie uwagi opinii publicznej na niebezpieczeństwa związane z autonomiczną bronią
Krótki film zatytułowany „Slaughterbots”, w języku niemieckim" roboty zabijania" pokazuje, jak niszczycielsko skuteczna może być już broń autonomiczna. Amerykański Future of Life Institute (FLI), który postawił sobie za cel zminimalizowanie egzystencjalnych zagrożeń dla ludzkości, opublikował film dwunastego listopada dwa tysiące siedemnastego roku.
"W ciągu kilku tygodni został on kliknięty miliony razy. Daje to mrożący krew w żyłach podgląd tego, jak w mgnieniu oka można zlikwidować na przykład krytyków systemu lub niepożądane grupy etniczne. Wniosek: Zatrzymać tę technologię!
Oto kilka fragmentów filmu:"
Piloci naszych klientów wykonali prawie trzy tysiące precyzyjnych ataków w ciągu ostatniego roku i jesteśmy z tego niezmiernie dumni. Pozwala to oddzielić złych od dobrych. To wielka sprawa. Ale mamy coś znacznie większego. Twoje dzieci prawdopodobnie mają jeden z nich, prawda? Nie do końca.
Diabelski pilot? Nie. Ta zdolność to wszechstronna AI - sztuczna inteligencja. Sam lata. Jego procesor może reagować sto razy szybciej niż człowiek. Ruch stochastyczny jest w trybie anty-snajperskim.
Podobnie jak każde inne dzisiejsze urządzenie mobilne, ma kamery i czujniki. Podobnie jak telefony komórkowe i aplikacje mediów społecznościowych, ma funkcję rozpoznawania twarzy. Znajdują się w nim trzy gramy specjalnych materiałów wybuchowych. Oto jak to działa.
Widziałeś to? Ten mały strzał wystarczy, by przebić czaszkę i zniszczyć wszystko za nią. Zawsze mówią, że to ludzie, a nie broń, zabijają ludzi. Cóż, nie zabijają. Ulegają emocjom, nie słuchają rozkazów, celowo strzelają obok. Zobaczmy więc, jak broń podejmuje tutaj decyzje. Uwierz mi - to byli źli ludzie.
To był nalot z chirurgiczną precyzją. To jeden z całej gamy produktów. Zaprogramowane jako rój, mogą penetrować budynki, samochody i pociągi, mogą unikać ludzi i kul i praktycznie udaremniają wszelkie środki zaradcze. Nie da się ich zatrzymać. Cóż, powiedziałem, to coś wielkiego. Dlaczego? Ponieważ myślimy na wielką skalę. Kontrakt na dwadzieścia pięć milionów dolarów kupuje im to.
Wystarczająco dużo, by zabić pół miasta. Nuklearne - to już przeszłość. Zlikwiduj całego wroga - praktycznie bez ryzyka. Wystarczy go scharakteryzować, uwolnić rój i odpocząć. Dziś możesz mieć wszystko.
„Głupia broń trafia tam, gdzie ją skierujesz. Inteligentna broń przetwarza dane. Jeśli możesz znaleźć wroga za pomocą danych - nawet za pomocą hashtagu - możesz uderzyć w złą ideologię tam, gdzie się zaczyna.
Ten krótki film to coś więcej niż tylko spekulacje. Pokazuje wyniki integracji i miniaturyzacji technologii, które już posiadamy. Nazywam się Stuart Russell, jestem profesorem informatyki w Berkeley. Pracuję nad sztuczną inteligencją (AI) od ponad trzydziestu pięciu lat. Jej potencjał dla dobra ludzkości jest ogromny, także w dziedzinie obronności.
Jednak pozwolenie maszynom na zabijanie ludzi będzie miało katastrofalne skutki dla naszego bezpieczeństwa i wolności. Tysiące moich kolegów zgadza się z tym. Wciąż mamy szansę zapobiec przyszłości, której właśnie byliście świadkami, ale okno możliwości działania szybko się zamyka!
04.04.2025 | www.kla.tv/37212
Broń autonomiczna wykorzystuje sztuczną inteligencję do podejmowania decyzji i działania niezależnie, bez interwencji człowieka. Choć są one wciąż w fazie rozwoju, już teraz trzymają światową społeczność w napięciu. Czym dokładnie są i w czym tkwi problem? Broń autonomiczna, znana również jako zabójcze roboty, jest uważana za „trzecią rewolucję w działaniach wojennych”. Podobnie jak wynalezienie prochu strzelniczego i broni nuklearnej, autonomiczne systemy uzbrojenia radykalnie zmieniają charakter działań wojennych. Broń autonomiczna to systemy, które działają niezależnie. Są zaprogramowane do identyfikowania i atakowania celów przy pomocy sztucznej inteligencji i bez kontroli człowieka. Mogą to być bezzałogowe drony, ale także statki, czołgi, wyrzutnie rakiet, roboty i inna broń. W pełni autonomiczne systemy uzbrojenia ze sztuczną inteligencją zdolną do uczenia się nie są jeszcze oficjalnie częścią światowych armii. Od dwa tysiące czternastego roku Organizacja Narodów Zjednoczonych prowadzi rozmowy w Genewie, podczas których siedemdziesiąt pięć państw negocjuje zakaz stosowania śmiercionośnych autonomicznych systemów uzbrojenia w celu uregulowania kwestii robotów-zabójców. Porozumienie jest nierealne, ponieważ niektóre państwa realizują własne interesy. Według działaczy na rzecz pokoju, dwadzieścia sześć państw opowiada się za zakazem takiej broni, w tym Austria i wszystkie kraje rozwijające się. Chiny opowiedziały się za zakazem ich używania. Według doniesień, U eS A są całkowicie przeciwne ograniczeniom w rozwoju. Istnieją również firmy w Niemczech, które są zaangażowane w ten rozwój, co jeszcze bardziej podsyca międzynarodowy wyścig zbrojeń. Dlaczego jednak broń autonomiczna cieszy się tak dużym zainteresowaniem, na przykład ze strony amerykańskiego wojska? Spojrzenie na szybko rosnący wskaźnik samobójstw i niszczycielskie zdrowie psychiczne amerykańskich żołnierzy dostarcza jasnej odpowiedzi na to pytanie: zgodnie z oficjalnymi statystykami armii amerykańskiej, więcej żołnierzy amerykańskich umiera obecnie w wyniku samobójstwa niż w wyniku działań wroga. Z trudem identyfikują się z tak zwanymi „humanitarnymi” wojnami, które w rzeczywistości są niczym innym jak strategicznymi wojnami agresji, i przez całe życie cierpią na wyrzuty sumienia z powodu okrutnych działań wojennych, w tym przeciwko ludności cywilnej. Weterani wojenni masowo zwracają swoje odznaczenia, ponieważ wstydzą się czynów wojennych i okazują głęboką skruchę. Piloci dronów, którzy zabijają ze swoich biurek, jakby grali w grę komputerową i mają tendencję do mniejszego współczucia ze względu na odległość od pola bitwy, również „zużywają się” już po kilku latach. Dziesięciolecia badań psychologicznych wykazały również, że w większości przypadków żołnierze nie strzelają do wrogich żołnierzy w walce, ale celowo nie strzelają. "„To jasno pokazuje, że istoty ludzkie nie są „maszynami wojennymi” pod względem ich podstawowego usposobienia. Światowe ruchy i manifestacje pokojowe podkreślają ten fakt. Mający obsesję na punkcie władzy podżegacze wojenni i stojący za nimi globalni pociągacze za sznurki potrzebują zatem autonomicznych systemów uzbrojenia, to jest zabójczych robotów, które działają bezbłędnie i bezkompromisowo - bez zadawania pytań, bez współczucia, bez sumienia, nie tylko jako ochrona przed rozwścieczonymi tłumami”." Ponieważ coraz więcej ludzi dostrzega globalne powiązania i nie chce już być wykorzystywanych i instrumentalizowanych. Ludzkość nie zaakceptuje faktu, że kontrola nad całym systemem monetarnym, wszystkimi rządami, krajami i ich zasobami znajduje się w rękach kilku rodzin w perspektywie długoterminowej. Dlatego też działacze na rzecz pokoju wszelkiego rodzaju i narodowości biją na alarm: rozwój autonomicznych systemów broni musi zostać zakazany na całym świecie. Ponad dwa tysiące pięćset naukowców i sto siedemdziesiąt sześć organizacji z dziedziny sztucznej inteligencji podpisało już dobrowolne zobowiązanie do nieprowadzenia badań nad autonomicznymi systemami śmiercionośnej broni. Składając swój podpis, uczestnicy zobowiązują się „nie wspierać ani nie uczestniczyć w rozwoju, produkcji, handlu lub użyciu autonomicznej broni śmiercionośnej”. Brakuje jednak wielu wielkich nazwisk. Ani Google, ani spółka holdingowa Google Alphabet nie podpisały dobrowolnego zobowiązania; Boston Dynamics - producent słynnych modeli robotów - również nie znalazł się jeszcze na liście. Brakuje również odpowiednich firm zbrojeniowych. Celem aktywistów jest zatem wywarcie wpływu daleko poza krąg sygnatariuszy poprzez zwrócenie uwagi opinii publicznej na niebezpieczeństwa związane z autonomiczną bronią Krótki film zatytułowany „Slaughterbots”, w języku niemieckim" roboty zabijania" pokazuje, jak niszczycielsko skuteczna może być już broń autonomiczna. Amerykański Future of Life Institute (FLI), który postawił sobie za cel zminimalizowanie egzystencjalnych zagrożeń dla ludzkości, opublikował film dwunastego listopada dwa tysiące siedemnastego roku. "W ciągu kilku tygodni został on kliknięty miliony razy. Daje to mrożący krew w żyłach podgląd tego, jak w mgnieniu oka można zlikwidować na przykład krytyków systemu lub niepożądane grupy etniczne. Wniosek: Zatrzymać tę technologię! Oto kilka fragmentów filmu:" Piloci naszych klientów wykonali prawie trzy tysiące precyzyjnych ataków w ciągu ostatniego roku i jesteśmy z tego niezmiernie dumni. Pozwala to oddzielić złych od dobrych. To wielka sprawa. Ale mamy coś znacznie większego. Twoje dzieci prawdopodobnie mają jeden z nich, prawda? Nie do końca. Diabelski pilot? Nie. Ta zdolność to wszechstronna AI - sztuczna inteligencja. Sam lata. Jego procesor może reagować sto razy szybciej niż człowiek. Ruch stochastyczny jest w trybie anty-snajperskim. Podobnie jak każde inne dzisiejsze urządzenie mobilne, ma kamery i czujniki. Podobnie jak telefony komórkowe i aplikacje mediów społecznościowych, ma funkcję rozpoznawania twarzy. Znajdują się w nim trzy gramy specjalnych materiałów wybuchowych. Oto jak to działa. Widziałeś to? Ten mały strzał wystarczy, by przebić czaszkę i zniszczyć wszystko za nią. Zawsze mówią, że to ludzie, a nie broń, zabijają ludzi. Cóż, nie zabijają. Ulegają emocjom, nie słuchają rozkazów, celowo strzelają obok. Zobaczmy więc, jak broń podejmuje tutaj decyzje. Uwierz mi - to byli źli ludzie. To był nalot z chirurgiczną precyzją. To jeden z całej gamy produktów. Zaprogramowane jako rój, mogą penetrować budynki, samochody i pociągi, mogą unikać ludzi i kul i praktycznie udaremniają wszelkie środki zaradcze. Nie da się ich zatrzymać. Cóż, powiedziałem, to coś wielkiego. Dlaczego? Ponieważ myślimy na wielką skalę. Kontrakt na dwadzieścia pięć milionów dolarów kupuje im to. Wystarczająco dużo, by zabić pół miasta. Nuklearne - to już przeszłość. Zlikwiduj całego wroga - praktycznie bez ryzyka. Wystarczy go scharakteryzować, uwolnić rój i odpocząć. Dziś możesz mieć wszystko. „Głupia broń trafia tam, gdzie ją skierujesz. Inteligentna broń przetwarza dane. Jeśli możesz znaleźć wroga za pomocą danych - nawet za pomocą hashtagu - możesz uderzyć w złą ideologię tam, gdzie się zaczyna. Ten krótki film to coś więcej niż tylko spekulacje. Pokazuje wyniki integracji i miniaturyzacji technologii, które już posiadamy. Nazywam się Stuart Russell, jestem profesorem informatyki w Berkeley. Pracuję nad sztuczną inteligencją (AI) od ponad trzydziestu pięciu lat. Jej potencjał dla dobra ludzkości jest ogromny, także w dziedzinie obronności. Jednak pozwolenie maszynom na zabijanie ludzi będzie miało katastrofalne skutki dla naszego bezpieczeństwa i wolności. Tysiące moich kolegów zgadza się z tym. Wciąż mamy szansę zapobiec przyszłości, której właśnie byliście świadkami, ale okno możliwości działania szybko się zamyka!
z hm.
https://www.sueddeutsche.de/digital/killerroboter-warum-autonome-waffen-wohl-nicht-verboten-werden-1.4108994
https://www.heise.de/newsticker/meldung/Autonome-Waffen-mit-KI-Auf-dem-Weg-zur-Schlachtfeld-Singularitaet-4027249.html
http://derwaechter.org/hochgeruestete-us-armee-zeigt-sich-voellig-wehrlos-gegen-neuen-feind
https://www.spektrum.de/news/tausende-ki-forscher-geloben-verzicht-auf-waffenentwicklung/1579178
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Slaughterbots
https://derstandard.at/2000068137922/Slaughterbots-Kurzfilm-warnt-vor-autonomen-Killerrobotern