L. Nolan, były inżynier korporacji Google, obawia się, że „zabójcze roboty” mogą spowodować niezamierzone masowe okrucieństwa.

Udostępnij

Wydarzenia w naszym świecie, takie jak pojawienie się autonomicznych zabójczych robotów, są złowieszcze i przejmujące, ale nie musimy uciekać przed tego rodzaju wiadomościami. Możemy potraktować tego typu informacje jako wyzwalacz dla każdego z nas, aby dokładnie określić, jakiego rodzaju świata chcemy, w jakim świecie chcemy żyć. W ten sposób uczestniczymy w większym procesie przebudzenia i pomagamy popychać ludzkość do przodu w przejściu do świata większego pokoju i harmonii.

,,Mogą wystąpić wypadki na dużą skalę, ponieważ te rzeczy zaczną się zachowywać w nieoczekiwany sposób. Dlatego wszelkie zaawansowane systemy uzbrojenia powinny podlegać znaczącej kontroli ze strony ludzi, w przeciwnym razie należy je zakazać, ponieważ są zbyt nieprzewidywalne i niebezpieczne.’’

Laura Nolan.

Fakty są takie, że były inżynier oprogramowania Google ostrzega przed przemysłowym rozwojem sztucznej inteligencji w zakresie tworzenia „zabójczych robotów”, które miałyby autonomię w podejmowaniu decyzji, kogo zabić bez zabezpieczenia w postaci interwencji człowieka. Refleksja w takiej sytuacji może być tylko jedna, otóż widzimy, że wydarzenia takie jak potencjalne stworzenie „zabójczych robotów” ostatecznie może wpłynąć na całkowitą zmianę kursu współczesnej cywilizacji.

Drodzy Czytelnicy, wkroczyliśmy w naszej historii na drogę, w której zaawansowane technologie oparte na sztucznej inteligencji mogą stawać się coraz bardziej podatne na niezamierzone działania, które zagrażają bezpieczeństwu i autonomii ludzi. A ci z nas, którzy wierzą w bezpieczeństwo i autonomię są okłamywani i mamieni złudnymi wyjaśnieniami. Uwierzcie nam, że większość elit za kurtyną znajdujących się na szczycie obecnej piramidy władzy jest coraz bardziej mniej świadoma i czujna wobec tego rosnącego zagrożenia.

Argumenty za i przeciw nieskrępowanemu rozwojowi sztucznej inteligencji i jej integracji ze zdolnościami wojskowymi są następujące: zwolennicy rozwoju sztucznej inteligencji po prostu wskazują na zwiększoną wydajność i dokładność, zapewnioną przez sztuczną inteligencję. Jednak ich nieskrępowany zapał zwykle opiera się na dość naiwnym, lub udawanym zaufaniu do rządu, korporacji i wywiadu wojskowego.

Druga strona argumentu opiera swoją podstawową nieufność na dobrze udokumentowanym przekonaniu, że w rzeczywistości nasi obecni przywódcy korporacyjni, rządowi i wojskowi działają w oparciu o własne wąskie plany, które nie uwzględniają bezpieczeństwa i autonomii człowieka. Nikt nie sprzeciwia się rozwojowi sztucznej inteligencji jako takiej, do zastosowania w sposób, który wyraźnie i niezaprzeczalnie przyniesie korzyści ludzkości. Nie można jednak nie dostrzegać, że ogromne fundusze pompowane są w przemysł zbrojeniowy, a zatem w wojnę.

Być może nie ma sposobu, aby w pełni uniemożliwić wojskowym prowadzenie badań nad ulepszeniami sztucznej inteligencji w ich aplikacjach. Wydaje się jednak, że istnieje jedna wyraźna linia rozgraniczająca, której zdaniem wielu nie należy przekraczać, czyli przyznanie programom o statusie sztucznej inteligencji, wyłącznego upoważnienia przez człowieka, na przykład w sytuacji czy dana osoba lub grupa ludzi powinna zostać zabita.

Inżynier oprogramowania Laura Nolan, zrezygnowała ze stanowiska Google w proteście po tym, jak przydzielono ją do pracy w 2017 roku nad Projektem Maven, projektem stosowanym do radykalnego ulepszenia technologii amerykańskich dronów wojskowych po przez stworzenie sztucznej inteligencji dla tych urządzeń. Laura Nolan jak przyznaje, czuła, że ​​jej praca posunie naprzód niebezpieczną zdolność maszyn do zabijania bez chwili namysłu.

Poprzez protesty i rezygnacje odważnych ludzi, takich jak Laura Nolan, Google zezwolił na wygaśnięcie Projektu Maven w marcu 2019 roku. Laura powiedziała nie, oraz ponad trzy tysiące pracowników podpisało petycję protestującą przeciwko zaangażowaniu firmy w rozwój tego typu technologii. Powinno to być dla nas wszystkich wskazówką, że ci wielcy korporacyjni giganci nie podejmują etycznych decyzji samodzielnie, ponieważ są zasadniczo niemoralni.

W przeciwieństwie do dronów, które są ściśle kontrolowane przez zespoły wojskowe często oddalone nawet o tysiące kilometrów, Nolan powiedziała, że zabójcze roboty, mogą potencjalnie robić: „katastrofalne rzeczy, dla których nie były pierwotnie zaprogramowane”. Laura Nolan, dodaje również, że korporacja Google, przeznacza rocznie setki milionów dolarów na rozwój projektów podobnych do projektu Maven.

,,Prawdopodobieństwo katastrofy jest proporcjonalne do liczby tych maszyn na danym obszarze jednocześnie. To, na co patrzysz, to możliwe okrucieństwa i bezprawne zabójstwa, nawet na podstawie przepisów wojennych, zwłaszcza, jeśli setki lub tysiące tych maszyn zostaną rozmieszczone.

Mogą wystąpić wypadki na dużą skalę, ponieważ te rzeczy zaczną się zachowywać w nieoczekiwany sposób. Dlatego wszelkie zaawansowane systemy uzbrojenia powinny podlegać znaczącej kontroli ze strony ludzi, w przeciwnym razie należy je zakazać, ponieważ są zbyt nieprzewidywalne i niebezpieczne.’’

Laura Nolan.

Drodzy czytelnicy, wydarzenia w naszym świecie, takie jak pojawienie się autonomicznych zabójczych robotów, są złowieszcze i przejmujące, ale nie musimy uciekać przed tego rodzaju wiadomościami. Możemy potraktować tego typu informacje jako wyzwalacz dla każdego z nas, aby dokładnie określić, jakiego rodzaju świata chcemy, w jakim świecie chcemy żyć. W ten sposób uczestniczymy w większym procesie przebudzenia i pomagamy popychać ludzkość do przodu w przejściu do świata większego pokoju i harmonii.


Autor. Zespół globalne-archiwum.pl

Wszelkie prawa zastrzeżone.

Fot. flickr.com


 

Dodaj komentarz

Twój adres email nie zostanie opublikowany.