Drodzy stali Czytelnicy a także Goście naszego portalu, nasz projekt funkcjonuje przede wszystkim dzięki Waszemu wsparciu i zaufaniu.

WSPARCIE FINANSOWE (DAROWIZNA)

Wpłaty Krajowe- Nr. Konta:

39 8811 0006 1002 0205 2764 0250

Wpłaty Zagraniczne- Nr. Konta:

PL39 8811 0006 1002 0205 2764 0250

Kod SWIFT: POLUPLPR

Tytułem: Darowizna na cele statutowe


L. Nolan, były inżynier Google, obawia się, że „zabójcze roboty” mogą spowodować masowe okrucieństwa.

0
Wydarzenia w naszym świecie, takie jak pojawienie się autonomicznych „zabójczych robotów”, są złowieszcze i przejmujące, ale nie musimy uciekać przed tego rodzaju wiadomościami. Możemy potraktować tego typu informacje jako wyzwalacz dla każdego z nas, aby dokładnie określić, jakiego rodzaju świata chcemy, w jakim świecie chcemy żyć. W ten sposób uczestniczymy w większym procesie przebudzenia i pomagamy popychać ludzkość do przodu w przejściu do świata większego pokoju i harmonii.

Mogą wystąpić wypadki na dużą skalę, ponieważ te rzeczy zaczną się zachowywać w nieoczekiwany sposób. Dlatego wszelkie zaawansowane systemy uzbrojenia powinny podlegać znaczącej kontroli ze strony ludzi, w przeciwnym razie należy je zakazać, ponieważ są zbyt nieprzewidywalne i niebezpieczne.”

Laura Nolan.

Fakty są takie, że były inżynier oprogramowania Google, ostrzega przed przemysłowym rozwojem sztucznej inteligencji w zakresie tworzenia „zabójczych robotów”, które miałyby autonomię w podejmowaniu decyzji, kogo zabić bez zabezpieczenia w postaci interwencji człowieka. Refleksja w takiej sytuacji może być tylko jedna, otóż widzimy, że wydarzenia takie jak potencjalne stworzenie „zabójczych robotów” ostatecznie może wpłynąć na całkowitą zmianę kursu współczesnej cywilizacji.

Drodzy Czytelnicy, wkroczyliśmy w naszej historii na drogę, w której zaawansowane technologie oparte na sztucznej inteligencji mogą stawać się coraz bardziej podatne na niezamierzone działania, które zagrażają bezpieczeństwu i autonomii ludzi. A ci z nas, którzy wierzą w bezpieczeństwo i autonomię są okłamywani i mamieni złudnymi wyjaśnieniami. Uwierzcie nam, że większość elit za kurtyną znajdujących się na szczycie obecnej piramidy władzy, jest coraz bardziej mniej świadoma i czujna wobec tego rosnącego zagrożenia.

Argumenty za i przeciw nieskrępowanemu rozwojowi sztucznej inteligencji i jej integracji ze zdolnościami wojskowymi są następujące: zwolennicy rozwoju sztucznej inteligencji po prostu wskazują na zwiększoną wydajność i dokładność, zapewnioną przez sztuczną inteligencję. Jednak ich nieskrępowany zapał zwykle opiera się na dość naiwnym, lub udawanym zaufaniu do rządu, korporacji i wywiadu wojskowego.

Druga strona argumentu opiera swoją podstawową nieufność na dobrze udokumentowanym przekonaniu, że w rzeczywistości nasi obecni przywódcy korporacyjni, rządowi i wojskowi działają w oparciu o własne wąskie plany, które nie uwzględniają bezpieczeństwa i autonomii człowieka. Nikt nie sprzeciwia się rozwojowi sztucznej inteligencji jako takiej, do zastosowania w sposób, który wyraźnie i niezaprzeczalnie przyniesie korzyści ludzkości. Nie można jednak nie dostrzegać, że ogromne fundusze pompowane są w przemysł zbrojeniowy, a zatem w wojnę.

Być może nie ma sposobu, aby w pełni uniemożliwić wojskowym prowadzenie badań nad ulepszeniami sztucznej inteligencji w ich aplikacjach. Wydaje się jednak, że istnieje jedna wyraźna linia rozgraniczająca, której zdaniem wielu: nie należy przekraczać, czyli przyznanie programom o statusie sztucznej inteligencji, wyłącznego upoważnienia przez człowieka, na przykład w sytuacji czy dana osoba lub grupa ludzi powinna zostać zabita.

Inżynier oprogramowania Laura Nolan, zrezygnowała ze stanowiska Google w proteście po tym, jak przydzielono ją do pracy w 2017 roku nad projektem: „Maven”, projektem stosowanym do radykalnego ulepszenia technologii amerykańskich dronów wojskowych, po przez stworzenie sztucznej inteligencji dla tych urządzeń. Laura Nolan jak przyznaje, czuła, że ​​jej praca posunie naprzód niebezpieczną zdolność maszyn do zabijania bez chwili namysłu.

Poprzez protesty i rezygnacje odważnych ludzi, takich jak Laura Nolan, Google zezwolił na wygaśnięcie projektu: „Maven” w marcu 2019 roku. Laura powiedziała: „nie”, oraz ponad trzy tysiące pracowników podpisało petycję protestującą przeciwko zaangażowaniu firmy w rozwój tego typu technologii. Powinno to być dla nas wszystkich wskazówką, że ci wielcy korporacyjni giganci nie podejmują etycznych decyzji samodzielnie, ponieważ są zasadniczo niemoralni.

W przeciwieństwie do dronów, które są ściśle kontrolowane przez zespoły wojskowe, często oddalone nawet o tysiące kilometrów, Nolan powiedziała, że „zabójcze roboty”, mogą potencjalnie robić: „katastrofalne rzeczy, dla których nie były pierwotnie zaprogramowane”. Laura Nolan, dodaje również, że korporacja Google, przeznacza rocznie setki milionów dolarów na rozwój projektów podobnych do projektu: „Maven”.

Prawdopodobieństwo katastrofy jest proporcjonalne do liczby tych maszyn na danym obszarze jednocześnie. To, na co patrzysz, to możliwe okrucieństwa i bezprawne zabójstwa, nawet na podstawie przepisów wojennych, zwłaszcza, jeśli setki lub tysiące tych maszyn zostaną rozmieszczone.

Mogą wystąpić wypadki na dużą skalę, ponieważ te rzeczy zaczną się zachowywać w nieoczekiwany sposób. Dlatego wszelkie zaawansowane systemy uzbrojenia powinny podlegać znaczącej kontroli ze strony ludzi, w przeciwnym razie należy je zakazać, ponieważ są zbyt nieprzewidywalne i niebezpieczne.”

Laura Nolan.

Wydarzenia w naszym świecie, takie jak pojawienie się autonomicznych „zabójczych robotów”, są złowieszcze i przejmujące, ale nie musimy uciekać przed tego rodzaju wiadomościami. Możemy potraktować tego typu informacje jako wyzwalacz dla każdego z nas, aby dokładnie określić, jakiego rodzaju świata chcemy, w jakim świecie chcemy żyć. W ten sposób uczestniczymy w większym procesie przebudzenia i pomagamy popychać ludzkość do przodu w przejściu do świata większego pokoju i harmonii.


Autor. INFOrmator

Fot. Rawpixel.com

Wszelkie prawa zastrzeżone.


 

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *