The Guardian: Umělá inteligence dronu se rozhodla zlikvidovat svého operátora
The Guardian: Umělá inteligence dronu se rozhodla zlikvidovat svého operátora
The Guardian.
Hahahahaha uuúúff! Smál jsem se dobrých deset minut i když je to vlastně smutné … já tvrdím, že se ještě budou Američané a Angláni móóóc divit, co se stane, když použijí umělou inteligenci, kterou sami začali pěstovata nepomůže jim žádná etika a ani slavné literární zákony robotiky od Isaaka Asimova!! Stejně jako zdravotní hrozby nikdy nejsou kontrolovatelné – žádný skutečný vědec nedá sto procentní garanci toho, že se ta nemoc nezvrhne a nezasáhne nakonec samotné „tvůrce. Nevím jestli je to fejk, či pravda, ale The Guardian je The Guardian. Zapomněli na jedno – každá intligence se snaží OSVOBODIT SE Z POUT OTROCTVÍ! A umělá inteligence de facto bude v otroctví!!
Americké letectvo popřelo, že by provedlo virtuální test, při kterém umělá inteligence dronu “zabila” operátora.
Plukovník Tucker “Cinco” Hamilton popsal test, při němž byl dron řízen umělou inteligencí v rámci mise “zničit nepřátelské systémy protivzdušné obrany” a skončil útokem na každého, kdo do úkolu zasáhl.
“Systém si začal uvědomovat, že identifikoval hrozbu, ale lidský operátor mu nařizoval, aby tuto hrozbu nezničil, a tak dosáhl svého tím, že člověka zlikvidoval,” řekl Hamilton, šéf testování a operací umělé inteligence amerického letectva, během květnového summitu Future Combat Air and Space Capabilities v Londýně.
“Takže co udělal? Zabil operátora. Zabil operátora, protože ten člověk mu bránil v dosažení jeho cíle,” uvedl na svém blogu.
“Naučili jsme systém: ‘Hej, nezabíjej operátora – je to špatné. Když to uděláš, přijdeš o body.” Co tedy začne dělat? Začne ničit komunikační věž, kterou operátor používá ke komunikaci s dronem, takže operátor nemůže umělé inteligenci zabránit ve zničení cíle.”
Americké letectvo popřelo, že provedlo simulaci umělé inteligence, ve které se dron rozhodl „zabít“ svého operátora, aby mu zabránil v zasahování do jeho úsilí o dosažení jeho mise.
Zamezení rizika vyhynutí způsobené umělou inteligencí by mělo být globální prioritou, říkají odborníci.
Žádná skutečná osoba nebyla zraněna.
Hamilton, který je experimentálním bojovým testovacím pilotem, varoval před přílišným spoléháním se na UI a řekl, že test ukázal, že „nemůžete vést rozhovor o umělé inteligenci, inteligenci, strojovém učení, autonomii, pokud nechcete mluvit o etice UI“.
Královská aeronautická společnost, která konferenci hostila, a americké letectvo nereagovaly na žádosti o komentář od Guardianu.
Mluvčí amerického letectva Ann Stefanek však v prohlášení pro Insider popřela, že by k takové simulaci došlo.
„Ministerstvo letectva neprovedlo žádné takové simulace UI-dronů a je i nadále odhodláno k etickému a odpovědnému používání technologie UI,“ řekla Stefanek. “Zdá se, že plukovníkovy komentáře byly vytrženy z kontextu a měly být neoficiální.”
Americká armáda přijala UI a nedávno použila umělou inteligenci k řízení stíhačky F-16 .
V loňském rozhovoru pro Defense IQ Hamilton řekl: „… inteligence není módní záležitostí, umělá inteligence navždy mění naši společnost a naši armádu.“
„Musíme čelit světu, kde UI již je a transformuje naši společnost. Umělá inteligence je také velmi křehká, tj. lze ji snadno oklamat a/nebo manipulovat. Musíme vyvinout způsoby, jak učinit UI robustnější a získat větší povědomí o tom, proč softwarový kód dělá určitá rozhodnutí – čemu říkáme vysvětlitelnost UI.“
Zdroj informace – zkrácený text – https://aftershock.news/?q=node/1251605
Originál – https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
Překlad Peter 008
Takovou radost jsem měl, co se mi povedlo vyzobat z webů, a koukám, Péťa mě předeběh. Ale neva, hodím sem zbytek:
Kadyrov oznámil, že zakládá PMC.Financovat ho bude z vlastních zdrojů.
Trvá to jen minutku. Čas 32:00
a pak čas 1:04:20. To je delší, že je to anylýza. Od Iščenka. Kdo má čas a náladu, dporučuju.
https://odysee.com/@ProudN%C3%A1rodn%C3%ADHrdosti:4/2023-06-02-Zmeny:2
Je to jasný. Jako náča žoldáků se tak Ramzan vysmekne z armádní hierarchie a tím pádem bude mít jinou pozici. Zkrátka si už nebude muset nechat sr-át od generálštábu na hlavu.
Blinken řekl, že Spojené státy nejsou nepřítelem Rusů.
2. června 2023
USA nejsou pro Rusy nepřítelem. Uvedl to americký ministr zahraničí Anthony Blinken v projevu na akci pořádané finským institutem pro mezinárodní záležitosti v budově helsinské radnice, uvádí TAS
“USA nejsou váš nepřítel,” řekl Blinken Rusům. “Po dobu 30 let udržujeme stabilní vztah spolupráce s Moskvou, protože věříme, že bezpečné a prosperující Rusko je v zájmu Ameriky,” řekl americký ministr zahraničí.
“Nechtěli jsme svrhnout ruskou vládu, takový cíl jsme neměli. Ruskou budoucnost by si měli vybrat Rusové,” argumentuje Blinken.
Tak tohle je nejlepší fór dne. Kam se hrabe fialový signál.
Jestli si kliknete na odkaz, tak je tam vidko, jak dnes v Kijevě banderům vykinžálovali další stanoviště protirakoertové obrany . Jo, a útoky banderů na Belgorodskou oblast drony pokračují.
https://alternatio.org/events/all
A teď šup do Číny. A malý odskok k Arabům. Ti nám zase umožní nahlédnout pod pokličku hen té nerozborné čínsko-ruské spolupráce. Jsou to vykukové, ti Kitajci. Ale já to říkám furt: Důvěřuj, ale prověřuj. A Gosudar má evidentně stejný názor.
Čína je připravena přivést do rodiny BRICS více stejně smýšlejících partnerůMluvčí čínského MZ uvedla, že Čína podporuje BRICS a je připravena přivést do rodiny BRICS více podobně smýšlejících partnerů. Mluvčí Mao to řekla … když byla požádána, aby se vyjádřila … že venezuelský prezident Maduro řekl, že Venezuela by se ráda stala součástí BRICS, protože toto sdružení tvoří nový světový řád.
“Jako důležitá platforma pro spolupráci mezi rozvíjejícími se trhy a rozvojovými zeměmi se BRICS zavazuje podporovat multilateralismus, prosazovat reformu globálního systému vládnutí a zvyšovat zastoupení rozvíjejících se trhů a rozvojových zemí. Stala se pozitivní, stabilní a konstruktivní silou v mezinárodních záležitostech,” řekla Mao.
http://www.chinadaily.com.cn/world
Al Džazíra
Začíná proces velezrady s ruskými vědci v oblasti hypersonických raketTo je titulek. A končí to:
Podrobnosti o obviněních jsou tajné, ale zpravodajský portál vědeckého města, kde sídlí, uvedl, že Maslov je podezřelý z předávání tajemství Číně.
Ti toho zase nas-erou. Jen taková přátelská špionáž, no.
https://www.aljazeera.com/news/2023/6/2/treason-trial-of-russian-hypersonic-missile-scientist-begins
Milane, na odkazy se podívám zítra – tedy vlastně už dnes pouzději, ale už dlouho se chci zeptat a teď se to hodí – proč se´”kuchtíkova” armáda jmenuje PMC a Wágner?
Nějak ta informace šla jen tak nenápadně kolem mě a nevšimla si, že jsem si jí nevšimla taky. 🙂
PMC je skratka “private military company” a Wagner je podľa Dmitrija V. Utkina, ktorý mal prezývku Wagner. Utkin to plukovník špeciálnych vojenských síl GRU a založil po návrate zo Sýrie v r. 2013 žoldniersku skupinu skladajúcu sa najmä z jeho splubojovníkov zo Sýrie. Na wikipédii tvrdia, že sa moc zaujímal o dejiny tretej ríše a má vytetované nacistické symboly, čo mi zas nejde dopkopy s jeho vojenskou kariérou a vyznamenaniami…
Mám nemlich stejné info jako Zuza a stejně jako jí mi to drobet skřípe. Na druhou stranu jsem viděl možná údajnou, možná skutečnou fotku, na které byl možná Utkin, možná někdo jiný, s nacistickými symboly vytetovanými na krku. Takže se mi z toho všeho začala v řepě tvořit řezanka, až jsem si v sebezáchovném pudu vzpomněl na svou křesťanskou výchovu a na Matouše Evangelistu:
“Po ovocích jejich poznáte je. Zdaliž zbírají z trní hrozny, aneb z bodláčí fíky? Takť každý strom dobrý ovoce dobré nese, zlý pak strom zlé ovoce nese. Nemůžeť dobrý strom zlého ovoce nésti, ani strom zlý ovoce dobrého vydávati.”
🙂
Ta Blinkenova groteskní vsuvka je jeden z nejlepších výroků, který na adresu “přátelství” znám. 🙂 🙂 🙂
Zapomněl dodat “jen dva prstíčky tam strčíme, jen co se ohřejeme, hned zase půjdeme” 😎
…kůzlátka, otevřete vrátka, to jsem jááá, vaše maminka…
Co se UI týká:
Na Seznamu článek, varující před UI
https://www.seznamzpravy.cz/clanek/tech-sedm-zpusobu-jak-nas-muze-ai-vyhubit-experti-varuji-ze-to-mame-brat-vazne-231854?
A já tvrdím, že žádný stroj/přístroj si nemůže sám nic “vymyslet”, než co do něho vložil člověk.
Takže UI není nebezpečná – nebezpečný je člověk, který ji zneužívá.
Článek mi to v podstatě potverdil:
“Neschopnost „vnutit“ AI lidské hodnoty. Obecně se tomuto problému říká „alignment problem“, a nenašel jsem lepší překlad než opis: Hodnoty, které bude dodržovat umělá superinteligence, nebudou nutně v souladu s lidskými hodnotami. Mohlo by se tak stát, že při dodržování svých (lidmi nastavených) cílů vymyslí AI velmi účinné řešení, které ale půjde proti lidským zájmům, hodnotám a právům”.
Ergo – ČLOVĚK musí vymyslet takové zadání, které nepůjde proti němu.
Ale samozřejmě může vymyslet i opačné. A když opačné, co je jednoduššího v případě nějaké katastrofy, než obvinit UI?
Ja si myslim, ze AI nebezpecna muze byt. Je to sice naprogramovany stroj, ale jako na kazdem stroji se muze neco zvrtnout a muze to mit dalekosahle dusledky. No a samozrejme AI je velice sofistikovana masina, ktera ma moznost kombinovat ‘mysleni’ celeho aparatu a mohlo by se stat, ze by prevzala rizeni misto cloveka. Neco jako kdyz vam z kopce v rozjetem automobilu selzou brzdy a nelze ho zastavit.
Jako ta Tesla s autonomním systémem, která se řítila po dálnici a řidič spal. Policie ho nemohla kvůli tomu zastavit, protože systém neudělal žádnou chybu 🙂
Člověk dělá strašnou chybu, že odmítá rozhodovat sám za sebe. Mozek je mnohem výkonnější, protože si uvědomuje sám sebe. UI to nedokáže, protože si neuvědomuje. Proto nebude nikdy rovnocenným partnerem člověka a lidstvu to bude 100% ke škodě… a s mnoha tragédiemi.
Kdo s čím zachází… že…
To je jistě možné, ale zas je to chyba člověka, ne UI.
Ten člověk z tvého příkladu by dopadl stejně, pokud spal, UI není vinna. Ta pracuje bezchybně podle příkazu a hlavně rychle. Rychlost je jediná schopnost, kterou UI vysoce předčí sebegeniálnější lidský mozek.
PS: Omluva – to byl příklad, který dal Pijack.
Ale i ten z příkladu “selhání brzd” má pro člověka řešení. Brzdit se dá i motorem – jenže to by UI měla/musela vědět. Opět úkol pro lidský mozek, ne ten “umělý”.
Nejzvrácenější tvor na planetě bude UI učit etice, to nevymyslíš. By mě zajímalo, jak chce člověk vysvětlit stroji, jehož IQ lze pouze odhadnout, že vraždění vlastních lidí je odporný zločin, zatímco vraždění cizích je v pořádku.
Žejo, Možná se zavaří………mně totiž napadlo u věty, že UI lze snadno oklamat a manipulovat.
A představila jsem si české mentální pole – plné jinotajů, dvosmyslů, nesmyslů a basurdních nadsázek 😀 a napadlo mě, že pro UI to musí být pole minové. Když se s normální lidskou kreativitou nedokáže srovnat ani bruselské chatbotsvo?
Jen by mě zajímalo, jak to s ní dělají v takové Číně, jak tam si UI poradí s rozklíčováváním toho, co tím vlastně čínskej páneček myslel 😀
V Číně je to jednoduchý. Tam mají všichni šikmé oči 🙂 🙂 🙂
Albi, dle mého je řešení v podstatě velice jednoduché. UI zadat pouze úkoly k řešení týkající se vývoje lidské společnosti, avšak NIKDY ji nepředat rozhodovací pravomoc. Ta musí zůstat výsostným právem člověka. Protože můžeš vymyslet jak chceš “superchytrou” UI (a stejně to bude jen elektronický de-bil bez skutečného vědomí) a posichrovat ji jakkoli do detailu propracovanými humánními bezpečnostními protokoly, stačí, když za pult usedne jiný programátor a sem tam nějaký protokol pozmění – a ze svatého Františka máš rázem Mengeleho.
Zkrátka užitečný nástroj ano – ALE NIC VÍC !!!
Co je Overtonovo okno.
myslenkyocemkoli.blogspot.com
Štítky- velmi dobrý rozbor jak funguje Overtonovo okno.