Generální ředitel Twitteru Elon Musk se připojil k odborníkům na umělou inteligenci a vedoucím pracovníků v oboru, kteří podepsali otevřený dopis vyzývající všechny laboratoře zabývající se umělou inteligencí, aby „okamžitě pozastavily“ vývoj systémů výkonnějších než Chat GPT-4 na nejméně šest měsíců.
Dopis inicioval Future of Life Institute a v současnosti je pod ním podepsaných více než 1 300 osob, kromě Muska např. spoluzakladatel společnosti Apple Steve Wozniak, zakladatel a generální ředitel Stability AI Emad Mostaque a inženýři ze společností Meta a Google.
Tvrdí, že systémy umělé inteligence konkurující lidské inteligenci mohou představovat „velké riziko pro společnost a lidstvo“ a změnit „historii života na Zemi“, odvolávajíc se na rozsáhlý výzkum a shodu v této problematice „předními laboratořemi pro umělou inteligenci“.
Odborníci dále uvádějí, že v současné době existuje jen omezené plánování a řízení týkající se pokročilých systémů umělé inteligence, přestože se firmy v posledních měsících „ocitly v nekontrolovatelném závodě o vývoj a nasazení stále výkonnějších digitálních myslí, kterým nikdo – ani jejich tvůrci – nedokáže porozumět, předvídat je nebo je spolehlivě kontrolovat“.
„Současné systémy umělé inteligence se nyní stávají v obecných úkolech konkurenceschopnými lidem a my si musíme položit otázku: Měli bychom nechat stroje zaplavit naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechna zaměstnání, včetně těch, která nás naplňují? Měli bychom rozvíjet nelidské mysli, které by nás nakonec mohly přečíslit, přechytračit, považovat za zastaralé a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací? Taková rozhodnutí nesmí být svěřena lidem nevoleným technologickým vůdcům,“
-píše se v dopise
Potřeba bezpečnostních protokolů
„Výkonné systémy umělé inteligence by měly být vyvíjeny až poté, co si budeme jisti, že jejich účinky budou pozitivní a jejich rizika zvládnutelná,“ dodává se v dopise.
Dopis pak vyzývá k veřejnému a ověřitelnému minimálně šestiměsíčnímu pozastavení vývoje systémů umělé inteligence výkonnějších než GPT-4 nebo k vládou vyhlášenému moratoriu na takový vývoj, pokud laboratoře nebudou s touto výzvou v souladu.
Během takové pauzy by laboratoře a nezávislí odborníci měli využít tento čas k vytvoření a zavedení souboru sdílených bezpečnostních protokolů pro návrh a vývoj pokročilé umělé inteligence, které by byly „pečlivě auditované“ a na které by dohlíželi nezávislí odborníci třetích stran, píše se v dopise.
Odborníci uvedli, že takové protokoly by měly být navrženy tak, aby bylo zajištěno, že systémy, které se jimi řídí, jsou nade vší pochybnost bezpečné, přesné, a důvěryhodné.
Kromě toho dopis vyzývá tvůrce politik, aby urychleně vytvořili robustní systémy řízení umělé inteligence, například orgány, které budou schopny zajistit dohled a sledovat vysoce schopné systémy umělé inteligence, aby investovali do dalšího výzkumu bezpečnosti umělé inteligence a aby zřídili instituce, které se dokáží vypořádat s tím, co podle nich bude „dramatickým ekonomickým a politickým narušením (zejména demokracie), které umělá inteligence způsobí“.
„To neznamená zastavení vývoje umělé inteligence obecně, pouze ústup od nebezpečného závodu za stále většími nepředvídatelnými modely černých skříněk s na síle získávajícími schopnostmi,“ poznamenali odborníci ve svém dopise.
Dopis přichází pouhé dva týdny poté, co společnost OpenAI, tvůrce systému umělé inteligence, vydala 14. března dlouho očekávanou aktualizaci své služby Chat GPT-4, nejvýkonnějšího systému umělé inteligence všech dob.
Nový ChatGPT
Podle společnosti OpenAI, se kterou spolupracuje společnost Microsoft, má aktualizovaný systém řadu nových funkcí, včetně příjmu obrazových materiálů jako vstupů. Má být také bezpečnější a přesnější než jeho předchůdce.
V únorovém prohlášení OpenAI připustila, že v určitém okamžiku může být důležité získat „nezávislý posudek před zahájením cvičení budoucích systémů, a dohodnout se na omezení rychlosti růstu výpočetních prostředků používaných pro vytváření nových modelů nejpokročilejších systémů“.
„Myslíme si, že veřejné standardy o tom, v jakém bodě by úsilí AGI mělo zastavit výuku, rozhodnout, že model je bezpečný pro zveřejnění, nebo stáhnout model z produkčního použití, jsou důležité. V neposlední řadě si myslíme, že je důležité, aby vlády hlavních světových mocností měly přehled o vývoji, který jde nad určitou míru,“
– uvedla společnost
Začátkem tohoto týdne varoval Europol před závažnými důsledky využívání ChatGPT ke kybernetické kriminalitě a dalším škodlivým činnostem včetně šíření dezinformací.
V souvislosti se softwarem, který je „cvičený“ pomocí učení se z lidské zpětné vazby (RLHF), byly vyjádřeny další obavy, zejména pokud jde o to, jak může být využit k tomu, aby pomáhal studentům podvádět při zkouškách a domácích úkolech.
Navzdory těmto obavám popularita ChatGPT přiměla konkurenční firmy k uvedení podobných produktů.
Minulý týden společnost Google oznámila, že spustila k testování ve Velké Británii a Spojených státech svou aplikaci umělé inteligence, známou jako „Bard“, ačkoli společnost tuto technologii ve srovnání se svým rivalem uvolňovala pozoruhodně pomaleji, což zdůvodnila potřebou získat více zpětné vazby o aplikaci.
Převzato z The Epoch Times (překlad původního textu: Juraj Skovajsa)
Konzervativní noviny nabízí všechny články zdarma. Náš provoz se však neobejde bez nezbytné finanční podpory. Pokud se Vám Konzervativní noviny líbí, budeme vděčni za Vaši pomoc. Číslo účtu: 2701544173 / 2010 Děkujeme