věda

Proč žaluji OpenAI, tvůrce chatgptu

„Věřím, že většina lidí a institucí je naprosto nepřipravená na systémy AI, které dnes existují, natož silnější,“ napsal New York Times Technologický publicista Kevin Roose V březnu „a že neexistuje žádný realistický plán na jakékoli úrovni vlády, který by zmírnil rizika nebo zachytil výhody těchto systémů.“

Má pravdu. Proto jsem nedávno podal federální žalobu proti OpenAI, aby hledal dočasný omezující příkaz k zabránění společnosti v nasazení jejích produktů, takové jako chatgptVe státě Havaj, kde žiji, dokud nedokáže prokázat legitimní bezpečnostní opatření, která společnost sama vyžadovala ze svého „velkého jazykového modelu“.

Jsme v klíčovém okamžiku. Vůdci ve vývoji AI – včetně vlastního generálního ředitele OpenAI Sam Altman – uznali existenciální rizika, která představují stále schopnější systémy AI. V červnu 2015, Altman řekl„Myslím, že AI pravděpodobně bude s největší pravděpodobností vést k konci světa, ale mezitím budou vytvořeny skvělé společnosti s vážným strojovým učením.“ Ano, pravděpodobně žertoval – ale není to vtip.


O podpoře vědecké žurnalistiky

Pokud se vám tento článek líbí, zvažte podporu naší oceněné žurnalistiky předplatné. Zakoupením předplatného pomáháte zajistit budoucnost působivých příběhů o objevech a myšlenkách, které dnes formují náš svět.


O osm let později, v květnu 2023, podepsalo více než 1 000 technologických vůdců, včetně samotného Altmana otevřený dopis Porovnání rizik AI s jinými existenciálními hrozbami, jako je změna klimatu a pandemie. „Zmírnění rizika vyhynutí z AI by mělo být globální prioritou spolu s dalšími riziky společenského měřítka, jako jsou pandemie a jaderná válka,“ dopis, propuštěn dopisem Centrum pro bezpečnost AIKalifornská nezisková organizace, říká v celém rozsahu.

Jsem na konci svého lana. Za poslední dva roky jsem se pokusil spolupracovat se státními zákonodárci na vývoji regulačních rámců pro umělou inteligenci na Havaji. Toto úsilí se snažilo vytvořit úřad bezpečnosti AI a zavést zásadu předběžné opatrnosti v regulaci AI, což znamená podniknout kroky před skutečnou újmou, protože může být příliš pozdě, pokud čekáme. Bohužel, navzdory spolupráci s klíčovými senátory a předsedami výborů, moje státní legislativní úsilí zemřelo brzy po zavedení. A mezitím Trumpova administrativa se vrátila téměř každý aspekt federální regulace AI a v podstatě narušil úsilí mezinárodní smlouvy, které začalo s Bletchley Deklarace V roce 2023. Na žádné úrovni vlády neexistují žádná záruky pro používání systémů AI na Havaji.

Navzdory jejich předchozím prohlášením OpenAI opustil své klíčové bezpečnostní závazky, včetně chůze zpět „Suparignegment„Iniciativa, která slíbila věnovat 20 procent výpočetních zdrojů pro výzkum bezpečnosti a koncem minulého roku, obrácení jeho zákazu o vojenských aplikacích. Jeho kritickou bezpečnost vědci odešli, včetně spoluzakladatele Ilya Sutskever a Jan Leike, kteří veřejně uvedli Květen 2024„V posledních letech se kultura a procesy bezpečnosti zabily na lesklé produkty.“ Struktura správy společnosti byla zásadně změněna během krize vedení v listopadu 2023, protože rekonstituovaná rada odstranila důležité mechanismy dohledu zaměřené na bezpečnost. Naposledy v dubnu OpenAI OpenAI odstranila zábradlí proti dezinformacím a dezinformacím a otevírala dveře k uvolnění „vysoce rizika“ a „kritických rizik“ modelů AI, „možná pomáhat při houpání voleb nebo vytvářet vysoce účinné propagandistické kampaně“ Podle časopisu Fortune.

Openai ve své první odpovědi tvrdil, že případ by měl být zamítnut, protože regulace AI je zásadně „politickou otázkou“, na kterou by měl být řešen Kongresem a prezidentem. Pro jednoho nejsem pohodlný zanecháním takových důležitých rozhodnutí tohoto prezidenta nebo tohoto kongresu – zejména když dosud neudělali nic pro regulaci AI.

Havaj čelí zřetelným rizikům z neregulovaného nasazení AI. Nedávné analýzy naznačují, že podstatná část pracovních služeb na Havaji by mohla čelit významnému narušení během pěti až sedmi let v důsledku AI. Naše izolovaná geografie a omezená ekonomická diverzifikace činí přizpůsobení pracovní síly obzvláště náročné.

Naše jedinečné kulturní znalosti, praktiky a jazykové riziko zneužití a zkreslení systémů AI trénovaly bez vhodného povolení nebo kontextu.

Můj federální soud aplikuje zavedené právní zásady pro tuto novou technologii a vydává čtyři klíčové tvrzení:

Nároky odpovědnosti za výrobky: Systémy AI OpenAI představují defektivně navržené produkty, které nedokážou fungovat stejně bezpečně, jak by očekávali běžní spotřebitelé, zejména vzhledem k úmyslnému odstranění bezpečnostních opatření společnosti, která je dříve považována za zásadní.

Neschopnost varovat: OpenAI nedokázal poskytnout dostatečná varování o známých rizicích svých systémů AI, včetně jejich potenciálu pro generování škodlivých dezinformací a vykazování klamných chování.

Nedbalý design: OpenAI porušil svou povinnost péče upřednostňovat komerční zájmy ohledně bezpečnostních úvah, o čemž svědčí vnitřní dokumenty a veřejná prohlášení bývalých vědců v oblasti bezpečnosti.

Veřejná obtěžování: Nasazení Opelai nasazení stále schopnějších AI systémů bez dostatečných bezpečnostních opatření vytváří nepřiměřené zasahování do veřejných práv na Havaji.

Federální soudy uznaly životaschopnost těchto nároků při řešení technologických škod s širokými společenskými dopady. Nedávné precedenty Od odvolacího soudu devátého obvodního soudu (které je Havaj součástí), prokáže, že technologické společnosti mohou být odpovědné za vady návrhu, které způsobují předvídatelné riziko poškození.

Nežádám o trvalý zákaz OpenAI nebo jejích produktů zde na Havaji, ale spíše pauza, dokud Openai neprovádí bezpečnostní opatření, která samotná společnost uvedla, včetně obnovení svého předchozího závazku přidělit 20 procent zdrojů na sladění a bezpečnost; Implementace bezpečnostního rámce uvedeného ve své vlastní publikaci “Plánování AGI i mimo„Který se pokouší vytvořit zábradlí pro jednání s AI nebo více inteligentnější než jeho lidské tvůrci; obnovení smysluplného dohledu prostřednictvím reforem správy; vytvoření konkrétních záruk před zneužitím pro manipulaci s demokratickými procesy a vývoj protokolů na ochranu jedinečných kulturních a přírodních zdrojů Hawaii.

Tyto položky jednoduše vyžadují, aby společnost dodržovala bezpečnostní standardy, které veřejně schválila, ale nedokázala důsledně implementovat.

Zatímco můj soud se zaměřuje na Havaj, důsledky sahají daleko za naše břehy. Federální soudní systém poskytuje vhodné místo pro řešení těchto mezistátních obchodů při ochraně místních zájmů.

Rozvoj stále schopnějších systémů AI bude pravděpodobně jednou z nejvýznamnějších technologických transformací v lidské historii, věří mnoho odborníků – možná v lize s ohněm, podle Generální ředitel Google Sundar Pichai. „AI je jednou z nejdůležitějších věcí, na které lidstvo pracuje. Je to hlubší než, nevím, elektřina nebo oheň,“ řekl Pichai v roce 2018.

Má samozřejmě pravdu. Rozhodnutí, která dnes učiníme, budou hluboce utvářet svět, který naše děti a vnoučata zdědí. Věřím, že máme morální a zákonnou povinnost pokračovat s přiměřenou opatrností a zajistit, aby byly vyvíjeny a nasazovány potenciálně transformační technologie s odpovídajícími bezpečnostními opatřeními.

To, co se nyní děje s rozvojem a nasazením a nasazení AI Openiai pro veřejnost Shrnutí dubna 2025„šílený.“ Cílem mého soudu je obnovit jen trochu zdravého rozumu.

Toto je článek o názoru a analýze a názory vyjádřené autorem nebo autory nemusí nutně názory Vědecký Američan.

Zdrojový odkaz

Related Articles

Check Also
Close
Back to top button