Az AI nem közvetlen egzisztenciális fenyegetés, hanem „biztonsági fékekre” van szükség: Microsoft – National

1701265891 Az AI nem kozvetlen egzisztencialis fenyegetes hanem „biztonsagi fekekre van
A Microsoft elnöke kijelentette, hogy nem hiszi, hogy a mesterséges intelligencia közvetlen veszélyt jelentene az emberi létre, de a kormányoknak és a vállalatoknak továbbra is gyorsabban kell lépniük a technológia kockázatainak kezelése érdekében az általa úgynevezett „biztonsági fékek” bevezetésével.
„Nem látunk semmilyen kockázatot az elkövetkező években, a következő évtizedben, hogy a mesterséges intelligencia valamiféle egzisztenciális veszélyt jelentene az emberiségre, de… oldjuk meg ezt a problémát, mielőtt a probléma felmerül” – mondta Brad Smith. egy interjú a The Canadian Pressnek.
Smith – a Microsoft egyik tagja, aki először 1993-ban csatlakozott a céghez, most pedig alelnöke – azt mondta, hogy fontos a technológiával kapcsolatos problémák kézben tartása, hogy a világnak ne kelljen „folyamatosan aggódnia és beszélnie róla .”

Úgy véli, hogy a lehetséges problémákat a biztonsági fékeken keresztül lehet megoldani, amelyek úgy működhetnek, mint a liftekbe, iskolabuszokba és nagysebességű vonatokba épített vészhelyzeti mechanizmusok.
Ezeket a nagy kockázatú mesterséges intelligencia-rendszerekbe kell beépíteni, amelyek olyan kritikus infrastruktúrákat kezelnek, mint az elektromos hálózat, a vízrendszer és a forgalom.
„Tanuljunk a művészetből” – mondta Smith.
„Minden film, ahol a technológia egzisztenciális fenyegetést jelent, ugyanúgy végződik – az emberek kikapcsolják a technológiát. (Tehát) legyen ki-be kapcsolód, legyen biztonsági fékkel, ügyelj arra, hogy az emberi irányítás alatt maradjon. Fogadjuk el, és tegyük meg most .”

Smith megjegyzései a mesterséges intelligencia használatának és innovációjának versenyfutásaként törtek ki a technológiai szektorban és azon túl is, miután megjelent a ChatGPT, egy mesterséges intelligencia chatbot, amelyet arra terveztek, hogy szöveges üzenetekre emberszerű válaszokat generáljon.
A Microsoft milliárdokat fektetett be a ChatGPT megalkotójába, a San Francisco-i OpenAI-ba, és rendelkezik saját mesterséges intelligencia-alapú technológiával, a Copilot-tal is, amely segít a felhasználóknak tartalmak vázlatában, különböző módokat javasol az általuk írt szöveg megfogalmazására, és segít PowerPoint prezentációk létrehozásában. Word dokumentumokból.
Sokaknak azonban mély aggodalmaik vannak a mesterséges intelligencia fejlődésének üteme miatt. Például Geoffrey Hinton, a brit-kanadai mélytanulás úttörője, akit gyakran az AI keresztapjaként is emlegetnek, azt mondta, hogy úgy érzi, a technológia elfogultsághoz és diszkriminációhoz, munkanélküliséghez, visszhangkamrákhoz, álhírekhez és harci robotokhoz vezethet. és egyéb kockázatok. .
Számos kormány, köztük a kanadai kormány, elkezdett védőkorlátokat kialakítani a mesterséges intelligencia körül.

A Microsoft szerdán közzétett 48 oldalas jelentésében Smith elmondta, hogy cége támogatja Kanada AI szabályozására irányuló törekvését.
Ezen erőfeszítések közé tartozik a szeptemberben kiadott önkéntes magatartási kódex, amelynek aláírói – köztük a Cohere, az OpenText Corp., a BlackBerry Ltd. és Telus Corp. – ígéretet tesznek arra, hogy felmérik és mérséklik mesterségesintelligencia-alapú rendszereik kockázatait, figyelik őket az incidensekre, és fellépnek az általuk kifejlesztett problémákkal kapcsolatban.
Bár a kódnak vannak olyan kritikusai, mint a Shopify Inc. alapítója, Tobi Lutke, akik példának tartják az ország túl sok „bírót” használó országot, amikor több „építőre” van szüksége, Smith a jelentésben kifejtette, hogy Kanada egy kódex kialakítása során „bizonyított korai vezetés”, és segíti a világot a közös elvek kialakításában.
Az önkéntes kódexet várhatóan Kanadában a mesterséges intelligenciáról és az adatokról szóló törvény követi, amely új büntetőjogi rendelkezéseket hoz létre a mesterséges intelligencia „meggondolatlan és rosszindulatú” felhasználásának megtiltására, amely súlyos károkat okoz a kanadaiaknak.
A C-27-es törvényjavaslatként ismert jogszabály átment az első és a második olvasaton, de a bizottság még mindig megvizsgálja. Ottawa azt mondta, hogy csak 2025-ben lép hatályba.
Arra a kérdésre, hogy miért gondolja, hogy a kormányoknak gyorsabban kell lépniük az AI-val, Smith azt mondta, hogy a ChatGPT megjelenése óta „rendkívüli év” előtt áll a világ.
„Amikor azt mondjuk, hogy gyorsabban menjen, az őszintén szólva nem kritikaként értendő” – mondta.
„Az a célja, hogy felismerje a jelenlegi valóságot, ahol az innováció a legtöbben vártnál gyorsabb ütemben indult el.”
Kanadát azonban az egyik legfelkészültebb országnak tekinti a mesterséges intelligencia ütemének kezelésére, mivel az egyetemek régóta hangsúlyozzák a technológiát, és olyan városok, mint Montreal, Toronto és Vancouver a mesterséges intelligencia innovációjának melegágyai.
„Ha van egy kormány, amelynek hagyományai vannak, és erre építhet valami hasonlót, akkor az szerintem Kanada. Remélem, ez lesz az első” – mondta Smith.
– Nem ez lesz az utolsó, ha az első.

Mivel azonban Kanada mesterséges intelligencia-akciója „átgondolt megfontolás” előtt áll, Smith úgy véli, Kanadának meg kell fontolnia, hogy addig is hogyan fogadhat el további biztosítékokat.
Például a magas kockázatú mesterségesintelligencia-rendszerek beszerzési folyamata során úgy véli, hogy a szerződést kereső partnereket arra kényszeríthetik, hogy harmadik felek által végzett auditokat alkalmazzanak a vonatkozó nemzetközi mesterségesintelligencia-szabványoknak való megfelelés megerősítésére.
A jelentésben Smith a mesterséges intelligencia azon megközelítése mögé is támaszkodott, amelyet „határokon átnyúlóan fejlesztenek és használnak”, és „biztosítja, hogy az egyik joghatóságban biztonságosnak minősített AI-rendszer egy másik jogrendszerben is biztonságosnak minősüljön”.
Ezt a megközelítést a Nemzetközi Polgári Repülési Szervezettel hasonlította össze, amely egységes szabványokat alkalmaz annak biztosítására, hogy egy gépet ne kelljen módosítani a Brüsszelből New Yorkba tartó járat közben, hogy megfeleljen az egyes országok eltérő követelményeinek.
Egy nemzetközi kód segítségével a mesterséges intelligencia fejlesztői tanúsíthatják rendszereik biztonságát, és globálisan növelnék a megfelelőséget, mert használhatnák a nemzetközileg elfogadott szabványokat.
„Az önkéntes kódex modellje lehetőséget ad Kanadának, az EU-nak, az Egyesült Államoknak, a G7 többi tagjának, valamint Indiának, Brazíliának és Indonéziának, hogy közös értékek és elvek mentén haladjanak előre” – áll a jelentésben.
„Ha önkéntes alapon tudunk együtt dolgozni másokkal, akkor mindannyian gyorsabban, nagyobb odafigyeléssel és összpontosítással fogunk összefogni. Ez nem csak a technológiai világ számára jó hír, hanem az egész világ számára.”