UE și 27 de națiuni vor colabora cu privire la pragurile de risc pentru modelele de AI care ar putea ajuta la construirea de arme biologice și chimice! Ce s-a mai discutat in cadrul Summitul-ui AI din Seul?
|Summitul AI de la Seul, găzduit de Republica Coreea de Sud și Regatul Unit al Marii Britanii, a reunit organisme internaționale pentru a discuta progresul global al Inteligenței Artificiale.
Printre participanți s-au numărat reprezentanți ai guvernelor a 20 de țări, ai Comisiei Europene și ai Națiunilor Unite, precum și membrii ale unor institute academice notabile și grupuri civile. De asemenea, au participat o serie de „giganți” AI, precum OpenAI, Amazon, Microsoft, Meta și Google DeepMind.
În cadrul conferinței care a avut loc pe 21 și 22 mai, națiunile participante au luat angajamentele privind siguranța AI, institutele de siguranță AI, granturile de cercetare și pragurile de risc. Unul unul dintre obiectivele cheie a fost acela de a forma un set global de standarde și reglementări de siguranță al Artificial Inteligence la nivel global.
Au fost întreprinși o serie de pași cheie:
- Giganții tehnologiei s-au angajat să publice cadre de siguranță pentru modelele AI;
- Națiunile au convenit să formeze o rețea internațională de AI Safety Institues;
- Națiunile au convenit să colaboreze cu privire la pragurile de risc pentru modelele de AI care ar putea ajuta la construirea de arme biologice și chimice;
- Guvernul Regatului Unit s-a angajat să ofere până la 8,5 milioane de lire sterline subvenții pentru cercetarea în domeniul protecției societății împotriva riscurilor AI.
„Acordurile la care am ajuns la Seul marchează începutul etapei a doua a agendei noastre privind siguranța AI, în care liderii din întreaga lume fac pași concreți pentru că lumea în care trăim să se apere împotriva riscurilor AI. Totodată se vă începe o aprofundarea înțelegerii științei care va sprijini o abordare comună a siguranței AI în viitor”
Michelle Donelan, Secretarul pentru Tehnologie al Regatului Unit al Marii Britanii.
Giganții tehnologiei s-au angajat să publice cadre de siguranță pentru modelele lor de „Frontier AI”
16 companii globale AI: Amazon (SUA), Antropic (SUA), Cohere (Canada), Google (SUA), G42 (Emiratele Arabe Unite), IBM (SUA), Inflexie AI (SUA), Meta (SUA), Microsoft (SUA), Mistral AI (Franța), Naver (Coreea de Sud), OpenAI (SUA), Samsung Electronics (Coreea de Sud), Institutul de Inovare Tehnologică (Emiratele Arabe Unite), xAI (SUA), Zhipu.ai (China) au luat angajamente voluntare de implementare a celor mai bune practici legate de siguranța AI.
„Frontier AI” este definit că un modele sau sistem AI de uz general de înaltă capacitate care poate îndeplini o mare varietate de sarcini și poate potrivi sau depăși capacitățile prezente în cele mai avansate modele.
Angajamente de siguranță „Frontier AI” promit că:
- Organizațiile identifică, evaluează și gestionează eficient riscurile atunci când își dezvoltă și implementează modelele și sistemele AI;
- Organizațiile sunt responsabile pentru dezvoltarea și implementarea în siguranță a modelelor și sistemelor AI;
- Abordările organizațiilor cu privire la siguranța AI sunt transparente pentru actorii externi, inclusiv pentru guverne.
- Companiile de tehnologie sunt obligate să publice cadre de siguranță privind modul în care vor măsura riscul „modelelor de frontieră” pe care le dezvoltă. Aceste cadre vor examina potențialul de utilizare greșită a Inteligenței Artificiale, ținând cont de capacitățile, garanțiile și contextele de implementare.
- Companiile trebuie să sublinieze când riscurile severe ar fi „considerate intolerabile” și să sublinieze ce vor face pentru a se asigura că pragurile nu sunt depășite!
Națiunile,printre care s-au aflat Australia, Canada, Uniunea Europeană (Franţa, Germania, Italia), Japonia, Coreea de Sud, Singapore, Regatul Unit al Marii Britanii, Statele Unite ale Americii au convenit să formeze o rețea internațională de Institute de siguranță AI.
Liderii mondiali ai celor 10 națiuni și UE au convenit să colaboreze la cercetarea în domeniul siguranței AI prin formarea unei rețele de „Institute de siguranță AI”. Fiecare dintre ei a semnat Declarația de intenție de la Seul pentru cooperarea internațională în domeniul științei siguranței AI, care afirmă că vor stimula „cooperarea internațională și dialogul privind inteligența artificială în fața progreselor sale fără precedent și a impactului asupra economiilor și societăților noastre”!
UE și 27 de națiuni au convenit să colaboreze cu privire la pragurile de risc pentru modelele de AI care ar putea ajuta la construirea de arme biologice și chimice!
Acestea vor conveni, când capabilitățile modelului ar putea prezenta „riscuri severe”. Astfel de sisteme cu risc ridicat le includ pe cele care ar putea ajuta actorii răi să acceseze armele biologice sau chimice și pe cele cu capacitatea de a se sustrage supravegherii umane. Semnatarii își vor dezvolta propunerile privind pragurile de risc cu companiile de inteligență artificială, societatea civilă și mediul academic și le vor discuta la Summit-ul de acțiune al AI , ce va avea loc la Paris.
Guvernul Regatului Unit va oferi până la 8,5 milioane de lire sterline subvenții pentru cercetarea în domeniul protecției societății împotriva riscurilor AI
Guvernul UK va acorda până la 8,5 milioane de lire sterline granturi de cercetare pentru studiul atenuării riscurilor AI, cum ar fi deepfake-urile și atacurile cibernetice. Beneficiarii vor lucra în domeniul așa-numitei „siguranțe sistemice AI”, care analizează înțelegerea și intervenția la nivel social în care funcționează sistemele AI.
Grant Sistemic AI Safety Fast ar putea analiza:
- Limitarea proliferării imaginilor false și a dezinformării prin intervenția pe platformele digitale care le răspândesc;
- Prevenirea atacurilor cibernetice activate de AI asupra infrastructurii critice, cum ar fi cele care furnizează energie sau asistență medicală;
- Monitorizarea sau atenuarea efectelor secundare potențial dăunătoare ale sistemelor AI care întreprind acțiuni autonome pe platformele digitale, cum ar fi roboții de rețele sociale.
În România, AI Expo Europe este evenimentul care vă decripta impactul Inteligenței Artificiale asupra prezentului, dar mai ales al viitorului! Pe 6-7 octombrie, la Radisson Blu din Capitală cea mai mare conferința interactivă din Estul și Centrul Europei va implica profesioniști, lideri și adepți ai inovației, „dreamers, thinkers&doers”, mentori și oameni de afaceri, într-un eveniment unic al acestei industrii ce deja schimbă lumea!
Sub sloganul „Transforming tomorrow, today”, evenimentul va reuni sub aceeași cupolă: lideri din industrie care vor discuta despre aplicațiile de ultimă oră și despre viitorul inteligenței artificiale; expoziții interactive ce vor prezenta cele mai recente servicii și inovații practice, pe care le aduce AI; evenimente de conectare în lounge-ul VIP cu liderii și partenerii din industrie, precum și o ceremonie de gală.
Pentru mai multe informații, pentru a cumpăra bilete sau pachete promoționale, click aici: www.aiexpoeurope.com
Subiecte de discuție vor fi vaste: Învățare automată și tehnici de învățare profundă; Procesarea limbajului natural și aplicațiile sale; AI în asistența medicală: oportunități și etică; Robotică și automatizare; AI pentru analiza afacerilor și interpretarea datelor; AI în securitatea cibernetică: protejarea împotriva amenințărilor emergente; Considerații etice în dezvoltarea AI; Rolul AI în durabilitatea mediului; AI în servicii financiare: de la algoritmi la aplicații practice; Viitorul în educație: învățare personalizată și nu numai prin intermediul AI; Orașe inteligente și planificare urbană alimentate de AI; Intersecția dintre AI și IoT: îmbunătățirea conectivității dispozitivelor; Progrese în tehnologia de consum bazată pe inteligență artificială; Impactul AI asupra industriilor creative: artă, muzică și design; Peisajul de reglementare și juridic din jurul AI.