În ultima vreme am tot citit articole interesante referitoare la inteligența artificială (IA) și m-am gândit că un pic de sistematizare nu strică. În continuare, trei secțiuni – una geopolitică, asta pentru că viitoarele tehnologii precum IA vor avea întotdeauna implicații geopolitice, o a doua legată de tehnologie în sine, ce înseamnă și ce impact ar putea avea și ultima focusată asupra unor proiecte recente în domeniu.

Anunțul UE cu privire la restricționarea utilizării IA pe teritoriul statelor europene constituie, conform Wired, „cel mai important efort internațional de reglementare a IA până la momentul de față, vizând recunoașterea facială, autovehiculele autonome și algoritmii care stau la baza reclamelor online, angajarea automată și creditele sociale”. O să mai dureze ceva până la adoptarea schimbărilor propuse, pentru că procesul comunitar este sinuos, dar reglementările sunt semnificative. Se pare că sunt mișcări de reglementare și pe celălalt țărm al Atlanticului, întrucât Comisia federală pentru comerț a SUA (FTC) intenționează să sancționeze companiile care utilizează și vând algoritmi eronați. Important e că anunțul m-a dus cu gândul la niște etichete puse de Simon Greenman (Best Practice AI) principalelor ecosisteme IA din lume, cu ocazia unei conferințe virtuale la care am asistat – SUA era văzută ca o lume a „Big Tech-ului libertarian” (adică nu reglementează excesiv domeniul, pentru că beneficiile inovării sunt mult mai mari decât riscurile asociate acesteia), China este domeniul „IA pentru supraveghere” (apropo de sistemul de credit social sau programele avanate de recunoaștere facială), catalogat de alți autori drept tehno-autoritarism, iar UE este zona „IA citizen-first” (unde viața privată și siguranța cetățeanului sunt în prim plan). Astfel, nu ar trebui să ne mire că The Economist vorbește de „efectul Bruxelles” (similar impactului GDPR la nivel global) și dorința UE de a deveni super-reglementatorul global în domeniul IA. Dar pentru a intra în detalii cu privire la celelalte două abordări vă invit să citiți raportul final al Comisiei de securitate națională pentru inteligență artificială (NSCAI), cu privire la implicațiile IA asupra securității naționale și posibilitățile de gestionare a implicațiilor respective (am scris un post scurt pe FB despre conținutul acestuia) și un articol interesant, disponibil pe ResearchGate, despre abordarea chineză în IA (politici, etică și reglementări), scris de niște cercetători britanici. O să fie foarte interesant de urmărit în ce măsură va reuși UE să „echilibreze” diferențele și divergențele din ce în ce mai mari dintre SUA și China în domeniul IA..
Trecând de la geopolitică la partea tehnică (dar un pic și de filoofie a IA), voiam să menționez „AI Index Report for 2021”, raportul celor de la Stanford pe tema IA. Pe scurt – trăim „vara” IA (adică cercetările în domeniu se accelerează), China preia conducerea în raport cu numărul articolelor științifice publicate, se îmbunătățește partea de hardware și astfel se reduce timpul de antrenare a algoritmilor, recunoașterea facială stagnează, dar procesarea limbajului are nevoie de teste mai complexe și multe altele referitoare la startup-uri, adoptarea IA în diverse industrii (vezi graficul de mai jos) și piața joburilor, riscuri, etică și bias.. Și apropo de evoluții tehnice punctuale, cercetătorii de la ETZ Zurich folosesc un nou tip de rețele neurale (spiking) pentru a construi procesoare neuromorfice (pe scurt, procesoare ce pot imita procesele biologice), iar o cercetare mai veche de la Google (redescoperită de Medium) menționează utilizarea unui alt tip de rețele neurale (adversarial) pentru criptare homomorfică (pe scurt, tip de criptare ce permite derularea de operații direct pe datele criptate). La granița dintre tehnic și zona de filosofie a IA, ar fi interesantă lucrarea lui Geoffrey Hinton (unul din pionierii implementării rețelelor neurale), care descrie un sistem imaginar, GLOM, ca bază pentru modelarea percepției umane în vederea implementării acesteia în sistemele IA. Demersul lui Hinton mi-a readus aminte de alte încercări de a implementa emoția sau conștiința (de urmărit Yoshua Bengio) la nivelul mașinii.. Tot ne mutăm spre zona de filosofie a IA, aș menționa un studiu interesant al celor de la Comisia Europeană, „Oamenii și societățile în era IA” (care se oprește asupra sensurilor și diferențelor culturale în IA, dar și a impactului asupra democrațiilor și pieței libere sau inegalității și educației), dar și o carte interesantă, „Atlasul IA” (care „leagă” IA de geografia componentelor și încearcă reorientarea discuției referitoare la IA de la etică la putere, inegalitate și impact asupra mediului înconjurător). Iar pe final, un panseu de la Wired despre cum ne vor hack-ui IA-urile dacă nu suntem atenți (conștientizarea e bună, atâta vreme cât nu ne sperie), care poate merge la pachet cu un sondaj al ScienceAlert cu privire la amenințarea generată de IA (ScienceAlert a întrebat 11 experți în IA și computere dacă IA este o amenințare existențială la adresa umanității și a obținut un consens de 82% că nu)..


Și pe final, despre niște proiecte interesante.. Niște cercetători americani au dezvoltat o aplicație IA, InfoShield, care poate scana reclamele online pentru escorte și identifica victimele traficului de ființe umane și pe traficanții acestora. Mi s-a părut o chestie fantastică, mai ales că aplicația a fost testată pe date reale și a avut o acuratețe de 84%. Pe de altă parte, o aplicație IA a constatat că manuscrisele de la Marea Moartă (descoperite în 1946) au fost scrise de 2 persoane, nu de una așa cum s-a crezut inițial, iar Sony a patentat o aplicație IA care să joace jocuri în locul nostru. Alți cercetători au „învățat” rețelele neurale să rezolve ecuații diferențiale parțiale complexe mult mai rapid (FNO / Fourier Neural Operator) sau să scrie linii de cod pentru calculatoare (SourceAI). Tot la proiecte punctuale, doar să reamintesc că cercetătorii elvețieni au dezvoltat nanosenzori care utilizează IA pentru monitorizarea moleculelor biologice, fără a le perturba starea, iar doi cercetători spanioli au demonstrat, dacă mai era nevoie după Cambridge Analytica, cât este de ușor să influențezi oamenii cu ajutorul algoritmilor (experimentele sunt diverse, de la alegeri la dating).