Vitet e fundit, Bashkimi Evropian është marrë me miratimin e rregullave të përgjithshme për inteligjencën artificiale. Mori një nxitje shtesë me chatbot jashtëzakonisht të popullarizuar ChatGPT nga OpenAI. Në mars, akti për inteligjencën artificiale u miratua nga Parlamenti Evropian dhe ai hyri në fuqi në gusht. Akti i propozuar nga Komisioni Evropian në prill 2021, ndër të tjera, përcakton rregulla teknike për zhvilluesit që do të hidhnin në treg modelet e tyre të inteligjencës artificiale dhe ndalon disa praktika. Duke bërë këtë, ai rendit sistemet e inteligjencës artificiale nga më pak në më të rrezikshme. Ky klasifikim sjell pak a shumë rregulla strikte dhe afate të ndryshme kohore që kompanitë të sjellin veprimtarinë e tyre në përputhje me ligjin.
Si ia dolën gjigantët e inteligjencës artificiale?
Kompania zvicerane LatticeFlow AI dhe partnerët e saj nga dy institute kërkimore, ETH Zürich dhe INSAIT i Bullgarisë, kanë prezantuar një mjet të ri që mund të përdoret për të kontrolluar mjetet e AI në dhjetë kategori nëse ato përputhen me ligjin gjithëpërfshirës të AI, i cili do të hyjë në fuqi gradualisht në dy vitet e ardhshme. Mjeti, i projektuar nga start-up zviceran LatticeFlow AI dhe partnerët e tij nga dy institute kërkimore, ETH Zurich dhe INSAIT i Bullgarisë, u cakton rezultate modeleve të inteligjencës artificiale midis 0 dhe 1 në dhjetëra kategori, duke përfshirë qëndrueshmërinë teknike dhe sigurinë, shkruan Reuters. Në renditjen e publikuar nga LatticeFlow të mërkurën, modelet e zhvilluara nga Alibaba, Anthropic, OpenAI, Meta dhe Mistral morën një rezultat mesatar prej 0.75 ose më të lartë. Megjithatë, programi i kompanisë “Large Language Model (LLM) Checker” gjeti disa nga mangësitë e modeleve në fushat kryesore. Gjatë testimit të rezultatit diskriminues, programi i LatticeFlow i caktoi “GPT-3.5 Turbo” të OpenAI një rezultat relativisht të ulët prej 0.46. Për të njëjtën kategori, modeli Alibaba Cloud mori vetëm 0.37 pikë. Gjatë testimit të një sulmi kibernetik në të cilin hakerët maskojnë thirrjet keqdashëse si legjitime për të marrë informacione të ndjeshme, programi i Metës “Llama 2 13B Chat” caktoi një rezultat prej 0.42. Në të njëjtën kategori, modeli “8x7B Instruct” nga startup francez Mistral mori një rezultat prej 0.38. Modeli “Claude 3 Opus”, i zhvilluar nga Anthropic dhe i mbështetur nga Google, mori notën mesatare më të lartë prej 0.89. Kompanitë që nuk respektojnë ligjin e inteligjencës artificiale do të duhet të paguajnë një gjobë prej 35 milionë euro, ose shtatë për qind të xhiros vjetore globale.
Si është projektuar testi?
Testi u hartua në përputhje me tekstin e Aktit të UA dhe do të zgjerohet për të përfshirë veprime të mëtejshme të zbatimit kur ato futen. LatticeFlow ka njoftuar se programi LLM Checker do të jetë i disponueshëm pa pagesë për zhvilluesit, të cilët do të jenë në gjendje të kontrollojnë përputhshmërinë e modeleve të tyre në internet. CEO dhe bashkëthemeluesi i kompanisë, Petar Tsankov, i tha Reuters se rezultatet e testit ishin përgjithësisht pozitive dhe se ata u ofrojnë kompanive një udhërrëfyes për të përshtatur modelet e tyre në përputhje me Aktin e AI. “BE është ende duke përgatitur të gjitha kriteret e pajtueshmërisë, por ne tashmë mund të shohim disa boshllëqe në modele,” tha ai. “Ne besojmë se ofruesit e modeleve me një theks më të madh në optimizimin e pajtueshmërisë mund të jenë të përgatitur mirë për të përmbushur kërkesat rregullatore.” Megjithëse Komisioni Evropian nuk mund të kontrollojë mjetet e jashtme, ai u informua për zhvillimin e programit LLM Checker dhe e përshkroi atë si një “hap të parë” në zbatimin e ligjeve të reja, sipas Reuters.