22 May 2024

"In mintea stramba si lucrul drept se stramba"
- parintele Arsenie BOCA

Luju

CEL MAI MARE PERICOL PENTRU JUSTITIE – Marea Britanie a inceput sa foloseasca inteligenta artificiala in solutionarea litigiilor. Cititi ghidul emis de Oficiul Judiciar din Regatul Unit: „Orice utilizare a IA de catre sau in numele sistemului judiciar trebuie sa fie in concordanta cu obligatia generala a sistemului judiciar de a proteja integritatea administrarii justitiei... Instrumentele AI pot inventa cazuri fictive, citari sau parafraze, ori pot invoca legislatie sau doctrina inexistenta”

Scris de: Valentin BUSUIOC | pdf | print

9 January 2024 18:22
Vizualizari: 4723

Entuziasmul exagerat in fata avansului tehnologic risca sa ne arunce intr-un scenariu distopic, in care omul sa fie inlocuit aproape total de masina pe care tot omul a creat-o.



Un astfel de scenariu a inceput deja sa fie implementat in sistemul judiciar din Marea Britanie (mai exact, din Anglia si Tara Galilor), condus de baroneasa Sue Carr (foto), fosta judecatoare la Inalta Curte a Londrei (a nu se confunda cu Curtea Suprema a Regatului Unit).

La 12 decembrie 2023, sistemul judiciar englezesc a emis un ghid pentru judecatori si celelalte categorii de personal din instante cu privire la folosirea inteligentei artificiale, dupa cum a relatat portalul Juridice.ro luni, 8 ianuarie 2024. Lumea Justitiei prezinta traducerea integrala a documentului, care contine recomandari atat pentru judecatori, grefieri si IT-isti, cat si pentru justitiabili si avocatii lor.

Desi recomanda folosirea inteligentei artificiale pentru usurarea muncii, autorii ghidului atrag totusi atentia ca exista numeroase cazuri in care AI-ul poate face greseli – ba chiar unele substantiale. De aceea, ghidul recomanda prudenta si verificarea informatiilor.

Totusi, nu ne putem intreba: este acest ghid doar un capriciu al vremurilor in care traim, spre a fi in pas cu moda, sau, dimpotriva, el reprezinta inceputul a ceva mult mai grav – si anume: inlocuirea omului de catre masina? Altfel spus: asistam la o simpla parada a modei (fie ea si cibernetica) sau la sindromul broastei fierte (daca apa este incalzita brusc, broasca sare din vas; insa daca temperatura creste suficient de lent, batracianul ramane in recipient pana cand moare fiert)? Intrebarea este cu atat mai legitima, cu cat avem deja un exemplu de tara europeana – Estonia – care foloseste de ani buni inteligenta artificiala in solutionarea proceselor.


Va lasam sa cititi singuri traducerea acestui ghid (vezi facsimil cu textul in limba engleza):


Introducere

Acest ghid a fost elaborat pentru a ajuta titularii de functii judiciare in legatura cu utilizarea Inteligentei Artificiale (IA / AI).

Ghidul traseaza principalele riscuri si probleme asociate cu utilizarea AI, precum si cateva sugestii pentru minimizarea lor. Sunt incluse si exemple de potentiale utilizari.

Orice utilizare a IA de catre sau in numele sistemului judiciar trebuie sa fie in concordanta cu obligatia generala a sistemului judiciar de a proteja integritatea administrarii justitiei.

Acest ghid se aplica tuturor detinatorilor de functii judiciare aflate sub responsabilitatea Doamnei Presedinte a Sistemului Judiciar, Domnului Presedinte Senior al Tribunalelor, precum si personalului auxiliar si conex din justitie.


Definitiile termenilor uzuali

Inteligenta artificiala (IA / AI): sisteme de calculatoare capabile sa indeplineasca sarcini care in mod normal solicita inteligena umana.

IA generativa: o forma de IA care genereaza continut nou, ce poate include text, imagini, sunete si cod de calculator. Unele instrumente de IA generativa sunt concepute pentru a intreprinde actiuni.

Chatbot de IA generativa: Un program de calculator care simuleaza o conversatie umana online folosind IA generativa. Exemple disponibile public: ChatGPT, Google Bard si Bing Chat.

Model lingvistic mare (MLM / LLM): MLM-urile sunt modele de inteligenta artificiala care invata sa anticipeze cel mai bun cuvant sau cea mai buna parte a unui cuvant intr-o propozitie dupa ce au fost antrenate pe cantitati enorme de text. ChatGPT si Bing Chat folosesc modelul lingvistic mare OpenAI.

Invatare automata (ML – n.r.: de la „machine learning”): o ramura a IA care utilizeaza date si algoritmi pentru a imita modul in care oamenii invata, imbunatatindu-si treptat precizia. Prin folosirea metodelor statistice, algoritmii sunt antrenati sa efectueze clasificari sau predictii, precum si sa descopere informatii-cheie in proiectele de extragere a cunostintelor din date (in original: „data mining” – „minerit din date”).

Analiza asistata de tehnologie (AAT / TAR): Instrumente de IA utilizate ca parte a procesului de aducere la cunostinta a informatiilor, pentru a identifica documente ce ar putea fi relevante. In AAT, un sistem de invatare automata este antrenat pe date create de avocati care identifica manual documente relevante, apoi instrumentul foloseste criteriile invatate pentru a identifica alte documente similare din seturi foarte mari de date folosite in procesul de aducere la cunostinta a informatiilor.


Indrumari pentru utilizarea responsabila a IA in instante


1) Intelegeti IA si aplicatiile sale

Inainte de a folosi orice instrument AI, asigurati-va ca aveti o intelegere de baza a capacitatilor si a potentialelor limitari ale acestuia.

Cateva limitari-cheie:

Chatbot-urile publice AI nu ofera raspunsuri din baze de date de specialitate. Ele genereaza text nou folosind un algoritm bazat pe solicitarile pe care le primesc si pe datele pe care au fost instruite. Aceasta inseamna ca rezultatul generat de chatbotii AI este ceea ce modelul prezice a fi cea mai probabila combinatie de cuvinte (pe baza documentelor si a datelor pe care le detine ca informatii-sursa). Asa ceva nu reprezinta neaparat cel mai precis raspuns.

La fel ca in cazul oricarei alte informatii disponibile pe Internet in general, instrumentele AI pot fi utile pentru a gasi material pe care l-ati recunoaste ca fiind corect, dar pe care nu-l aveti la indemana. Totusi, instrumentele AI reprezinta o modalitate de slaba calitate pentru efectuarea de cercetari ca sa gasiti informatii noi pe care nu le puteti verifica. Instrumentele AI pot fi vazute cel mai bine ca o modalitate de a obtine o confirmare nedefinitiva a ceva, mai degraba decat ca o entitate care furnizeaza imediat informatii corecte.

Calitatea oricaror raspunsuri pe care le primiti va depinde de modul in care interactionati cu instrumentul AI relevant, inclusiv de natura solicitarilor pe care le introduceti. Chiar si cu cele mai bune solicitari, informatiile furnizate pot fi inexacte, incomplete, inselatoare sau partinitoare.

Modelele lingvistice mari (MLM-urile) disponibile in prezent par sa fi fost instruite pe materiale publicate pe Internet. Deseori, 'viziunea' lor asupra legii se bazeaza in mare masura pe legislatia SUA, desi unele MLM-uri pretind ca pot face distinctia intre legislatia americana si cea englezeasca.


2) Protejati-va confidentialitatea si intimitatea!

Nu introduceti nicio informatie intr-un chatbot public AI care nu se afla deja in domeniul public! Nu introduceti informatii care sunt private sau confidentiale! Orice informatie pe care o introduceti intr-un chatbot public AI ar trebui considerata drept informatie publicata in intreaga lume.

Actualii chatboti AI disponibili public isi amintesc fiecare intrebare primita din partea dumneavoastra, precum si orice alta informatie pe care le-ati introdus-o. Aceste informatii sunt apoi disponibile pentru a fi utilizate ca raspunsuri la intrebarile altor utilizatori. Drept urmare, orice introduceti in chatbotul AI ar putea fi afisat public.

Ar trebui sa dezactivati istoricul chat-urilor in chatbotii AI daca aceasta optiune este disponibila. Aceasta optiune este disponibila in prezent in ChatGPT si Google Bard, dar in Bing Chat inca nu.

Retineti ca unele platforme AI, in special daca sunt utilizate ca aplicatie pe un smartphone, pot solicita diverse permisiuni care le ofera acces la informatiile de pe dispozitivul dvs. In aceste circumstante, ar trebui sa refuzati astfel de permisiuni.

In cazul divulgarii neintentionate de informatii confidentiale sau private, trebuie sa contactati judecatorul cu functie de conducere si Biroul Judiciar. Daca informatiile dezvaluite includ date personale, divulgarea trebuie raportata ca incident de date. Detalii despre modul de raportare a unui incident de date catre Oficiul Judiciar pot fi gasite la acest link: https://intranet.judicary.uk/publications/data-breach-notification-form-for-the-judiciary/

In viitor, pot deveni disponibile instrumente AI concepute pentru a fi utilizate in instante, dar, pana atunci, ar trebui sa tratati toate instrumentele AI ca fiind capabile sa divulge orice informatie pe care o introduceti.


3) Asigurati mecanisme de raspundere si de precizie!

Acuratetea oricaror informatii pe care le-ati primit de la un instrument AI trebuie verificata inainte de a fi utilizate sau de a va increde in ele.

Informatiile furnizate de instrumentele AI pot fi inexacte, incomplete, inselatoare sau depasite. Chiar daca ele pretind sa reprezinte legea engleza, este posibil sa nu faca acest lucru.

Instrumentele AI risca sa:

inventeze cazuri fictive, citari sau parafraze, ori pot invoca legislatie sau doctrina inexistenta

furnizeze informatii incorecte sau inselatoare cu privire la lege sau la modul ei de aplicare si

comita erori de fapt.


4) Atentie la eroarea de partinire!

Instrumentele AI bazate pe modele lingvistice mari (MLM-uri) genereaza raspunsuri pe baza setului de date pe care sunt instruite. Informatiile generate de AI vor reflecta inevitabil erori si partiniri in legatura cu datele pe baza carora inteligenta artificiala a fost instruita.

Ar trebui sa aveti intotdeauna in vedere aceasta posibilitate si necesitatea de a corecta acest lucru. S-ar putea sa aveti nevoie de asistenta in special pe baza Ghidului pentru egalitatea de tratament.


5) Pastrati securitatea!

Urmati cele mai bune practici pentru a va mentine securitatea proprie si pe cea a instantei!

Utilizati dispozitive (n.r. calculatoare, telefoane mobile, tablete etc.) de serviciu – mai degraba decat dispozitive personale – pentru a accesa instrumente AI! Folositi adresa de e-mail de la serviciu!

Daca aveti abonament cu plata la o platforma AI, utilizati-l! (Abonamentele platite au fost identificate ca fiind in general mai sigure decat cele neplatite.) Cu toate acestea, aveti grija ca exista companii terte care licentiaza platformele AI din surse externe si nu sunt la fel de fiabile in modul in care va pot folosi informatiile! Cel mai bine ar fi sa evitati astfel de companii.

Daca a existat o potentiala bresa de securitate, consultati punctul (2) de mai sus!


6) Asumati-va responsabilitatea!

Detinatorii de functii judiciare sunt responsabili personal pentru materialul care este produs in numele lor. In general, judecatorii nu sunt obligati sa descrie lucrarile de cercetare sau pregatitoare pentru pronuntarea unei hotarari. Presupunand ca aceste linii directoare sunt urmate in mod corespunzator, nu exista niciun motiv pentru care IA generativa nu ar putea fi un instrument secundar util.

Daca grefierii, asistentii judiciari sau alte categorii de personal folosesc instrumente AI in timpul activitatii depuse in sprijinul dumneavoastra (n.r. al judecatorilor), ar trebui sa discutati despre cu ei despre acest subiect, pentru a va asigura ca folosesc astfel de instrumente in mod corespunzator si ca iau masuri pentru a atenua orice risc. Daca utilizati un laptop de tip DOM-1 (n.r. „Document-Obiect-Model-1”), trebuie sa va asigurati, de asemenea, ca aceasta utilizare are aprobarea managerului de service din sistemul judiciar.


7) Fiti constienti de faptul ca este posibil ca utilizatorii instantei sa mai fi folosit instrumente AI!

Unele tipuri de instrumente AI sunt deja folosite de catre profesionistii in drept de ceva vreme, fara dificultate. De exemplu, TAR face parte acum din peisajul abordarilor legate de comunicarea actelor pe cale electronica. Lasand deoparte legislatia, multe aspecte ale inteligentei artificiale sunt deja utilizate – de exemplu: in motoarele de cautare pentru completarea automata a intrebarilor, in retelele sociale pentru a selecta continutul ce urmeaza sa fie livrat, in recunoasterea imaginilor si in generarea de text predictiv (n.r. sugestii de text in timp ce utilizatorul tasteaza).

Toti reprezentantii legali sunt responsabili pentru materialul pe care il pun in fata instantei si au obligatia profesionala de a se asigura ca este exact si adecvat. Presupunand ca AI este utilizat in mod responsabil, nu exista niciun motiv pentru care un reprezentant legal ar trebui sa aiba probleme cu folosirea inteligentei artificiale, dar acest lucru depinde de context.

Totusi, pana cand avocatii se familiarizeaza cu aceste noi tehnologii, poate fi necesar uneori ca, in cazuri punctuale, avocatilor sa li se reaminteasca obligatiile pe care le au, iar ei sa confirme ca au verificat in mod independent acuratetea oricaror materiale generate cu asistenta unui chatbot AI.

Chatbotii AI sunt acum folositi de justitiabili care nu beneficiaza de asistenta unui avocat. Ei pot fi singura sursa de sfaturi sau asistenta pe care o primesc unii justitiabili. Justitiabilii au rareori abilitatile de a verifica in mod independent informatiile legale furnizate de chatbotii AI si este posibil sa nu fie constienti ca acesti chatboti sunt predispusi la erori. Daca exista suspiciunea ca un chatbot AI a fost folosit pentru a pregati furnizarea de documente, este oportun sa intrebati ce verificari ale acuratetii au fost efectuate (daca este cazul). Exemple de indicatii ca textul a fost produs in acest fel sunt prezentate mai jos.

Instrumentele AI sunt acum folosite pentru a produce materiale false, inclusiv text, imagini si videoclipuri. Instantele au trebuit intotdeauna sa se ocupe de falsuri si suspiciuni de falsuri, ceea ce implica diverse niveluri de sofisticare. Judecatorii ar trebui sa fie constienti de aceasta noua posibilitate si de potentialele provocari generate de tehnologia „deepfake” („falsul sever”).


Exemple de posibile utilizari si riscuri ale inteligentei artificiale generative in instante:

I. Sarcini potential utile:

Instrumentele AI sunt capabile sa sintetizeze corpuri mari de text. La fel ca in cazul oricarui rezumat, trebuie sa va asigurati ca rezumatul este corect.

Instrumentele AI pot fi utilizate in scrierea prezentarilor – de exemplu: pentru a oferi sugestii privind subiecte de abordat.

Sarcinile administrative (cum ar fi scrierea de e-mailuri si memorii) pot fi efectuate de AI.


II. Sarcini nerecomandate:

Cercetare juridica: instrumentele AI sunt o modalitate de slaba calitate pentru efectuarea de cercetari in vederea gasirii de informatii noi pe care nu le puteti verifica in mod independent. Ele pot fi utile ca o modalitate de a va aminti tipul de continut pe care l-ati recunoaste drept corect.

Analiza juridica: actualii chatbot publici AI nu produc analize sau rationamente convingatoare.


III. Indicatii ca munca ar fi putut fi produsa de AI:

referinte la cazuri care nu suna cunoscut sau au citate nefamiliare (uneori din SUA);

parti care citeaza corpuri de jurisprudenta diferite in legatura cu aceleasi probleme de drept;

documente care nu sunt in concordanta cu intelegerea dumneavoastra generala a legislatiei aplicabile;

trimiteri care folosesc ortografia americana sau se refera la cazuri de peste ocean si

continut care (cel putin la suprafata) pare a fi foarte persuasiv si bine scris, dar care la o examinare mai atenta contine erori evidente de fond.

 


Comentarii

# eu date 9 January 2024 18:41 0

ar fi bine sa ne judece robotii,aia macar nu fac greva mascata

# Just date 9 January 2024 18:45 0

Oare ce salar are un astfel de judecator? Oare ce pensie va avea cind se va pensiona? Oare li se va norma si lor munca ? Si ceea ce-i intereseaza pe romani cel mai tare, oare cum faci aranjamente si combinatii cu un astfel de judecator IA ?!

# Robert date 9 January 2024 21:16 +1

Militia si procurorii, mana in mana sau separat, masluiesc probele in draci! Ce te faci ca avocat, cand masluirea e facuta cu ajutorul AI si judele accepta sau nu, "probe" doar dintr-o parte? Ca penalist, cum o sa arati ca clientul tau era in fapt in Guatemala, cand "probele" facute via AI, il arata filmat la locul faptei, in Barlad? Ca civilist, cum vei putea combate un act de proprietate datat 1817, care nu poate fi gasit in arhive, prezentat de partea adversa ca dovada a succesiunii, facut de AI? In privinta asta nu sunt decat doua variante: fie toata justitia e lasata la indemana AI, care poate deosebi falsurile AI de originale, fie AI nu are ce cauta in sistemul de justitie, deloc! Justitia oamenilor trebuie sa fie facuta de oameni, cea divina trebuie facuta de Divinitate. Punct. AI nu-si are locul aici.

# Werner date 9 January 2024 22:03 +3

Le-am luat-o inainte, noi avem de 9 ani președinte robot.

# maxtor date 10 January 2024 10:25 0

atunci sa vezi sedinte publice si solemne.....

# vasile date 10 January 2024 14:37 0

Dar roboţii nu pot fi mituiţi de politicieni? Eu cred că da. Ce- mi e Kioveşi ce-mi e "Ion"

# Cris date 10 January 2024 16:19 0

AI nu poate considera toate particularitatile unui caz, si respectiv de a intelege comportamente si ce este in spatele lor, deci nu poate lua decizie..Inca. Peste vreo 10 ani mai vedem cum arata.

# Liță date 10 January 2024 17:07 -1

Justitie + inteligenta artificiala = justitie artificiala.

# Diana date 11 January 2024 10:53 0

Marile îndrumări britanice sunt, ca de obicei în sistemele juridice, de o crasă imbecilitate. Acești imbecili nu au auzit de roboți de conversație (chatbots) dedicați, adică un fel de chatGPT, dar nu cel care adună de pe net toate gunoaiele, cu unul în care bagi toate informațiile oficiale din legislație și din jurisprudență. Sistemul nu este periculos, cu FUNDAMENTAL NECESAR, mai ales în mediul juridic românesc, care mustește de judecătoare proaste și de rea-credință. Așa ar putea fi corectate multe din nenorocirile create de judecătoarele analfabete funcțional. Și ar sparge și gașca de sinecuriști de la Inspecția Judiciară.

Adauga comentariu

:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:

DISCLAIMER

Atentie! Postati pe propria raspundere!
Inainte de a posta, cititi aici regulamentul: Termeni legali si Conditii

EDITORIAL

Vorbe de fumoar

Vorbe de fumoar – 21.05.2024 – Minune mare: Bosoc a dat pronuntare!

+ DETALII

FACEBOOK

Utlimele comentarii
Cele mai citite
LUMEA JUSTITIEI
Arhiva