§ FintechOS Legal Academy

AI for Legal

Ghid pentru înțelegerea modelelor de reasoning AI și aplicațiilor în domeniul juridic.

Autor Răzvan Neacșu
Poziție Director of Legal, FintechOS
Versiune Ianuarie 2026

Ce sunt Reasoning Models?

Reasoning models sunt o clasă de modele AI care alocă compute suplimentar la momentul inferenței pentru a "gândi" înainte de a răspunde, producând raționamente explicite pas cu pas.[1]

De ce contează pentru juriști?

Raționamentul juridic presupune aplicarea regulilor la fapte, analiza precedentelor și construirea argumentelor logice. Reasoning models replică acest proces prin Chain-of-Thought, făcând posibilă verificarea și auditarea logicii AI-ului - similar cum un judecător își motivează sentința.

Analogia cu raționamentul juridic

Gândește-te la un avocat experimentat vs. un junior

Un LLM standard este ca un junior care răspunde imediat, bazându-se pe memorie și intuiție - rapid, dar poate rata nuanțe importante.

Un reasoning model este ca un avocat senior care:

  1. Citește cu atenție toate documentele
  2. Identifică problemele juridice relevante
  3. Analizează legislația și jurisprudența aplicabilă
  4. Construiește argumentele pas cu pas
  5. Verifică logica înainte de a formula concluzia

Cum procesează informația: LLM Standard vs. Reasoning Model

LLM STANDARD REASONING MODEL Întrebare: "Este valid contractul?" Procesare directă (pattern matching din antrenare) ~0.5-2 secunde Răspuns direct: "Da, contractul pare valid dacă..." (fără raționament vizibil) Risc: Poate omite aspecte critice Nu poți verifica logica Întrebare: "Este valid contractul?" FAZA DE GÂNDIRE (Thinking Tokens) 1. Identific elementele esențiale: părți, obiect, cauză 2. Verific capacitatea juridică a părților 3. Analizez consimțământul - vicii posibile? 4. Evaluez obiectul - licit, determinat? 5. Verific forma cerută de lege 6. Sintetizez și formulez concluzia Răspuns structurat: "Analizând cele 5 condiții de validitate... contractul prezintă un risc la art. X..." (raționament verificabil, ~10-60 sec)

Diferența fundamentală

LLM-uri standard (GPT-4, Claude 3) generează răspunsuri token cu token, fără o fază explicită de "gândire". Sunt rapide dar pot produce erori la probleme care necesită raționament multi-step.[2]

Reasoning models (OpenAI o1, o3, DeepSeek-R1) folosesc "test-time compute" - alocă resurse suplimentare pentru a explora multiple căi de raționament înainte de răspunsul final.[3]

Tehnici de raționament: Ghid detaliat

Chain-of-Thought (CoT)

Tehnica prin care modelul este instruit să "gândească pas cu pas". Introdusă de Wei et al. (2022), îmbunătățește semnificativ performanța pe sarcini de raționament.[2]

Tree-of-Thoughts (ToT)

Extinde CoT prin explorarea multiplelor căi de raționament simultan și selectarea celei optime. Util pentru probleme cu multiple soluții posibile.[4]

Self-Consistency

Generează multiple răspunsuri independent și selectează consensul. Reduce erorile prin agregare statistică.[5]

Chain-of-Thought: Cum funcționează în practică

Imaginează-ți că întrebi un LLM: "Un contract de vânzare imobiliară încheiat verbal este valid?"

FĂRĂ Chain-of-Thought Q: Contract vânzare imobiliară verbal - valid? A: "Nu, contractul nu este valid." Problemă: Răspuns corect, dar fără explicație. Nu știm de ce, nu putem verifica logica. CU Chain-of-Thought Q: Contract vânzare imobiliară verbal - valid? Gândește pas cu pas. Pas 1: Identific tipul contractului → Vânzare-cumpărare imobiliară Pas 2: Verific cerințele de formă → Art. 1244 Cod Civil: formă autentică ad validitatem Pas 3: Aplic regula la situație → Forma verbală ≠ formă autentică notarială Pas 4: Determin sancțiunea → Art. 1242 alin. 1: nulitate absolută Concluzie: Contractul este lovit de nulitate absolută pentru lipsa formei.

Beneficiul pentru avocați: Poți verifica fiecare pas al raționamentului, poți identifica erori în interpretare, și poți cita logic argumentele în propriile documente.

Tree-of-Thoughts: Explorarea alternativelor

Pentru probleme juridice complexe cu multiple interpretări posibile, Tree-of-Thoughts explorează mai multe căi simultan:

Întrebare: "Clauza penală de 200% din valoare este executabilă?" Analiză clauză penală Calea 1: Validitate formală Art. 1538-1543 Cod Civil Calea 2: Reducere judiciară Art. 1541 - vădit excesivă Calea 3: Clauze abuzive L. 193/2000 (B2C) Evaluare: Formal validă Dar poate fi contestată Scor: 4/10 Evaluare: Probabil reducibilă 200% = vădit disproporționat Scor: 8/10 (cea mai bună) Evaluare: Depinde de context Doar dacă e relație B2C Scor: 6/10 RĂSPUNS OPTIMAL SELECTAT "Clauza este formal validă, dar instanța poate reduce penalitatea conform art. 1541 pentru caracter excesiv."

Exemplu practic: Reasoning model rezolvă o problemă juridică

Să vedem exact cum un reasoning model abordează o întrebare juridică reală, comparativ cu un LLM standard:

Întrebarea clientului:

"Am semnat un contract de consultanță cu un client persoană fizică. Clientul refuză să plătească factura de 15.000 lei, invocând că serviciile nu au fost prestate conform așteptărilor. Contractul nu are clauză de rezoluțiune și nici procedură de reclamații. Ce pot face?"

LLM Standard - Răspuns tipic

"Puteți să vă adresați instanței pentru recuperarea creanței. Va trebui să demonstrați că ați prestat serviciile conform contractului. Recomand să consultați un avocat specializat în drept civil pentru a evalua șansele de succes."

Probleme: Răspuns generic, nu analizează specificul situației, nu menționează articole de lege, nu explorează toate opțiunile.
Reasoning Model - Procesul de gândire
// Thinking tokens (raționament intern):

Pas 1: Calificare juridică
Contract de consultanță = contract de prestări servicii
Drept aplicabil: Codul Civil, Titlul IX
Client PF = posibil consumator → verifică OG 21/1992

Pas 2: Analiză situație factuală
- Creanță: 15.000 lei (sub 50.000 lei = ordonanță)
- Refuz plată motivat de "așteptări" (subiectiv)
- Lipsă clauză rezoluțiune ≠ imposibilitate rezoluțiune

Pas 3: Opțiuni juridice
A) Executare silită:
  - Art. 1516 CC: creditorul poate cere executare
  - Dar: trebuie dovedită prestarea

B) Ordonanță de plată:
  - Art. 1014 NCPC: creanță certă, lichidă, exigibilă
  - Avantaj: procedură rapidă
  - Risc: dacă debitorul contestă, trece la fond

C) Soluționare amiabilă:
  - Mediere/negociere
  - Art. 1522 CC: punere în întârziere prealabilă

Pas 4: Probleme de dovedit
- Existența contractului: act sub semnătură privată
- Prestarea serviciilor: rapoarte, corespondență
- Exigibilitate: termen împlinit

Pas 5: Recomandare
Dată lipsa clauzei de rezoluțiune și contestația
calitativă → risc la contestație ordonanță...

Răspuns final Reasoning Model (output structurat):

I. Calificare și drept aplicabil

Contractul de consultanță este reglementat de dispozițiile privind contractul de prestări servicii (art. 2278-2279 Cod Civil). Clientul fiind persoană fizică, verificați dacă serviciile sunt în scop personal (aplicabil OG 21/1992 privind protecția consumatorilor) sau profesional.

II. Opțiuni procedurale

OpțiuneTemei legalAvantajeRiscuri
Ordonanță de plată Art. 1014-1025 NCPC Rapiditate, costuri reduse Contestație = judecată pe fond
Acțiune în pretenții Art. 1516 CC + art. 192 NCPC Analiză completă Durată, costuri mai mari
Mediere L. 192/2006 Relație, confidențialitate Necesită acord ambele părți

III. Recomandare

  1. Imediat: Trimiteți punere în întârziere scrisă (art. 1522 CC) cu termen de 15 zile
  2. Pregătiți dovezi: Contractul semnat, rapoarte de activitate, corespondență, orice deliverables
  3. Evaluați ordonanța: Dacă aveți documente clare de prestare, ordonanța e prima opțiune
  4. Plan B: Dacă contestă ordonanța, continuați pe fond cu probe suplimentare

Notă: Această analiză se bazează pe informațiile furnizate. Recomand verificarea contractului pentru clauze speciale și consultarea unui avocat pentru strategia finală. Knowledge cutoff: verificați modificări legislative recente.

Când să folosești ce tip de model

Sarcină juridică LLM Standard Reasoning Model Recomandare
Rezumare document Excelent Overkill LLM Standard
Traducere juridică Foarte bun Prea lent LLM Standard
Analiză validitate contract Riscant Recomandat Reasoning Model
Identificare riscuri clauze Poate omite Comprehensiv Reasoning Model
Strategie litigiu complex Inadecvat Excelent Reasoning Model
Drafting clauze standard Bun Bun Oricare (LLM pt viteză)
Analiză jurisprudență Superficial Profund Reasoning Model
Q&A rapid intern Perfect Prea lent LLM Standard

Modele principale (2024-2026)

Model Dezvoltator Caracteristici cheie Referință
o1 / o1-pro OpenAI Thinking tokens ascunși, performanță ridicată pe MATH și coding OpenAI Blog
o3 / o3-mini OpenAI Successor o1, ARC-AGI benchmark leader (87.5%) OpenAI Blog
DeepSeek-R1 DeepSeek Open-source, reasoning vizibil, cost redus GitHub
Claude Opus 4.5 Anthropic Extended thinking mode, excelent la analiză nuanțată Anthropic
Gemini 2.0 Flash Thinking Google Reasoning rapid, multimodal (text + imagini) Google DeepMind

Concepte tehnice esențiale

Pentru a înțelege cu adevărat cum funcționează reasoning models, avocații trebuie să înțeleagă câteva concepte fundamentale:

Tokeni generați în timpul raționamentului care pot fi sau nu afișați utilizatorului. OpenAI o1 îi ascunde; DeepSeek-R1 îi afișează complet.[1]

Implicație: Costul per query este mai mare deoarece se facturează și thinking tokens.

Flux de tokeni într-un reasoning model Input Tokens (întrebarea ta) Thinking Tokens (raționamentul intern - poate fi ascuns) Output Tokens (răspunsul final) ~100 tokeni ~2000-10000 tokeni ~500 tokeni Cost total = Input + Thinking + Output (plătești pentru tot!)

Compute alocat la momentul inferenței (când modelul răspunde), nu la antrenare. Permite modelului să "gândească mai mult" la probleme dificile.[6]

Analogie juridică

Training compute = Educația avocatului (facultate, stagiu, experiență acumulată în ani)

Test-time compute = Timpul alocat pentru a analiza un caz specific (ore de research, deliberare)

Un avocat cu aceeași educație poate oferi răspunsuri diferite în calitate dacă are 5 minute vs. 5 ore pentru analiză. La fel și AI-ul.

Studii recente arată că scaling test-time compute poate fi mai eficient decât scaling model size pentru anumite task-uri.

Un token este unitatea de bază pe care o procesează un LLM. Nu este exact un cuvânt - în medie, 1 cuvânt ≈ 1.3 tokeni în engleză, și poate fi mai mult în română datorită diacriticelor și morfologiei complexe.

// Exemplu tokenizare pentru "contractul de vânzare-cumpărare": "contract" → 1 token "ul" → 1 token " de" → 1 token " vânzare" → 1 token (sau 2 dacă modelul nu cunoaște bine româna) "-cump" → 1 token "ărare" → 1 token Total: ~6-8 tokeni pentru 3 cuvinte românești

Impact financiar: Dacă un reasoning model generează 5000 thinking tokens + 500 output tokens pentru o analiză, la $0.06/1K tokeni output, costul este ~$0.33 per query. Pentru 100 analize/lună = ~$33.

RLHF (Reinforcement Learning from Human Feedback): Modelul învață din preferințele umane. Folosit de OpenAI, Anthropic.[7]

RLAIF (RL from AI Feedback): Un model AI evaluează răspunsurile altui model. Mai scalabil, folosit parțial de DeepSeek.[8]

RLHF (Human Feedback) Model AI Răspunsuri 👤 Evaluatori umani rankează răspunsurile (A > B > C) Cost mare, calitate ridicată, lent RLAIF (AI Feedback) Model AI Răspunsuri 🤖 Alt model AI evaluează și rankează răspunsurile Cost mic, scalabil, dar poate propaga erori

Context window reprezintă numărul maxim de tokeni pe care modelul îi poate procesa într-o singură interacțiune - atât input cât și output combinat.

ModelContext WindowEchivalent pagini A4
GPT-4 Turbo128K tokeni~200 pagini
Claude Opus 4.5200K tokeni~300 pagini
Gemini 1.5 Pro1M tokeni~1500 pagini

Relevanță juridică: Poți încărca un contract de 50 de pagini întreg și să ceri analiză. Dar atenție: modelele pot "pierde" informații din mijlocul documentelor lungi ("lost in the middle" problem).

Anatomia unui răspuns de la un reasoning model

Să vedem pas cu pas ce se întâmplă când pui o întrebare juridică unui reasoning model:

1 RECEPȚIE INPUT Întrebarea ta: "Analizează dacă clauza de non-compete din contractul anexat este executabilă conform dreptului român." 2 PARSARE ȘI ÎNȚELEGERE • Identificare sarcină: analiză validitate clauză • Identificare jurisdicție: drept român • Extragere context: clauză de non-compete, contract de muncă/comercial? 3 FAZA DE RAȚIONAMENT (Thinking Tokens) "Să analizez sistematic. Pentru non-compete în România: 1. În contracte de muncă: art. 21-24 Codul Muncii - limite stricte (max 2 ani, compensație) 2. În contracte comerciale: libertate contractuală, dar limitat de art. 5 CC + concurență 3. Verific clauza din document: durata 5 ani, fără compensație, arie geografică globală... 4. Concluzie parțială: durata excesivă, lipsă compensație = potențial nulă parțial..." [~3000-8000 tokeni generați intern, durată: 15-45 secunde] 4 SINTEZĂ ȘI STRUCTURARE Modelul organizează concluzia într-un format clar, cu secțiuni și recomandări 5 OUTPUT FINAL Răspuns structurat cu analiză, legislație relevantă, și recomandări concrete

Limitări critice

Halucinații structurate

Reasoning models pot construi argumente logice coerente pe premise false. Un raționament valid nu garantează o concluzie adevărată. Verificarea faptelor rămâne obligatorie.

Tipuri de erori specifice reasoning models

HALUCINAȚIE FACTUALĂ Inventează legi/articole inexistente sau citează greșit jurisprudență. "Conform art. 2847 Cod Civil..." (articol care nu există!) RAȚIONAMENT CIRCULAR Concluzia presupune premisa. Pare logic dar nu demonstrează nimic. "Contractul e valid pentru că îndeplinește condițiile de validitate." JURISDICȚIE GREȘITĂ Aplică drept din altă țară fără să menționeze explicit. "Conform doctrine consideration..." (concept common law, nu există în RO) INFORMAȚIE DEPĂȘITĂ Citează legislație abrogată sau modificată de la knowledge cutoff. "OUG 34/2006 prevede..." (abrogată de L. 98/2016) OVER-CONFIDENCE Prezintă interpretări disputate ca fiind certe și universal acceptate. "Este clar și indubitabil că..." (când de fapt doctrina e divizată) MISSING CONTEXT Omite excepții sau condiții esențiale pentru aplicabilitate. "Termenul de prescripție e 3 ani." (fără a menționa când începe să curgă)

Knowledge Cutoff

Modelele nu cunosc informații după data antrenării. Pentru drept: verifică întotdeauna legislația actuală în surse oficiale.

Cutoff-uri curente: GPT-4o: Apr 2024, Claude: Apr 2024, Gemini: Nov 2024

Bias jurisdicțional

Antrenate predominant pe common law (SUA, UK). Pot avea lacune pentru sistemul civil law românesc/european.[9]

Semne de alertă: Menționează "consideration", "estoppel", "tort" în context român

Latență și cost

Reasoning models sunt de 5-20x mai lente și mai scumpe decât LLM-uri standard. Nu sunt potrivite pentru toate use-case-urile.

Timp tipic: LLM standard: 1-5 sec, Reasoning model: 15-120 sec

Checklist de verificare pentru output AI

Înainte de a folosi un răspuns AI în practică:

Verificări factuale:

  • Articolele de lege citate există și sunt corecte?
  • Jurisprudența menționată este reală?
  • Legislația este în vigoare (nu abrogată)?
  • Datele și termenele sunt corecte?

Verificări logice:

  • Raționamentul este coerent pas cu pas?
  • Concluzia decurge din premise?
  • Sunt luate în calcul excepțiile?
  • Jurisdicția aplicată este corectă?

Verificări contextuale:

  • Răspunsul se aplică situației specifice?
  • Sunt omise aspecte relevante?
  • Nivelul de certitudine este justificat?
  • Recomandările sunt practice?

Quick Reference: Tipuri de modele AI

Hartă Mentală: Modele AI pentru Legal LLM STANDARD Exemple: GPT-4, Claude 3.5, Gemini ✓ Rapid (1-5 secunde) ✓ Cost scăzut ✓ Versatil, general-purpose ✗ Raționament implicit ✗ Poate omite pași logici Ideal: traduceri, rezumate, Q&A simplu REASONING MODEL Exemple: o1, o3, DeepSeek-R1 ✓ Raționament explicit pas cu pas ✓ Mai puține erori la probleme complexe ✓ Logică verificabilă ✗ Lent (15-120 secunde) ✗ Cost ridicat (5-20x) Ideal: analiză juridică, strategie litigiu RAG SYSTEM LLM + Bază de documente proprie ✓ Date actualizate (nu cutoff) ✓ Surse verificabile, citări ✓ Documente confidențiale ✗ Necesită setup infrastructură ✗ Calitate depinde de date Ideal: legal research pe documente proprii Cum aleg modelul potrivit? Ai nevoie de date proprii? DA → RAG System NU Problemă complexă? DA → Reasoning Model NU → LLM Standard

Regula de aur pentru avocați

AI = Asistent, Nu Înlocuitor. Indiferent de modelul folosit, verificarea umană rămâne obligatorie. Responsabilitatea profesională nu poate fi delegată unui algoritm. Folosește AI pentru eficiență, nu pentru a elimina gândirea critică.

Referințe - Tab 1

  1. [1] OpenAI. "Learning to Reason with LLMs." openai.com, Sept 2024.
  2. [2] Wei, J. et al. "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models." arXiv:2201.11903, 2022.
  3. [3] OpenAI. "OpenAI o3-mini." openai.com, Jan 2025.
  4. [4] Yao, S. et al. "Tree of Thoughts: Deliberate Problem Solving with Large Language Models." arXiv:2305.10601, 2023.
  5. [5] Wang, X. et al. "Self-Consistency Improves Chain of Thought Reasoning." arXiv:2203.11171, 2022.
  6. [6] Snell, C. et al. "Scaling LLM Test-Time Compute Optimally." arXiv:2408.03314, 2024.
  7. [7] Ouyang, L. et al. "Training language models to follow instructions with human feedback." arXiv:2203.02155, 2022.
  8. [8] Lee, H. et al. "RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback." arXiv:2309.00267, 2023.
  9. [9] Guha, N. et al. "LegalBench: A Collaboratively Built Benchmark for Measuring Legal Reasoning." arXiv:2308.11462, 2023.

Suport de Curs: AI for Legal

Material structurat pentru aplicarea AI în practica juridică. Focus pe aspecte practice, etice și de implementare.

Modulul 1: Fundamente

Ce este un Large Language Model (LLM)?

Un LLM este o rețea neurală antrenată pe cantități masive de text pentru a prezice următorul token (cuvânt/subcuvânt). Prin acest proces simplu, modelul învață pattern-uri lingvistice, fapte și raționamente.[1]

Parametri cheie

  • Parametri: "Cunoștințele" modelului (GPT-4: ~1.7 trilioane parametri estimat[2])
  • Context window: Câți tokeni poate procesa simultan (Claude 3: 200K, GPT-4 Turbo: 128K)
  • Temperature: Controlează "creativitatea" (0 = deterministic, 1 = creativ)

Tipuri de modele relevante pentru legal

TipFuncțieExemple
LLM GeneralGenerare text, analiză, conversațieGPT-4, Claude 3, Llama 3
Reasoning ModelRaționament complex, multi-stepo1, o3, DeepSeek-R1
Embedding ModelReprezentare semantică pentru searchtext-embedding-3, BGE
Document AIOCR, extracție structuratăAzure Document Intelligence

Modulul 2: Aplicații în Legal

2.1 Legal Research

AI poate transforma căutarea juridică de la keyword-based la semantic search - găsind documente relevante conceptual, nu doar lexical.[3]

// Căutare tradițională: "forță majoră" AND "contract" → doar documente cu aceste cuvinte exacte // Căutare semantică AI: "când poate fi exonerat debitorul pentru neexecutare din cauze externe?" → găsește și: imposibilitate fortuită, caz fortuit, hardship, frustrare

2.2 Contract Analysis

AI poate identifica clauze non-standard, extrage date cheie și evalua riscuri. Studii arată că LLM-urile pot atinge 90%+ acuratețe pe sarcini de clasificare a clauzelor.[4]

Regula de aur

AI = Draft, Om = Decizie. Niciodată nu trimite un document generat de AI fără verificare umană atentă.

2.3 Due Diligence

Automatizarea review-ului de volume mari de documente. Thomson Reuters raportează reduceri de 30-50% în timp pentru contract review cu AI.[5]

2.4 Compliance Monitoring

Modulul 3: Prompt Engineering pentru Juriști

Principii fundamentale

  1. Specificitate: "Analizează contractul" → "Identifică clauzele de limitare a răspunderii și evaluează conformitatea cu art. 1355 Cod Civil"
  2. Context: Specifică jurisdicția, tipul de client, scopul analizei
  3. Format: Cere structura dorită explicit (bullets, tabel, secțiuni)
  4. Raționament: Adaugă "Explică raționamentul pas cu pas" pentru transparență

Anatomia unui prompt juridic eficient

STRUCTURA PROMPT JURIDIC OPTIM 1. ROL Definește expertiza AI: "Ești avocat senior specializat în drept comercial român." 2. CONTEXT Situația specifică: "Client PME, contract de distribuție cu multinațională germană." 3. SARCINĂ Ce trebuie să facă: "Identifică clauzele de exclusivitate și evaluează riscul concurențial." 4. FORMAT Cum să prezinte: "Tabel cu coloane: Clauză | Risc | Art. lege | Recomandare" 5. RESTRICȚII ȘI GUARD RAILS Ce să evite sau să semnaleze: "Citează doar articole din Codul Civil în vigoare. Semnalează explicit dacă o concluzie e incertă. Nu presupune fapte care nu sunt menționate în document." 6. CERINȚĂ DE RAȚIONAMENT Activează Chain-of-Thought: "Pentru fiecare clauză identificată, explică pas cu pas de ce reprezintă un risc și cum ai ajuns la această concluzie." PROMPT COMPLET - EXEMPLU: "Ești avocat senior specializat în drept comercial român. Client: PME din România, contract de distribuție cu multinațională. SARCINĂ: Identifică clauzele de exclusivitate și evaluează riscul concurențial. FORMAT: Tabel cu Clauză | Risc | Articol lege. RESTRICȚII: Citează doar lege în vigoare, semnalează incertitudini. RAȚIONAMENT: Explică logica pas cu pas pentru fiecare risc identificat."

Template: Analiză Contract

Rol: Avocat senior, drept comercial român. Context: Client [corporate/PME], contract de [tip] cu [contraparte]. Sarcină: Identifică: (1) clauze non-standard, (2) riscuri pentru client, (3) recomandări. Format: Tabel cu: Clauză | Risc (🔴/🟡/🟢) | Recomandare Restricție: Citează articolele de lege relevante. Semnalează incertitudini.

Exemple de prompts pentru scenarii juridice comune

ROL: Avocat cu experiență în M&A și due diligence juridic. CONTEXT: Analizez documentele unei societăți țintă pentru achiziție. Domeniu: [tehnologie/producție/retail]. Valoare tranzacție: [suma]. SARCINĂ: Din documentele furnizate, identifică: 1. Red flags juridice (litigii, investigații, probleme de conformitate) 2. Obligații neînregistrate în bilanț (off-balance sheet liabilities) 3. Change of control provisions în contractele cheie 4. Probleme potențiale de proprietate intelectuală FORMAT: Tabel structurat: | Categorie | Risc identificat | Severitate (H/M/L) | Document sursă | Acțiune recomandată | RESTRICȚII: - Raportează doar ce găsești explicit în documente - Marchează cu "[NECESITĂ VERIFICARE]" aspectele care necesită documente suplimentare - Nu presupune informații care nu sunt prezente RAȚIONAMENT: Pentru fiecare red flag, explică de ce reprezintă un risc în contextul tranzacției.
ROL: Cercetător juridic specializat în [drept civil/penal/administrativ] român. CONTEXT: Problema juridică: [descriere detaliată a problemei] Fapte relevante: [situația de fapt] Jurisdicție: România, instanțele [civile/de contencios/etc.] SARCINĂ: 1. Identifică articolele de lege aplicabile din legislația în vigoare 2. Descrie orientarea jurisprudențială majoritară 3. Menționează dacă există jurisprudență contradictorie 4. Evaluează șansele de succes pentru [reclamant/pârât] FORMAT: I. Legislație aplicabilă (cu articole exacte) II. Jurisprudență relevantă (instanță, an, soluție) III. Argumente PRO poziția clientului IV. Argumente CONTRA / Riscuri V. Concluzie și recomandare RESTRICȚII: - IMPORTANT: Menționează explicit knowledge cutoff-ul tău - Semnalează dacă legislația poate fi modificată recent - Nu inventa cazuri sau numere de dosar RAȚIONAMENT: Explică cum ajungi de la normă la concluzie, pas cu pas.
ROL: Avocat negociator cu experiență în contracte comerciale. CONTEXT: Reprezentăm: [furnizor/client/licențiator] Contraparte: [descriere - putere de negociere relativă] Obiect contract: [descriere] SARCINĂ: Redactează clauza de [tip clauză: limitare răspundere / force majeure / non-compete / etc.] Oferă 3 variante: 1. Varianta favorabilă maxim clientului nostru 2. Varianta echilibrată (compromis rezonabil) 3. Varianta minimă acceptabilă FORMAT: Pentru fiecare variantă: - Textul clauzei (în română juridică) - Explicație ce protejează și ce riscuri rămân - În ce situație de negociere să o propunem RESTRICȚII: - Respectă terminologia Codului Civil - Evită expresii din common law fără echivalent în RO - Marchează aspectele care necesită adaptare la situația specifică RAȚIONAMENT: Explică logica juridică din spatele fiecărei formulări.

Modulul 4: Etică și Reglementare

EU AI Act - Clasificare pe riscuri

Regulamentul UE 2024/1689 (AI Act) clasifică sistemele AI pe 4 niveluri de risc:[6]

NivelCerințeExemple Legal
InacceptabilInterzisScoring social, manipulare subliminală
RidicatConformitate strictă, auditAI în decizii judiciare, acces la justiție
LimitatTransparențăChatbots (trebuie declarat că e AI)
MinimFără restricțiiSugestii de completare text

Probleme etice specifice

Confidențialitate

Datele trimise la API-uri cloud pot încălca secretul profesional. Soluții: planuri enterprise cu DPA, modele on-premise, anonimizare.[7]

Responsabilitate

Avocatul rămâne responsabil pentru output-ul AI. Cazul Mata v. Avianca (2023): sancțiuni pentru citare de cazuri inexistente generate de ChatGPT.[8]

Bias

Modelele pot perpetua discriminări din datele de antrenare. Obligatorie verificarea pentru tratament echitabil.[9]

Modulul 5: Implementare Practică

Framework de evaluare tool-uri

  1. Securitate: Unde sunt procesate datele? SOC 2? DPA disponibil?
  2. Acuratețe: Benchmark-uri pe sarcini similare cu ale tale
  3. Integrare: API, integrare cu DMS/CRM existent
  4. Cost: Pricing model (per token, per user, flat fee)
  5. Suport RO: Performanță pe text juridic românesc

Plan de implementare recomandat

Faze

  1. Pilot (1-2 luni): Caz de utilizare cu risc scăzut (ex: research intern), grup mic, măsurare baseline
  2. Validare (1-2 luni): Evaluare rezultate, ajustări, guidelines interne, aprobare management
  3. Scalare (2-4 luni): Rollout gradual, training echipe, integrare în workflow
  4. Optimizare (continuu): Monitorizare, feedback loop, explorare capabilități noi

Referințe - Tab 2

  1. [1] Zhao, W. et al. "A Survey of Large Language Models." arXiv:2303.18223, 2023.
  2. [2] The Decoder. "GPT-4 architecture, datasets, costs and more leaked." the-decoder.com, 2023.
  3. [3] Stanford HAI. "Generative AI and the Legal Profession." law.stanford.edu, 2023.
  4. [4] Chalkidis, I. et al. "ChatGPT may Pass the Bar Exam soon." arXiv:2303.08528, 2023.
  5. [5] Thomson Reuters. "Generative AI in Professional Services." thomsonreuters.com, 2024.
  6. [6] EU AI Act. Regulation (EU) 2024/1689. eur-lex.europa.eu
  7. [7] ABA Model Rules. Rule 1.6: Confidentiality. americanbar.org
  8. [8] Reuters. "New York lawyers sanctioned for using fake ChatGPT cases." reuters.com, 2023.
  9. [9] Guha, N. et al. "LegalBench: Measuring Legal Reasoning in LLMs." arXiv:2308.11462, 2023.