2026 itibariyle çoğu Avrupa barosu, üyelerine yapay zeka kullanımı hakkında resmi rehberler yayımlamış durumda. Bu rehberlerin ortak mesajı şu: yapay zeka yasak değil, dikkat gerekiyor. Sorun “kullanmalı mıyım” değil; “nasıl kullanmalıyım”.
Bu yazıda baro rehberleri ve mesleki sorumluluk literatürü ışığında avukatların pratik olarak nasıl ilerleyebileceğine dair bir çerçeve sunmaya çalışacağız.
Üç temel ilke
1. Yetkinlik (Competence)
Avukatlık mesleğinin en temel yükümlülüklerinden biridir: mesleki yetkinlik. Yapay zeka çağında bu, iki yöne genişler:
- Aracı tanımak: Kullandığınız AI sisteminin ne yaptığını, ne yapamadığını ve hangi durumlarda yanılabileceğini bilmeniz gerekir.
- Sınırları tanımak: AI'ın çıktısının mutlak doğru olmadığını ve gözden geçirilmesi gerektiğini hatırlatan bir disiplin geliştirmek.
2. Gizlilik (Confidentiality)
Avukatın en kutsal yükümlülüğü. AI araçlarına müvekkil bilgisi yüklemeden önce şu üç soruyu sormak gerekir:
- Bu araç verimi eğitim için kullanıyor mu? (Cesta Lex'te cevap: hayır.)
- Veri nerede saklanıyor? Hangi yargı çevresine tabi?
- Bir veri ihlali durumunda nasıl bildirim alırım?
Bu sorulara net cevap vermeyen bir araca, müvekkil verisi yüklenmemeli.
3. Sorumluluk (Accountability)
AI bir cevap verdi diye sorumluluk AI'a geçmez. Dosyaya konulan her cümleden, atılan her imzadan, mahkemeye ya da müvekkile sunulan her argümandan avukat sorumludur. Bu, baroların rehberlerinde en sık tekrarlanan ilkedir.
Müvekkile söylemeli misiniz?
En tartışmalı sorulardan biri. Genel eğilim:
- AI'ı yardımcı araştırma aracı olarak kullanıyorsanız — kütüphanedeki bir kitap gibi — özel bildirim genellikle gerekli değildir.
- AI'ı belge taslağı üretmek için kullanıyorsanız ve bu taslak gözden geçirilmeden ya da minimal gözden geçirmeyle kullanılıyorsa, müvekkile açıklamak iyi bir uygulama olarak görülüyor.
- Bazı kurumsal müvekkiller, AI kullanımı için önceden onay isteyen standart sözleşme hükümleri kullanıyor. Bu durumda onay almak yasal bir zorunluluk olabilir.
Müvekkille ilk sözleşmenizde AI kullanımına ilişkin tek bir paragraf ekleyin: kullanıp kullanmadığınızı, hangi amaçlarla kullandığınızı ve verilerin nasıl korunduğunu kısaca açıklayın. Bu hem şeffaflığı sağlar hem de sonradan doğabilecek sorulara cevap olur.
Hangi işlerde uygundur, hangi işlerde değildir?
Uygun
- İçtihat ve mevzuat araştırması (insan denetimiyle birlikte).
- Belge ve sözleşme taslakları (mutlaka gözden geçirilerek).
- Karmaşık metinlerin özetlenmesi (özetin doğruluğunun kontrol edilmesi koşuluyla).
- Hukuki problemlerin farklı açılardan incelenmesi (beyin fırtınası).
- İlk taslak dilekçeler ve mektuplar.
Uygun değil — ya da çok dikkatli
- Müvekkilin hayatını doğrudan etkileyecek nihai stratejik kararlar.
- Mahkemede doğrudan sunulacak metinler — gözden geçirilmeden asla.
- Yapay zekaya “benim yerime karar ver” demek anlamına gelecek herhangi bir kullanım.
- Müvekkille açık olunmadan, AI tarafından üretildiği bilinmeden sunulan içerikler.
Pratik bir kontrol listesi
Bir AI çıktısını dosyaya koymadan önce sorulması gereken sorular:
- Bu çıktıdaki her kaynak (madde, karar, doktrin) gerçekten var mı?
- Modelin yorumu, kaynakların gerçek içeriğiyle örtüşüyor mu?
- Çıktı, sorulan olayın bağlamına uygun mu, yoksa benzer bir bağlama mı ait?
- Bir sorun çıkması halinde, bu çıktıyı bir hâkime ya da disiplin kuruluna nasıl savunurum?
Dördüncü soru en kritiği. Eğer cevabınız “AI yaptı, ben sadece kopyaladım” ise, çıktıyı dosyaya koymamalısınız.
Sonuç
Yapay zeka avukatı değiştirmiyor; iyi avukatı daha iyi, dikkatsiz avukatı daha hızlı dikkatsiz yapıyor. Etik, bir kontrol listesi değil; bir mesleki disiplindir. Aracın kendisi nötrdür; onunla ne yaptığınız siz seçersiniz.
İyi haber şu: doğru tasarlanmış bir AI sistemi — kaynak gösteren, verinizi eğitim için kullanmayan, sınırlarını şeffafça söyleyen — bu disiplini sürdürmenizi kolaylaştırır. Cesta Lex ve AIHM AI'ı bu prensiple inşa ediyoruz.