AI artık müşteri hizmeti botlarından özerk dijital asistanlara kadar gündelik hayatın çoğu alanında başvurduğumuz bir teknoloji. Ancak kötü tasarlanmış AI çözümleri güven zedelenmesi, yanlış yönlendirme ve etik sorunlara yol açabiliyor. Son yıllarda yaşanan bazı örnekler, bu risklerin ne kadar ciddi olabileceğini açıkça gösteriyor. Bunlara birkaç örnek:
-Air Canada’nın chatbot’u, bir yolcuya yanlış iade bilgisi vererek kullanıcıyı zarara uğrattı. Mahkeme, bu hatadan doğrudan şirketi sorumlu tuttu; bu olay, denetimsiz otomasyonun doğurabileceği yasal sonuçları gözler önüne serdi.
–Microsoft’un Bing AI (kod adı: Sydney) adlı sohbet botu, bazı kullanıcılarla yaptığı görüşmelerde tehditkâr ve manipülatif tavırlar sergiledi; bu da, denetlenmeyen AI kişiliklerinin psikolojik tehlikelerine dikkat çekti.
–Zillow Offers adlı gayrimenkul girişimi ise, AI algoritmasının hatalı fiyat tahminleri nedeniyle 304 milyon dolarlık stok zararı ve 2000 çalışanın işten çıkarılmasıyla sonuçlandı.
Bir AI sisteminin başarılı olarak addedilebilmesi için olumlu ve güvenli sonuçlar vermesi; bunun için de insan ve AI iş birliğinin bilinçli bir şekilde tasarlanması gerekir. İnsan planlaması, etkileşimi ve gözetimi, güvenilir ve etik sonuçlar için kritik önemdedir.
Bu bağlamda öne çıkan kavramlardan biri de “AI agent” yapılarıdır. Bu sistemler, çevrelerindeki olayları fark edebilen, kendi kararlarını alabilen ve hedefe ulaşmak için bağımsız aksiyonlar gerçekleştirebilen yarı özerk AI varlıklarıdır. Bu yeni yapılarla birlikte, insan ve AI’nin birlikte çalışma biçimleri de evrim geçiriyor. Dolayısıyla bu iş birliklerini, insan–AI etkileşiminin türüne, zamanlamasına ve rol dağılımına göre sınıflandırmak gerekiyor.
Bu sınıflandırma; insanın sistem içindeki rolünü doğru konumlandırmaya, adaleti korumaya, zamanla bozulabilecek etkileşimleri önlemeye ve insan ile AI arasında karşılıklı güçlenmeye dayalı bir ortaklık kurmaya yardımcı olur. İnsanların AI döngüsüne ne zaman ve hangi ölçüde dahil olduğunu anlamak, daha verimli sistemler tasarlamamızı sağlar. Çünkü AI hız ve veri işleme kapasitesi getirirken; insan, yargı, yaratıcılık ve etik değer katar.
Aşağıdaki çerçeve, insan–AI etkileşim biçimlerini “AI döngüsü” bağlamında ele alarak sınıflandırır. Bu yapı, farklı kullanım senaryolarında insan katılımının düzeyi ve zamanlamasına göre düzenlenmiş dört ana kategori ve toplam 10 etkileşim modeli tanımlar.
AI Döngüsü Nedir?
AI döngüsünü, bir insanın görev yaparken izlediği doğal sürece benzetebiliriz:
AI önce algılar (çevresini ve verileri gözlemler), ardından karar verir (nasıl bir eylem yapılacağına dair seçim yapar), sonra harekete geçer (kararını uygular) ve son olarak geri bildirim alır (sonucun başarısını değerlendirir). Bu döngü sürekli yinelenir ve sistem zamanla öğrenerek gelişir. İnsanlar bu döngüye farklı aşamalarda dâhil olabilir: bazı durumlarda başlangıçta yön verir, bazen karar sürecine katılır, bazen de yalnızca sonuçları denetler.
İnsan–AI Etkileşimini Sınıflandırma Çerçevesi
Bu çerçeve, insan–AI etkileşimini zamanlama, etkileşim yoğunluğu, stratejik kontrol ve asgari katılım temellerine göre dört ana grupta toplar:
1. Zamanlama Odaklı Modeller
(Temporal Positioning Patterns)
Bu modeller, insanın AI döngüsüne ne zaman dahil olduğunu esas alır: başlamadan önce, tamamlandıktan sonra veya tüm süreç boyunca.
Human-Before-the-Loop (HB4L) – Döngü Öncesi Katılım
İnsan, sürece başlamadan önce katkı sağlar. Model tasarımı, veri etiketleme, parametre belirleme gibi hazırlıkları yapar ancak döngü çalışırken aktif değildir.
Örnek: Makine öğrenmesi modelinde veri kümesinin insan eliyle hazırlanması veya etik yönergelerin tanımlanması.
Agentic AI uygulaması: LLM’lerde (büyük dil modellerinde) “prompt” seçimleri veya hedef hiyerarşilerinin önceden belirlenmesi.
Human-Behind-the-Loop (HBTL) – Döngü Sonrası Gözden Geçirme
AI süreci tamamen çalıştıktan sonra insan, sonuçları analiz eder. Denetim, hata tespiti veya bir sonraki döngüye yönelik iyileştirmeler bu aşamada yapılır.
Örnek: Otomatik finansal işlemlerin denetlenmesi, AI güvenlik ajanlarının raporlarının incelenmesi.
Human-Around-the-Loop (HArTL) – Bütünsel Katılım
İnsan, döngünün tüm aşamalarında dolaylı veya doğrudan bulunur. Ön hazırlık, karar aşaması, denetim ve geri bildirim dahil tüm sürece çevresel bir destek sağlar.
Örnek: Robotik cerrahide planlamadan ameliyat sonrası değerlendirmeye kadar tüm sürecin insan tarafından çevrelendiği senaryolar.
2. Doğrudan Etkileşim Modelleri
(Direct Engagement Patterns)
Bu grup, insanın AI döngüsü sırasında aktif rol aldığı durumları kapsar. Gerçek zamanlı denetim ve kararların önem taşıdığı yüksek riskli süreçler için idealdir.
Human-in-the-Loop (HITL) – Sürece Dâhil İnsan
İnsan, karar döngüsünün içinde yer alır; sistemin kararlarını doğrular, düzeltir veya yönlendirir.
Örnek: Doktorun, AI’nın tanı önerilerini onayladığı bir sağlık sistemi.
Agentic AI uygulaması: Gerçek zamanlı konuşma devir teslimleri veya canlı insan geribildirimi sistemleri.
Human-on-the-Loop (HOTL) – Gözetleyici İnsan
AI özerk şekilde çalışır, ancak insan süreçleri uzaktan izler. Gerektiğinde müdahale eder.
Örnek: Siber güvenlikte otonom ajanların anomali tespitini yapması, ancak insan analistin gerekirse müdahale etmesi.
Human-in-Command (HIC) – Tam Kontrol İnsanında
Karar yetkisi tamamen insandadır; AI yalnızca yardımcı bir araçtır.
Örnek: Cerrahi robotun cerrah kontrolünde çalışması, pilotun otomatik pilotu yönlendirmesi.
3. Stratejik ve Gözetim Odaklı Modeller
(Strategic & Oversight Patterns)
Bu grupta insan, sürecin içinde değildir ancak yön belirleme ve etik denetim görevini sürdürür. Büyük ölçekli sistemlerde, stratejik kararlar insan tarafından verilir; AI uygulama aşamasını yürütür.
Human-Above-the-Loop (HATL) – Stratejik Yönlendirme
İnsan, sistemin genel hedeflerini, politikalarını ve sınırlarını belirler.
Örnek: Kurumsal düzeyde etik AI yönergeleri oluşturulması.
Agentic AI uygulaması: Çoklu ajan sistemlerinde, iş birliği kurallarının insan tarafından tanımlanması.
Human-Over-the-Loop (HOvL) – Veto Yetkili Denetim
HATL modeline benzer, ancak insan gerektiğinde AI’nın kararlarını geçersiz kılabilir.
Örnek: Pazarlama kampanyalarında AI önerilerinin yöneticiler tarafından onaylanması.
4. Asgari veya Ters Katılım Modelleri
(Minimal / Reversed Involvement Patterns)
İnsanın rolünün minimumda olduğu ya da tersine çevrildiği senaryoları kapsar.
Human-Out-of-the-Loop (HOOTL) – Tam Otonomi
İnsan hiçbir aşamada yer almaz; AI döngüyü baştan sona kendi yürütür.
Örnek: Düşük riskli veri sınıflandırma veya otomatik sıralama süreçleri.
Agentic AI uygulaması: Sadece öngörülebilir ve etik açıdan güvenli alanlarda kullanılmalıdır.
AI-in-the-Loop (AITL) – İnsanı Destekleyen AI
Burada liderlik insandadır; AI sadece yardımcı olur.
Örnek: Doktorun teşhis sürecinde AI’dan öneri alması veya içerik üretiminde taslak oluşturması.
Agentic AI uygulaması: İnsan merkezli hibrit sistemlerde verimliliği artırır.
Kontrol Edilebilir ve Sürdürülebilir Etkileşim
Bu makalede özetlenen sınıflandırma çerçevesi; zamanlama, doğrudan etkileşim, stratejik kontrol ve asgari katılım eksenlerinde tanımlanmış 10 farklı model üzerinden, insan–AI iş birliğini kavramsal olarak düzenliyor.
Bu yaklaşım sayesinde, “human-in-the-loop” gibi genel terimlerin ötesine geçip, daha esnek, uyarlanabilir ve etik temellere dayalı sistemler inşa etmek mümkün hale geliyor. Nihayetinde amaç, AI’nın hız ve işlem gücüyle insanın sezgisel zekâsını birleştirerek; güvenli, üretken ve sürdürülebilir bir insan–AI ortaklığı yaratmak.
Bu yaklaşımı kurumunuzda sağlıklı bir şekilde hayata geçirmek ve AI’ı iş akışlarınızda en verimli biçimde kullanmak için, Red Hat’in insanın sistem üzerindeki stratejik kontrolünü korurken AI modellerinin güvenli, şeffaf ve ölçeklenebilir şekilde çalışmasını sağlayan çözüm ailesini keşfedebilirsiniz. Bu kapsamda, insan–AI iş birliğini yalnızca bir vizyon olmaktan çıkarıp uygulanabilir bir mühendislik pratiğine dönüştüren Red Hat OpenShift AI ve Ansible Lightspeed çözümleri hakkında daha fazla bilgi almak üzere bizimle her zaman info@quasys.com.tr üzerinden iletişime geçebilirsiniz.