OpenAI, ChatGPT’ye Yeni Kısıtlamalar Getirdi
OpenAI, ChatGPT için yeni kısıtlamalar getirerek modelin sağlık, hukuk ve finans konularında tavsiye veremeyeceğini duyurdu. Artık model, danışman değil, eğitim aracı olarak kullanılacak.
Yapay zekâ destekli sohbet uygulaması ChatGPT için belirlenen yeni kurallar, 29 Ekim itibarıyla yürürlüğe girdi. Modelin tıbbi, hukuki ve finansal konularda doğrudan tavsiye veremeyeceği vurgulandı. ChatGPT, bundan sonra kullanıcıları gerekli durumlarda uzmanlara yönlendirecek ve danışman olarak değil, eğitim aracı olarak tanımlanacak.
‘YANLIŞ YÖNLENDİRME RİSKİNİN’ AZALMASI BEKLENİYOR
Yeni kısıtlamalar, özellikle sağlık, hukuk ve finans alanında modelin yetkinliklerini belirliyor. Model artık ilaç isimleri, dozajlar ve yatırım tavsiyeleri gibi konularda tavsiye veremeyecek. Uzmanlar, bu değişikliklerin yanlış yönlendirme riskini azaltacağını ve veri güvenliği açısından kullanıcıların bilgilerini paylaşmasını tehlikeli hale getirebilecek durumları öneleyeceğini belirtiyor.
EMPATİ KURAMAYACAĞI İÇİN MEN EDİLDİ
Model, belirli durumlarda yanıltıcı olabileceği için özellikle kullanıcıya sağlık konusunda empati kuramayacağı ve bireysel riskleri analiz edemeyeceği gerekçesiyle bu tür tavsiyelerden men edildi.
Aynı şekilde, model psikolojik destek veya terapi amaçlı da kullanılamayacak. Etik sınırlar, eğitim ve sanat üretiminde hile amaçlı kullanımı da kapsıyor.
ETİK SINIRLAR VE VERİ GÜVENLİĞİ
Yeni kısıtlamalar, ChatGPT’nin etik alanlarda da kullanımını sınırlıyor ve modelin ödev, sınav veya sanat üretiminde hile amacıyla kullanılmasını engelliyor.
“YARDIMCI, AMA UZMAN DEĞİL”
OpenAI’nin getirdiği yeni kısıtlamalar, ChatGPT’yi bir yardımcı olarak konumlandırarak modelin uzmanların yerini almadığını vurguluyor. Teknolojinin insan uzmanlığını tamamen yerini alamayacağını kabul eden bu değişiklik, uzmanlar tarafından olumlu karşılanıyor.