Acme Şirketler Grubu'nda sorumlu ve etik yapay zeka kullanımı için kapsamlı rehber
AI insan becerilerini desteklemek için kullanılmalı
Hassas bilgilerin korunması en yüksek öncelik
Tüm kritik çıktılar insan kontrolünden geçmeli
Tüm yasa ve düzenlemelere tam uyum
Bu "Üretken Yapay Zeka Kabul Edilebilir Kullanım Politikası" (AUP), Acme Şirketler Grubu bünyesinde çeşitli yapay zeka sistemlerinin kullanımına ilişkin kuralları ve yönergeleri belirlemektedir. Politika, büyük dil modelleri, görüntü üreten modeller ve kod üreten modeller dahil olmak üzere tüm üretken yapay zeka teknolojilerini kapsar [39].
Bu politika, Acme Şirketler Grubu'nun tüm çalışanları, yüklenicileri, stajyerleri, geçici personeli ve şirket kaynaklarına erişimi olan üçüncü taraflar da dahil olmak üzere tüm bireyleri bağlar.
Yapay zeka teknolojilerinin şirket faaliyetlerinde sorumlu, etik ve yasalara uygun bir şekilde kullanılmasını sağlamak, veri gizliliği, fikri mülkiyet, doğruluk, güvenilirlik ve yasal uyumluluk gibi temel risk alanlarını yönetmektir.
Bu politika kapsamında "Üretken Yapay Zeka", metin, görüntü, ses, video, kod veya diğer veri türlerini oluşturabilen, eğitim verilerinden öğrenen ve kullanıcı girdilerine yanıt olarak yeni içerik üretebilen yapay zeka modellerini ifade eder [38][54].
ChatGPT, Bard, Claude gibi metin tabanlı görevler için modeller
DALL-E, Midjourney, Stable Diffusion gibi görsel oluşturma araçları
GitHub Copilot, DeepSeek Coder gibi kod yazma araçları
Acme Şirketler Grubu çalışanları, bu Üretken Yapay Zeka Kabul Edilebilir Kullanım Politikası'nda belirtilen tüm kurallara ve yönergelere uymakla yükümlüdür. Çalışanlar, YZ araçlarını yalnızca yetkili ve işle ilgili amaçlar için kullanmalıdır.
Önemli: AI çıktılarını körü körüne kabul etmemeli, özellikle de kritik kararlarda veya müşteriye yönelik içeriklerde kullanılacaksa dikkatli bir şekilde incelemelidir [34].
Üretken Yapay Zeka araçları, çeşitli görevlerde verimliliği ve yaratıcılığı artırabilse de, insan gözetimi ve kontrolü olmadan kullanılmamalıdır. AI modelleri, eğitim verilerindeki önyargıları yansıtabilir, yanlış veya eksik bilgiler ("hallüsinasyonlar") üretebilir [34].
Büyük Dil Modelleri (LLM'ler) ile etkileşim kurarken, veri gizliliği ve hassas bilgilerin korunması en önemli önceliktir. Çalışanlar, LLM'lere asla gizli, hassas veya kişisel bilgiler girmemelidir [34].
Büyük Dil Modelleri (LLM'ler), bazen "hallüsinasyon" olarak adlandırılan, gerçeklere dayanmayan, yanlış veya yanıltıcı bilgiler üretebilir [34]. Bu nedenle, LLM'lerden alınan her türlü çıktının doğruluğu ve güvenilirliği bağımsız olarak doğrulanmalıdır.
Görüntü üreten modeller tarafından oluşturulan görsellerin fikri mülkiyet durumu karmaşık olabilir. Bu modeller, eğitim verisi olarak kullanılan milyarlarca görselden öğrenir ve bu görsellerin stilini, kompozisyonunu taklit edebilir [39].
Öneri: Ticari amaçlarla kullanılacak görseller için fikri mülkiyet durumunu netleştirin ve gerekirse hukuk departmanına danışın.
Görüntü üreten modeller bazen şiddet içeren, cinsel açıdan müstehcen, rahatsız edici veya nefret söylemi içeren içerik üretebilir. Acme Şirketler Grubu, tüm içeriklerin profesyonel ve şirket değerlerine uygun olmasını gerektirir.
Yasak: Uygunsuz içerik oluşturmak veya aldatıcı amaçlarla kullanmak kesinlikle yasaktır.
Kod üreten yapay zeka araçlarının kullanımında, üretilen kodun güvenliği ve güvenilirliği en önemli önceliktir. Geliştiriciler, yapay zeka araçlarının yardımıyla yazdıkları kodun nihai sorumlusudur [38].
Kod üreten yapay zeka araçlarının kullanımı sırasında, özellikle AI modelinin eğitim verilerinde yer alan açık kaynak kod parçacıklarının üretilen çıktılara karışma ihtimali nedeniyle, açık kaynak lisans uyumluluğu kritik bir konudur [38].
Kişisel verilerin ve ticari sırların korunması, üretken yapay zeka kullanımında en önemli önceliklerden biridir. Çalışanlar, herhangi bir üretken yapay zeka aracına asla müşterilere, çalışanlara veya diğer bireylere ait kişisel verileri veya şirkete ait ticari sırları girmemelidir.
Acme Şirketler Grubu, üçüncü taraf AI hizmet sağlayıcılarıyla çalışırken, veri gizliliği, güvenlik ve yasal uyumluluk konularında titizlik gösterilmesini gerektirir. Harici AI hizmetlerini kullanmadan önce, bu hizmet sağlayıcılarının güvenlik standartlarının değerlendirilmesi gerekir.
Acme Şirketler Grubu, üçüncü şahısların fikri mülkiyet haklarına saygı gösterilmesini şart koşar. Çalışanlar, AI araçlarının başkalarına ait hakları ihlal etmemesini sağlamakla yükümlüdür.
Telif hakkı ihlalleri ciddi yasal sonuçlar doğurabilir
Şirkete ait ticari sırlar, patent başvuruları, yeni ürün tasarımları veya özgün kod parçaları, halka açık AI araçlarına asla girilmemelidir.
Rekabet avantajının korunması için kritik
AI tarafından üretilen çıktıların fikri mülkiyet durumu henüz birçok yargı alanında netlik kazanmamıştır. Ticari amaçlarla kullanım öncesi hukuk departmanına danışılmalıdır.
Lisans sözleşmeleri dikkatlice incelenmeli
Üretken yapay zeka modelleri, eğitildikleri büyük veri kümelerinde var olan önyargıları öğrenebilir ve bu önyargıları çıktılarında yansıtabilir. Bu, cinsiyet, ırk, etnik köken, yaş, din, cinsel yönelim, engellilik durumu temelinde ayrımcı sonuçlara yol açabilir [39].
Üretken yapay zeka teknolojilerinin kullanımı, insan refahı ve çevresel etkiler açısından da değerlendirilmelidir. Büyük ölçekli AI modellerinin eğitimi ve çalıştırılması önemli miktarda enerji tüketebilir ve karbon ayak izine neden olabilir.
Üretken yapay zeka araçlarından elde edilen çıktıların doğruluğu, güvenilirliği ve uygunluğu, bu teknolojilerin sorumlu kullanımının temel taşlarındandır [54].
Gerçek kontrolü, dilbilgisi, tutarlılık
Orijinallik, uygunluk, kalite
Güvenlik, işlevsellik, performans
Üretken yapay zeka araçlarının kullanımının etkinliğini ve güvenliğini sağlamak için düzenli denetimler ve performans değerlendirmeleri yapılmalıdır [54].
Üretken yapay zeka araçlarının kullanımı sırasında karşılaşılan hataların, uygunsuz çıktıların veya politika ihlali şüphelerinin bildirilmesi için açık ve erişilebilir mekanizmaların olması önemlidir [55].
Yazılım hataları, güvenlik açıkları
Önyargılı, ayrımcı, uygunsuz içerik
Kurallara uymayan davranışlar
Acme Şirketler Grubu, üretken yapay zeka da dahil olmak üzere tüm yapay zeka sistemlerinin kullanımında, geçerli tüm ulusal ve uluslararası yasalar, yönetmelikler ve düzenleyici gerekliliklere tam uyumu taahhüt eder. Yasal uyumsuzluk, cezai yaptırımlara, tazminat taleplerine ve şirket itibarının zedelenmesine yol açabilir.
Yapay zeka teknolojisi ve ilgili yasal düzenlemeler hızla gelişmektedir. Bu nedenle, bu Üretken Yapay Zeka Kabul Edilebilir Kullanım Politikası, statik bir belge olmayıp, yeni gelişmelere, ortaya çıkan risklere ve değişen yasal gerekliliklere uyum sağlamak üzere periyodik olarak gözden geçirilecek ve güncellenecektir.
| AI Türü | Temel Risk Alanları | Kontrol Noktaları (Örnek Sorular) |
|---|---|---|
| Büyük Dil Modelleri (LLM'ler) | Veri gizliliği, Hassas bilgi sızıntısı, Fikri mülkiyet ihlali, Yanlış/yanıltıcı bilgi ("Halüsinasyon"), Önyargı/Ayrımcılık, Etik olmayan kullanım, Yasal uyumsuzluk | LLM'ye hangi veriler giriliyor? Hassas bilgi içeriyor mu? Çıktının orijinalliği ve telif hakkı durumu nedir? Bilgiler doğrulandı mı? Çıktı önyargılı veya ayrımcı mı? Kullanım etik ve yasal mı? |
| Görüntü Üreten Modeller | Fikri Mülkiyet/Telif Hakkı İhlali, Uygunsuz/Zararlı İçerik, Yanıltıcı Gerçekçi Görüntüler, Marka İtibarına Zarar, Yasal Uyumsuzluk | Üretilen görsel orijinal mi? Telif hakkı ihlali var mı? Görsel uygunsuz veya zararlı mı? Gerçekçi görseller yanıltıcı şekilde kullanılıyor mu? Görsel marka değerlerine uygun mu? |
| Kod Üreten Modeller | Güvenlik Açıkları, Hatalı Kod, Açık Kaynak Lisans Uyumsuzluğu, Kod Kalitesi Düşüklüğü, Bakım Zorluğu, Yasal Uyumsuzluk | Üretilen kod güvenlik açıkları için taranmış mı? Kod doğru çalışıyor mu? Açık kaynak lisanslarına uyuldu mu? Kod okunabilir ve sürdürülebilir mi? Performansı kabul edilebilir mi? |
LLM ile Müşteri E-postası Yazma
Müşteriye ait kişisel bilgileri LLM'ye girmeyin
Dilbilgisi, yazım, gerçeklere uygunluk kontrolü
Ton ve üslup marka kimliğine uygun olmalı
Görüntü Modeli ile Pazarlama Materyali
Üretilen görselin orijinal olduğundan emin olun
Şiddet, nefret söylemi içermemeli
AI tarafından üretildiği belirtilmeli
Kod Modeli ile Yazılım Geliştirme
Güvenlik açıkları için taranmalı
Kapsamlı testler yapılmalı
Açık kaynak lisanslarına uyulmalı
Politika ihlallerini iyi niyetle bildiren çalışanlara karşı herhangi bir misilleme yapılmayacaktır.
Şirket, olası AI kaynaklı acil durumlar (büyük çaplı veri ihlali, sistematik hatalı çıktı üretimi) için bir müdahale planı oluşturacak ve periyodik olarak gözden geçirecektir.
Hassas verilerin korunması ve güvenli uygulamalar
Adil, şeffaf ve sorumlu AI kullanımı
Tüm yasa ve düzenlemelere tam uyum
AI çıktılarında nihai insan kontrolü