Yapay zeka etiği kavramını temsil eden soyut arka plan

Üretken Yapay Zeka
Kabul Edilebilir
Kullanım Politikası

Acme Şirketler Grubu'nda sorumlu ve etik yapay zeka kullanımı için kapsamlı rehber

Güvenli Etik Yasal Uyumlu

Temel İlkeler

İnsan Merkezlilik

AI insan becerilerini desteklemek için kullanılmalı

Veri Güvenliği

Hassas bilgilerin korunması en yüksek öncelik

İnsan Gözetimi

Tüm kritik çıktılar insan kontrolünden geçmeli

Yasal Uyum

Tüm yasa ve düzenlemelere tam uyum

1. Giriş ve Amaç

Bu "Üretken Yapay Zeka Kabul Edilebilir Kullanım Politikası" (AUP), Acme Şirketler Grubu bünyesinde çeşitli yapay zeka sistemlerinin kullanımına ilişkin kuralları ve yönergeleri belirlemektedir. Politika, büyük dil modelleri, görüntü üreten modeller ve kod üreten modeller dahil olmak üzere tüm üretken yapay zeka teknolojilerini kapsar [39].

Kapsam ve Hedef Kitle

Bu politika, Acme Şirketler Grubu'nun tüm çalışanları, yüklenicileri, stajyerleri, geçici personeli ve şirket kaynaklarına erişimi olan üçüncü taraflar da dahil olmak üzere tüm bireyleri bağlar.

Amaç

Yapay zeka teknolojilerinin şirket faaliyetlerinde sorumlu, etik ve yasalara uygun bir şekilde kullanılmasını sağlamak, veri gizliliği, fikri mülkiyet, doğruluk, güvenilirlik ve yasal uyumluluk gibi temel risk alanlarını yönetmektir.

Üretken Yapay Zeka Tanımı ve Örnekleri

Bu politika kapsamında "Üretken Yapay Zeka", metin, görüntü, ses, video, kod veya diğer veri türlerini oluşturabilen, eğitim verilerinden öğrenen ve kullanıcı girdilerine yanıt olarak yeni içerik üretebilen yapay zeka modellerini ifade eder [38][54].

Büyük Dil Modelleri

ChatGPT, Bard, Claude gibi metin tabanlı görevler için modeller

Görüntü Üreten Modeller

DALL-E, Midjourney, Stable Diffusion gibi görsel oluşturma araçları

Kod Üreten Modeller

GitHub Copilot, DeepSeek Coder gibi kod yazma araçları

2. Genel Kurallar ve Sorumluluklar

Çalışan Sorumlulukları ve Uyum

Acme Şirketler Grubu çalışanları, bu Üretken Yapay Zeka Kabul Edilebilir Kullanım Politikası'nda belirtilen tüm kurallara ve yönergelere uymakla yükümlüdür. Çalışanlar, YZ araçlarını yalnızca yetkili ve işle ilgili amaçlar için kullanmalıdır.

Önemli: AI çıktılarını körü körüne kabul etmemeli, özellikle de kritik kararlarda veya müşteriye yönelik içeriklerde kullanılacaksa dikkatli bir şekilde incelemelidir [34].

İnsan Gözetimi ve Kontrolünün Önemi

Üretken Yapay Zeka araçları, çeşitli görevlerde verimliliği ve yaratıcılığı artırabilse de, insan gözetimi ve kontrolü olmadan kullanılmamalıdır. AI modelleri, eğitim verilerindeki önyargıları yansıtabilir, yanlış veya eksik bilgiler ("hallüsinasyonlar") üretebilir [34].

Kritik Kontrol Noktaları

  • • Doğruluk ve gerçeklik kontrolü
  • • Etik değerlendirme
  • • Yasal uygunluk
  • • Marka uyumu

Nihai Sorumluluk

  • • Çalışanlar AI çıktılarından sorumlu
  • • İnsan muhakemesi esastır
  • • Kalite garantisi gereklidir
  • • Risk yönetimi zorunludur

3. Büyük Dil Modelleri (LLM'ler) için Kullanım Kuralları

Veri Gizliliği ve Hassas Bilgilerin Korunması

Büyük Dil Modelleri (LLM'ler) ile etkileşim kurarken, veri gizliliği ve hassas bilgilerin korunması en önemli önceliktir. Çalışanlar, LLM'lere asla gizli, hassas veya kişisel bilgiler girmemelidir [34].

Kesinlikle Girilmemesi Gereken Bilgiler:

Müşteri Verileri
  • • Kişisel bilgiler (isim, adres, TCKN)
  • • İletişim bilgileri
  • • Finansal veriler
  • • Sözleşme detayları
Şirket Bilgileri
  • • Ticari sırlar
  • • Stratejik planlar
  • • Fiyatlandırma bilgileri
  • • Patent başvuruları

İçerik Doğruluğu ve Yanıltıcı Bilgi Riski

Büyük Dil Modelleri (LLM'ler), bazen "hallüsinasyon" olarak adlandırılan, gerçeklere dayanmayan, yanlış veya yanıltıcı bilgiler üretebilir [34]. Bu nedenle, LLM'lerden alınan her türlü çıktının doğruluğu ve güvenilirliği bağımsız olarak doğrulanmalıdır.

Doğrulama Süreci

  1. 1. LLM çıktısını birincil kaynaklarla karşılaştır
  2. 2. Gerçekler, rakamlar ve tarihleri kontrol et
  3. 3. Uzman görüşüne başvur
  4. 4. Müşteriye yönelik içeriklerde ekstra dikkat göster
  5. 5. Son kontrolü yap ve onayla

4. Görüntü Üreten Modeller için Kullanım Kuralları

Fikri Mülkiyet ve Telif Hakkı

Görüntü üreten modeller tarafından oluşturulan görsellerin fikri mülkiyet durumu karmaşık olabilir. Bu modeller, eğitim verisi olarak kullanılan milyarlarca görselden öğrenir ve bu görsellerin stilini, kompozisyonunu taklit edebilir [39].

Öneri: Ticari amaçlarla kullanılacak görseller için fikri mülkiyet durumunu netleştirin ve gerekirse hukuk departmanına danışın.

Uygunsuz İçerik Üretimi

Görüntü üreten modeller bazen şiddet içeren, cinsel açıdan müstehcen, rahatsız edici veya nefret söylemi içeren içerik üretebilir. Acme Şirketler Grubu, tüm içeriklerin profesyonel ve şirket değerlerine uygun olmasını gerektirir.

Yasak: Uygunsuz içerik oluşturmak veya aldatıcı amaçlarla kullanmak kesinlikle yasaktır.

5. Kod Üreten Modeller için Kullanım Kuralları

Üretilen Kodun Güvenliği ve Güvenilirliği

Kod üreten yapay zeka araçlarının kullanımında, üretilen kodun güvenliği ve güvenilirliği en önemli önceliktir. Geliştiriciler, yapay zeka araçlarının yardımıyla yazdıkları kodun nihai sorumlusudur [38].

Güvenlik Testleri

  • • SQL enjeksiyonu taraması
  • • XSS zafiyetleri kontrolü
  • • Kimlik doğrulama açıkları
  • • Veri sızıntısı riskleri

Fonksiyonel Testler

  • • Birim testleri
  • • Entegrasyon testleri
  • • Performans testleri
  • • Hata senaryoları

Kod İncelemesi

  • • Deneyimli geliştirici kontrolü
  • • Standartlara uygunluk
  • • Sürdürülebilirlik
  • • Dokümantasyon

Açık Kaynak Lisans Uyumluluğu

Kod üreten yapay zeka araçlarının kullanımı sırasında, özellikle AI modelinin eğitim verilerinde yer alan açık kaynak kod parçacıklarının üretilen çıktılara karışma ihtimali nedeniyle, açık kaynak lisans uyumluluğu kritik bir konudur [38].

Önemli Lisans Türleri:

GPL/LGPL: Katı kopya-left koşulları, dikkatli kullanım gerektirir
MIT/Apache: Daha esnek, ancak yine de atıf gerektirir

6. Veri Gizliliği ve Güvenliği

Kişisel Verilerin ve Ticari Sırların Korunması

Kişisel verilerin ve ticari sırların korunması, üretken yapay zeka kullanımında en önemli önceliklerden biridir. Çalışanlar, herhangi bir üretken yapay zeka aracına asla müşterilere, çalışanlara veya diğer bireylere ait kişisel verileri veya şirkete ait ticari sırları girmemelidir.

Kişisel Veri Örnekleri

  • • İsim, adres, TCKN
  • • E-posta, telefon numarası
  • • Finansal bilgiler
  • • Sağlık bilgileri (PHI)
  • • Kimlik belgeleri

Ticari Sır Örnekleri

  • • Patentler, ticari markalar
  • • Müşteri listeleri
  • • Fiyatlandırma stratejileri
  • • Yeni ürün planları
  • • İş süreçleri

Üçüncü Taraf AI Hizmet Sağlayıcıları ile Çalışma

Acme Şirketler Grubu, üçüncü taraf AI hizmet sağlayıcılarıyla çalışırken, veri gizliliği, güvenlik ve yasal uyumluluk konularında titizlik gösterilmesini gerektirir. Harici AI hizmetlerini kullanmadan önce, bu hizmet sağlayıcılarının güvenlik standartlarının değerlendirilmesi gerekir.

Değerlendirme Kriterleri:

  • • Veri güvenliği önlemleri ve sertifikaları
  • • Veri saklama ve imha politikaları
  • • Veri ihlali bildirim süreçleri
  • • Şirket verilerinin üçüncü taraflarla paylaşım kısıtlamaları
  • • Sözleşmede veri koruma yükümlülükleri

7. Fikri Mülkiyet

Üçüncü Şahıs Hakları

Acme Şirketler Grubu, üçüncü şahısların fikri mülkiyet haklarına saygı gösterilmesini şart koşar. Çalışanlar, AI araçlarının başkalarına ait hakları ihlal etmemesini sağlamakla yükümlüdür.

Telif hakkı ihlalleri ciddi yasal sonuçlar doğurabilir

Şirket Mülkiyeti

Şirkete ait ticari sırlar, patent başvuruları, yeni ürün tasarımları veya özgün kod parçaları, halka açık AI araçlarına asla girilmemelidir.

Rekabet avantajının korunması için kritik

AI Çıktılarının Mülkiyeti

AI tarafından üretilen çıktıların fikri mülkiyet durumu henüz birçok yargı alanında netlik kazanmamıştır. Ticari amaçlarla kullanım öncesi hukuk departmanına danışılmalıdır.

Lisans sözleşmeleri dikkatlice incelenmeli

8. Etik Kullanım ve Sosyal Sorumluluk

Önyargı ve Ayrımcılığın Önlenmesi

Üretken yapay zeka modelleri, eğitildikleri büyük veri kümelerinde var olan önyargıları öğrenebilir ve bu önyargıları çıktılarında yansıtabilir. Bu, cinsiyet, ırk, etnik köken, yaş, din, cinsel yönelim, engellilik durumu temelinde ayrımcı sonuçlara yol açabilir [39].

Potansiyel Önyargı Türleri

  • • Toplumsal cinsiyet temelli önyargılar
  • • Irksal/etnik önyargılar
  • • Yaş ayrımcılığı
  • • Dini/cinsel yönelim önyargıları
  • • Sosyoekonomik önyargılar

Önlemler

  • • Çıktıları önyargı açısından kontrol et
  • • Kapsayıcı dil kullan
  • • Şüpheli çıktıları raporla
  • • Çeşitlilik eğitimlerine katıl
  • • Etik kurallara uy

İnsan Refahı ve Çevresel Etkiler

Üretken yapay zeka teknolojilerinin kullanımı, insan refahı ve çevresel etkiler açısından da değerlendirilmelidir. Büyük ölçekli AI modellerinin eğitimi ve çalıştırılması önemli miktarda enerji tüketebilir ve karbon ayak izine neden olabilir.

Sürdürülebilir AI Kullanımı:

  • • Enerji verimliliği yüksek çözümleri tercih et
  • • Gereksiz büyük modeller kullanmaktan kaçın
  • • Çevre dostu veri merkezlerini destekle
  • • AI'nın çalışan refahını artıracak şekilde kullan

9. Çıktı Doğrulama ve Performans İzleme

Çıktı Doğrulama

Üretken yapay zeka araçlarından elde edilen çıktıların doğruluğu, güvenilirliği ve uygunluğu, bu teknolojilerin sorumlu kullanımının temel taşlarındandır [54].

Metin Çıktıları

Gerçek kontrolü, dilbilgisi, tutarlılık

Görsel Çıktılar

Orijinallik, uygunluk, kalite

Kod Çıktıları

Güvenlik, işlevsellik, performans

Performans İzleme

Üretken yapay zeka araçlarının kullanımının etkinliğini ve güvenliğini sağlamak için düzenli denetimler ve performans değerlendirmeleri yapılmalıdır [54].

Değerlendirme Kriterleri:

  • • Beklenen faydaların sağlanması
  • • Risklerin kabul edilebilir düzeyde olması
  • • Politika kurallarına uyum
  • • Çalışan becerilerinin gelişimi
  • • Maliyet-fayda analizi

Hata Bildirim Mekanizmaları

Üretken yapay zeka araçlarının kullanımı sırasında karşılaşılan hataların, uygunsuz çıktıların veya politika ihlali şüphelerinin bildirilmesi için açık ve erişilebilir mekanizmaların olması önemlidir [55].

Teknik Hatalar

Yazılım hataları, güvenlik açıkları

Uygunsuz Çıktı

Önyargılı, ayrımcı, uygunsuz içerik

Politika İhlali

Kurallara uymayan davranışlar

11. Tablolu Kontrol Listeleri ve Senaryo Bazlı Rehberler

AI Türlerine Göre Risk Değerlendirme ve Kontrol Listesi

AI Türü Temel Risk Alanları Kontrol Noktaları (Örnek Sorular)
Büyük Dil Modelleri (LLM'ler) Veri gizliliği, Hassas bilgi sızıntısı, Fikri mülkiyet ihlali, Yanlış/yanıltıcı bilgi ("Halüsinasyon"), Önyargı/Ayrımcılık, Etik olmayan kullanım, Yasal uyumsuzluk LLM'ye hangi veriler giriliyor? Hassas bilgi içeriyor mu? Çıktının orijinalliği ve telif hakkı durumu nedir? Bilgiler doğrulandı mı? Çıktı önyargılı veya ayrımcı mı? Kullanım etik ve yasal mı?
Görüntü Üreten Modeller Fikri Mülkiyet/Telif Hakkı İhlali, Uygunsuz/Zararlı İçerik, Yanıltıcı Gerçekçi Görüntüler, Marka İtibarına Zarar, Yasal Uyumsuzluk Üretilen görsel orijinal mi? Telif hakkı ihlali var mı? Görsel uygunsuz veya zararlı mı? Gerçekçi görseller yanıltıcı şekilde kullanılıyor mu? Görsel marka değerlerine uygun mu?
Kod Üreten Modeller Güvenlik Açıkları, Hatalı Kod, Açık Kaynak Lisans Uyumsuzluğu, Kod Kalitesi Düşüklüğü, Bakım Zorluğu, Yasal Uyumsuzluk Üretilen kod güvenlik açıkları için taranmış mı? Kod doğru çalışıyor mu? Açık kaynak lisanslarına uyuldu mu? Kod okunabilir ve sürdürülebilir mi? Performansı kabul edilebilir mi?

Senaryo 1

LLM ile Müşteri E-postası Yazma

Gizlilik

Müşteriye ait kişisel bilgileri LLM'ye girmeyin

Doğruluk

Dilbilgisi, yazım, gerçeklere uygunluk kontrolü

Marka Uyumu

Ton ve üslup marka kimliğine uygun olmalı

Senaryo 2

Görüntü Modeli ile Pazarlama Materyali

Fikri Mülkiyet

Üretilen görselin orijinal olduğundan emin olun

Uygunluk

Şiddet, nefret söylemi içermemeli

Gerçekçilik

AI tarafından üretildiği belirtilmeli

Senaryo 3

Kod Modeli ile Yazılım Geliştirme

Güvenlik

Güvenlik açıkları için taranmalı

Doğruluk

Kapsamlı testler yapılmalı

Lisanslar

Açık kaynak lisanslarına uyulmalı

Acil Durum ve İhlal Bildirim Prosedürleri

Bildirim Adımları:

  1. 1. Derhal Bildirim: Doğrudan yöneticiye veya ilgili departmana
  2. 2. İlgili Departmanlar:
    • • Bilgi Güvenliği: Veri ihlali, siber güvenlik
    • • Hukuk: Yasal uyumsuzluk, Fikri mülkiyet
    • • İnsan Kaynakları: Çalışan davranışları
    • • BT: Teknik sorunlar
  3. 3. Bildirim İçeriği: Tarih/saat, AI aracı, ihlal niteliği, etkilenenler
  4. 4. Belgeleme: Tüm olaylar kayıt altına alınmalı

Misilleme Yasağı

Politika ihlallerini iyi niyetle bildiren çalışanlara karşı herhangi bir misilleme yapılmayacaktır.

Acil Durum Müdahale Planı

Şirket, olası AI kaynaklı acil durumlar (büyük çaplı veri ihlali, sistematik hatalı çıktı üretimi) için bir müdahale planı oluşturacak ve periyodik olarak gözden geçirecektir.

Politika Özeti

Güvenli Kullanım

Hassas verilerin korunması ve güvenli uygulamalar

Etik İlkeler

Adil, şeffaf ve sorumlu AI kullanımı

Yasal Uyum

Tüm yasa ve düzenlemelere tam uyum

İnsan Gözetimi

AI çıktılarında nihai insan kontrolü