Yapay Zeka Kullanımı

Yapay Zeka Kullanımı Politikası

Son Güncelleme Tarihi: Kasım 2025 İletişim: info@ihtimam.org


1. Niyet Beyanı

İhtimam olarak, kurumların ve sistemlerin dönüşümünde “bakım etiği”ni merkeze alıyoruz. Yapay zeka teknolojilerinin (GenAI ve diğerleri) getirdiği hız ve verimlilik potansiyelini tanımakla birlikte; teknolojiyi bir amaç değil, bakım odaklı bir araç olarak konumlandırmaya gayret ediyoruz. Niyetimiz, yapay zekayı kullanırken insan onurunu, ilişkiselliği ve karşılıklı bağımlılığı korumaya çalışmaktır.


2. Bakım Temelli Yapay Zeka İlkelerimiz

Teknolojiyle kurduğumuz ilişkiyi şu 6 temel bakım ilkesi üzerinden yönetmeye çalışırız:

A. Dikkat ve Özen (Attentiveness)
  • İhtiyacı Görmek: Yapay zekayı “her sorunun çözümü” olarak değil, sadece insan yeteneklerini desteklediği ve gerçek bir ihtiyaca yanıt verdiği noktalarda kullanmaya özen gösteririz.

  • Farkındalık: Kullandığımız araçların ürettiği çıktıların, potansiyel önyargıların veya halüsinasyonların farkında olmak için sürekli bir “uyanıklık” halinde olmaya çabalarız. Otomasyonun rehavetine kapılmamayı hedefleriz.
     

B. Sorumluluk
  • Failiyet: Yapay zeka bir “fail” değildir, bir araçtır. Üretilen her içeriğin, alınan her kararın ve yaratılan her etkinin nihai sorumluluğunun İhtimam ekibine ait olduğunu kabul ederiz. “Yapay zeka yaptı” bizim için bir mazeret değil, bir süreç bilgisidir.

  • İnsan Döngüsü (Human-in-the-Loop): Hiçbir stratejik, duygusal veya etik kararı, insan denetimi ve muhakemesi olmaksızın tamamen yapay zekaya bırakmamaya gayret ederiz.
     

C. Yetkinlik (Competence)
  • Okuryazarlık: Ekibimizin yapay zeka araçlarını yetkin, bilinçli ve eleştirel bir gözle kullanabilmesi için gerekli öğrenme ortamını sağlamaya çalışırız.

  • Kalite Kontrolü: Yapay zeka tarafından üretilen taslakları, doğrudan kullanmak yerine; İhtimam’ın yüksek kalite ve derinlik standartlarına ulaşana kadar insan eliyle işlemeyi ve dönüştürmeyi hedefleriz.
     

D. Duyarlılık (Responsiveness)
  • Geri Bildirime Açıklık: Yapay zeka destekli süreçlerimizin paydaşlarımızda yarattığı etkiyi (olumlu veya olumsuz) dinlemeye çalışırız. Eğer bir araç kurduğumuz “bakım” ilişkisine zarar veriyorsa, verimlilik sağlasa bile o aracı kullanmayı bırakmayı taahhüt ederiz.

  • Kırılganlığı Gözetmek: Veri setlerindeki ve algoritmalardaki ayrımcı dillerin, toplumun kırılgan kesimlerine zarar verme potansiyeline karşı duyarlı olmaya gayret ederiz.
     

E. Güven (Trust/Solidarity)
  • Şeffaflık: Paydaşlarımızla kurduğumuz güven ilişkisi gereği, bir içeriğin veya stratejinin oluşturulmasında yapay zeka önemli bir rol oynadıysa bunu açıkça belirtmeye özen gösteririz.

  • Veri Mahremiyeti: Paydaşlarımızın verilerini korumayı yasal bir zorunluluktan öte, onlara gösterdiğimiz “ihtimam”ın bir parçası olarak görürüz. Hassas ve kişisel verileri genel kullanıma açık AI modellerine (public models) beslememeye azami dikkat ederiz.
     

F. İlişkisellik (Relationality)
  • Bağ Kurmak: Yapay zekanın, insan ilişkilerinin yerini alamayacağının bilincindeyiz. Empati, şefkat ve derin dinleme gerektiren süreçlerde (örn. kriz yönetimi, birebir görüşmeler, hassas geri bildirimler) yapay zeka kullanmamayı tercih ederiz. Teknolojiyi ilişkiyi koparmak için değil, ilişkiye daha fazla zaman ayırabilmek için kullanmayı amaçlarız.

3. Uygulama Kılavuzu: Nasıl Kullanıyoruz?

İhtimam ekibi olarak yapay zekayı şu alanlarda destekleyici olarak kullanmayı tercih ederiz:

  • Fikir Jimnastiği: Farklı perspektifleri keşfetmek ve yaratıcı blokajları aşmak için.

  • Özetleme ve Sentez: Büyük metinleri analiz edip örüntüleri yakalamak için (insan kontrolü şartıyla).

  • Dil ve Editasyon: Metinlerin netliğini artırmak ve dil bilgisi kontrolleri için.

  • Görselleştirme: Konseptlere uygun görsel üretmek, kavramsal tasarımları somutlaştırmak ve moodboard oluşturmak için.
     

Şu durumlarda kullanmamayı ilke ediniriz:

  • Hassas, kişisel veya kurumsal gizlilik içeren verilerin işlenmesinde (Kapalı devre güvenli sistemler hariç).

  • İnsan empatisinin ve yargısının esas olduğu nihai karar alma süreçlerinde.

  • Telif haklarını ihlal eden veya sanatçıların emeğini sömüren şaibeli veri setlerine dayalı üretimlerde (Mümkün olduğunca etik modelleri tercih etmeye çalışırız).

4. Gezegene İhtimam

Yapay zeka modellerinin eğitimi ve kullanımının yüksek enerji tüketimine ve karbon ayak izine sahip olduğunun farkındayız. Bu sebeple:

  • Gereksiz yere yapay zeka kullanmaktan kaçınmaya çalışırız.

  • İhtiyacımızı görecek “yeterli” olan en basit modeli veya yöntemi tercih etmeye gayret ederiz.

5. Geri Bildirim ve Dayanışma

Bu politika statik bir belge değil. Teknoloji geliştikçe ve bakım etiğine dair kavrayışımız derinleştikçe, bu belgeyi yaşayan bir organizma gibi güncelleyeceğimizi, hatalarımızdan öğreneceğimizi ve şeffaf kalacağımızı taahhüt ederiz.

Politikalarımızda henüz fark edemediğimiz noktalar veya eksiklikler olabilir.

Bize eksiklerimizi söylemenizden, “şunu şöyle yapsanız daha etik olur” demenizden memnuniyet duyarız.

  • info@ihtimam.org

  • Bildirimlerinizi bir eleştiri olarak değil, bize yol gösteren bir rehberlik olarak kabul eder; en geç 48 saat içinde (iş günlerinde) size dönmeye ve çözüm üretmeye çalışırız.

 

İhtimam E

bültenine kaydolun