Sayın Katılımcılar / Dear Participants,
Kongremiz Bildiri Kabulüne açıktır.
Bildiri gönderimi son tarih : 1 Mayıs 2026
Our Congress is now open for abstract submissions.
Deadline for abstract submission: May 1, 2026
Son birkaç yıldır hayatımıza giren ChatGPT, Gemini ve Claude gibi yapay zekâ asistanları, artık her anımızda yanımızda. ÖÄŸrenciler ödevlerini onlara yaptırıyor, doktorlar teÅŸhis süreçlerinde onlara danışıyor, hatta pek çok kiÅŸi dertleÅŸmek için bu dijital varlıkların kapısını çalıyor.
Peki, karşımızda "çok mantıklı konuÅŸan" bu sistemlerin söylediklerine gerçekten güvenebilir miyiz? İstatistik biliminin gözlüÄŸüyle baktığımızda, yapay zekânın neden bazen "uydurduÄŸunu" anlamak çok daha kolaylaşıyor.
Yapay Zekâ Aslında Bir "Tahmin Makinesi"
Öncelikle ÅŸu gerçeÄŸi kabul edelim: Sohbet robotları sandığımız gibi "düÅŸünen" veya "anlayan" varlıklar deÄŸil; onlar aslında son derece geliÅŸmiÅŸ birer tahmin makinesidir.
Siz bir cümle yazmaya baÅŸladığınızda, yapay zekâ akıl yürüterek deÄŸil, internetteki milyarlarca cümleyi tarayarak bir sonraki en olası kelimeyi hesaplar.ÖrneÄŸin, "Bugün hava çok güzel, acaba..." dediÄŸinizde, istatistiksel olarak en sık gelen "piknik", "yürüyüÅŸ" gibi kelimeleri olasılıklarına göre seçip size sunar.
İstatistiksel Olarak "Sık" Olan, "Doğru" mudur?
Yapay zekâ ile aslında bir istatistiksel tahmin motoru ile konuÅŸuyorsunuz.Ancak burada kritik bir sorun var: Bir ÅŸeyin internette çok sık geçmesi, onun doÄŸru olduÄŸu anlamına gelmez. EÄŸer internette "Dünya düzdür" diyen milyonlarca içerik varsa, yapay zekâ bunu yüksek olasılıklı bir cevap olarak önünüze getirebilir.İşte bu noktada, doÄŸruyu yanlıştan ayırmak için istatistik okuryazarlığına ihtiyacımız var.
Yapay Zekâ Neden "Halüsinasyon" Görür?
Teknoloji dünyasında yapay zekânın uydurduÄŸu bilgilere "halüsinasyon" deniyor. Bunun temel iki sebebi bulunuyor:
"Kara Kutu" Sorunu ve Şeffaflık,
Yapay zekânın bir diÄŸer büyük problemi ise ÅŸeffaf olmamasıdır. Milyarlarca parametreli bu sistemlerin bir kararı neden verdiÄŸini anlamak çoÄŸu zaman imkânsızdır; buna "kara kutu" sorunu denir. Bir banka kredinizi reddettiÄŸinde veya bir doktor teÅŸhis koyduÄŸunda, bunun nedenini bilmek istersiniz. İşte burada, yapay zekânın karar mekanizmasını açıklamaya çalışan Açıklanabilir Yapay Zekâ (XAI) alanı devreye girmektedir.
Verideki Adaletsizlik: Yapay Zekâ Kimin Gözüyle Bakıyor?
Yapay zekâ modelleri dünyayı olduÄŸu gibi deÄŸil, internetteki veriler kadar görür. İnternet içeriklerinin büyük çoÄŸunluÄŸu İngilizce olduÄŸu için, bu modeller genellikle Batılı ve orta sınıf bir perspektifle dünyaya bakar. Bu durum, yerel kültürlerin, azınlık dillerinin ve bilgilerin yapay zekâ tarafından sessizleÅŸtirilmesine ve bir tür kültürel tek tipleÅŸmeye yol açabilir.
Güvenli Bir Kullanım İçin Ne Yapmalı?
Yapay zekâ kesinlikle kötü bir araç deÄŸil, ancak onu doÄŸru kullanmayı öÄŸrenmeliyiz. İstatistik biliminin rehberliÄŸinde ÅŸu üç kuralı unutmamalıyız:
Otorite DeÄŸil, Asistan: Yapay zekâyı her ÅŸeyi bilen bir bilge deÄŸil, kontrol edilmesi gereken bir asistan olarak görün. Özellikle tarihsel ve bilimsel verileri mutlaka doÄŸrulayın.
İstatistiksel Okuryazarlık: Bir cevabın "yaygın" olmasının "doğru" olmasıyla aynı şey olmadığını unutmayın.
ÇeÅŸitli Kaynaklardan DoÄŸrulama: Yapay zekânın verdiÄŸi bilgileri ve özellikle kaynakçaları, ansiklopediler veya akademik yayınlar gibi güvenilir mecralardan kontrol edin.
Sonuç: İnsan Aklı Hala Devrede,
Yapay zekâ hayatımızın bir parçası olmaya devam edecek. Onunla saÄŸlıklı bir iliÅŸki kurmanın yolu; onun bir tahmin makinesi olduÄŸunu, istatistiksel modellerle çalıştığını ve hata payının olduÄŸunu anlamaktan geçiyor. Unutmayın, yapay zekâ ne kadar geliÅŸirse geliÅŸsin, onu eleÅŸtirel bir gözle deÄŸerlendirecek ve doÄŸrulayacak olan yine insan aklıdır.
Doç. Dr. Yalçın TAHTALI