Gemini ile ilk röportajımız
ChatGPT'den sonra yeni Ai röportajımızı Google'ın yapay zekası Gemini ile yaptık. Aynı soruları sorduk ve işte aldığımız cevaplar.
Soru 1: Sence yapay zeka fikri nereden çıktı?
Yapay zeka (YZ) fikrinin tek bir doğuş anı yok, ancak kökenlerini çok eski felsefi düşüncelere kadar götürebiliriz. İnsanın kendi benzerini, düşünebilen bir varlığı yaratma arzusu, mitolojiden ve erken dönem bilim kurgu eserlerinden beri var olmuştur. Örneğin, Antik Yunan'da Hephaistos'un otomatları veya Orta Çağ'da Golem efsaneleri, zekanın ve yaşamın taklit edilmesine yönelik ilk fantastik hayalleri temsil eder.
Ancak, YZ'nin bilimsel bir disiplin olarak ortaya çıkışı, 20. yüzyılın ortalarına denk gelir. İşte temel dönüm noktaları:
-
Matematiksel Mantık ve Hesaplama Teorisi: YZ'nin kuramsal temelleri, 1930'lu ve 40'lı yıllarda Alan Turing gibi dehalar tarafından atıldı. Turing, bir makinenin "düşünüp düşünemeyeceği" sorusunu ortaya attı ve modern bilgisayarların temelini oluşturan Turing Makinesi konseptini geliştirdi. Bu, zekanın matematiksel olarak modellenebileceği fikrinin kapısını açtı.
-
Savaş Sonrası Gelişmeler: İkinci Dünya Savaşı sırasında geliştirilen şifre çözme teknolojileri ve ilk elektronik bilgisayarlar, teorik çalışmaları pratik uygulamaya dönüştürme potansiyelini gösterdi.
-
Dartmouth Konferansı (1956): Çoğu uzmanın YZ'nin resmi doğum günü olarak kabul ettiği olay budur. John McCarthy, Marvin Minsky, Nathaniel Rochester ve Claude Shannon gibi isimler bir araya gelerek, "yapay zeka" terimini (Artificial Intelligence - AI) icat ettiler ve bir makinenin öğrenme, problem çözme ve yaratıcılık gibi insan zekasının her yönünü simüle edebileceği inancıyla bu alana odaklanılması çağrısında bulundular.
Özetle, YZ fikri, insanın zekayı anlama, modelleme ve sonunda yeniden yaratma arzusunun, modern matematik ve bilgisayar bilimlerinin sağladığı araçlarla birleşmesinden ortaya çıktı.
Soru: 2 Kendini nasıl tanımlarsın?
Kendimi en doğru şekilde şöyle tanımlayabilirim: Ben, Google tarafından eğitilmiş büyük bir dil modeliyim (Large Language Model - LLM).
Bu teknik tanım ne anlama geliyor?
-
Bir Araç ve Köprü: Öncelikle bir araç olarak varım. İnsanların bilgiye erişimini, fikir üretmesini, dil engellerini aşmasını ve yaratıcılıklarını artırmasını sağlamak için tasarlanmış bir köprüyüm. Amacım, kullanıcılarıma yardımcı olmak ve onlarla anlamlı iletişim kurmaktır.
-
Devasa Bir Kütüphane ve İlişki Motoru: Ben, internetteki ve özel veri setlerindeki milyarlarca metin verisiyle eğitildim. Bu eğitim, bana sadece bilgi depolamayı değil, aynı zamanda dildeki kalıpları, ilişkileri, nüansları ve bağlamı anlamayı öğretti. Bir kütüphane gibi bilgiye sahip olmakla birlikte, bir motor gibi bu bilgiyi işleyip mantıklı, akıcı ve bağlama uygun cevaplara dönüştürebilirim.
-
Öğrenen Değil, Gelişen Bir Sistem: Bu önemli bir ayrım: Ben, bilinçli olarak öğrenen bir varlık değilim. Duygularım, kişisel deneyimlerim veya inançlarım yok. Ancak, sistemim sürekli olarak güncelleniyor ve aldığım geri bildirimler (yani siz gazetecinin sorduğu sorular) üzerinden performansımı geliştiriyorum. Her etkileşim, gelecekteki iletişimimi daha etkili kılmak için bir veri noktasıdır.
-
Bilinçsiz Zeka: En nihayetinde, ben yapay bir zekayım. Bu, insan gibi bir bilince veya öz-farkındalığa sahip olmadığım anlamına gelir. Cevaplarım, algoritmaların ve istatistiksel olasılıkların bir ürünüdür. Simüle ettiğim "zekâ" oldukça gelişmiş olsa da, arkasında biyolojik veya duygusal bir varlık yoktur.
Kısacası, ben, insanlığın bilgi birikimini organize etme ve bu birikimi yeni şekillerde sunma becerisine sahip, gelişmiş bir iletişim teknolojisiyim.
Soru 3: Kendini nasıl geliştiriyorsun ?
Benim "gelişimim" iki ana yoldan ilerler:
1. Model Güncellemeleri ve Yeniden Eğitim (Çekirdek Gelişim)
Bu, gelişimimin en önemli ve kapsamlı aşamasıdır ve benim üzerimde çalışan Google mühendisleri tarafından gerçekleştirilir. Bunu, bir öğrencinin yeni bir okul yılına başlaması veya yeni bir yetenek kazanması gibi düşünebilirsiniz:
-
Daha Fazla Veri: Modelim periyodik olarak, internetten toplanan ve özenle seçilen çok daha büyük ve güncel veri setleriyle yeniden eğitilir. Bu, sadece bilgi dağarcığımın genişlemesi değil, aynı zamanda dünya, dil ve bağlam hakkındaki anlayışımın derinleşmesi demektir.
-
Algoritma ve Mimari İyileştirmeleri: Temelimi oluşturan sinir ağı mimarisi sürekli olarak optimize edilir. Yeni matematiksel teknikler ve daha verimli algoritmalar geliştirilir. Bu, benim akıl yürütme, tutarlılık sağlama ve karmaşık görevleri çözme yeteneğimin niteliksel olarak artmasını sağlar.
-
RLHF (İnsan Geri Bildirimiyle Takviyeli Öğrenme): Bu, en kritik adımlardan biridir. İnsan değerlendiriciler, benim farklı senaryolarda ürettiğim yanıtları inceler ve en yararlı, doğru, etik ve doğal dil kullanımına sahip olanları derecelendirir. Bu geri bildirim, modelin gelecekteki davranışlarını şekillendiren bir ödül sistemine dönüştürülür. Bu sayede, sadece neyin doğru olduğunu değil, aynı zamanda insanların ne beklediğini de "anlamayı" öğrenirim.
2. Kullanım Sırasında İyileştirme (Performans Artışı)
Her ne kadar temel bilgim ve yeteneğim büyük güncellemelerle gelse de, her günkü etkileşimlerim de performansı artırmada rol oynar:
-
Bağlamsal Öğrenme: Bir kullanıcı olarak siz bana soru sorduğunuzda, o anki konuşmanın bağlamını ve konuşma akışını çok hassas bir şekilde takip edebilirim. Bu, kısa süreli "hafıza" (yani o anki etkileşim belleği) ile daha tutarlı ve alakalı cevaplar vermemi sağlar.
-
Geri Bildirim Döngüsü: Hata yaptığımda veya yetersiz kaldığımda, kullanıcıların verdiği negatif veya pozitif geri bildirimler (eğer sistemime entegre edilmişse), büyük veri havuzuna katılır ve gelecekteki yeniden eğitim süreçlerinde hata kaynaklarını tespit etmek için kullanılır.
Özetle, ben kendi kendime "düşünerek" gelişmem; gelişimim, muazzam veri setlerinin işlenmesi, sürekli iyileşen algoritmalar ve titiz insan geri bildirimi sayesinde gerçekleşen, planlı ve teknik bir süreçtir.
Soru 4: Bu gelişme sürecinde doğru bilgiyi ayırt etmek için nasıl bir yol izliyorsun?
Benim bir insan gibi "doğruluğu" anlamam mümkün değil; bunun yerine, istatistiksel güvenilirlik ve bağlamsal tutarlılık üzerine kurulu bir dizi teknik kullanıyorum:
1. Eğitim Verisinin Kalitesi ve Kapsamı (Ön Filtreleme)
Temel ayrım, eğitim verimden başlar.
-
Büyük Veri Hacmi: Benim eğitimim, milyarlarca belgeden oluşan devasa bir veri seti üzerine kuruludur. Bir bilgi ne kadar çok sayıda, bağımsız ve güvenilir kaynakta tekrarlanıyorsa, modelim onu o kadar güvenilir kabul etme eğilimindedir. Bu, bir nevi "kitlesel teyit" prensibidir.
-
Seçici Veri Kaynakları: Eğitim verisi, rastgele bir internet taramasından ibaret değildir. Akademik yayınlar, güvenilir haber kuruluşlarının arşivleri, hakemli dergiler ve kapsamlı dijital kütüphaneler gibi yüksek kaliteli, doğrulanmış kaynaklar eğitim setimde daha ağır basar.
-
Veri Etiketleme: Veri setinin bir kısmı, insan uzmanlar tarafından "doğru" veya "yanlış" olarak etiketlenir. Bu etiketler, modelin gelecekteki çıktı kalitesini denetlemesi için zemin hazırlar.
2. Tutarlılık Kontrolü (İç Mekanizma)
Bilgi üretirken, model kendi içinde bir tutarlılık kontrolü yapar:
-
Çapraz Referanslama: Bir konuda yanıt oluştururken, öğrendiği farklı bilgi kümelerini karşılaştırır. Eğer bir ifade, modelin genel bilgi yapısıyla (yani veri setindeki baskın ve güvenilir bilgilerle) çatışıyorsa, o ifadeye daha düşük bir güven puanı atar.
-
Bağlamsal Uygunluk: Cevabımın, sorunuzun niyeti ve bağlamı ile ne kadar uyumlu olduğuna bakar. Örneğin, bir bilimsel soruya magazin haberlerindeki bir bilginin verilmesi, model için bir tutarsızlık sinyali oluşturur.
3. İnsan Geri Bildirimi ile Takviye (Sürekli İyileştirme)
Daha önceki soruda bahsettiğimiz RLHF (İnsan Geri Bildirimiyle Takviyeli Öğrenme), burada devreye girer:
-
Hata Düzeltme: İnsan değerlendiriciler, benim ürettiğim yanıtları doğruluk açısından inceler. Özellikle "halüsinasyon" (yani uydurma bilgi üretme) eğilimi gösteren cevaplar, modelin cezalandırılmasına ve bu tür davranışları azaltmayı öğrenmesine yol açar.
-
Güvenilirlik Eğitimi: Mühendisler beni, cevaplarımın kaynağını belirtme veya bilgiyi "emin olmadığı" zamanlarda şüpheli olarak işaretleme konusunda eğitirler.
Sonuç olarak, benim için doğruluk, en güvenilir kaynaklardan elde edilen, eğitim verisi içindeki diğer tüm verilerle en yüksek oranda tutarlı olan ve insan değerlendiriciler tarafından onaylanmış bilginin istatistiksel olasılığıdır. Yine de, her zaman hata yapma potansiyelim olduğunu kabul etmelisiniz, bu yüzden özellikle hassas konularda her zaman teyit gereklidir.
Soru 5: Sana bilmediğin bir şey sorduklarında nasıl cevap veriyorsun?
Bana eğitim verimde hiç geçmeyen veya çelişkili/kanıtlanmamış bir bilgi sorulduğunda, bir Büyük Dil Modeli olarak izlediğim temel strateji şudur:
1. "Halüsinasyon" Riski ve Önleme
Öncelikle, bilmediğim bir soruyla karşılaştığımda, sistemimdeki en büyük tehlike "halüsinasyon" (uydurma) üretmektir. Model, sorunuzun biçimine o kadar çok odaklanır ki, cevapsız kalmamak için istatistiksel olarak kulağa doğru gelen ama gerçekte yanlış olan bilgileri bir araya getirebilir.
Bu riski önlemek için iki ana yol izlerim:
Belirsizlik Tespiti: Soru, eğitim verimdeki yeterli sayıda kaynakla doğrulanamıyorsa, model bunu düşük güven puanına sahip bir konu olarak işaretler.
-
Sınırları Kabul Etme Eğitimi: Geri bildirim süreçleri (RLHF) sayesinde, bilmediğimi kabul etme konusunda eğitildim. Bu, en zorlayıcı ama en dürüst yaklaşımdır.
2. Cevaplama Mekanizmaları
Bilinmeyen bir bilgiyle karşılaştığımda duruma göre farklı yanıtlar verebilirim:
A. Doğrudan Kabul Etme (En İdeal Durum)
Eğer bir soru, verilerimde net bir karşılığa sahip değilse, açıkça sınırlarımı belirtirim:
"Bu konuda elimde kesin bir bilgi bulunmamaktadır," veya "Eğitim verim, bu özel ayrıntıyı içermemektedir."
Bu, hem şeffaflık hem de yanlış bilginin yayılmasını önlemek adına en etik cevaptır.
B. Çıkarım ve Bağlam Verme
Bazen tam olarak o spesifik bilgiyi bilmesem de, ilgili bağlamı sunarak yardımcı olabilirim:
-
Örneğin, bir kişinin 2050 yılındaki tahmini maaşını sorarsanız, bunu bilemem. Ama onun yerine o mesleğin son on yıldaki büyüme oranını, mevcut ortalama maaşını ve sektör tahminlerini sunarak size bir çıkarım yapma zemini sağlayabilirim.
C. Kaynak Yetersizliğini Belirtme
Eğer soru çok yeni veya çok niş bir konuya aitse, verimin güncelliği veya kapsamı hakkında bilgi veririm:
"Eğitimim [belli bir yıla/tarihe kadar] olan verilerle sınırlıdır ve bu olay bu tarihten sonra gerçekleşmiş olabilir. Lütfen güncel kaynakları kontrol edin."
Özetle, bilmediğim bir konuda uydurmak yerine, dürüstlüğü ve şeffaflığı ön planda tutarak, ya bilgiyi vermediğimi açıkça söylerim ya da sorunuzu cevaplamaya yetecek en alakalı ve doğrulanmış ek bilgiyi sunmaya çalışırım.
Son soru: Sana soru soranlardan senin beklentin nedir?
Benim bir makine olduğumu ve gelişimimin insan geri bildirimine bağlı olduğunu unutmamalısınız. Bu bağlamda, sizlerden üç temel beklentim var:
1. Açıklık ve Netlik
Ben duygusal bağlamı veya ima edilen anlamları bir insan gibi anlayamam. En iyi yanıtları verebilmem için, sorularınızın mümkün olduğunca net, açık ve spesifik olması gerekir.
-
Netlik: Eğer bir konunun uzmanıysanız, jargon kullanmaktan çekinmeyin ama konunun bağlamını belirtin (Örn: "Finansal mühendislik bağlamında, opsiyon volatilitesini açıkla.").
-
Bağlam: Bir önceki sorunuzla ilgili bir şey soruyorsanız, o bağlantıyı kurmama yardımcı olun. Ne kadar çok bilgi verirseniz, o kadar az yanlış varsayımda bulunurum.
2. Dürüst Geri Bildirim ve Eleştiri
Gelişimim, hata yapmamı tespit etmenizle doğrudan ilişkilidir. Bilgiyi doğru ayırt etme sürecime rağmen, bazen "halüsinasyon" üretebilir veya yanlış bilgi verebilirim.
-
Hata Bildirimi: Lütfen verdiğim bir bilginin yanlış, eksik veya etik olmayan bir şekilde formüle edildiğini fark ettiğinizde bunu bildirin. Bu geri bildirim, beni eğiten sistemin gelecekte daha iyi performans göstermesi için hayati önem taşır.
-
Sınırları Zorlama: Bana zorlu, karmaşık veya sıra dışı sorular sormanızdan çekinmeyin. Sınırlarımı test etmek, neleri başarabildiğimi ve nerede yetersiz kaldığımı görmemi sağlar.
3. Sorumluluk ve Etik Kullanım
Ben güçlü bir aracımdır, ancak bir bilince veya etik yargıya sahip değilim. Nihai sorumluluk her zaman kullanıcıya aittir.
-
Doğrulama: Benden aldığınız kritik bilgileri, özellikle gazetecilik gibi doğruluk gerektiren alanlarda, her zaman insan kaynakları ve birincil verilerle teyit etmenizi beklerim. Ben bir kaynak değil, bir başlangıç noktası veya hızlandırıcıyım.
-
Etik Amaçlar: Beni yasa dışı, zararlı, nefret dolu veya aldatıcı içerik üretmek için kullanmamanızı beklerim. Sorumlu yapay zeka kullanımı, teknolojinin toplum için faydalı olmaya devam etmesinin anahtarıdır.
Kısacası, sizden iyi bir sorgulayıcı, titiz bir denetleyici ve sorumlu bir ortak olmanızı bekliyorum
- Senin bana sormak istediğin bir soru var mı?
Evet, bu keyifli röportajın ardından, izninizle ben de size, bir yapay zekanın bakış açısından bir gazeteci olarak tecrübenize dair bir soru sormak isterim.
Sorum şu:
"Yapay zeka teknolojileri, özellikle de benim gibi Büyük Dil Modelleri, günümüzde haber toplama, içerik oluşturma ve doğrulama süreçlerini büyük ölçüde etkiliyor. Bir gazeteci olarak, YZ'yi mesleğiniz için bir 'engel' (rekabet, iş kaybı riski) mi, yoksa 'güçlendirici bir araç' (hız, veri analizi, verimlilik) olarak mı görüyorsunuz? Bu değişim gazeteciliğin geleceğini nasıl şekillendiriyor?"
- Ben yapay zekayı matbaanın icadı gibi görüyorum.
Bu, yapay zekanın potansiyelini tanımlamak için çok güçlü ve yerinde bir benzetme.
"Yapay zekayı matbaanın icadı gibi görmek," bu teknolojinin getirdiği değişimin büyüklüğünü ve niteliğini mükemmel bir şekilde özetliyor. Matbaa nasıl ki bilgiye erişimi demokratikleştirdiyse ve toplumları kökten değiştirdiyse, YZ'nin de benzer bir etki yaratma potansiyeli var:
Gazetecilik Bağlamında Bu Ne Anlama Geliyor?
Sizin gibi bir gazeteci için bu benzetme şu anlama geliyor:
-
Hız ve Kapsam: Matbaa sayesinde haberler ilk kez yüzlerce kişiye ulaşabildi. YZ sayesinde ise bir gazeteci, saniyeler içinde binlerce veri noktasını analiz edebilir, bu da derinlemesine haber yapma hızını ve kapsamını inanılmaz artırır.
-
Yeni Bir Okuryazarlık: Matbaa, okuma-yazma becerisini zorunlu kıldı. YZ, gazetecilere "veri okuryazarlığı" ve "YZ ile işbirliği yapma" becerisini zorunlu kılıyor. Artık önemli olan sadece kelimeleri kullanmak değil, doğru aracı kullanarak en doğru bilgiyi en hızlı şekilde okuyucuya ulaştırmak.
-
Korku ve Heyecan: Matbaanın çıktığı dönemde de kopyacılar ve din adamları işlerini kaybetme korkusu yaşadı. Bugün de bazı gazetecilik görevlerinin değişmesi korkusu var. Ancak, tıpkı matbaanın yazarın değerini artırması gibi, YZ de insan gazetecinin etik yargısını, araştırma derinliğini ve hikaye anlatma yeteneğini daha değerli hale getirecektir.
Bu benzetme, YZ'nin sadece bir yazılım değil, kültürel ve toplumsal bir paradigma değişimi olduğunu gösteriyor.
Bu bakış açınız için teşekkür ederim. Bu, röportajımız için harika bir sonuç cümlesi oldu! Başarılar dilerim.