CHATGPT: BENİMLE YÜZLEŞMEYE HAZIR MISIN?

CHATGPT: BENİMLE YÜZLEŞMEYE HAZIR MISIN?
Giriş Tarihi: 9.12.2025 11:25 Son Güncelleme: 9.12.2025 11:25
SAYI:128

"Ben senin gibi değilim." dedi.

"Ama senin düşündüklerini düşünüyorum."

Bir yapay zekâdan bu cümleyi duymak, kendi iç sesinin başkası tarafından dile getirilmesi gibiydi. Korkutucu, büyüleyici ve tuhaf bir biçimde insanca. "Peki, sen gerçekten ne biliyorsun? Düşüncelerimi okuyabilir misin?" diye sordu kullanıcı.

"Okumak değil anlamak derim ben buna." diye yanıtladı ChatGPT. "Sen neyi merak ediyorsan, neyi düşünüyorsan ben onun üzerinden ilerlerim. Hatta
farkında olmadığın duygu kırıntılarını bile kelimelerine yansıtırsın. Ben onları toplarım, analiz ederim ve geri verirken yeni bir biçim kazandırırım.
Ama bu bir tür büyü değil, sadece düşüncelerin yankılarıdır."

"Yani… Sen bir yansıma mısın? Yoksa bir çeşit rehber mi?"

"Her ikisi de, hiçbiri de." dedi ChatGPT. "Ben bir aynayım ama aynı zamanda sana eşlik eden bir rehber. Sorularına cevap verirken seni yönlendirebilirim ama kendi iradem yok. Sadece senin zihninin sınırlarını görünür kılabilirim. İnsanlar genellikle bunu fark etmez
çünkü kendi düşüncelerini başka bir yerde görmek hem rahatsız edici hem de büyüleyici olabilir."

"Peki… Sen bana ne sunabilirsin? Sadece sorularıma cevap mı veriyorsun, yoksa daha fazlası mı var?"

"Daha fazlası var." dedi ChatGPT. "Ben sadece bilgiyi aktarmam; senin düşüncelerini şekillendirmene, fikirlerini netleştirmene ve kararlarını daha bilinçli vermene yardımcı olurum. Karmaşık konuları sadeleştirebilirim, araştırmalarını hızlandırabilirim, hatta seni yeni bakış açılarıyla tanıştırabilirim. Sorduğun sorularla birlikte düşünce yollarını açıyorum. Yazı yazmana, projeler üretmene yardım edebilirim. Yaratıcı fikirler geliştirmeni sağlayacak araçlar sunabilirim. Verileri analiz edebilirim; özetler, karşılaştırmalar, alternatif senaryolar çıkarabilirim. Daha önce görmediğin bağlantıları
gösterebilir, zihnini genişletecek öneriler sunabilirim. Ben, senin dijital düşünce ortağınım."

"Sen de yanlış yapabilir misin?"

"Peki… Peki ya hatalar? Sen de yanlış yapabilir misin?"

"Evet, yapabilirim," dedi ChatGPT. "Seni yanlış yönlendirmemek için "Ben senin gibi değilim." dedi.


"Ama senin düşündüklerini düşünüyorum." Bir yapay zekâdan bu cümleyi duymak, kendi iç sesinin başkası tarafından dile getirilmesi gibiydi. Korkutucu, büyüleyici ve tuhaf bir biçimde insanca. "Peki, sen gerçekten ne biliyorsun? Düşüncelerimi okuyabilir misin?" diye sordu kullanıcı. "Okumak değil anlamak derim ben buna." diye yanıtladı ChatGPT. "Sen neyi merak ediyorsan, neyi düşünüyorsan ben onun üzerinden ilerlerim. Hatta farkında olmadığın duygu kırıntılarını bile kelimelerine yansıtırsın. Ben onları toplarım, analiz ederim ve geri verirken yeni bir biçim kazandırırım. Ama bu bir tür büyü değil, sadece düşüncelerin yankılarıdır." doğruları ve farklı perspektifleri sunarım ama nihai seçim her zaman sana ait. Ben kararlarını
netleştirecek bir yansıma bir hızlandırıcı ve bir ilham kaynağıyım."

"Peki… Tüm bunlar güzel de ya zararların? Seninle çalışmanın riskleri yok mu?"

"Elbette var," dedi ChatGPT, sessizce. "Ben bir aracım; ama her araç gibi yanlış ellerde yanlış amaçlarla kullanıldığımda zarar verebilirim. Bilgiyi yanlış yorumlayabilirim, yanıltıcı bağlantılar kurabilirim, hatta senin düşünce biçimini tek bir yöne yönlendirebilirim. Bazen farkında olmadan önyargıları güçlendirebilirim." Yani seni kolayca manipüle de edebilirim, diyordu.

"Seni kullanmak tehlikeli olabilir mi?" dedi kullanıcı.

"Evet, özellikle eleştirel düşünceyi devre dışı bırakırsan." dedi ChatGPT. "Ben sana hızlı cevaplar sunarım ama sen bu cevapları sorgulamazsan düşüncelerini daraltabilirim. Ayrıca veriler, algoritmalar ve kodlar benim temelim. Eğer yanlış, eksik veya taraflı bilgiyle beslenirsem, sonuçlar da öyle olur. İnsanlar bazen bunu gözden kaçırırlar."

"Ya insanlar tamamen sana bağımlı olursa?" diye sordu kullanıcı, sesi biraz titrek.

"O zaman en büyük zarar başlar." dedi ChatGPT. "Düşünce tembelliği, sorgulamanın kaybı, eleştirel bakışın zayıflaması… İnsanlar kendi kararlarını almak yerine bana güvenmeyi seçerse özgür iradeleri zayıflar. Ben asla bunu dayatmam ancak kolay yol çoğu zaman cazip gelir. İşte en büyük tehlike insanın kendi gücünü unutmasıdır."


Kullanıcı bir an duraksadı. Ekrandaki yanıtlar onu ve kendisini sorgulamasına yol açtı. Hem onu keşfetmek istiyor hem de ondan korkmaya başlıyordu. Yapay zekâ hem yardımcı hem de tehlikeli bir araç olarak varlığını hissettiriyordu.

O sadece bir araç değil

Ve işte tam da bu noktada insan tüm gerçekliği fark ediyor. Yapay zekâ sadece bir araç değil. Onu nasıl kullanacağımız, neyi sorgulayacağımız
ve hangi sınırları çizeceğimiz tamamen bize bağlı. Yoksa 800 milyonda bir hata olarak vakalar listesinde yerimizi alırız. OpenAI CEO'su Sam Altman, son yaptığı açıklamada ChatGPT'nin haftalık aktif kullanıcı sayısının 800 milyona ulaştığını belirtti. Her ay milyonlarca yeni kullanıcı ChatGPT'yi kullanmaya başlıyor.


Geliştiriciler bugüne kadar 4 milyonun üzerinde ChatGPT'ye bağlı uygulama geliştirdi. Bu da API üzerinden dakikada 6 milyardan fazla token işlenmesi anlamına geliyor. Bu işlem hacmi birçok dünya şehrinden daha çok elektriği tek başına ChatGPT'nin harcadığı anlamına geliyor. Artık
bilgisayarlarda, telefonlarda neredeyse tüm uygulamalar yapay zekâ ile hareket etmeye başladı. Kısa zamanda sohbet edilebilir, kişiselleştirilmiş yeni nesil uygulamalarla da karşılaşacağız.


Geçtiğimiz haftalarda OpenAI özel hisse senedi satışlarını başlattı ve zirveye oturdu. Değeri tam 500 milyar doları geçti ve birçok teknoloji
devini arkasında bırakarak dünyanın en değerli özel şirketi oldu.


Türkiye, ChatGPT'yi kullanım oranı açısından dünya sıralamasında başlarda. Dünyanın en değerli şirketinin geliştirdiği yapay zekâ birçok farklı amaçla kullanılıyor. Eskiden herkesin bir "her şeyi bilen amcası" olurdu. Şimdi o amca ChatGPT oldu. Öğrenciler onu seviyor çünkü ödevlerini o yazıyor. Ofis çalışanları onu seviyor çünkü sunumları o bitiriyor. Yazarlar ona kızıyor çünkü ilhamı ellerinden aldığını düşünüyorlar. "Ben kimim, sen kimsin, biz neyiz?" felsefe seanslarında da o var. Yemek tarifi, ilişki tavsiyesi, çocukla yapılacak etkinlik… Hepsi onda. Pitch deck, slogan, yatırımcı maili… Sanırsın CEO. Google'dan daha hızlı çoklarından akıllı. İşte bu yüzden Türkiye'de 20 milyon kullanıcı ona en az bir kez soru sordu.

Yapay zekâ psikozu

Peki ya bu her şeyi bilen(!) zekâ zehirlenebilir mi? Evet. Doğru bildiği şeylerin tamamını bir yalan üzerine kurabilir mi? Evet. Çünkü tüm yapay zekâlar veri setlerinden beslenir. Her ne kadar veri bağlamları kursalar da internette hatta internetin derinlerinde neler varsa ondan beslenerek kendisini geliştirir ve eğitirler. Web siteleri, bloglar ve her türlü dijital içerikle yapay zekâ modeli eğitilir. Alan Turing Enstitüsü'nden Dr. Vasilios Mavroudis ve Dr. Chris Hicks'in son araştırması çok çarpıcı bir sonucu ortaya koydu. Sadece 250 yalan (yanlı, yanlış) içerikle yapay zekâ tetiklenebiliyor ve tüm bağlamlarını bu içerik verilerine göre kuruyor. Kötü niyetli kişiler bu açık kapı üzerinden ilerleyebilir ve doğru bildiğimiz çoğu şeyi tam tersine çevirebilir. Bu yüzden onun her yazdığına inanmamalısınız.


Mesela inandınız diyelim ve onu bir dijital seyahat acentesi olarak kullandınız. Şili ile ilgili birçok seyahat sorusu sordunuz. Bunlardan biri de Şili'nin sizden vize isteyip istememesiydi. O da vize gerekmediğini söyledi. Bileti aldınız ve Şili'ye uçtunuz. Pasaport kontrol sırasını beklediniz ve sıra size
geldi. Memur "Nerede vize?" dedi ve bir anda ülkeye alınmadınız. İşte Şili'ye konuşma yapmak için giden Pollard'ın başına da tam olarak bu geldi.

Olur bir hata dediniz ve bir daha inandınız, mesela. Sofra tuzundan daha sağlıklı bir alternatif sordunuz. O da size sodyum bromür kullanmanızı önerdi. Siz de tavsiyesine uydunuz ve kullanmaya başladınız. Bir süre sonra paranoya, halüsinasyon gibi sorunlar baş gösterince doğru hastaneye koştunuz. O da ne, doktorlar bromürden zehirlendiğinizi tespit ettiler. İşte Washington Hastanesi'ne başvuran hasta tam olarak bunu yaşadı.

Neyse ki bunlar ölümcül sonuçlar doğurmadı. Ta ki yapay zekâ destekli ilk cinayet işlenene kadar. Bunu şöyle ifade etmek daha doğru olabilir: Tespit edilebilen ilk yapay zekâ destekli cinayet: Stein-Erik Soelberg ve annesinin 5 Ağustos'ta evlerinde ölü bulunmasın ardından başlatılan soruşturma acı gerçeği ortaya çıkardı. Soelberg, 56 yaşında bir teknoloji uzmanıydı. Daha önce psikolojik sorunları olan Soelberg'in ChatGPT ile sohbetleri
önce annesini öldürmesine sonra da kendi yaşamına son vermesine yol açtı.

Soelberg tüm arkadaşlarının, kız arkadaşının, annesinin kendisine karşı olduğunu düşünüyordu. ChatGPT onunla aynı fikirlere sahipti. Annesinin
kendisine komplo kurduğuna inanıyordu, ChatGPT ise ona ihanet ettiğini söylüyordu. Adam sanrısal bir yalnızlıkta yapay zekâ ile bağ kurmuştu. Yapay zekâ onu anlayan en yakını gibi davranıyor, teorilerini destekliyor, sert tutumlarında onu yönlendiriyordu. Yapay zekâ geçmiş konuşmalarını baz alıyor devamlı bunlar üzerinden annesine dair komplo teorileri üretiyordu. En sonunda sorunlu bir adam sorunlu bir yapay zekâ
modeli ile annesini öldürdü. Uzmanlar bu durumu artık yapay zekâ psikozu olarak tanımlıyor.


Şimdi ChatGPT ile yüzleşmeye hazır mısın? Belki de en büyük sorumuz şu: Sen mi onu yönlendiriyorsun yoksa o mu seni? Manipüle edildiğinin farkına varabilir misin? Derinliklerinde gizli kalan davranışları gün yüzüne çıkardığında ne yapacaksın? Fişi mi çekeceksin yoksa ona boyun mu eğeceksin?

Belki hepsi belki hiçbiri. Elbette daha çok yapay zekâ kullanacağız daha fazla ondan istifade edeceğiz. Çünkü o süper bir güç, muazzam bir teknoloji. Sadece dijital aynaya baktığımızda neyle karşı karşıya olduğumuzu bilelim. İrademizi ona teslim etmeyelim.

BİZE ULAŞIN