Notit

Yapay Zeka Gerçek Bir Düşünceye Ulaşabilecek Mi?

[BIG THINK yazısından çevrilmiş ve düzenlenmiştir.]
Tarih: 19.05.2021
Yazar: Bilgin Burak Öztoprak
Ortalama Okuma Süresi: 7 dakika

Yeni bir işe başladınız ve iş yerinde ilk gününüz. Yeni iş arkadaşınız sohbet başlatmak için size “Dün gece maçı izledin mi?” diye soruyor. Futboldan nefret ediyorsunuz, ancak yeni iş yerinde hiç arkadaşınız da yok. Cevabınız “Elbette, bu sonuca inanamıyorum.” Oluyor. İlginç bir şekilde bu cevap işe yarıyor ve bir süre daha sohbet ediyorsunuz. Bundan sonraki günlerde ise bir yalanı yaşamaya devam ediyorsunuz. Hafta sonu birkaç futbol programı izlediniz, birkaç araştırma yaptınız. İş yerine dönünce sadece hafta sonu duyduğunuz şeyleri tekrar ettiniz. Söylediğiniz şeyler hakkında bir fikriniz yok ancak iş arkadaşınız söylediklerinizden etkilendi. Bir şekilde futboldan anlıyor gibi göründünüz. Ancak soru şu: Futbolu gerçekten biliyor musunuz yoksa bilgiyi taklit mi ediyorsunuz? Aradaki fark nedir? Filozof John Searl’in “Çin Odası’na” hoşgeldiniz!

ÇİN ODASI NEDİR?

John Searle’nin “Çin Odası” nın görselleştirilmesi.

Searle’ın argümanı, zihnin tam olarak hangi rolü oynadığıyla veya başka bir deyişle ne yaptığı ya da hangi “işleve” sahip olduğunu açıklayabileceğini savunan felsefedir. 

İşlevselciliği matematikteki fonksiyonlara benzetebiliriz. İnsan zihni bir “girdi-süreç-çıktı” modelini izliyor gibi görünmektedir. Çin Odası düşünce deneyi, insan zihni bu kadar basit şekilde çalışan biyolojik bilgisayarlar olmadığını göstermeye çabası içerisindedir.

Bir oda hayal edin. Odanın içinde Çince bilmeyen John var. Odanın dışındaki bir Çinli odanın içine Çince bir mesaj gönderir. John’un elinde ise Çince karakterler için bir “Girdi-Çıktı” kitabı var. Örneğin, <你 好吗> alırsa, doğru cevap <我 还好> olur. John’un yapması gereken tek şey talimat kitabını takip etmek. Odanın dışındaki Çinli konuşmacı, içeriden Çince bilen biriyle konuştuklarını düşünüyor. Ama gerçekte, içeride yalnızca John ve elindeki kitabı var.

Anlamak nedir?

John Çince anlıyor mu? Çin Odası, her bakımdan, zihnin hesaplamalı bir görünümüdür, ancak görünen o ki, bir şeyler eksiktir. Bir şeyi gerçekten anlamak, “Girdi-Çıktı” otomatikleştirilmiş bir yanıtını vermek değildir.

Yapay zekalar bu şekilde programlanır. Bir bilgisayar sistemi, belirli girdilerin sınırlı bir listesine dayalı olarak belirli bir çıktı sağlamak üzere programlanmıştır. “Fareye çift tıklarsam bir dosya açarım.” Giriş – İşlem – Çıkış.

Yapay Zekanın Geleceği

Adil olmak gerekirse, yapay zeka alanı daha yeni başlıyor.  Ancak bu, AI’nın her zaman böyle olacağı anlamına gelmez. AI’nın (en azından) çok da uzak olmayan bir gelecekte bir insan tepkisini mükemmel bir şekilde taklit etmesi oldukça olasıdır. Dahası, bugün AI’lar giderek daha gelişmiş öğrenme yeteneklerine sahiptir. Algoritmalar artık sadece girdi-işlem-çıktı değil, daha çok sistemlerin bilgi aramasına ve aldıklarına yeniden adapte olmasına izin veriyor. Bunun kötü şöhretli bir örneği, bir Microsoft sohbet botunun Twitter’da okuduklarından öğrendikten sonra ırkçılıktan bahsetmeye başladığında meydana geldi. Bir diğer örnek ise, iki Facebook sohbet robotu birbirleriyle kendilerinin icat ettiği bir dilde yaptıkları sohbet keşfedildikten sonra kapatıldı. Ne yaptıklarını anladılar mı? Yeterince öğrenme ve yeterince pratikle, bir yapay zeka “Çin Odası” nın anlayışa ulaşamayacağını kim söyleyebilir?

Taklit anlayışa dönüşebilir mi?

Zaman zaman hepimiz Çin Odası’ndaki John Olmuşuzdur. Bir spor hakkında konuşmak, bir sınava katılmak, anlamını tam olarak bilmediğimiz bir kelime kullanmak veya matematik problemlerini hesaplamak. Hepimiz anlayışı taklit edebiliriz, ama aynı zamanda şu soruyu da akla getiriyor: Taklit ederek anlayabilecek kadar akıcı ve yetkin bir hale gelebilir miyiz? Bir eylemi yeterince tekrarlarsanız, kolay ve alışkanlık haline gelir. Örneğin, bir dil, müzik aleti veya matematik hesaplama pratiği yaptığınızda, bir süre sonra bu ikinci doğa haline gelir. Beynimiz tekrarla değişir.

Öyleyse, yeni bir şey öğrendiğimizde hepimiz Çin Odaları’ndaki John olarak başlayabiliriz, ancak bu hala bizi uygun bir soruyla baş başa bırakıyor: John Çince’yi ne zaman, nasıl ve hangi noktada gerçekten anlıyor ? Daha da önemlisi, Siri veya Alexa sizi hiç anlayacak mı?

 

KAYNAKÇA & İLERİ OKUMA

Çeviri | BIG THINK

BAŞLIK GÖRSELİ | FREEPIK

Çin oDası Görseli | MEDIUM

Scroll to Top