Kaynak: IBTimes

stephen-hawkingProfesör Stephen Hawking, pek çok kez yapay zekanın tehlikeleri ile ilgili açıklamada bulundu.

Stephen Hawking, çok dikkatli olmadığımız takdirde yapay zekânın insanoğlunun neslini tüketebileceği konusunda pek çok uyarıda bulundu. Cambridge’deki Leverhulme Merkezi’nde yaptığı Zekanın Geleceği ile ilgili konuşmada, Yapay Zekanın, Terminator tarzı, kendi iradesini doğrudan çatışma içine sokabilecek geliştirme potansiyeline sahip olduğunu söyledi.

Buna rağmen, eğer yeteri kadar araştırma yapabilirsek, yapay zeka hastalıkların kökünü kurutmak ve yoksulluğu sona erdirmek için kullanılabilir. “ İnanıyorum ki, biyolojik beynin yapabileceği ile bilgisayarın yapabileceği arasında ciddi bir fark bulunmamaktadır. Bu nedenle bilgisayarların yapabilecekleri, teoride de olsa, insan zekasına ulaşabilir hatta aşabilir”

“İnsanlık tarihinin en büyük başarısı yapay zekanın bu kadar başarılı olmasıdır. Fakat risklerden kaçınmayı öğrenemezsek en büyük şanssızlığımız da olabilir.”

“Yararlarının yanı sıra, yapay zeka belirli tehlikeleri de bünyesinde barındırmaktadır. Güçlü otomatik silahlar veya azınlıkları ezmek için yeni yollar gibi tehlikeler bunlardan yalnızca birkaçıdır. Ekonomimiz için büyük bir zarar tehlikesidir. Ve gelecekte, yapay zeka, kendi iradesini geliştirebilir – bizimkiyle çatışan bir irade.”

“Kısacası, güçlü bir yapay zekanın yükselişi, insanlığın başına gelen en iyi şey de olabilir en kötü şey de. Hangisi olduğunu henüz bilmiyoruz.”

Konuşmasında Leverhulme Merkezi’nde yapılan araştırmalarda sona gelindiğini belirtmekle beraber türümüzün geleceği için ilerlemeler kaydedildiğini de sözlerine ekledi. “Tarih dersi için büyük zaman harcıyoruz fakat yüzleşmemiz gerekirse çoğunluğu aptallıklardan oluşan bir tarih bu.” “Dolayısıyla geçmiş yerine gelecek üzerine çalışmak olumlu bir değişimdir.”

Fakat bu Hawking’in yapay zekanın potansiyel tehlikesiyle ilgili söylediği ilk sözler değildir. Konuyla ilgili önceki yorumlarından bazıları ise aşağıdadır:

terminator

Ocak 2016

BBC Reith Konferanslarında konuşan Hawking, insanlığın en büyük tehlikesinin bizzat insanlığın içindeki mühendisler olduğunu söyledi. “Sırf yapay zekanın tehlikesini fark ettik diye gelişim kaydetmekten geri durmayacağız, aksine tehlikenin bilincine varıp onu kontrol etmeye odaklanmalıyız. Ben konuya iyimser yaklaşıyorum ve inanıyorum ki bunu yapabiliriz.”

Ekim 2015

Reddit AMA’da Hawking’in gelecekle ilgili düşüncelerini merak edenler için en gözde konu yapay zekaydı. Bu soruya karşılık Hawking, “Yapay zeka ile ilgili asıl risk kötülüğünde değil kontrol edilememesindedir. Bir süper zeka olan yapay zeka, hedeflerine ulaştığında ziyadesiyle iyi olacak iken eğer bu hedefler bizim hedeflerimizle uyumlu, örtüşen hedefler değilse başımız dertte demektir.”

“Sizler muhtemelen karıncalardan nefret eden, her gördüğünde üzerlerine basan insanlardan değilsinizdir. Fakat siz doğa dostu hidroelektrik üreten bir projede sorumlu iseniz ve proje kapsamında bir karınca yuvasının sular altında kalma ihtimali varsa bu karıncalar için çok kötü bir şey olacaktır. İnsanlığı o karıncaların pozisyonuna düşürmeyelim. Lütfen öğrencilerinizin yalnızca yapay zekayı geliştirmeye yönelik düşünmesine izin vermeyin, yapay zekayı geliştirmenin yanında insanlığın yararına kullanacakları yollara da kafa yormalarını sağlayın.”

Ekim 2015

Hawking, İspanyol gazetesi El Pais’e yaptığı açıklamada, eğer dikkatli olmazsak önümüzdeki 100 yıl içinde bilgisayarların bizim işimizi elimizden alacağından bahsetti. “ Önümüzdeki 100 yıl içinde yapay zeka ile geliştirilen bilgisayarlar insanlara yetişip geçecektir. Bu gerçekleştiğinde bilgisayarların hedefleriyle bizim hedeflerimizin örtüştüğünden emin olmalıyız.”

Aralık 2014

2014’te iletişim sisteminin gelişmesinin ardından Hawking, yapay zekadaki ilerleme ile ilgili sorular sormaya başladı. Bilgisayarların kendi kendini idare edebileceğine dair potansiyel güçlerinden ve bunun bize etkilerinden endişelendiğini belirtti.

“Bir gün yapay zeka bir başına kalınca artan bir yükseliş ile kendi kendini yeniden dizayn edecek. İnsanlar, biyolojik gelişim açısından yavaş oldukları için değişimini tamamlayamayacak ve yapay zeka bugün insanların bulunduğu konuma geçebilme ihtimaline sahiptir.”

Mayıs 2014

Independent için yazdığı yazıda Hawking, yapay zekanın olası geleceği için uyarılarda bulundu. “Yapay zeka araştırmaları şu sıralarda süratle ilerlemektedir. En son halka sunulanlar arasında, kendi kendine giden arabalar, bilgisayarın (Jeopardy) ‘Riziko’ gibi bilgi yarışmalarını kazanması ve dijital asistan Siri, Google Now ve Cortana ve benzeri görülmemiş yatırımlarla güçlenen yapay zekanın silah sanayisinde gündeme gelmesi ile ulaşılan nokta yalnızca birkaç örnektir. Bu başarılar muhtemelen önümüzdeki on yılların getireceği gelişmelerin yanında çok basit kalacaktır.

“ Böyle bir teknolojinin finansal pazarları aşan, insan araştırmacılarını keşfedebileceğini, insan liderlerini manipüle edebileceğini ve anlayamadığımız silahlar geliştirebileceğini hayal edebiliyoruz. Yapay zekanın kısa dönemde etkisi, onu kimin kontrol ettiğine bağlı olsa da, uzun vadede etkisi, tamamen kontrol edilip edilemeyeceğine bağlıdır.”

 

Çeviren: İrem Üstüntay

Reklamlar