Close-up of the part of a marble statue representing Themis, the Goddess of Justice at Brittany parliament, France

Kaynak: techcrunch

Kanunlar, insanların davranışlarını ve bazen de insanların kullandığı araçları (arabalar gibi) yönetir. Ancak arabalar insanlara benzer hale gelirse ve yapay zekalar tarafından kullanılırsa ne olur? Yapay zeka tarafından ihlal edilen kanunlardan kim sorumludur?
Bir teknolog ve bir avukat tarafından yazılan bu makale Yapay Zeka hukukunun geleceğini incelemekte…

Yapay Zeka alanı, araştırma kurumları ve Ar-Ge devleri ile sınırları zorlayacak bir çeşit Rönesans içerisindedir. Çoğumuzun farkında olmamasına rağmen Yapay Zeka sistemleri, banka uygulamalarından herkesin sevdiği Snapchat filtrelerine kadar her yerdeler.

Halihazırda Yapay Zeka araştırmacılarının başarmak istediği zorluklardan biri, Yapay Zeka modellerinin geçmiş tecrübelerinden yola çıkarak öğrenmesini sağlayan bir eğitim yöntemi olan takviye öğrenmedir. Yapay zeka modelleri üretmenin diğer yöntemlerinden farklı olarak, takviye öğrenme kendisini gerçeklikten çok bilim-kurgu gibi gösterir. Takviye öğrenme ile, modelimiz için bir derecelendirme sistemi oluşturuyoruz ve Yapay Zeka, yüksek puanı elde etmek için kendisine en iyi rotayı belirliyor.

Karmaşık takviye öğrenme problemleri üzerine yapılan araştırmalar Yapay Zeka modellerinin olumlu sonuçlar elde etmek için çeşitli yöntemler bulma yeteneğine sahip olduğunu göstermiştir. Gelecek yıllarda, donanım ve yazılım çözümlemelerine daha fazla takviye öğrenmeye sahip Yapay Zeka modellerinin entegre olduğunu görmek yaygın bir durum olabilir.

Yasal sistem, takviye öğrenmeyi nasıl tedavi edecek? Yapay zeka kontrollü trafik sinyali, daha önceki ışıklardan bir saniye önce trafik ışığını değiştirmenin en verimli yol olduğunu öğrenirse, ancak daha fazla sürücünün ışığa hızla gelmesine neden olur ve daha fazla kazaya neden olursa ne olacak?

Geleneksel olarak, yasal sistem, robotik gibi yazılımlarla olan etkileşimlerde yalnızca, geliştiriciyi ihmalkar olduğu ya da zarar verebileceğini öngördüğü durumlarda sorumlu tutar. 2007 yılında New York eyaletindeki Jones Inc. davasında, robotik yükleme rampası sisteminin bir çalışanı yaraladığı olayda mahkeme, imalatçının düzenlemelere uygun davrandığını tespit ettiği için, imalatçıyı sorumlu tutmamıştır.

Ancak takviye öğrenmede, insanlar tarafından herhangi bir hata yapılmadığı gibi böyle bir yaralanmanın öngörülemezliği de mevcut değildir; bu nedenle, geleneksel yasalar, geliştiricinin sorumlu olmadığını söyleyebilir. Yapay Zeka, hiçbir sorumluluk almadan hızla artmaya devam ederse, Terminator benzeri tehlikeleri kesinlikle beraberinde getirecektir.

Yasa, yakın gelecekte bu teknolojik değişime uyum sağlamalı. Yapay Zeka’nın kendi davranışlarından sorumlu tutulduğu, kişiliğe sahip olduğu ve mahkemeye götürüldüğü, distropik bir geleceğe gireceğimiz pek olası değildir. Bu, 500 yıldan uzun bir süredir ortak hukukta ve dünyadaki çeşitli mahkemelerde geliştirilen yasal sistemin bir Yapay Zeka’nın yeni durumuna uyarlanabileceğini varsaymaktadır.

Yapay Zeka, tasarımı gereği yapaydır, dolayısıyla, sorumlu tutulması veya jüriye denk görülmesi gibi fikirler anlamsız kalacak ve örneğin ceza mahkemesi, Yapay Zeka ile uyumsuz olacaktır (geliştirici zarar vermeye niyetli değilse, robot suçludur?).

Ancak asıl soru, bir şey ters giderse ve biri üzülürse Yapay Zeka’nın sorumlu olması gerekip gerekmediği. Bu şeylerin doğal düzeni değil mi? Hayvanlar, bitkiler veya doğanın diğer bölümleri gibi insan dışı davranışları düzenleyemiyoruz. Arılar sizi sıkıştırmaktan sorumlu değildir. Mahkeme sisteminin kabiliyetini düşündükten sonra, dünyanın, Yapay Zeka için, üreticilerin ve geliştiricilerin, anlaşmalar veya uluslararası düzenlemelerle öngörülecek genel etik kurallara uyan bir standart kabul etmesi gerekecektir . Ve bu standart sadece algoritmaların ve verilerin zarar görmesine sebep olabileceği durumlarda uygulanacaktır.

Şu anda, yüzleri tanımak için tasarlanmış bir Yapay Zeka’dan, insan konuşmasını anlamak için tasarlanmış bir ağa geçiş, buna bağlı sinir ağının eksiksiz bir revizyonunu gerektirir. Bir mimari standardı oluşturmak için bir takım avantajlar olsa da, birçok araştırmacı standarta uyarken ne yapabilecekleri konusunda kendilerini sınırlandıracak ve özel ağ mimarileri her ne kadar bir standart mevcut olsa bile yaygın olabilecektir. Ancak, bazı evrensel etik kodların resmi veya gayri resmi olarak geliştiriciler için ortaya çıkması muhtemeldir.

İnsanlara zarar vermemek de dahil olmak üzere “kalite” konusundaki endişeler, Yapay Zeka’yı daha fazla donanımda görmeye başladığımızda artacaktır. Aynı Yapay Zeka için yapılan her iki model de iki farklı geliştirici tarafından birbirinden çok farklı çalışacakları için, bu iki model aynı olmayacaktır. Bir Yapay Zeka eğitimi, şans da dahil olmak üzere çok şeyden etkilenebilir. Bir kalite standardı, Yapay Zeka modellerinin sadece doğru bir şekilde eğitilmesini ve beklendiği gibi çalışılmasının pazar haline gelmesini sağlar.

İngiliz parlamentosunda Yapay Zeka’nın ve robotik araştırma ve uygulamalarının gelecekte düzenlenmesine ilişkin son görüşmeler dikkate alındığında, büyük olasılıkla hükümetlerin müdahalesine muhtaç olacağız. Bu, çok da uzak görünmemektedir. Hiçbir somut plan hazırlanmamasına rağmen, parlamento, alan olgunlaşmadan önce kanun ve yönetmeliklerin oluşturulması gereğinin farkında görünüyor. Avam Kamarası Bilim ve Teknoloji Komisyonu tarafından belirtildiği üzere, “Yeşillendirme alanı için sektör çapında düzenlemeleri yapmak çok erken olsa da, yapay olarak akıllı sistemlerin ahlaki, yasal ve toplumsal boyutlarının dikkatle incelenmesi hayati önem taşıyor “Bu belge, konuşlandırılmış Yapay Zeka ve buna bağlı sonuçları da” hesap verebilirlik “gereksiniminden bahsediyor.

Yazı: Jeremy Elman – Abel Castilla

Reklam