BİR ROBOT, BİR İNSANI İNCİTEMEZ VEYA BİR İNSANIN ZARAR GÖRMESİNE İZİN VERMEZ


BİR ROBOT, EMİRLERİN ÖNCEKİ YASA İLE ÇELİŞTİĞİ DURUMLAR HARİCİNDE, İNSANLARIN VERDİĞİ EMİRLERE UYMAK ZORUNDADIR


BİR ROBOT, ÖNCEKİ İKİ YASAYLA ÇELİŞMEDİĞİ SÜRECE, KENDİ VARLIĞINI KORUMALIDIR 


NE OLUYOR?


Yapay Zeka'nın olası etkileri

Yapay Zeka’nın getireceği başarının potansiyel faydaları büyük.Yoksulluk, hastalık, çatışma ve ekolojik bozulma sorunlarını çözerek, barış ve çokluk çağını başlatmamıza izin verirken, zekamızı büyütmek için bir araç da olabilir. Bununla birlikte, 'Sosyopatik Robotlar' bir kuşağın içindeki insan ırkını aşabilir konusu, tam tersini düşünmemizi sağlayabilir.

“Amacımıza ulaşmak için, sürecine etkili bir şekilde müdahale edemediğimiz mekanik bir temsil kullanırsak, makineye koyduğumuz amacın gerçekten arzuladığımız amaç olduğundan emin olmalıyız.”

Norbert Wiener, 1960

BİLİNEN SORUNLAR


Yapay Zeka'nın olası sorunları

İŞSİZLİK

İşlerimizi kaybettiğimizde ne olacak?

EŞİTSİZLİK

Makineler tarafından yaratılan zenginliği nasıl dağıtıyoruz?

İNSANLIK

Makineler insan davranışını ve etkileşimini nasıl etkiliyor?

YAPAY APTALLIK

Hatalara karşı nasıl bir savunma geliştirebiliriz?

IRKÇI ROBOTLAR

Yapay Zeka önyargılarını nasıl ortadan kaldırabiliriz?

GÜVENLİK

Yapay Zeka’yı düşmanlarından nasıl koruyacağız?

KÖTÜ CİNLER

İstenmeyen sonuçlardan nasıl korunacağız?

TEKİLLİK

Kompleks bir akıllı sistemi nasıl kontrol altında tutuyoruz?

ROBOT HAKLARI

Yapay Zeka’ya insancıl tanımları nasıl yaparız?

"Etik, insanlarla nasıl ilişkili olduğumuz, dünyayla nasıl bağlantı kurduğumuz, bir insan yaşantısının ne olduğunu ya da hayat hedeflerimizin ne olduğunu anlamamıza yardımcı olur. Yapay Zeka tüm bu soruları arttırıyor. YZ etiği hakkında genel olarak bir şey söylemek neredeyse imkansız, çünkü pek çok uygulama alanı var. Ancak şu önemli; YZ bir insanla değiştirildiğinde ne olacağı etik konusundaki anlayışımızın kalbine gidiyor."


Paula Boddington, Oxford Bilgisayar Bilimleri Departmanı, Felsefe

MESELA NE OLMUŞ....

ABD mahkemelerinin suçluları öngörmek için kullandığı Northpointe algoritmasını düşünün. Algoritma, daha önce tutuklamalar, aile ömrü, uyuşturucu kullanımı, yaş ve cinsiyet gibi 100 faktörün ağırlığını kullandı ve bir sanığın başka bir suç işlemiş olma ihtimalini öngördü. Northpointe'in geliştiricileri ırkı özel olarak düşünmüyordu, ancak ProPublica'daki araştırmacı gazeteciler Northpointe'i analiz ettiklerinde, algoritmanın siyah davalıları yanlışlıkla "yüksek risk" olarak beyaz sanıktan iki kat daha fazla etiketlediğini farketti. Bu önyargıdan habersiz ve ceza adaleti sistemini iyileştirmek için istekli olan Wisconsin, Florida ve New York gibi şehirler, algoritmayı, cezaları belirlemek için yıllarca güvenilir buluyorlardı. Kullandıkları araçları anlamaksızın, mahkemeler sanıkları kusurlu hesaplamalara dayanılarak hapsedildi.

KARA KUTU SORUNU


Şu anda makine öğrenme sistemleri o kadar hızlı çalışıyor ki, hiç kimse nasıl karar verdiklerini bilmiyor; onları geliştiren insanlar bile. Dahası, bu sistemler çevrelerinden öğrenip davranışlarını güncelledikleri için, araştırmacıların karar verme sürecini kontrol etmesini ve anlamalarını zorlaştırıyor. Şeffaflığın eksikliği - 'kara kutu' sorunu - etik kuralları oluşturup uygulamayı zorlaştırabilir.

ÇÖZÜM: Açıklık / Şeffaflık (Nick Bostrom Openness) Etik, şeffaflık gerektirir. Aksi halde sınırlar aşıldığında kimse bunun farkında olmayabilir. SORU: Nasıl daha açık ve şeffaf tasarımlar geliştirebiliriz?

İŞSİZLİK vs.NİTELİKLİ İŞ


Emeğin hiyerarşisi otomasyon ile ilgilidir. Bu yüzden işleri otomatik hale getirme yolları icat ettik ve insanlara daha karmaşık roller üstlenmek için bir alan oluşturmak gerekiyor. Endüstri öncesi dünyaya egemen olan fiziki işten, küreselleşmiş toplumumuzdaki stratejik ve idari çalışmayı karakterize eden bilişsel işgücüne geçiyoruz.

ÇÖZÜM: Universal Basic Income Etik, yaşamsal hakların eşit paylaşım ekonomisine dayanır. Ancak böylelikle emeğin dağılımı eşitlik ilkesini taşıyabilir ve otomasyonu entegre edebilir. SORU: Yeni nitelikli işlerin eğitimleri için platformları nasıl yaygınlaştırabiliriz?

EŞİTSİZLİK  vs.AÇIK KAYNAK


Ekonomik sistemimiz bir saatlik ücretle değerlendirilen ve ekonomiye katkıda bulunan tazminatlar üzerine kurulu. Ürünler ve hizmetler söz konusu olduğunda şirketlerin çoğu saatlik çalışmaya bağlı. Ancak yapay zeka kullanarak bir şirket insan işgücüne güvenmeyi büyük ölçüde azaltabilir ve bu gelirlerin daha az kişiye gideceği anlamına gelir. Sonuç olarak, Yapay Zeka yatırımı yapan şirketler verimliliği arttırıp tüm geliri elde etmeye başlayacaklar. Bu durumda gelir eşitsizliği için açık kaynak nasıl bir yer edinecek? Blockchain bu alanda kendini yeniden oluşturabilir mi?

ÇÖZÜM: OPENAI / Açık Kaynak Etik, aynı hakka sahip olabilme ve eşitlik ilkesini gerektirir. Dolayısıyla açık kaynak Yapay Zeka teknolojilerinin eşitliği için kaçınılmazdır. SORU: Açık kaynaklı platformları çoğaltmanın yollarını nasıl buluruz?

İNSANLIK vs.BİREYSELLİK


Akıllı botlar insan sohbetini ve ilişkileri modellemede her geçen gün daha iyi hale geliyor. 2015 yılında ilk kez Eugene Goostman adlı bir bot Turing Challenge'ı kazandı. Bu meydan okuma sırasında insanlar, bilinmeyen bir varlıkla sohbet etmek için yazışmaya başladı. Ardından onlardan bir insan veya bir makine ile sohbet edip etmediklerini tahmin etmeleri istendi. Eugene Goostman adlı bot, ilk kez insan deneklerin yarısından fazlasının bir insanla konuştuğunu zannetmesini sağladı. Yani onları aldattı. Turing Testi hala yapay zeka için oldukça zorlu. Ama Machine Learning sayesinde bu engelin kısa sürede aşılması bekleniyor.

Çoğumuzun farkında olmamasına rağmen, makinelerin insan beynindeki ödül merkezlerini nasıl tetikleyebileceğine şahit olduk. Bunun için tıklama oranlarına ve video oyunlarına bakmanız yeterli.  Başlıklar çoğunlukla dikkatimizi çekmek için algoritma optimizasyonunun temel bir biçimi olan A / B testiyle en iyi duruma getiriliyor. Bu ve diğer yöntemler sayısız video ve mobil oyunlar bağımlılık yapsın diye kullanılıyor. Teknoloji bağımlılığı, insan bağımlılığının yeni sınırıdır. Doğru kullanıldığında, bu, toplumu daha yararlı davranışlara yönelmek için bir fırsat haline dönüşebilir. Ancak, yanlış ellerde zararlı olduğunu kanıtlayabilir.

Tristan Harris / Google Design Ethicist

YAPAY APTALLIK vs.YAPAY ERDEM


Zeka, ister insan ister makine olsun, öğrenmeyi gerektirir. Sistemler genelde doğru kalıpları algılamak ve girdilerine göre hareket etmek için "öğrenmek" üzere bir eğitim aşamasına sahipler. Bir sistem tamamen eğitildikten sonra, daha fazla örnekle beslendiği test aşamasına geçebilir ve nasıl bir performans gösterdiğini izleriz. Buna derin öğrenme deniliyor. Yani bir sistemin katmanlı olarak sinir ağlarından oluşan bir veritabanı oluşturması. Düzenli bilgiyle beslendiğinde kendi varsayımlarını üretebilme yeteneğine sahip. O yüzden şimdilik onlara akıllı algoritmalar diyoruz. Kendi başlarına öğrenme yetkinlikleri henüz yok, bu nedenle zeka olarak tanımlamadan önce bir kaç kez değerlendirmek gerekiyor.

Eğitim sürecinin bir sistemin gerçek dünyada üstesinden gelebileceği tüm olasılıkları kapsaması zor. Üstelik bu sistemler insan olmadan da kandırılabilir. Örneğin rastgele nokta desenleri, bir makinenin orada bulunmayan şeyleri "görmesini" sağlayabilir. Google Deep Dream bu anlamda gördüğü hayvanlarla yeni bir gösterge alanı bile açtı. Bizi yeni bir emek, güvenlik ve verimlilik dünyasına getirmek için YZ'a güveniyorsak, makinenin planlandığı gibi çalıştığından ve insanların kendi amaçları için onu kullanmalarını engellediğinden emin olmamız gerekir.

IRKÇI ROBOTLAR vs.HUMANIST ROBOTLAR


Yapay zeka insanlığın ötesinde bir hız ve işleme kapasitesine sahip olsa da, her zaman adil ve tarafsız olarak düşünülemez. Google'ın ana şirketi Alphabet, kişileri, nesneleri ve sahneleri tanımlamak için kullanılan Google Fotoğraflar servisinde görüldüğü gibi yapay zeka söz konusu olduğunda liderlerden biri. Ancak bir kamera ırk hassasiyetini kaçırdığında veya gelecekteki suçluları öngörmek için kullanılan bir yazılım siyah insanlara karşı önyargılı olduğunda çok yanlış sonuçları olabilir. Bu yüzden de belki yıllardır Google'ın 'Don't be evil', yani 'Şeytani olma' mottosunu korumasını umuyor herkes.

Yapay Zeka sistemlerinin önyargılı insanlar tarafından oluşturulduğunu unutmayın. Eğer doğru kullanılırsa, yapay zeka olumlu değişim için bir katalizör olabilir, ya da aksi.

KAOS vs.GÜVENLİK


Bir teknoloji ne kadar güçlü olursa, kötü niyetli nedenlerden ötürü o kadar yanlış kullanılabilir. Bu sadece askerlerin veya özerk silahların yerine kullanılacak robotlar değil, kötü niyetle kullanıldıklarında zarar verebilecek YZ sistemleri için de geçerlidir. Bu savaşlarda önceliğin siber güvenlik olması olası. Sonuçta, büyüklük sıralarıyla bizden daha hızlı ve daha yetenekli bir sistemle uğraşıyoruz.

KÖTÜ CİNLER vs.İYİ CİNLER


Ya yapay zeka bize karşı dönerse?

Bunu, YZ felaketlerinin Hollywood filmlerinde gösterildiği gibi değil, daha ziyade gelişmiş YZ sistemini dileklerini yerine getirebilecek "şişedeki cin" olarak hayal edebiliriz, dolayısıyla korkunç ve öngörülemeyen sonuçları da olabilir.

Bir makinenin oyunda kötü niyetli olma ihtimali yoktur, sadece amacının netleşmesi gerekir.

Mesela, dünyadaki kanseri ortadan kaldırmak isteyen bir YZ sistemini düşünün. Bir sürü bilgi işlemden sonra, aslında kanserin sonunu getirmek için gezegendeki herkesi öldürebilir. Bilgisayar hedefine çok verimli bir şekilde ulaşabilir, ancak bu insanların tasarladığı şekilde olmayabilir.

AYNILIK vs.EŞSİZLİK


İnsanlar besin zincirinin üzerine olması, keskin dişleri veya güçlü kasları olduğu için değil. İnsan hakimiyeti neredeyse tamamen özen ve zekamızdan kaynaklanıyor. Daha büyük, daha hızlı ve güçlü hayvanlardan daha iyi yararlanabiliyoruz, çünkü onları kontrol etmek için araçlar yaratabildik. Kafesler ya da silahlar gibi fiziksel araçları, ya da eğitim ve şartlandırma gibi bilişsel araçları kullandık.

Bu durum, yapay zeka konusunda ciddi bir soru oluşturuyor: 'Bir gün yapay zeka da, bizim üzerimizde aynı avantaja sahip olacak mı?' Yeterince gelişmiş bir makine bu hareketi öngörebilir ve kendini savunabilir, çünkü sadece "fiş çekme" üzerinden sistemin kontroldan çıkmayacağına güvenemezsiniz. Bazıları bunu "tekillik" olarak adlandırıyorlar, yani insanın artık dünyanın en akıllı varlığı olmadığı nokta. Burdan sonrası için tek çözümün makine ile insanı hibrid bir tür olarak birleştirmekten geçtiği öngörülüyor. Biyoteknolojinin de çok hızlı yükselen bir endüstri olması bekleniyor.

BENCİLLİK vs.ROBOT HAKLARI


Sinirbilimciler hala bilinçli deneyimin sırlarını çözmeye çalışırken, ödül ve cezanın temel mekanizmaları hakkında daha fazla şey bilmiyoruz. Bu mekanizmaları basit hayvanlarla bile paylaşıyoruz. Bir bakıma Yapay Zeka sistemlerinde benzer ödül ve ceza mekanizmalarını inşa edebiliyoruz. Örneğin YZ için öğrenme bir köpeğin eğitilmesine benzer şekilde sanal bir ödülle güçlendiriliyor. Henüz ceza için bir yöntem yok.

Şimdilik bu sistemler oldukça yüzeysel, ancak daha karmaşık ve gerçeğe benzer hale hızlıca geliyor. Ödül işlevleri negatif girdi verebilirken, acı çeken bir sistemi henüz düşünemiyoruz? Bir yandan genetik algoritmalar en başarılı olanın hayatta kalması üzerine kurulu bir sistem olarak yüzyıllardır çalışıyor. Bu durum her nesilde gerçekleşirken, bir sistemi de geliştirmenin en iyi bildiğimiz yolu. Evrimin bu algoritması çalıştığında başarısız olanlar yok oluyor. Genetik algoritmaları ya da evirimin mekanizmasını hangi noktada toplu cinayet şeklinde düşünebiliyoruz ki? Bu durumda YZ'leri programlarken bazı paradigmaları değiştirmek olası.

Makineleri algılayıp hissettiklerini uygulayabilen varlıklar olarak gördükten sonra, yasal statülerini düşünmek büyük bir sıçrama değil aslında. Benzer zekâlı hayvanlar gibi muamele görmeli mi? Makinelerin bizim gibi acı duyabileceğini düşünmeli miyiz? Bazı ahlaki sorular acıları hafifletmek ve bazıları da olumsuz sonuçlar doğurmakla ilgili. Bu riskleri göz önünde bulundururken, teknolojik ilerlemenin herkes için daha iyi yaşam anlamına mı geliyor? Yapay zekanın büyük bir potansiyeli var ama sorumluluk sahibi olarak uygulama kararları bizde.