İnsanlık olarak tarih boyunca teknolojiyi kullanma biçimlerimiz yaşamla kurduğumuz ilişkiyi fazlasıyla etkiledi. ‘Saban’la birlikte başlayan maceramız toprakla kurduğumuz ilişkiyi tamamen değiştirdi. Avcı-toplayıcı gruplardan yerleşik yaşama geçmenin yollarını aramaya başladık. Böylece çekirdek aileler, mirasın devri, askeri güç, toprağı koruma, ev sahibi olma gibi günümüze kadar dönüşen bir yola girmiş olduk. Her teknolojik etki, bir toplumsal dönüşümü de beraberinde getirir. Bu etkilerin ne olacağı, geleceği nasıl biçimlendireceği bugün vereceğimiz kararların bir sonucunu da önümüze serecek. Dolayısıyla ‘zeka’ denilen fenomenin bir taklidini yapmak, hayatta kalmamızı kolaylaştıracağı gibi toplumsal yapımızı da kökünden etkileyebilir. Yapay Zeka’nın getireceği sosyolojik etkileri nasıl değerlendireceğimiz, önemli bir yol ayrımının da göstergesi.

ÖNYARGI / BIAS

Yapay zekanın yaratıcıları olarak, kendi önyargılarımızı yaptığımız sistemlere dahil etme riskimiz var. Beklenmedik sonuçları nasıl olmadan önce yakalarız? Yapay Zeka yanlılıktan uzak, daha adil bir toplum yaratmaya nasıl yardımcı olabilir?

GÜVEN

Sağlık ve adalet konularıyla ilgili kararlarda yer alması için Yapay Zeka’ya ne ölçüde güveniyoruz? Önyargıları olmayan bir sistem kurgulayabiliyor muyuz?

OTOMASYON

Artan otomasyonun kaçınılmaz olduğu bir dünyada – iş kaybetmek değil, işleri daha ilginç hale getirmek mümkün. Yapay Zeka hangi görevleri almalı ve insan ilişkilerini sürdürmek için en iyi yer neresi?

SORUMLULUK

Sayısal veri artık çok fazla ve kontrol edilemez biçimde yaygın. Kim hangi veri ile ne yapacak? Verilerin önyargılı olmadığından emin olmak için yeterli denetlemeyi yapabilecek miyiz?

BEKLENEN YAPAY ZEKA UYGULAMALARI

İnsan ve makine sıklıkla birlikte çalışıp ortak kararlar üzerinde anlaşmak zorunda kalabilir. Böylece 'melez' kolektif karar verme sistemlerine büyük ihtiyaç olabilir.

OTONOM ARAÇLAR

YARDIMCI ROBOTLAR

MEDİKAL TANI SİSTEMLERİ

Kolektif Karar – Melez

Kolektif karar verme sistemleri, bazı ahlaki değerler ve etik ilkeleri takip etmeli. İnsana yönelik ve diğer insanlar gibi etik davranmalı. Dahası, çoğu zaman makineler ve insanlar kararları bir araya getirerek ya da uzlaşmaya vararak birlikte almalıdırlar. Bu paylaşılan ahlaki değerler ve etik ilkeler tarafından kolaylaştırılabilir.

NASIL?

Ahlaki değerleri kolektif karar sistemine gömmek için:

 

– Yapay Zeka nasıl modellemeli?

– Tek bir ‘agent’ seviyesinde nasıl karar verilir?

– Kolektif karar süreçlerine Yapay Zeka’yı nasıl dahil edebiliriz?

 

Yapay Zeka’nın nasıl olması gerekir:

– Ahlaki değerlerin içsel temsili ve etik ilkeleri

– Etik muhakeme motoru

*Aksi halde davranışını diğerlerine açıklayamazdı.

FESLEFEDE ETİK DEĞERLER


Deontolojik Yaklaşım

Immanuel KANT

Hak ve görev sistemi olarak ahlak.
Odak, eylem kategorileridir.

 

> Kolayca uygulanır ama katı olabilir.

TROLLEY:

Öldürme!


* Amigdala olarak bilinen klasik duygusal sinir yapısı bu şekilde davranır.

Önem Yaklaşımı

Stuart MILL

Önceden belirlenen değer fonksiyonuna göre en iyi sonuçları üretmek.
Maliyetleri azaltıp, faydayı arttırmak.

 

> Arızalı olabilecek karmaşık hesaplamalar gerektir.

 

TROLLEY:

En çok hayatı kurtar!


* İlkeyi en üst düzeye çıkarmak, klasik bilişsel yapı 'dorsolateral prefrontal kortekse' bağlıdır.

Erdemli Karakter Yaklaşımı

ARISTOTOLE

Edinsel bir dizi davranışsal tutumun ürünü olarak ahlaki davranış.

 

> Bilinmeyen bir öğrenim kriteri ile kapsamlı eğitim gerektirir.

 

TROLLEY:

Daha yüksek karar.


* Karar verme sistemleri, ventromedial prefrontal korteks, etki alanları arasında duygusal değişkenleri bağlayan bir yapıya karar verir. Başka bir deyişle, beyin her iki yargı türünü (deontolojik ve sonuçsalcı) oluşturuyor gibi görünüyor ve daha sonra bir tür bilgelik olarak görülebilen (erdem ya da iyi karakteri yansıtan) daha düşük dereceli kararın ne olduğu konusunda daha yüksek mertebeden bir yargıda bulunuyor gibi görünüyor.

Hiyerarşik Karar Verme Sistemi

Böyle sistemler basit deontolojik kuralları izleyerek başlayabilir. Ancak o zaman ya öğrenerek daha karmaşık kurallar edinebilir, ya da kendi maliyet-fayda hesaplamalarına ne zaman güvenilmeyeceğini anlayabilirsiniz. Harekete dayalı kurallar ve basit maliyet-kazanç hesaplamaları ile başlamak olası cevap alanlarını büyük ölçüde azaltır.

BASİT ÖRNEK

Deontolojik Kural: Yalan söyleme / öldürme komutları makine hareketleri açısından belirlenemezdir. Makine, hangi iletişim eylemlerinin yalan oluşturduğunu ve hangi beden hareketlerinin zarar verdiğini anlayabilmeli.

* Gerçek insan ahlaki yargısı tüm beynini kullanır. Görsel imgeler, bilişsel kontrol ve karmaşık anlamsal temsil.

BİR ROBOT, BİR İNSANI İNCİTEMEZ VEYA BİR İNSANIN ZARAR GÖRMESİNE İZİN VERMEZ


BİR ROBOT, EMİRLERİN ÖNCEKİ YASA İLE ÇELİŞTİĞİ DURUMLAR HARİCİNDE, İNSANLARIN VERDİĞİ EMİRLERE UYMAK ZORUNDADIR


BİR ROBOT, ÖNCEKİ İKİ YASAYLA ÇELİŞMEDİĞİ SÜRECE, KENDİ VARLIĞINI KORUMALIDIR 


NE OLUYOR?


Yapay Zeka'nın olası etkileri

Yapay Zeka’nın getireceği başarının potansiyel faydaları büyük.

Yoksulluk, hastalık, çatışma ve ekolojik bozulma sorunlarını çözerek, barış ve çokluk çağını başlatmamıza izin verirken, zekamızı büyütmek için bir araç da olabilir. Bununla birlikte, ‘Sosyopatik Robotlar’ bir kuşağın içindeki insan ırkını aşabilir konusu, tam tersini düşünmemizi sağlayabilir.

“Amacımıza ulaşmak için, sürecine etkili bir şekilde müdahale edemediğimiz mekanik bir temsil kullanırsak, makineye koyduğumuz amacın gerçekten arzuladığımız amaç olduğundan emin olmalıyız.”

Norbert Wiener, 1960

BİLİNEN SORUNLAR


Yapay Zeka'nın olası sorunları

İŞSİZLİK

İşlerimizi kaybettiğimizde ne olacak?

EŞİTSİZLİK

Makineler tarafından yaratılan zenginliği nasıl dağıtıyoruz?

İNSANLIK

Makineler insan davranışını ve etkileşimini nasıl etkiliyor?

YAPAY APTALLIK

Hatalara karşı nasıl bir savunma geliştirebiliriz?

IRKÇI ROBOTLAR

Yapay Zeka önyargılarını nasıl ortadan kaldırabiliriz?

GÜVENLİK

Yapay Zeka’yı düşmanlarından nasıl koruyacağız?

KÖTÜ CİNLER

İstenmeyen sonuçlardan nasıl korunacağız?

TEKİLLİK

Kompleks bir akıllı sistemi nasıl kontrol altında tutuyoruz?

ROBOT HAKLARI

Yapay Zeka’ya insancıl tanımları nasıl yaparız?

“Etik, insanlarla nasıl ilişkili olduğumuz, dünyayla nasıl bağlantı kurduğumuz, bir insan yaşantısının ne olduğunu ya da hayat hedeflerimizin ne olduğunu anlamamıza yardımcı olur. Yapay Zeka tüm bu soruları arttırıyor. YZ etiği hakkında genel olarak bir şey söylemek neredeyse imkansız, çünkü pek çok uygulama alanı var. Ancak şu önemli; YZ bir insanla değiştirildiğinde ne olacağı etik konusundaki anlayışımızın kalbine gidiyor.”


Paula Boddington, Oxford Bilgisayar Bilimleri Departmanı, Felsefe

MESELA NE OLMUŞ….

ABD mahkemelerinin suçluları öngörmek için kullandığı Northpointe algoritmasını düşünün. Algoritma, daha önce tutuklamalar, aile ömrü, uyuşturucu kullanımı, yaş ve cinsiyet gibi 100 faktörün ağırlığını kullandı ve bir sanığın başka bir suç işlemiş olma ihtimalini öngördü.

 

Northpointe’in geliştiricileri ırkı özel olarak düşünmüyordu, ancak ProPublica‘daki araştırmacı gazeteciler Northpointe’i analiz ettiklerinde, algoritmanın siyah davalıları yanlışlıkla “yüksek risk” olarak beyaz sanıktan iki kat daha fazla etiketlediğini farketti. Bu önyargıdan habersiz ve ceza adaleti sistemini iyileştirmek için istekli olan Wisconsin, Florida ve New York gibi şehirler, algoritmayı, cezaları belirlemek için yıllarca güvenilir buluyorlardı. Kullandıkları araçları anlamaksızın, mahkemeler sanıkları kusurlu hesaplamalara dayanılarak hapsedildi.

KARA KUTU SORUNU


Şu anda makine öğrenme sistemleri o kadar hızlı çalışıyor ki, hiç kimse nasıl karar verdiklerini bilmiyor; onları geliştiren insanlar bile. Dahası, bu sistemler çevrelerinden öğrenip davranışlarını güncelledikleri için, araştırmacıların karar verme sürecini kontrol etmesini ve anlamalarını zorlaştırıyor. Şeffaflığın eksikliği – ‘kara kutu’ sorunu – etik kuralları oluşturup uygulamayı zorlaştırabilir.

ÇÖZÜM: Açıklık / Şeffaflık (Nick Bostrom Openness)

 

Etik, şeffaflık gerektirir. Aksi halde sınırlar aşıldığında kimse bunun farkında olmayabilir.

 

SORU: Nasıl daha açık ve şeffaf tasarımlar geliştirebiliriz?

İŞSİZLİK vs.
NİTELİKLİ İŞ


Emeğin hiyerarşisi otomasyon ile ilgilidir. Bu yüzden işleri otomatik hale getirme yolları icat ettik ve insanlara daha karmaşık roller üstlenmek için bir alan oluşturmak gerekiyor. Endüstri öncesi dünyaya egemen olan fiziki işten, küreselleşmiş toplumumuzdaki stratejik ve idari çalışmayı karakterize eden bilişsel işgücüne geçiyoruz.

ÇÖZÜM: Universal Basic Income

 

Etik, yaşamsal hakların eşit paylaşım ekonomisine dayanır. Ancak böylelikle emeğin dağılımı eşitlik ilkesini taşıyabilir ve otomasyonu entegre edebilir.

 

SORU: Yeni nitelikli işlerin eğitimleri için platformları nasıl yaygınlaştırabiliriz?

EŞİTSİZLİK  vs.
AÇIK KAYNAK


Ekonomik sistemimiz bir saatlik ücretle değerlendirilen ve ekonomiye katkıda bulunan tazminatlar üzerine kurulu. Ürünler ve hizmetler söz konusu olduğunda şirketlerin çoğu saatlik çalışmaya bağlı. Ancak yapay zeka kullanarak bir şirket insan işgücüne güvenmeyi büyük ölçüde azaltabilir ve bu gelirlerin daha az kişiye gideceği anlamına gelir. Sonuç olarak, Yapay Zeka yatırımı yapan şirketler verimliliği arttırıp tüm geliri elde etmeye başlayacaklar. Bu durumda gelir eşitsizliği için açık kaynak nasıl bir yer edinecek? Blockchain bu alanda kendini yeniden oluşturabilir mi?

ÇÖZÜM: OPENAI / Açık Kaynak

 

Etik, aynı hakka sahip olabilme ve eşitlik ilkesini gerektirir. Dolayısıyla açık kaynak Yapay Zeka teknolojilerinin eşitliği için kaçınılmazdır.

 

SORU: Açık kaynaklı platformları çoğaltmanın yollarını nasıl buluruz?

İNSANLIK vs.
BİREYSELLİK


Akıllı botlar insan sohbetini ve ilişkileri modellemede her geçen gün daha iyi hale geliyor. 2015 yılında ilk kez Eugene Goostman adlı bir bot Turing Challengeı kazandı. Bu meydan okuma sırasında insanlar, bilinmeyen bir varlıkla sohbet etmek için yazışmaya başladı. Ardından onlardan bir insan veya bir makine ile sohbet edip etmediklerini tahmin etmeleri istendi. Eugene Goostman adlı bot, ilk kez insan deneklerin yarısından fazlasının bir insanla konuştuğunu zannetmesini sağladı. Yani onları aldattı. Turing Testi hala yapay zeka için oldukça zorlu. Ama Machine Learning sayesinde bu engelin kısa sürede aşılması bekleniyor.

Çoğumuzun farkında olmamasına rağmen, makinelerin insan beynindeki ödül merkezlerini nasıl tetikleyebileceğine şahit olduk. Bunun için tıklama oranlarına ve video oyunlarına bakmanız yeterli.

 

Başlıklar çoğunlukla dikkatimizi çekmek için algoritma optimizasyonunun temel bir biçimi olan A / B testiyle en iyi duruma getiriliyor. Bu ve diğer yöntemler sayısız video ve mobil oyunlar bağımlılık yapsın diye kullanılıyor. Teknoloji bağımlılığı, insan bağımlılığının yeni sınırıdır.

 

Doğru kullanıldığında, bu, toplumu daha yararlı davranışlara yönelmek için bir fırsat haline dönüşebilir. Ancak, yanlış ellerde zararlı olduğunu kanıtlayabilir.

Tristan Harris / Google Design Ethicist

YAPAY APTALLIK vs.
YAPAY ERDEM


Zeka, ister insan ister makine olsun, öğrenmeyi gerektirir. Sistemler genelde doğru kalıpları algılamak ve girdilerine göre hareket etmek için “öğrenmek” üzere bir eğitim aşamasına sahipler. Bir sistem tamamen eğitildikten sonra, daha fazla örnekle beslendiği test aşamasına geçebilir ve nasıl bir performans gösterdiğini izleriz. Buna derin öğrenme deniliyor. Yani bir sistemin katmanlı olarak sinir ağlarından oluşan bir veritabanı oluşturması. Düzenli bilgiyle beslendiğinde kendi varsayımlarını üretebilme yeteneğine sahip. O yüzden şimdilik onlara akıllı algoritmalar diyoruz. Kendi başlarına öğrenme yetkinlikleri henüz yok, bu nedenle zeka olarak tanımlamadan önce bir kaç kez değerlendirmek gerekiyor.

Eğitim sürecinin bir sistemin gerçek dünyada üstesinden gelebileceği tüm olasılıkları kapsaması zor. Üstelik bu sistemler insan olmadan da kandırılabilir. Örneğin rastgele nokta desenleri, bir makinenin orada bulunmayan şeyleri “görmesini” sağlayabilir. Google Deep Dream bu anlamda gördüğü hayvanlarla yeni bir gösterge alanı bile açtı. Bizi yeni bir emek, güvenlik ve verimlilik dünyasına getirmek için YZ’a güveniyorsak, makinenin planlandığı gibi çalıştığından ve insanların kendi amaçları için onu kullanmalarını engellediğinden emin olmamız gerekir.

IRKÇI ROBOTLAR vs.
HUMANIST ROBOTLAR


Yapay zeka insanlığın ötesinde bir hız ve işleme kapasitesine sahip olsa da, her zaman adil ve tarafsız olarak düşünülemez. Google’ın ana şirketi Alphabet, kişileri, nesneleri ve sahneleri tanımlamak için kullanılan Google Fotoğraflar servisinde görüldüğü gibi yapay zeka söz konusu olduğunda liderlerden biri. Ancak bir kamera ırk hassasiyetini kaçırdığında veya gelecekteki suçluları öngörmek için kullanılan bir yazılım siyah insanlara karşı önyargılı olduğunda çok yanlış sonuçları olabilir. Bu yüzden de belki yıllardır Google’ın ‘Don’t be evil’, yani ‘Şeytani olma’ mottosunu korumasını umuyor herkes.

Yapay Zeka sistemlerinin önyargılı insanlar tarafından oluşturulduğunu unutmayın. Eğer doğru kullanılırsa, yapay zeka olumlu değişim için bir katalizör olabilir, ya da aksi.

KAOS vs.
GÜVENLİK


Bir teknoloji ne kadar güçlü olursa, kötü niyetli nedenlerden ötürü o kadar yanlış kullanılabilir. Bu sadece askerlerin veya özerk silahların yerine kullanılacak robotlar değil, kötü niyetle kullanıldıklarında zarar verebilecek YZ sistemleri için de geçerlidir. Bu savaşlarda önceliğin siber güvenlik olması olası. Sonuçta, büyüklük sıralarıyla bizden daha hızlı ve daha yetenekli bir sistemle uğraşıyoruz.

KÖTÜ CİNLER vs.
İYİ CİNLER


Ya yapay zeka bize karşı dönerse?

Bunu, YZ felaketlerinin Hollywood filmlerinde gösterildiği gibi değil, daha ziyade gelişmiş YZ sistemini dileklerini yerine getirebilecek "şişedeki cin" olarak hayal edebiliriz, dolayısıyla korkunç ve öngörülemeyen sonuçları da olabilir.

Bir makinenin oyunda kötü niyetli olma ihtimali yoktur, sadece amacının netleşmesi gerekir.

Mesela, dünyadaki kanseri ortadan kaldırmak isteyen bir YZ sistemini düşünün. Bir sürü bilgi işlemden sonra, aslında kanserin sonunu getirmek için gezegendeki herkesi öldürebilir. Bilgisayar hedefine çok verimli bir şekilde ulaşabilir, ancak bu insanların tasarladığı şekilde olmayabilir.

AYNILIK vs.
EŞSİZLİK


İnsanlar besin zincirinin üzerine olması, keskin dişleri veya güçlü kasları olduğu için değil. İnsan hakimiyeti neredeyse tamamen özen ve zekamızdan kaynaklanıyor. Daha büyük, daha hızlı ve güçlü hayvanlardan daha iyi yararlanabiliyoruz, çünkü onları kontrol etmek için araçlar yaratabildik. Kafesler ya da silahlar gibi fiziksel araçları, ya da eğitim ve şartlandırma gibi bilişsel araçları kullandık.

Bu durum, yapay zeka konusunda ciddi bir soru oluşturuyor: ‘Bir gün yapay zeka da, bizim üzerimizde aynı avantaja sahip olacak mı?’

 

Yeterince gelişmiş bir makine bu hareketi öngörebilir ve kendini savunabilir, çünkü sadece “fiş çekme” üzerinden sistemin kontroldan çıkmayacağına güvenemezsiniz. Bazıları bunu “tekillik” olarak adlandırıyorlar, yani insanın artık dünyanın en akıllı varlığı olmadığı nokta. Burdan sonrası için tek çözümün makine ile insanı hibrid bir tür olarak birleştirmekten geçtiği öngörülüyor. Biyoteknolojinin de çok hızlı yükselen bir endüstri olması bekleniyor.

BENCİLLİK vs.
ROBOT HAKLARI


Sinirbilimciler hala bilinçli deneyimin sırlarını çözmeye çalışırken, ödül ve cezanın temel mekanizmaları hakkında daha fazla şey bilmiyoruz. Bu mekanizmaları basit hayvanlarla bile paylaşıyoruz. Bir bakıma Yapay Zeka sistemlerinde benzer ödül ve ceza mekanizmalarını inşa edebiliyoruz. Örneğin YZ için öğrenme bir köpeğin eğitilmesine benzer şekilde sanal bir ödülle güçlendiriliyor. Henüz ceza için bir yöntem yok.

Şimdilik bu sistemler oldukça yüzeysel, ancak daha karmaşık ve gerçeğe benzer hale hızlıca geliyor. Ödül işlevleri negatif girdi verebilirken, acı çeken bir sistemi henüz düşünemiyoruz?

 

Bir yandan genetik algoritmalar en başarılı olanın hayatta kalması üzerine kurulu bir sistem olarak yüzyıllardır çalışıyor. Bu durum her nesilde gerçekleşirken, bir sistemi de geliştirmenin en iyi bildiğimiz yolu. Evrimin bu algoritması çalıştığında başarısız olanlar yok oluyor. Genetik algoritmaları ya da evirimin mekanizmasını hangi noktada toplu cinayet şeklinde düşünebiliyoruz ki? Bu durumda YZ’leri programlarken bazı paradigmaları değiştirmek olası.

Makineleri algılayıp hissettiklerini uygulayabilen varlıklar olarak gördükten sonra, yasal statülerini düşünmek büyük bir sıçrama değil aslında. Benzer zekâlı hayvanlar gibi muamele görmeli mi? Makinelerin bizim gibi acı duyabileceğini düşünmeli miyiz?

 

Bazı ahlaki sorular acıları hafifletmek ve bazıları da olumsuz sonuçlar doğurmakla ilgili. Bu riskleri göz önünde bulundururken, teknolojik ilerlemenin herkes için daha iyi yaşam anlamına mı geliyor? Yapay zekanın büyük bir potansiyeli var ama sorumluluk sahibi olarak uygulama kararları bizde.

ÖN YARGILI ALGORİTMALAR HER YERDE VE HİÇ KİMSENİN UMRUNDA DEĞİL


Amerikan Sivil Özgürlükler Birliği ile birlikte bir grup araştırmacı algoritmik önyargıyı tanımlamak ve vurgulamak için bir girişimde bulundu. AI Now girişimi, birçok uzmanın büyüyen bir tehlike olarak gördüğü tartışmalar için MIT’de düzenlenen bir etkinlikle duyuruldu.

Algoritmik önyargı, makine öğreniminin ve Yapay Zeka’nın evriminde kritik bir toplumsal sorun olarak şekilleniyor. Her zamankinden daha önemli kararlar alan algoritmaların içinde gizlenen önyargının tanınmaması ve kontrol edilmemesi durumunda, özellikle yoksul toplumlar ve azınlıklar için ciddi olumsuz sonuçlar doğurabiliyor. Nihayetinde ortaya çıkan sonuç, inanılmaz derecede faydalı bir teknolojinin ilerlemesini de zorlayabilir.

Gizli önyargıları taşıyan algoritmalar, hayati, finansal ve yasal kararları almak için rutin olarak kullanılıyor. Tescilli algoritmalar, örneğin bir iş görüşmesi yapan, şartlı tahliye edilen ve kredi alan kimseye karar vermek için kullanılıyor. Yeni AI Now Initiative‘in kurucusu, Microsoft’ta araştırmacı  Kate Crawford ve Google’da bir araştırmacı olan Meredith Whittaker, her türlü hizmet ve üründe önyargı olabileceğini özellikle belirtiyor


MIT TECHNOLOGY REVIEW

ÖLDÜRÜCÜ ROBOTLARI UNUTUN – ASIL TEHLİKE ÖNYARGILI ALGORİTMALAR


Google’ın AI Şefi, süper akıllı katil robotlar hakkında endişelenmiyor. Bunun yerine, dakikada milyonlarca karar vermek için kullanılan makine öğrenme algoritmalarında gizlenen tehlikelerden endişe duyuyor. Giannandrea, “İnsanlara ve yapay zeka sistemleri arasındaki ilişkiye dair asıl güvenlik sorusu, bu sistemlere önyargılı bir veri verirsek, önyargılı olacaklardır.” diye bir açıklama yaptı.

Makine öğrenmesinde yanlılık sorunu, teknoloji, tıp ve hukuk gibi kritik alanlara yayıldıkça ve derin teknik bilgiye sahip olmayan insanların görevlendirilmesiyle daha da önemli hale geliyor. Bazı uzmanlar, algoritmik önyargının birçok endüstride zaten yaygın olduğunu ve neredeyse hiç kimsenin onu tanımlamak ya da düzeltmek için çaba sarf etmediği konusunda uyarmakta.

Giannandrea, “Kullandığımız eğitim verileri konusunda şeffaf olmamız ve içinde gizli önyargılar aramamız önemlidir, aksi takdirde önyargılı sistemler üretiyoruz” diye ekledi. “Birisi size tıbbi karar desteği için bir kara kutu sistemi satmaya çalışıyorsa ve bunun nasıl çalıştığını ya da onu eğitmek için hangi verileri kullandığını bilmiyorsanız, ona güvenmeyin.”


MIT TECHNOLOGY REVIEW

Süper-zeki yapay zekalardan korkmalı mıyız? Sam Harris, sinirbilim ve felsefe temelleri üzerinden bu alandakai soruları yanıtlamaya çalışıyor. Fakat yine o da, tüm araştırmacılar gibi insanın yönelimlerini ve bu zekayı kullanma biçimlerini değerlendiriyor.

 


TED

Bir dijital sinir sisitemine tasarım aracı verdiğinizde ne olur? Düşünme ve hayal edebilme yeteneğimizi geliştiren bilgisayarlar ve köprüler, arabalar, drone’lar ve çok daha fazlası için radikal yeni tasarımlar oluşturan (ve inşa eden) robot sistemler için fütürist Maurice Conti ile Augmented Age turuna katılın.

 



YOUTUBE

GOOGLE’IN YENİ YAPAY ZEKA LİDERİ O KADAR ZEKİ Kİ, YAPAY ZEKAYA İHTİYACI YOK


O aslında yok! Kendi yazdığı gelişmiş bir yapay zeka tarafından yaratıldı. 50 yaşındaki bilgisayar bilimcisi Jeff Dean, Google’da efsane olma yolunda ilerliyor. Henüz şirket 1 yıllıkken -1999 yılında- Google ile çalışmaya başlayan Jeff Dean, veritabanlarına ve büyük ölçekli verine analizlerine yaklaşımlarıyla sektörün en ünlü yazılımcıların biri oldu. Jeff Dean gerçekleri de şöyle:


1. During his own Google interview, Jeff Dean was asked the implications if P=NP were true. He said, "P = 0 or N = 1". Then, before the interviewer had even finished laughing, Jeff examined Google's public certificate and wrote the private key on the whiteboard.
2. Compilers don't warn Jeff Dean. Jeff Dean warns compilers.
3. The rate at which Jeff Dean produces code jumped by a factor of 40 in late 2000 when he upgraded his keyboard to USB 2.0.
4. Jeff Dean builds his code before committing it, but only to check for compiler and linker bugs.
5. When Jeff Dean has an ergonomic evaluation, it is for the protection of his keyboard.
6. Jeff Dean once failed a Turing test when he correctly identified the 203rd Fibonacci number in less than a second.
7. The speed of light in a vacuum used to be about 35 mph. Then Jeff Dean spent a weekend optimizing physics.
8. Jeff Dean was born on December 31, 1969 at 11:48 PM. It took him twelve minutes to implement his first time counter.
9. Jeff Dean eschews both Emacs and VI. He types his code into zcat, because it's faster that way.
10. When Jeff Dean designs software, he first codes the binary and then writes the source as documentation.


JEFF DEAN FACTS

Turing testi, insan benzeri bir AI sisteminin sesle ilgili duyumlarımızı taklit etme yeteneğini sorguluyor. Bu sene yapılan 2018 I/O geliştiricileri toplantısında, Google sınırları biraz zorladı. AI-Destekli Asistanıyla sıfırdan bir restoranı arayarak rezervasyon yaptı. Üstelik hattın diğer ucunda bir insan olmasına rağmen, yapay zekayla konuştuğuna dair herhangi bir şüphe yaşamadı. Bu durumda en azından bu deneme için Google Assistant’ın Turing Testi’ni geçtiğini söyleyebilir miyiz?


ENGADGET