Gelecek AI düzenlemesi bizi tehlikeli AI’dan korumayabilir


Intelligent Security Summit’teki tüm isteğe bağlı oturumlara göz atın Burada.


Bugün çoğu yapay zeka sistemi sinir ağlarıdır. Sinir ağları, büyük miktarda veriyi işlemek için biyolojik bir beyni taklit eden algoritmalardır. Hızlı olmakla bilinirler, ancak anlaşılmazlar. Sinir ağları, nasıl karar alınacağını öğrenmek için muazzam miktarda veri gerektirir; ancak, kararlarının nedenleri, hepsi ayrı ayrı çeşitli parametrelere ayarlanmış sayısız yapay nöron katmanında gizlenmiştir.

Başka bir deyişle, sinir ağları “kara kutulardır”. Ve bir sinir ağının geliştiricileri, yapay zekanın ne yaptığını kontrol etmekle kalmıyor, bilmiyorlar bile. Neden yaptığını yapar.

Bu korkunç bir gerçek. Ama daha da kötüye gidiyor.

Teknolojinin doğasında var olan riske rağmen, sinir ağları kritik iş ve devlet işlevlerinin temel altyapısını çalıştırmaya başlıyor. Yapay zeka sistemleri çoğaldıkça, tehlikeli sinir ağları örneklerinin listesi her geçen gün daha da büyüyor. Örneğin:

Etkinlik

İsteğe Bağlı Akıllı Güvenlik Zirvesi

Yapay zeka ve makine öğreniminin siber güvenlikteki kritik rolünü ve sektöre özel vaka incelemelerini öğrenin. İsteğe bağlı oturumları bugün izleyin.

Buraya bak

Bu sonuçlar, ölümcülden komikliğe ve büyük ölçüde saldırganlığa kadar değişir. Sinir ağları kullanımda olduğu sürece, çeşitli şekillerde zarar görme riski altındayız. Şirketler ve tüketiciler haklı olarak yapay zeka var olduğu sürece endişe duyuyorlar. opakBu kalır tehlikeli.

Düzenleyici bir yanıt geliyor

Bu endişelere cevaben AB, bir Yapay Zeka Yasası – Ocak ayına kadar yasalaşacak – ve ABD bir taslak hazırladı AI faturası Haklar Taslak. Her ikisi de opaklık sorununu kafa kafaya ele alıyor.

AB Yapay Zeka Yasası, “yüksek riskli” yapay zeka sistemlerinin şeffaflıkla inşa edilmesi gerektiğini belirtir ve bu da bir kuruluşun potansiyel olarak önyargılı verileri saptayıp analiz etmesine ve bunları gelecekteki tüm analizlerden kaldırmasına olanak tanır. Kara kutuyu tamamen kaldırır. AB AI Yasası, kritik altyapı, insan kaynakları, temel hizmetler, yasa uygulama, sınır kontrolü, içtihat ve gözetimi içerecek şekilde yüksek riskli sistemler tanımlar. Aslında, hükümet ve kurumsal kullanım için geliştirilen hemen hemen her büyük AI uygulaması, yüksek riskli bir AI sistemi olarak nitelendirilecek ve bu nedenle AB AI Yasasına tabi olacaktır.

Benzer şekilde, ABD Yapay Zeka Haklar Bildirgesi, kullanıcıların hayatlarını etkileyen otomatikleştirilmiş sistemleri anlayabilmeleri gerektiğini ileri sürer. AB Yapay Zeka Yasası ile aynı amaca sahiptir: halkı opak yapay zekanın tehlikeli hale geleceği gerçek riskinden korumak Al. Blueprint şu anda bağlayıcı değildir ve bu nedenle dişsiz bir beyaz kağıttır. Bununla birlikte, yapay zeka bilim adamlarına ve savunucularına yasayı uygun şekilde şekillendirmek için yasa yapıcılarla çalışmak için zaman kazandıracağından, geçici niteliği bir erdem olabilir.

Her halükarda, hem AB hem de ABD, kuruluşların kullanıcılarına yorumlanabilir çıktılar sağlayan yapay zeka sistemlerini benimsemelerini gerektirecek gibi görünüyor. Kısacası, geleceğin yapay zekasının opak değil şeffaf olması gerekebilir.

Ama yeterince ileri gidiyor mu?

Yeni düzenleyici rejimler oluşturmak her zaman zordur. Tarih bize, gelecek vaat eden yeni endüstrileri kazara ezen, tavsiye edilmeyen yasa örnekleri konusunda hiçbir eksiklik sunmuyor. Ancak, iyi hazırlanmış mevzuatın hem özel girişime hem de kamu refahına fayda sağladığı karşı örnekler de sunar.

Örneğin, dotcom devrimi başladığında, telif hakkı yasası, yönetmesi amaçlanan teknolojinin çok gerisindeydi. Sonuç olarak, internet çağının ilk yılları, şirketleri ve tüketicileri hedef alan yoğun davalarla gölgelendi. Sonunda, kapsamlı Dijital Binyıl Telif Hakkı Yasası (DMCA) kabul edildi. Şirketler ve tüketiciler yeni yasalara uyum sağladıktan sonra, internet işletmeleri gelişmeye başladı ve sosyal medya gibi eski yasalar altında imkansız olan yenilikler gelişmeye başladı.

Yapay zeka endüstrisinin ileriye dönük liderleri, yapay zeka teknolojisinin tam potansiyeline ulaşması için benzer bir yasal çerçevenin gerekli olacağını uzun zamandır anlıyor. İyi yapılandırılmış bir düzenleme planı, tüketicilere verileri, mahremiyetleri ve güvenlikleri için yasal koruma sağlarken, şirketlere yenilikçi sistemlere güvenle kaynak yatırabilecekleri açık ve nesnel düzenlemeler sağlayacaktır.

Ne yazık ki, ne AI Yasası ne de AI Haklar Bildirgesi bu hedefleri karşılamamaktadır. Her iki çerçeve de AI sistemlerinden yeterince şeffaflık talep etmez. Her iki çerçeve de halk için yeterli koruma veya iş dünyası için yeterli düzenleme sağlamaz.

A bir dizi analiz tedarik edilen AB’ye AI Yasasındaki kusurlara dikkat çekti. (Benzer eleştiriler, Amerikan çerçevesinin bağlayıcı bir politika olma niyetinin bile olmadığı ek şartıyla, Yapay Zeka Haklar Bildirgesi’nde kulis yapılabilir.) Bu kusurlar şunları içerir:

  • Yapay zeka sistemleri için kabul edilemez riskleri tanımlamak için hiçbir kriter ve bu tür uygulamaların önemli bir zarar verme tehlikesi oluşturduğu keşfedilirse Yasaya yeni yüksek riskli uygulamalar eklemek için hiçbir yöntem sunmaz. Bu özellikle problemlidir, çünkü AI sistemleri kullanım alanlarında daha geniş hale gelmektedir.
  • Topluma yönelik dolaylı ve toplu zararlar hariç olmak üzere, şirketlerin yalnızca bireylere verilen zararı dikkate almasını şart koşuyor. Örneğin, her bir kişinin oy verme kalıpları üzerinde çok küçük bir etkiye sahip olan bir AI sisteminin toplamda çok büyük bir sosyal etkisi olabilir.
  • Yapay zekanın Kanunun gereksinimlerini karşılayıp karşılamadığına dair değerlendirme üzerinde neredeyse hiçbir kamu gözetimine izin vermemek. Yapay Zeka Yasası kapsamında şirketler, herhangi bir kamu otoritesinin müdahalesi olmaksızın kendi Yapay Zeka sistemlerini uygunluk açısından değerlendirir. Bu, ilaç şirketlerinden ilaçların güvenli olup olmadığına kendilerinin karar vermesini istemeye eşdeğerdir – hem ABD hem de AB’nin halk için zararlı bulduğu bir uygulama.
  • Genel amaçlı yapay zekanın değerlendirilmesinden sorumlu tarafı iyi tanımlamamak. Genel amaçlı bir yapay zeka yüksek riskli amaçlar için kullanılabiliyorsa, Yasa bunun için geçerli midir? Öyleyse, uyumluluktan genel amaçlı yapay zekanın yaratıcısı mı sorumlu yoksa yapay zekayı yüksek riskli kullanıma sokan şirket mi? Bu belirsizlik, suçun değişmesini teşvik eden bir boşluk yaratır. Her iki şirket de öz değerlendirmenin kendilerinin değil, ortaklarının sorumluluğunda olduğunu iddia edebilir.

AI’nın Amerika ve Avrupa’da güvenli bir şekilde çoğalması için bu kusurların ele alınması gerekiyor.

O zamana kadar tehlikeli yapay zeka konusunda ne yapılmalı?

Uygun düzenlemeler yürürlüğe girene kadar kara kutu sinir ağları, kişisel ve profesyonel verileri bizim için tamamen anlaşılmaz şekillerde kullanmaya devam edecektir. Birisi kendini opak yapay zekadan korumak için ne yapabilir? En azından:

  • Sorular sor. Bir şekilde ayrımcılığa uğrarsanız veya bir algoritma tarafından reddedilirseniz, şirkete veya satıcıya “Neden?” Bu soruya cevap veremezlerse, onlarla iş yapıp yapmamanız gerektiğini tekrar düşünün. Yaptığı şeyi neden yaptığını bile bilmiyorsanız, bir yapay zeka sisteminin doğru olanı yapacağına güvenemezsiniz.
  • Paylaştığınız veriler hakkında düşünceli olun. Akıllı telefonunuzdaki her uygulamanın konumunuzu bilmesi gerekiyor mu? Kullandığınız her platformun birincil e-posta adresinizden geçmesi gerekiyor mu? Veri paylaşımında bir düzeyde minimalizm, gizliliğinizi korumak için uzun bir yol kat edebilir.
  • Mümkün olduğunda, yalnızca veri koruma için en iyi uygulamaları takip eden ve şeffaf AI sistemleri kullanan şirketlerle iş yapın.
  • En önemlisi, yorumlanabilirliği ve şeffaflığı teşvik edecek düzenlemeyi destekleyin. Herkes, bir yapay zekanın hayatlarını neden bu şekilde etkilediğini anlamayı hak ediyor.

Yapay zekanın riskleri gerçek, ancak faydaları da öyle. Yapay zekanın tehlikeli sonuçlara yol açma riskiyle mücadele ederken, Yapay Zeka Haklar Bildirgesi ve Yapay Zeka Yasası, gelecek için doğru rotayı çiziyor. Ancak düzenleme düzeyi henüz yeterince sağlam değil.

Michael Capps, Diveplane’in CEO’su.

DataDecisionMakers

VentureBeat topluluğuna hoş geldiniz!

DataDecisionMakers, veri işini yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.

En yeni fikirler ve güncel bilgiler, en iyi uygulamalar ile veri ve veri teknolojisinin geleceği hakkında okumak istiyorsanız DataDecisionMakers’ta bize katılın.

Kendi makalenizle katkıda bulunmayı bile düşünebilirsiniz!

DataDecisionMakers’dan Daha Fazlasını Okuyun


Kaynak : https://venturebeat.com/ai/coming-ai-regulation-may-not-protect-us-from-dangerous-ai/

Yorum yapın