Yapay Zeka Düzenlemesi
Yapay Zeka Düzenlemesi
0

Yapay Zeka Düzenlemesi

2022’nin sonlarında OpenAI, ChatGPT‘yi dünya geneline saldığından beri, Generatif Yapay Zeka ve yaratabileceği gelecek hakkında herkes konuşuyor. Kapitalizmin fanatikleri, teknolojiyi dijital dünyanın mantıklı bir devamı olarak görüyorlar, bu da seçkin birkaç kişiye sayısız servet kazandırmıştır… Skeptikler ise 80’lerin en iyi bilim kurgu örneklerini hatırlayarak, kendi HAL / SHODAN / Ultron / SkyNet / GLaDOS’umuzu yaratma yolunda ilerliyor olmamızdan korkuyorlar.

Bunlar yüksek sesle azınlıklar. Generatif Yapay Zeka tarafından sunulan olanaklarla karşılaşan çoğu insan, teknolojinin kendi başına bir akıl olmadığını anlıyor. Sorumluluk, kullanıcıların onunla “iyi işler” yapması gerekliliğinde. Eğer bu mümkün değilse, çünkü “iyi” nesnel olarak belirlenemiyorsa… o zaman demokratik hükümetler devreye girmeli ve düzenlemeler yapmalıdır.

Bu nasıl (ve eğer) yapılacak hala yoğun bir şekilde tartışılan bir konudur. Avrupa Birliği, önerilen Yapay Zeka Yasası ile en önce adımı attı. Kusurlu bir ilk taslak olabilir, ancak teknoloji milyarderlerinin sözlerini dinlemek yerine son derece bozucu bir teknolojiyi yönetmeye gerçek bir girişim olma avantajına sahiptir. Aşağıda önerilen yasanın özeti ve böyle düzenlemelerin avantajları ve dezavantajları yer almaktadır.

Avrupa Birliği’nin Yapay Zeka Yasası Neler İçeriyor?

Yapay Zeka Yasası, tartışmayı riskin merkezine yerleştiriyor: “Yeni kurallar, yapay zekadan kaynaklanan risk seviyesine bağlı olarak sağlayıcılar ve kullanıcılar için yükümlülükler belirler. Birçok yapay zeka sistemi minimal risk taşısa da değerlendirilmeleri gereklidir.”

“Kabul edilemez” seviyede risk taşıyan Yapay Zeka sistemleri (davranışsal manipülasyon, gerçek zamanlı ve uzaktan biyometrik, sosyal puanlama…) yasaklanacaktır.

Yüksek riskli Yapay Zeka sistemleri (yasal yaptırım, eğitim, göçle ilgili olanlar…) “pazar’a sunulmadan önce ve yaşam döngüleri boyunca değerlendirilecek.”

Sınırlı riskli Yapay Zeka sistemleri, kullanıcıların bilinçli kararlar almasına olanak tanıyan minimal şeffaflık gereksinimlerine uymak zorunda kalacak.

Generatif Yapay Zeka, önerilen düzenlemede özel bir bahsetmeye sahiptir. Teknolojiyi kullanan şirketlerin aşağıdaki şartları yerine getirmesi gerekecek:

  • Yapay zeka tarafından üretilen içeriği açıklamak
  • İllegal içerik üretimini engellemek için önlemler tasarlamak
  • Eğitim için kullanılan telifli verilerin özetlerini yayınlamak

Eğer bu tatmin edici bir şekilde pratik ve aynı zamanda fazlasıyla geniş bir görünüm veriyorsa, içgüdülerinize güvenebilirsiniz. Uyum sağlamayan şirketler, yıllık cironun %6’sına kadar ceza ödeyebilir ve AB’de faaliyet göstermelerine izin verilmeyebilir. Bölge, önümüzdeki 10 yıl içinde 1,3 trilyon dolardan fazla değer taşıyan küresel bir yapay zeka pazarının yaklaşık %20 ila %25’ini temsil ediyor… bu yüzden teknoloji şirketleri gitmeyi söyleyebilir… ama asla gitmeyeceklerdir. Yasadan 2024 civarında geçmesi bekleniyor.

Generatif Yapay Zeka Neden Düzenlenmemeli?

Teknoloji milyarderlerinin AI’nın düzenlenmesini istedikleri söylenen birçok yazı yazıldı. Bir şeyi açıkça belirtelim: bu bir yüzeysel bir duruştur. Sadece PR amaçlıdır. Düzenlemek istemezler ve düzenleme gelirse, kendi koşullarında gelmesini isterler. İşte son aylarda onların ve taraftarlarının sunmuş olduğu en iyi argümanlardan bazıları:

İnovasyonu ve İlerlemeyi Engellemek

Düzenlemelerin yapay zeka ilerlemelerini ve atılımlarını yavaşlatacağı iddiası ortaya konulabilir. Şirketlere test etme ve öğrenme fırsatı verilmemesinin onları uluslararası arenada daha az rekabetçi hale getireceği düşünülebilir. Ancak, bu iddianın kesin bir kanıtını henüz göremedik. Ayrıca, eğer olsa bile, sorular şunlar olacaktır: sınırsız inovasyon toplum için doğru mudur? Karlılık her şey değildir. Belki AB, Çin ve ABD’ye yeni tek boynuzlu atlar ve milyarderler yaratma konusunda geri düşer. Eğer bunun sonucunda sosyal güvencelerimiz, ücretsiz sağlık hizmetimiz, ebeveyn izinlerimiz ve yılda 6 haftalık tatilimiz olacaksa, bu düzenlemeler sayesinde olursa, çok zengin bir kişi milyarder olamazsa, o zaman öyle olsun.

Uluslararası rekabet argümanı, konuştuğumuz mesele açısından çok daha ilgili: düzenlemeler, yeni şirketler için giriş engelleri (yüksek maliyetler, geliştiriciler veya kullanıcılar için standartlar veya gereksinimler) yaratabilir ve mevcut oyuncuların elini güçlendirebilir. AB, bunu GDPR’ı uygularken zaten görmüştür. Düzenlemeler, çok küçük şirketlerin deney yapmak için bir alan yaratmasını sağlamalıdır, bu da zaten AB düzeyinde tartışılan bir konudur. Eğer o kadar küçükseler, AI’nin gücünün üstel doğası nedeniyle ne kadar zarar verebilirler ki?

Karmaşık ve Zorlayıcı Uygulama

Dünyayı değiştiren teknolojilerle ilgili düzenlemeler genellikle uygulanabilir olmamak için çok belirsiz veya geniş olabilir. Bu, farklı yargı bölgelerinde uygulamayı ve uygulamayı zorlaştırabilir. Bu özellikle alandaki açık standartların eksikliği göz önüne alındığında doğrudur. Sonuçta, riskler ve etik nelerdir ki kültürel olarak göreceli değiller?

Bu, uluslararası standartları ve egemenliği dengelemenin özellikle hassas bir konu olduğunu gösterir. Yapay Zeka sınırları aşar ve düzenlemesi uluslararası işbirliği ve koordinasyon gerektirir. Bu, farklı yasal çerçeveler ve kültürel farklar göz önüne alındığında karmaşık olabilir. İşte bu noktada bu şekilde diyecekler.

Ancak, tek bir dünya çapında düzenleme çağrısında bulunan çok az ses vardır. Yapay Zeka (birçok yönden) atom bombasıyla aynı değildir, ne de olsa “Yeni BAŞLANGIÇ” yaklaşımını talep eden felakettarlar ne derse desin. AB’nin kendi yasaları olacak, diğer dünya güçleri de öyle. Tek isteyebileceğimiz, teknolojinin posed risklerine dair ortak bir anlayış ve bölgesel yasalar arasındaki kör noktaları kapsayacak sınırlı bir işbirliği olacaktır.

Aşırı düzenlemeyi ve Beklenmeyen Sonuçları Azaltma Potansiyeli

Dahası, düzenlemelerin teknolojinin hızlı tempolu doğasına ayak uyduramadığını biliyoruz. Yapay Zeka hızla gelişen bir alandır, yeni teknikler ve uygulamalar düzenli olarak ortaya çıkar. Yeni zorluklar, riskler ve fırsatlar sürekli olarak ortaya çıkar ve bunlarla başa çıkmak için yeterince çevik / esnek olmamız gerekmektedir. Gelişmeleri takip etmek ve son teknolojiyi düzenlemek, yönetim organları için zor olabilir… ancak bu kimseyi durdurmamıştır ve dünya hala ayaktadır.

Bu arada, hükümetler yeni endüstrilerin (AI olarak kabul edilmeyen) mevcut düzenlemelerin kapsamına alınmamasını ve beklenmedik sonuçların ortaya çıkmamasını sağlamalıdır. Örneğin, bir karbon yakalama sisteminin temizlik için hedeflenen bölgeleri önermek için Generatif Yapay Zeka’ya benzer bir teknoloji kullanması nedeniyle ekolojinin zarar görmesini istemeyiz.

Aşırı bürokrasi ve gereksiz kırmızı şeridi önlemek önemlidir… ancak hiçbir şey yapmamanın bir nedeni değildir. AB’nin önerilen risk temelli yönetimi bu zorluklara iyi bir cevaptır. Riskler herkes için yeterince iyi tanımlanmıştır, böylece yapay zekanın doğası evrildikçe değişikliklere izin verilir.

Gerçekte, yapay zekayı düzenlemenin birçok gerçek riski vardır… ve birçok faydası vardır.

Generatif Yapay Zeka Neden Düzenlenmeli?

Genel Yapay Zeka’yı düzenlemenin birçok nedeni vardır, özellikle de ayrıcalıksız veya savunmasız nüfus gruplarına yönelik riskler açısından bakıldığında. Otomatik ve geniş ölçekli ayrımcılığı ciddiye almadan önce kolay olabilir… ayrımcılığa maruz kalmamışsanız. Sizden bahsediyorum, teknoloji severler.

Yapay Zeka’nın Etiğe Uygun Kullanımını Sağlama

Öncelikle (ve açıkçası), düzenlemenin mevcut dijital yasaları yapay zeka teknolojisine uygulamak ve adapte etmek için gerekliliği vardır. Bu, kullanıcıların (ve verilerinin) gizliliğini korumayı içerir. Yapay zeka şirketleri, veri yoğun algoritmalarla uğraşırken güçlü siber güvenlik yeteneklerine yatırım yapmalıdır… ve kullanıcı verilerini üçüncü taraflara satmamalıdır. Amerikan şirketleri, bunu düzenleme olmadan içgüdüsel olarak ve kasıtlı bir şekilde yanlış anlamaktadır.

AI Act’da belirtildiği gibi, hassas konularla ilgilenen algoritmaları önyargı ve ayrımcılık potansiyelinden korumak da oldukça önemlidir. Bu, A) kasıtlı olarak enjekte edilmediğinden emin olmak ve B) doğal olarak oluşan önyargıların çoğalmasını önlemek için yapılmalıdır. Bu tartışılamaz bir konudur ve düzenleyici çarpışma testi gerekiyorsa, öyle olsun.

Daha felsefi olarak, düzenleme, genel yapay zeka’nın kullanıcıları, geliştiricileri ve paydaşları arasında güveni, şeffaflığı ve sorumluluğu teşvik etmeye yardımcı olabilir. Tüm oyuncuların AI’nın çıktılarının kaynağını, amacını ve sınırlamalarını açıklamaları, daha iyi seçimler yapmamıza ve diğerlerinin seçimlerine güvenmemize olanak tanır. Toplumun dokusu buna ihtiyaç duyar.

İnsan Hakları ve Güvenliğini Koruma

“Temel” konuların ötesinde, düzenleme toplulukları, birçok AI ile ilgili güvenlik riskinden korumak zorundadır, ki bunlar oldukça fazladır.

Çoğu insan kaynaklı riskler olacaktır. Kötü niyetli aktörler, Generatif Yapay Zeka’yı yanıltıcı bilgi yaymak veya derin sahtekarlıklar oluşturmak için kullanabilirler. Bu çok kolaydır ve şirketler kendiliğinden sona erdiremiyor gibi görünmektedirler – çoğunlukla etiketleme yapamıyorlar, çünkü kendileri buna isteksiz (mümkün değil). Gelecekteki seçimlerimiz bu düzenlemelerin yerine getirilip getirilmediğine bağlı olabilir… genç kızlarımız ise neden daha önce bunu yapmadığımızı sorabilirler.

Ayrıca, Generatif Yapay Zeka kullanarak bir kirli bomba yapmanın en iyi yolunu tanımlamak için insanların fiziksel olarak diğer insanlara zarar vermesine izin vermemeliyiz: İşte burada, bir şirket en iyi yeteneklerine göre bunu engelleyemiyorsa, mevcut biçiminde var olmasına izin vermeye devam etmek için hiçbir neden görmüyorum.

Tüm bunlar, insanlar arası bir savaşın ve otonom silahların kullanıldığı bir geleceğe bile girmeksizin, şimdiye kadar ortaya çıkmış olan birçok sorunla ilgilenmek için güçlü AI düzenlemelerine sahip olmamız gerektiğini gösteriyor. Bu senaryo ne kadar felaket olursa olsun, genellikle onu birçok diğer AI sorunuyla gizlemek için kullanıyoruz. Neden veri gizliliği üzerine odaklanalım ki Terminatör köşede bekliyor, değil mi? Kıyamet tellallarının bizi çok sayıda kesik yara ölümüne karşı dikkatinizi dağıtmasına izin vermeyin, bunun yerine gerçek şu ki: yukarıda belirtilen sorunları ele alan güçlü AI düzenlemeleri olmadan toplum, tek bir silahla darbe yerine bin kesik yara ölümüne mahkum olabilir.

İşte bu nedenle, şirketlerin insan değerleri ve ahlakıyla uyumlu sistemler oluşturmayı kabul etmelerini sağlamak önemlidir. İşte bu adımların atılması daha kolaydır, ancak bir vizyona sahip olmak iyi bir başlangıçtır.

Sosyal ve Ekonomik Etkiyi Azaltma

AI Act (veya diğer önerilen düzenlemeler) tamamen kapsamamış olsa da önemli konular vardır. Bunlar ilerleyen yıllarda daha ayrıntılı bir şekilde değerlendirilmelidir, ancak doğası gereği düzenleme yapmadan düzenleme yapmanın zor olması, ancak daha az ihtiyaç duyulması anlamına gelmez.

Öncelikle, çok az yasal örnek varken bugünün alanında ne olduğuna dair bilgi veren insanları adil bir şekilde tazmin etmek için kurallara ihtiyaç vardır. Bunun olmadan, geçmişin hatalarını tekrarlıyoruz ve derin bir ekonomik uçurumu daha da derinleştiriyoruz. Bu zor olacak; bugünkü uzayda ne olduğunu bilgilendirecek çok az yasal örnek vardır.

Gen. AI öncülüğünde işten çıkarma ve işsizliği ele almamız da önemli olacaktır. İşlerin çoğunun yapay zeka tarafından etkileneceği tahmin ediliyor ve daha fazla otomasyon genellikle daha büyük işsizliği getirir. BanklessTimes.com’un bir raporuna göre, 2030’a kadar yapay zeka 800 milyon işi (küresel iş gücünün %30’u) yerinden edebilir.

Birileri için makro-ekonomik seviyede olabilir (“Yapay zeka aynı zamanda bazı işin bazı yönlerini otomatikleştirerek insanların daha yaratıcı veya değer katma görevlerine odaklanmasına izin vererek iş rolünü değiştirebilir veya yeni işler yaratabilir”, diyecekler), ancak diğerleri için onlarca yıl süren çaresizliktir. Bu, yapay zeka tarafından değiştirilmiş olanların nereye döneceğine dair toplumsal bir sorumluluktur.

Sonuç olarak, Generatif Yapay Zeka’nın (ve daha geniş yapay zeka alanının) düzenlemeye ihtiyacı olduğunu savunmak, teknolojinin insanlar üzerindeki etkilerini göz ardı etmemek anlamına gelir. Özellikle riskli ve potansiyel olarak zararlı uygulamaları kontrol altında tutmak, etik ve güvenlik sorunlarını ele almak ve sosyal ve ekonomik etkileri yönetmek için uygun düzenlemeler geliştirmek önemlidir. Bu düzenlemelerin dengeli, esnek ve uluslararası işbirliğini teşvik eden bir yaklaşımla yapılması, teknolojinin potansiyelini en üst düzeye çıkarırken riskleri de en aza indirmeye yardımcı olabilir.

Bu içeriği okuduğunuz için teşekkürler!

Sosyal Medyadan takip etmeyi ve yorum bırakmayı UNUTMAYIN!

TwitterLinkedin ve YouTube via Hasan YILDIZ

Hasan YILDIZ, Girişimci. Doktora Öğrencisi. Yazmayan YAZILIMCI. Veri Şeysi. Eğitmen...

Yazarın Profili

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir