KI: İnsanlara güven – yoksa tehlikeli bir yanlış anlama?

Adanali

Member
Yapay zeka insanların yerini almamalıdır, genellikle söylenir. İnsan her zaman nihai kontrolü sürdürmelidir. Ancak yeni çalışmalar bunun ölümcül bir hata olabileceğini gösteriyor.

Şu anda, iş, toplumda ve siyasetteki her sorun için AI'ya gittiğini ve yapay zeka çözümlerine büyük ölçüde yatırım yaptığını kendinizi savunabilirsiniz.


Duyuru



Örneğin, Fransa, IA'yı kullanabilen ve sürücü kulakta bir cep telefonu tuttuğunda ceza yayabilen hız tuzaklarına dayanır. New York, hatalı park edilmiş arabalar için cezaları dağıtmak için IA'yı kullanan yerel toplu taşıma otobüs kameraları kullanıyor.

Her problem için bir çözüm


Yapay zekanın topraklarında altın kazan bir ruh hali var. Yapay zekanın hızlı ilerlemesinin nasıl kullanılabileceği ve aynı zamanda kontrol edilebileceği konusunda temel soru söz konusu olduğunda, insanlar nihai karar olarak merkezi bir rol oynarlar, bu da AI'nın önerilen çözümünü doğrulamalı ve bu nedenle maksimum garanti etmesi gerekir. olası güvenlik.

AI'nın sonuçlarını refah ve bozulmaya maruz bırakmadan kullanmak için başka hangi alternatif olabilir?

Cory Doctrow, yazar, gazeteci ve hacker, şöyle yazıyor:

Döngüde insan (Almanca: “Döngüde İnsan”) algoritmik başarısızlıklar, önyargılar ve beklenmedik hatalar için cazip bir çözümdür ve bu nedenle “bir kişiyi döngüde koyarız” Cevabı tamamen herhangi bir itiraz, kusurlu bir yapay zeka çok ilgilenen bir uygulamaya emanet edildi.
İnsan kontrolü


Ama son kontrol örneği olarak adam ne kadar iyi? Matematikçi Ben Green, 2022'deki bir çalışmada bu sorunun altına zaten geldi. Başlangıç noktası:

Dünyanın dört bir yanındaki algoritmalar hükümetin kararının etkili bir parçası haline geldiğinden, siyasi karar üreticileri hükümetlerin algoritmaların avantajlarına nasıl ulaştıklarını ve aynı zamanda algoritmalara verilen zararları nasıl önlediğini tartıştı.

Hükümet algoritmalarını düzenlemek için küresel çabaların çekirdeği haline gelen bir mekanizma, insanın algoritmik kararların denetlenmesini talep etmektir. İnsan kontrolüne yönelik yaygın dönüm noktasına rağmen, bu kılavuzlar BM entegre bir ön koşula dayanmaktadır: insanların algoritmik kararı etkili bir şekilde izleyebilmeleri.
Green, yapay zeka üzerindeki insan denetimini garanti etmek için birkaç yaygın yöntem buldu. Yönergeler öngörülür

  • Bu algoritmalar insanlar tarafından izlenmeli ve hangi kararlar onu ilgilendiriyor
  • insanların ia'yı ihmal etmesi durumunda bir takdir yetkisi var
  • İnsan denetimi sadece bir abnod'da var olamazdı
  • Bu adam Ia'yı önemli ölçüde ihmal edebilir
İnsan zayıflıkları

İnsan gözetimi kılavuzundaki ilk zayıf nokta, ampirik bir temele sahip olmamasıdır. Araştırma sonuçlarının büyük çoğunluğu, insanların istenen izleme işlevlerinden hiçbirini güvenilir bir şekilde gerçekleştiremeyeceğini göstermektedir.

Ben Green
Aslında, Green, Ki-Mensch ekibine bariz çözümün, acı verici bir şekilde başarısız olan dünyanın en iyileri için harika bir avantajlı durum olduğunu gösteren çok sayıda çalışma buluyor.

Otomasyon yanlılığı


Ana sorun: Otomasyonun önyargısı, daha iyi bilgilerinin aksine, insanlar makinelere ve makine kararlarına güvenen davranışsal psikolojik fenomendir.

Green bunun bir dizi örneğine liderlik ediyor. Bir karar sürecinin otomasyonu aynı zamanda operatörler arasında kontrol, sorumluluk ve ahlaki eylem hissi azalma riskini de taşır.

İnsanlık dışı hata


Green ikna edici bir örnek sunuyor: Londra polisi, canlı yüzün tanınma sisteminin güvenilirliğini aşırı derecede abarttı. Sistemle çalışan polis memurları, yüz tanıma tarafından üretilen maçların gerçek vuruş oranından üç kat daha yüksek olduğunu tahmin ediyorlar.


Ayrıca oku

Daha Fazla Göster



Daha az belirti





Bu aldatıcı güvenlik, Amerika Birleşik Devletleri'nde yanlış tutuklamaların düşmesine yol açtı. Detroit Emniyet Müdürlüğü, açıkça yanlış tanıma nedeniyle bir adamı tutukladı.

Bir -adei -vestimation


Yapay zekanın sonuçlarından bilinçli sapmalar arayışında Green, ABD'deki hakimlerde aradıklarını bulacak. Ancak, sonuç bile rahatlatıcı değildir. Çünkü yargıçlar algoritmik önerilerden düzenli olarak farklılık gösterir, ancak her şeyden önce sanıkların dezavantajına göre.

Farklı ABD yargı becerilerinin kanıtı, hakimlerin de taburcu önerilerini görmezden geldiğini göstermektedir.

Richter algoritma teklifinden farklı olduğunda ifade belirlendiğinde bile bir model belirgindir. Aynı “risk değeri” ile hakimler genellikle Afro -Amerikalı sanıklar için beyaz sanıklardan daha ciddi ceza kararlarını belirler.

Sonuç: Yasal algoritmaların, hakimlerin olası bilinçli veya bilinçsiz bir ırkçılığının üstesinden gelmeye yardımcı olarak daha fazla adalet sağladığı umudunun aksine, bu Aguustice'nin genişlemesine yol açar.

Sonunda, bu, önceden katkıda bulunulan gözaltında ırksal eşitsizlikleri ağırlaştıran risk incelemelerinin getirilmesine yol açar.

Aydınlatma yardımcı olur mu?


Green, açıklama ve eğitimin insanların algoritmik tahminleri kullanma yeteneğini geliştirmediğini gösteren bir dizi çalışma bulur. Aksine, bu açıklamalar, yapay yardım kullanan insanların önerilere daha fazla güven vermesine neden olduğu zararlı yan etkilere neden olmak için daha tehlikelidir.



Paradoksal olarak, algoritmaların şeffaflığı, insanların model hatalarını tanıma ve düzeltme yeteneğini de azaltır.

Yönetim ve siyasette algoritmalar


Yeşil, siyaset yapay zeka kullanmaya devam ederse, algoritmalar ve insan kullanımı tüm şüphelerle mücadele etmek için kontrol bedenine indirgenirse, mesafenin sonuçlarını uyarır:

Yönetimdeki algoritmalar, büyük destek kararlarını alan, çarpık ve esnek olmayan hata algoritmaları ile ilgili önemli riskler içermektedir.

Bu endişeler, yönetimde algoritmaları kullanma fırsatını sorgulamaktadır. Buna yanıt olarak, siyasi kararların üreticileri, insan denetimini, hükümetlerin ilişkili dezavantajları kabul etmeden algoritmaların avantajlarını kullanmalarına izin veren bir çözüm olarak sunmaktadır.

Eğer önerilen insan denetim biçimlerinden biri etkili olsaydı, bu çözüm devlet algoritmalarının avantajları ve riskleri arasında etkili bir uzlaşmayı temsil edebilir.

Bununla birlikte, insan denetiminin sınırları ışığında, insan denetimi önlemleri aşağıdaki endişeleri geçersiz kılamaz. Bunun yerine, bu önlemler, devlet karar verme sürecinde algoritmaların kullanımı ile ilgili temel kaygılar için sadece bir maske sunmaktadır. Buna karşılık, insan denetim politikası, algoritmaların devlet kararına uygunsuz entegrasyonunu haklı çıkarmaktadır.
Bu nedenle, çağrılar insan kontrolünün de otomatik kararı iptal etme fırsatına sahip olması gerektiğidir, çözüm yoktur. Çünkü hassas olsa da, bu gerçek sorunu ele almadan kalite kontrolü verme riskini taşır.

İnsanlar becerilerini kaybeder


Cory Doctrow, AI'nın önemli karar verme süreçlerinde artan kullanımının sonuçlarını yansıtır:

Uzmanlar sorunları çözmek yerine sonuçlarla karşı karşıya kalırlarsa, bir sonuç için değerlendirilmesi gereken tüm faktörlere yeteneklerini ve aşinalıklarını kaybederler. Aşağıdaki işi yapmadan bir kararın son adımının revizyonu, bir karar vermek için en kolay adımdan çok uzaktır, ancak güvenilir bir şekilde yürütmek çok daha zor olabilir.
Kişinin bağımsız yeteneğinin bu kaybının sonuçları ciddidir. İnsanlar, IA'nın üzerine yazmak için adım adım daha az yetkin hissediyorlar ve değerlendirmeleri bununla çelişiyor olsa bile, haklı olduklarını varsayıyorlar.

Filozof Günther ile “promosyon Scham 2.0” dan farklı tarif edilebilecek bir şey var.

Sorumluluk dış kaynak kullanımı


Yeşil, yapay kararların insan kontrolü sorununu özetler:

Siyasi karar: Üreticiler, hükümetlerin ilişkili dezavantajları kabul etmeden algoritmaların avantajlarını kullanmalarına izin veren bir çare olarak insan denetimini temsil ediyor.

Siz (hükümetler ve üreticiler – AW), becerilerinin insanlarınkini aştığını açıklayarak bir algoritmayı teşvik ederken, aynı zamanda algoritmayı ve kontrolden sorumlu olanı (muhtemelen) insan denetimi ile garanti ederek kontrolden sorumlu olabilir. .
Cory Doctrow bu noktaya devam eder ve şunları sorar:

Öyleyse neden hala IA'nın insanlar tarafından izlenen makine hızında kararlar vererek hükümetlerin ve şirketlerin bürokrasisinin yerini alacağı gerçeğinden bahsediyoruz?

Fakat sorumluluk yükümlülüğü bir hata değilse ne olur? Maliyetler üzerindeki muazzam maliyetler altında olan hükümetler, insanları çok düşük sermayesi olan insanlarla nasıl kurtarabileceklerini ve her şeyi insan aktörlere itebileceklerini keşfediyorsa ne olur?
Teklif


Soruşturmasında Green şu çözümü sunar:

Bu eksiklikler ışığında, hükümet algoritmalarının düzenlenmesi için merkezi bir mekanizma olarak insandan kurumsal denetime geçiş öneriyorum.

Bu kurumsal yaklaşım iki aşamada çalışır. Her şeyden önce, yetkililer karar sürecine bir algoritmanın eklenmesinin uygun olduğunu ve önerilen tüm formların insan denetimi ampirik kanıtlarla desteklendiğini haklı çıkarmalıdır. İkincisi, bu nedenler otorite algoritmayı getirmeden önce kontrol edilmeli ve demokratik olarak onaylanmalıdır.
Sorumluluk


Hollanda zaten karayolu trafiğindeki suçları cezalandırması gereken ve şimdi Fransa'da kullanılmış olan AI kameralarıyla ilgili deneyime sahiptir. Başlarını çizen sürücüler bir direksiyon simidi cep telefonu ile çağrı için cezalandırıldı.

New York'ta, AI'nın sahte Parker'ın kontrolünde kullanımı – insan kontrollerine rağmen – sadece ikna edicidir: arabalar doğru park edilmiş olmasına rağmen 3.800 ceza bileti verildi.

Birkaç hafta önce, Amerika Birleşik Devletleri Başkanı Joe Biden ve Çin Şefi Xi Jinping, insan kontrolünün nükleer silahların kullanımı konusunda sürdürülmesi gerektiğini ve yapay zeka ile değiştirilmemesi gerektiğini kabul etti.



Özellikle uluslararası durumun arka planına karşı, rahatlatıcı bir karar. Ayrıca “nükleer savaş” olası tehlikesi de dikkate alınır.

Ancak, görülebileceği gibi, insan AI'nın hatalarından ve hatalarından rahatlatıcı bir ölçüde koruyabilen sakinleştirici bir kontrol istasyonu değildir.
 
Üst