'Killer Robot'-lab wordt geconfronteerd met boycot van kunstmatige intelligentie-experts

  • Cameron Merritt
  • 0
  • 2428
  • 439

De kunstmatige intelligentie (AI) -gemeenschap heeft een duidelijke boodschap voor onderzoekers in Zuid-Korea: maak geen killer robots.

Bijna 60 AI- en robotica-experts uit bijna 30 landen hebben een open brief ondertekend waarin wordt opgeroepen tot een boycot van KAIST, een openbare universiteit in Daejeon, Zuid-Korea, die naar verluidt kunstmatige-intelligentietechnologieën ontwikkelt voor toepassing in het leger. wapens, die meedoen aan de wereldwijde concurrentie om autonome wapens te ontwikkelen, "aldus de open brief.

Met andere woorden, KAIST zou kunnen onderzoeken hoe AI-wapens van militaire kwaliteit kunnen worden gemaakt. [5 redenen om robots te vrezen]

Volgens de open brief maakten AI-experts over de hele wereld zich zorgen toen ze hoorden dat KAIST - in samenwerking met Hanwha Systems, het toonaangevende wapenbedrijf van Zuid-Korea - op 20 februari een nieuwe faciliteit opende, het Research Center for the Convergence of National Defense en Kunstmatige intelligentie.

Gezien het feit dat de Verenigde Naties (VN) al discussiëren over hoe de internationale gemeenschap te beschermen tegen dodelijke AI-robots, "is het betreurenswaardig dat een prestigieuze instelling als KAIST de wapenwedloop om dergelijke wapens te ontwikkelen wil versnellen", schreven de onderzoekers in de brief..

Om de nieuwe missie van KAIST sterk te ontmoedigen, boycotten de onderzoekers de universiteit totdat de president duidelijk maakt dat het centrum geen "autonome wapens zal ontwikkelen zonder zinvolle menselijke controle", aldus de briefschrijvers..

Deze boycot zal allesomvattend zijn. "We zullen bijvoorbeeld geen KAIST bezoeken, geen bezoekers van KAIST ontvangen of bijdragen aan een onderzoeksproject waarbij KAIST betrokken is", aldus de onderzoekers..

Als KAIST doorgaat met de ontwikkeling van autonome wapens, zou dit kunnen leiden tot een derde revolutie in oorlogsvoering, aldus de onderzoekers. Deze wapens 'hebben het potentieel om terreurwapens te zijn', en hun ontwikkeling zou ertoe kunnen leiden dat oorlog sneller en op grotere schaal wordt uitgevochten, zeiden ze..

Despoten en terroristen die deze wapens verwerven, zouden ze kunnen gebruiken tegen onschuldige bevolkingsgroepen, waarbij ze alle ethische beperkingen wegnemen waarmee reguliere jagers te maken kunnen krijgen, voegde de onderzoekers eraan toe..

Zo'n verbod op dodelijke technologieën is niet nieuw. De Conventies van Genève verbieden bijvoorbeeld strijdkrachten om verblindende laserwapens rechtstreeks tegen mensen te gebruiken, zoals eerder gemeld. Bovendien zijn zenuwgassen zoals sarin en VX verboden door de Chemical Weapons Convention, waaraan meer dan 190 landen deelnemen.

Niet elk land stemt echter in met algemene bescherming zoals deze. Hanwha, het bedrijf dat samenwerkt met KAIST, helpt bij de productie van clustermunitie. Dergelijke munitie is verboden onder het VN-Verdrag inzake clustermunitie, en meer dan 100 landen (hoewel niet Zuid-Korea) hebben het verdrag tegen hen ondertekend, aldus de onderzoekers..

Hanwha heeft te maken gehad met repercussies voor zijn acties; op ethische gronden belegt het publiekelijk verspreide Noorse pensioenfonds van $ 380 miljard niet in de aandelen van Hanhwa, aldus de onderzoekers.

In plaats van te werken aan autonome moordtechnologieën, zou KAIST moeten werken aan AI-apparaten die mensenlevens verbeteren, niet schaden, aldus de onderzoekers..

Ondertussen waarschuwen andere onderzoekers al jaren voor moordende AI-robots, waaronder Elon Musk en wijlen Stephen Hawking.

Origineel artikel over .




Niemand heeft nog op dit artikel gereageerd.

De meest interessante artikelen over geheimen en ontdekkingen. Veel nuttige informatie over alles
Artikelen over wetenschap, ruimte, technologie, gezondheid, milieu, cultuur en geschiedenis. Duizenden onderwerpen uitleggen, zodat u weet hoe alles werkt