Att ge moraliska koder till robotar

Att ge moraliska koder till robotar

I militära och andra tidskänsliga miljöer är möjligheten att förkorta eller komprimera den tid det tar att samla in relevant information, fatta ett beslut och sedan agera på det avgörande. Av den anledningen, oavsett hur oroliga människor är över att introducera artificiell intelligens, automation och robotar på slagfältet, kommer det att hända.

Redan idag kan billiga svärmar av kommersiella drönare som stöds av programvara med öppen källkod och algoritmer, högupplösta kameror och allmänt tillgängliga vapen lanseras av dussintals för att attackera förutbestämda mål. De låga kostnaderna för dessa attackdrönare garanterar att ett stort antal kommer att användas för att överväldiga långsamma, mänskligt beroende försvarsstrategier och svar. Dessa sårbarheter säkerställer idag att automatiserade försvarssystem kommer att behöva användas i framtiden. Snabbheten och komplexiteten i ett brott dikterar vad som krävs av ett försvar.

Utan lyxen av tid kommer framtidens försvar att behöva algoritmer som är baserade på mänskligt programmerade moral och filosofier för att omedelbart bearbeta tillgänglig information och automatiskt svara på mikrosekunder. Det betyder att våra mödrar, äldste, filosofer, ledare, präster, predikanter och militärstrateger kommer att behöva arbeta tillsammans för att skapa fördefinierade och acceptabla svar som vi är villiga att kodifiera och ladda upp till våra robotars algoritmer. Problemet är att vi aldrig har kunnat komma överens helt om dessa själva.

Våra proselytiserade robotar kommer att utgöra en församling av heliga församlingsmedlemmar som kommer att följa deras givna moraliska kod till punkt och pricka. Detta mycket verkliga scenario väcker naturligtvis tusen frågor. Vilka moraliska ramar använder vi? Skulle en robot som följer Jesus verkligen slåss? Skulle vi skapa en annan moralisk ram för robotar än för människor? Skulle vi programmera våra robotar att göra saker som vi människor skulle tycka är oacceptabla?

Det verkar som att vi skulle vilja hålla de bud vi ger våra militära robotar enkla och smala. Vi skulle inte vilja att de skulle fundera över de större frågorna som varför vi måste döda människor för att återupprätta fred, eller för att försvara ett ekonomiskt eller politiskt system – som kanske bara gör vattnet lerigt. Dessutom skulle det sakta ner militärrobotarnas svar om de var tvungna att begrunda alla dessa frågor innan de förstörde en svärm av något eller någon.

************************************************** ******

Kevin Benedict

Partner | Futurist på TCS

***Fullständig information: Detta är mina personliga åsikter. Inget företag är dumt nog att göra anspråk på dem. Jag arbetar med och har arbetat med många av de företag som nämns i mina artiklar.


Source link

Total
0
Shares
Leave a Reply

Your email address will not be published. Required fields are marked *

Related Posts