
Foto: Unsplash
Hon undersöker förhållandet mellan säkerhet, social hållbarhet och AI
I sin avhandling analyserar Irja Malmio artificiell intelligens (AI) utifrån hur tekniken påverkar – och påverkas av – människor, samhällen och politik.
– Jag diskuterar både möjligheter och risker med AI och pekar på att AI-system inte är neutrala, de speglar de värderingar och prioriteringar som präglar den miljö där de skapas, säger hon.
Artificiell intelligens förändrar snabbt vårt sätt att leva, jobba och kommunicera. Men när AI blir en allt större del av samhället väcks också nya frågor, inte minst om hur tekniken påverkar social rättvisa och säkerhet. Irja Malmio, doktorand vid Institutionen för försvarssystem på Försvarshögskolan, undersöker i sin avhandling förhållandet mellan AI, säkerhet och social hållbarhet.
Risker och möjligheter med AI
– Genom att analysera AI som ett sociotekniskt system – en blandning mellan tekniska och sociala faktorer – diskuterar jag både möjligheter och risker, säger hon.
AI kan till exempel hjälpa oss att möta stora samhällsutmaningar, som att förbättra hälso- och sjukvård, minska sociala ojämlikheter och bidra till klimatarbetet. Men AI kan också förstärka befintliga samhällsproblem som diskriminering, polarisering och intolerans. I studien kallas den här typen av negativa konsekvenser för sociotekniska skador.
– Till exempel kan fördomar i AI-algoritmer förstärka diskriminering och AI-driven desinformation kan fördjupa klyftor i samhället som i förlängningen kan underminera säkerheten. Tekniken i sig är inte neutral, den påverkas av samhället där den tas fram, säger Irja Malmio.
Social hållbarhet och säkerhet hänger ihop
Avhandlingen visar att social hållbarhet – rättvisa, demokrati och människors välbefinnande – är nära kopplat till säkerhet. När AI utvecklas utan hänsyn till dessa värden kan det leda till ökad osäkerhet.
– Ett samhälle som är rättvist och inkluderande är också tryggare på lång sikt. Men i praktiken hamnar dessa mål ofta i konflikt, till exempel när övervakning används för att öka säkerheten, men samtidigt hotar människors frihet, säger Irja Malmio.
Forskningen bygger på fyra artiklar som undersöker AI ur olika teoretiska och praktiska perspektiv. Den visar hur värderingar, kultur och makt påverkar hur AI utformas och används i praktiken.
Etik måste in i centrum
En slutsats är att etiska avväganden måste vara centrala i AI-utvecklingen. Tekniken ska inte bara vara effektiv, den måste också stödja rättvisa, demokratiska värden och respekt för mänskliga rättigheter. Studien betonar också vikten av en holistisk ansats till AI-reglering, där både de tekniska och sociala dimensionerna beaktas.
– Det handlar inte bara om vad tekniken kan göra, utan om vilket samhälle vi vill bygga med den, säger Irja Malmio.
Vägen framåt: Reglering med helhetssyn
Forskningen bidrar även med ett konceptuellt ramverk för till exempel beslutsfattare och samhällsutvecklare.
– Genom att förstå kopplingarna mellan AI, social hållbarhet och säkerhet kan vi använda AI:s potential för att skapa en mer rättvis och säker värld, samtidigt som vi minimerar riskerna med tekniken. Här behöver vi proaktiva åtgärder för att hantera sociotekniska skador och säkerställa att AI fungerar som en kraft för att skapa ett gott samhälle snarare än att bli en källa till splittring och osäkerhet, säger hon.
Publikation
Irja Malmio disputerade vid avdelningen för riskhantering och samhällssäkerhet, Institutionen för bygg- och miljöteknologi, Lunds tekniska högskola, Lunds universitet, den 21 maj 2025.
Irja Malmio (2025): Imagining the impossible - conflicting norms and values on social sustainability, security, and artificial intelligence
Mer inom
FörsvarssystemSidinformation
- Publicerad:
- 2025-05-21
- Senast uppdaterad:
- 2025-05-21