Black box prinsippet innen AI
Du kan se resultatet KI gir, men ikke alltid forklare veien dit.
Kari E Bjørkelund

Black box-prinsippet betyr at vi kan se hva en KI-modell svarer, men ikke alltid forstå nøyaktig hvordan den kom fram til svaret. Modellen finner mønstre i store datamengder og bruker disse til å lage vurderinger eller anbefalinger, men selve beslutningsprosessen kan være vanskelig å følge steg for steg.
Et typisk eksempel er når en KI brukes til å vurdere lånesøknader. Systemet kan gi en risikoscore eller anbefale godkjenning eller avslag, men det kan være uklart hvorfor akkurat denne vurderingen ble gjort. Dette gjør black box-modeller utfordrende i situasjoner der det er viktig å kunne forklare beslutninger tydelig.
Du kan se resultatet KI gir, men ikke alltid forklare veien dit.
