Search

Intelegjenca Artificiale – shkencëtarët kanë një paralajmërim shqetësues

Rrjetet nervore mund të trajnohen fshehurazi për të bërë keq, sipas një studimi të ri.

Një ekip shkencëtarësh të Universitetit të Nju Jorkut ka zbuluar se njerëzit mund të korruptojnë sistemet e inteligjencës artificiale duke ngatërruar të dhënat e tyre të trajnimit dhe këto ndryshime të dëmshme mund të jenë të vështira për t’u zbuluar.

Kjo metodë e sulmit mund të përdoret edhe për të shkaktuar aksidente në botën reale.

Rrjetet nervore kërkojnë sasi të mëdha të dhënash për trajnim, i cili është intensiv në llogaritje, kërkon kohë dhe kushton shumë.

Për shkak të këtyre pengesave, kompanitë janë duke e ngarkuar këtë detyrën tek kompani të tjera, si Google, Microsoft dhe Amazon.

Megjithatë, studiuesit thonë se kjo zgjidhje vjen me rreziqe të mundshme të sigurisë.

“Në veçanti, ne eksplorojmë konceptin e një rrjeti nervor me ‘derë të pasme’ (backdoor) ose BadNet.

Në këtë skenar të sulmit, procesi i trajnimit është plotësisht ose (në rastin e transferimit të të dhënave) pjesërisht i kontraktuar në një palë keqdashëse, e cila dëshiron t’i ofrojë përdoruesit një model të trajnuar që përmban një ‘backdoor’, thuhet në letër.

Është një mendim shqetësues, dhe studiuesit shpresojnë që gjetjet e tyre të çojnë në përmirësimin e praktikave të sigurisë.

“Ne besojmë se puna jonë motivon nevojën për të investiguar teknikat për zbulimin e ‘backdoor’-ve në rrjete të thella nervore.

Edhe pse ne presim që kjo të jetë një sfidë e vështirë për shkak të vështirësive të qenësishme të shpjegimit të sjelljes së një rrjeti të trajnuar, mund të jetë e mundur të identifikohen pjesët e rrjetit që nuk janë aktivizuar gjatë vlerësimit dhe të inspektohet sjellja e tyre”, shkruan ata. /Bota.al