Inteligjenca artificiale bëhet gjithnjë e më njerëzore, si në të mirë edhe në të keqe.
Pasi mësoi të gënjejë, të bëjë bllof në poker dhe të arsyetojë si një psikopat, në të ardhmen mund të bëhet edhe “skllave” e paragjykimit, duke u kushtëzuar nga informacione të gabuara që shfaqen në mënyrë autonome nga makina të tjera pa asnjë ndërhyrje të njeriut.
Këtë skenar shqetësues, që paralajmëron “trajnuesit” e inteligjencës artificiale, e paraqet studimi i publikuar në revistën shkencore “Scientific Reports” nga studiuesit e universitetit britanik të Kardifit dhe Institutit të Teknologjisë në Masaçuset (MIT) të Bostonit.
“Ndonëse këto rezultate mund të na bëjmë të imagjinojmë në të ardhmen robotë ‘racistë’ gati që të përjashtojnë njeriun, këto skenarë i përkasin ende botës së fantashkencës. Për momentin inteligjenca artificiale nuk është në gjendje që të krijojë paragjykime në mënyrë autonome”, garanton Giorgio Buttazzo i shkollës Superiore Sant’Anna në Piza.
Ky studim në fakt përbën një paralajmërim për studiuesit dhe zhvilluesit e teknikave të mësimit për inteligjencën artificiale.
“Kur të kemi të bëjmë me sisteme inteligjente dhe robotë që mësojnë në mënyrë autonome duke shkëmbyer informacionet, duhet të bëjmë shumë kujdes me mënyrën se si do të vihen në komunikim me njërit-tjetrin, sepse mund të humbasim kontrollin, mbi të gjitha kur merret parasysh se inteligjenca artificiale pritet që ta kalojë atë njerëzore brenda pak vitesh. Për të parandaluar këtë lloji rreziku, duhet të kuptojmë strategjitë më të mira për të sëtrvitur makinat që jo vetëm të kenë njohuri të pastra, por edhe rregulla etike”, thekson Buttazzo.