S pojavom novih tehnologija, sve češće se javljaju pitanja vezana uz etičnost, odgovornost i sigurnost njihove primjene. Štetnost po okoliš, zamjena ljudskih poslova, upitna privatnost i pitanje autorskih prava samo su neki od izazova povezanih s razvojem i primjenom tehnologija umjetne inteligencije (eng. artifical intelligence – AI). Postojeće tehnologije direktno odražavaju vrijednosti i izazove našeg društva. Umjetna inteligencija može reproducirati već postojeće probleme poput diskriminacije pa čak ih i dodatno povećati.

Danas se sve češće raspravlja o rapidnom napretku umjetne inteligencije i njenom potencijalu da značajno preoblikuje gotovo sve aspekte našeg života, od obrazovanja, zdravstva, poljoprivrede, transporta, pa sve do industrije zabave. Možda niste ni svjesni da već svakodnevno koristite umjetnu inteligenciju bilo to kroz algoritme koji vam preporučuju filmove, navigacijske aplikacije koje u stvarnom vremenu analiziraju prometne podatke ili personalizirane marketinške poruke koje vidite na internetu. Sviđalo se to nama ili ne, umjetna inteligencija već je duboko ukorijenjena u naš svakodnevni život. Tako već možemo uočiti i pojavu umjetne inteligencije unutar područja e-learninga. Neki pružatelji e-learning usluga, počinju ugrađivati AI alate u svoje uređivače sadržaja kako bi korisnicima omogućili lakšu, bržu i jednostavniju izradu sadržaja. Više nije uvijek potrebno trošiti sate na izradu ili traženje odgovarajućih slika ili videa već ih je ponekad moguć stvoriti u samo nekoliko klika mišem.

Koje izazove donosi umjetna inteligencija? Pogledajmo neke hipotetske situacije u kontekstu e-learninga do kojih može doći kada se umjetna inteligencija ne koristi s oprezom. Slične se situacije mogu dogoditi i u raznim drugim područjima.

Kako (ne) educirati tim o phishingu

Posljednjih nekoliko tjedana vaša se tvrtka suočila s nizom phishing napada, što je izazvalo pojačanu zabrinutost zaposlenika oko informacijske sigurnosti. Kako bi povećali svijest o ovoj važnoj temi i spriječili slične napade u budućnosti, vaš šef vas je zadužio za kreiranje kratkog e-seminara o osnovama internetske sigurnosti. Zbog premalo raspoloživog vremena, odlučili ste koristiti AI alat ChatGPT za pomoć pri izradi tekstualnog sadržaja. Zatražili ste ChatGPT da vam ispiše neke od najčešćih metoda phishing napada i kako se obraniti od njih. Na prvi pogled, tekst je izgledao solidno, pa ste sadržaj objavili i tečaj pustili krajnjim korisnicima. Iako je prošlo neko vrijeme od kada su zaposlenici prošli e-seminar, šef vas je upozorio na to da su neki od njih nasjeli na phishing prevare i da su i dalje zbunjeni oko toga kako pravilno reagirati kada se suoče s phishing napadima. Nakon evaluacije e-seminara utvrdili ste da je dio e-seminara bio zbunjujući te čak i pogrešan. Ispostavilo se da su zaposlenici nakon napada obrisali sumnjive e-mailove bez prijavljivanja incidenta IT odjelu i nisu ponovno postavili svoje lozinke. To je povećalo rizik od daljnjih sigurnosnih problema zbog čega je tvrtka neko vrijeme bila značajno ugrožena. Suvišno je reći da je šef bio duboko razočaran zbog ovog propusta. Na kraju, morali ste izraditi novi e-seminar, ovog puta pouzdajući se u stručnu literaturu.

Kako spriječiti da se ovo dogodi?

Sav tekst koji je generiran uz pomoć umjetne inteligencije potrebno je temeljno pregledati i sadržajno provjeriti koristeći se pouzdanim izvorima. Preporuča se da tekst pročita i netko drugi kako bi se uočile eventualne pogreške ili netočnosti koje ste možda propustili. ChatGPT možete bez problema koristiti kao pomoć i inspiraciju za ideje, ali za pisanje kompletnog teksta treba obavezno napraviti dodatne provjere.  

Kad AI lovi plagijate – čak i kad ih nema

Radite na modernizaciji e-learning sustava u svojoj tvrtki i jedan od glavnih ciljeva vam je implementirati umjetnu inteligenciju kako biste olakšali procese ocjenjivanja i osigurali kvalitetu radova. Posebno se veselite jednom alatu – automatskoj detekciji plagijata u esejima. Ideja je jednostavna i učinkovita: AI će automatski analizirati eseje i provjeriti autentičnost svakog rada prije nego što budu poslani na ocjenjivanje, što će vam uštedjeti vrijeme i povećati standard integriteta učenja. Nakon nekoliko tjedana istraživanja, odlučili ste se za testnu verziju jednog popularnog AI sustava za detekciju plagijata. Instalacija je prošla glatko, sustav je bio jednostavan za integraciju, a prva testiranja pokazala su zadovoljavajuće rezultate. Bio je to prvi veliki korak prema automatizaciji i unaprijeđenu vašeg e-learning sustava, i ponosno ste obavijestili tim da je sustav spreman za upotrebu.

No, ubrzo nakon puštanja u rad, počeli su stizati mailovi. Polaznici su se žalili kako ne mogu predati svoje eseje jer im sustav prijavljuje plagijat. S obzirom na to da su radove pisali sami i pazili na izvornost, takva povratna informacija bila je zbunjujuća – za njih, ali i za vas. S rastućim brojem prijava, postalo je jasno da nešto nije u redu. Prvo ste provjerili tehničke postavke sustava u slučaju da postoji problem s pogrešnom konfiguracijom, no sve je izgledalo kako treba. Tada ste kontaktirali podršku AI sustava i objasnili situaciju. Nakon detaljnog pregleda, otkriveno je da algoritam ima izuzetno osjetljive postavke, što je rezultiralo lažnim pozitivnim prijavama plagijata za izraze, fraze i popularne pojmove koji su se često koristili u esejima.

Polaznici su bili ljuti i razočarani zbog neispravnog alata koji ih je lažno optuživao za plagijat, te je došlo do dodatnih problema jer su se datumi završetka polaganja e-seminara morali odgoditi. Uz podršku tehničara, smanjili ste osjetljivost sustava, a zatim ga testirali na novom skupu eseja. Nakon nekoliko dana prilagodbi i novih testova, alat je konačno počeo ispravno prepoznavati autentičnost radova bez lažnih uzbuna i polaznici su napokon mogli poslati svoje eseje na provjeru. Ipak, ovo iskustvo ostavilo je loš prvi dojam o takvim alatima, zbog čega su polaznici sada nepovjerljivi prema njima i sumnjaju u njihovu pouzdanost.

Kako spriječiti da se ovo dogodi?

Kako biste spriječili slične probleme, AI alate treba testirati u stvarnim uvjetima. Prije njihove implementacije potrebno je provesti opsežna testiranja na primjerima pravih radova kako bi provjerili reagira li sustav točno na tipične izraze i fraze. Prilikom izrade takvih alata važno je prilagoditi osjetljivost algoritama koji bi smanjili lažne pozitivne rezultate. Nadalje, u slučaju da se ovakve poteškoće jave, važno je korisnicima omogućiti jednostavno prijavljivanje problema na način da se postavi sustav za povratne informacije. Važno je i obavijestiti korisnike da vaša e-learning platforma koristi AI alate i pobrinuti se da korisnici razumiju kako ti alati funkcioniraju i što je moguće poduzeti ukoliko dođe do greške.

Ne postoji univerzalna formula za odgovornu upotrebu umjetne inteligencije. Tvrtke koje razvijaju AI tehnologije često kreiraju vlastite smjernice i načela, no moguće je uočiti kako se mnogi od principa koje razvijaju preklapaju te često naglašavaju iste ključne vrijednosti.

Pogledajmo koje su neke od osnovnih smjernica za korištenje umjetne inteligencije na odgovoran način:

  1. Transparentnost – objasnite korisnicima zašto i kako koristite umjetnu inteligenciju, kako bi bolje razumjeli njezino funkcioniranje te kako bi se izgradilo povjerenje između korisnika i AI modela.
  2. Kvaliteta – koristite točne i raznolike podatke kako bi izbjegli pogreške i pristranosti. Uvijek provjerite točnost AI generiranih informacija.
  3. Odgovornost – preuzmite odgovornost za razvoj i primjenu AI tehnologija te eventualnu štetu koju one mogu izazvati, posebice ako radite unutar osjetljivog područja kao što su zdravstvo, pravosuđe ili financije.
  4. Pravednost – sustavi umjetne inteligencije moraju biti pravedni i nepristrani. Ne smiju se diskriminirati pojedinci ili skupine, a to se postiže korištenjem nepristranih podataka i putem tehnika za otkrivanje i uklanjanje nesvjesnih pristranosti.
  5. Privatnost i sigurnost – sustavi umjetne inteligencije trebaju štititi privatnost korisnika, prikupljati podatke na odgovoran način i omogućiti ljudima da odluče hoće li dijeliti svoje podatke. Isto tako, ovi sustavi moraju biti sigurno zaštićeni od hakerskih napada i redovito ažurirani kako bi se spriječila njihova zloupotreba.

Pred nama je još dug put tijekom kojeg će se, u skladu s razvojem tehnologije, oblikovati standardi, pravila i načela za odgovornu upotrebu umjetne inteligencije. Nastoji se izbjeći razvoj tehnologija koje mogu uzrokovati štetu, nadzirati ljude ili kršiti ljudska prava, pri čemu je etička odgovornost ključna u svakom koraku razvoja. Iako vam se mnoge od funkcionalnosti umjetne inteligencije mogu činiti korisne i zabavne, ipak valja pripaziti gdje sve unosimo osobne podatke ili fotografije te koja prava dajemo pojedinim pružateljima AI usluga. Takve tvrtke često polažu prava na ono što dijelite i koriste vaše podatke i fotografije za treniranje svojih AI modela. To može uključivati dugotrajno čuvanje i obradu podataka na načine koje možda niste očekivali, stoga je ključno biti upoznat s uvjetima korištenja i pravilima zaštite privatnosti. O praktičnoj upotrebi konkretnih AI alata u svakodnevnom radu, ali i o izazovima AI tehnologije, moći ćete puno naučiti u našem novom e-seminaru koji izlazi uskoro. Do tada potražite ostale naše e-seminare na adresi https://algebra.hr/elearning/e-seminari/. Neki od njih bave se upravo temom umjetne inteligencije.

V.G. Stručnjakinja za e-learning, Algebra

Povezane novosti