Kompanija Samsung imala je nedavno problema s curenjem sopstvenih tajnih poslovnih podataka, tako da je na snazi novo pravilo – nema upotrebe popularnih AI alata kao što su ChatGPT, Google Bard i Bing iz bezbednosnih razloga.
Samsungovi inženjeri koristili su ChatGPT tokom obavljanja određenih zadataka i rešavanja problema u sektoru za razvoj poluprovodnika.
I dok su zaposleni s radošću prihvatili ideju da veštačka inteligencija rešava probleme umesto njih, napravili su i veliku grešku.
Poslovne tajne nisu više tajne
Naime, uneli su strogo poverljive podatke u ChatGPT i time zapravo prekršili odredbe o tajnosti. U alat su uneli izvorni kod za novi program i beleške sa internih sastanaka. Problem nije samo u tome što su ti podaci izašli iz kompanije, već što su ubačeni u alat koji sve unesene podatke koristi za učenje veštačke inteligencije. U praksi to znači da su sve poslovne tajne koje su Samsungovi inženjeri ubacili u ChatGPT u rukama vlasnika tog alata, kompanije OpenAI.
I druge velike kompanije zabrinute
Samsung nije jedina velika kompanija koja je izrazila zabrinutost zbog ove tehnologije. U februaru, samo nekoliko meseci nakon što je OpenAI-jeva četbot usluga izazvala veliko interesovanje, neke banke s Wall Streeta, uključujući JPMorgan Chase & Co., Bank of America Corp. i Citigroup Inc., zabranile su ili ograničile upotrebu ove tehnologije.
Nova pravila Samsunga zabranjuju upotrebu generativnih AI sistema na računarima, tabletima i telefonima zaposlenih, kao i na internim mrežama.
Samsung je zamolio zaposlene koji koriste ChatGPT i druge alate na ličnim uređajima da ne šalju nikakve informacije u vezi sa kompanijom ili lične podatke koji bi mogli da otkriju njegovo intelektualno vlasništvo. Upozorava se da bi kršenje novih pravila moglo da rezultira otkazom.