Google ka vendosur të pezullojë një ndër inxhinierët që punon në kompani për arsye se beson se ai ka shkelur politikat e konfidencialitetit, pasi u shqetësua se sistemi chatbot AI ka arritur “të ndjejë”, sipas raportimeve të Washington Post. Blake Lemoine, i cili punon për organizatën Responsible AI të Google, po testonte nëse modeli LaMDA gjeneron gjuhë diskriminuese ose urrjetje.
Shqetësimet e inxhinierit u rritën pas disa përgjigjeve bindëse që sistemi AI po gjeneronte rreth të drejtave dhe etikës së robotëve. Në prill ai shpërndau një dokument me titull “A është LaMDA e ndjeshme?”, ku përfshinte një kopje të shkruar të bisedës së tij me AI.
Google beson se veprimet e Lemoine në lidhje me punën e tij në LaMDA kanë shkelur politikat e konfidencialitetit. Sipas raportimeve të ndryshme, ai ftoi një avokat të përfaqësonte sistemin AI dhe foli me një përfaqësues të komitetit House Judiciary rreth aktiviteteve joetike në Google.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Në datën 6 qershor përmes një postimi në Medium, Lemoine lajmëroi se ishte pezulluar nga puna pasi po kërkonte “një konsultim minimal të jashtëm për të ndihmuar në investigimet e tij” dhe sepse në listën e personave me të cilët ai kishte kontaktuar gjendeshin dhe punonjës të qeverisë të SHBA.
Google prezantoi LaMDA gjatë Google I/O të vitit të kaluar, dhe shpreson se përmes saj do të arrijë të përmirësojë asistenten dixhitale për të kryer biseda sa më natyrale.
Zëdhënësi i Google lajmëroi menjëherë se “nuk ka asnjë provë që tregon se LaMDA mund të ndjejë.”