Dzięki sztucznej inteligencji ingerencja w prywatność pracowników wchodzi na wyższy poziom. Monitorowanie AI w czasie rzeczywistym przeczesze służbowe komunikatory.

Znane firmy, takie jak Walmart, T-Mobile czy AstraZeneca, zaczynają korzystać z nowego narzędzia AI w celu monitorowania rozmów, które odbywają się na kanałach współpracy i czatach w aplikacjach, jak Teams, Zoom, Slack, informuje Techspot.

//dzisiaj na dailyweb

Przez lata firmy monitorowały zawartość wiadomości e-mail pracowników, konfigurując narzędzia i reguły w celu biernego sprawdzania, co pracownicy wysyłają do siebie nawzajem i na zewnątrz. Jednak monitorowanie to ma stać się znacznie bardziej inwazyjne, ponieważ znane marki zaczęły interesować się narzędziami sztucznej inteligencji do nadzorowania rozmów w określonych narzędziach, takich jak Slack, Yammer i Workplace od Meta.

Monitorowanie AI wiadomości w czasie rzeczywistym

Aware, startup z Columbus w stanie Ohio, przedstawia się jako „platforma inteligencji kontekstowej, która identyfikuje i ogranicza ryzyko, wzmacnia bezpieczeństwo i zgodność oraz odkrywa informacje biznesowe w czasie rzeczywistym z rozmów cyfrowych na dużą skalę”. Te cyfrowe rozmowy to nic innego jak korespondencja, którą pracownicy prowadzą w aplikacjach zwiększających produktywność i ułatwiających współpracę.

Slack

Flagowy produkt firmy monitoruje sentyment i toksyczność poprzez wykorzystanie możliwości wykrywania i analizy werbalnej oraz obrazowej w celu obserwowania tego, o czym ludzie dyskutują, jakie są ich odczucia w różnych kwestiach. Dane są wprawdzie anonimowe, ale firma pozwala na dodanie tagów dla ról zawodowych, wieku, płci itp. Pozwala to platformie na zidentyfikowanie pewnych reakcji: czy niektóre działy lub grupy demograficzne reagują mniej lub bardziej pozytywnie na nowe polityki biznesowe lub ogłoszenia?

Niepokojące jest to, że Aware w swoim narzędziu pozwala firmom na wyznaczenie osób, takich jak przedstawiciele działu HR lub starsi liderzy, którzy mogą zidentyfikować konkretne osoby naruszające zasady skrajnego ryzyka określone przez firmę. Te zagrożenia mogą być uzasadnione, groźby przemocy, zastraszanie lub nękanie, ale nietrudno sobie wyobrazić, że oprogramowanie zostanie poinstruowane tak, aby oznaczać inne incydenty np. rozmowa o warunkach zatrudnienia, chęci zmiany pracy czy niedotrzymania obietnic przez przełożonych.

Zabrali firmę, jego zwolnili, a reszta zespołu odeszła – Sam Altman zwolniony z OpenAI

Podczas gdy niektórzy mogą argumentować, że pracownik nie ma prawa oczekiwać prywatności w wewnętrznych aplikacjach firmy do przesyłania wiadomości, uważam, że jest to dość niebezpieczne z wielu względów. Istnieje ogromna różnica między tradycyjnymi metodami pasywnego gromadzenia danych a tytułowym monitorowaniem w czasie rzeczywistym przez Al. Jeżeli chcemy bezdusznych robotów, którzy będą bać się podjęcia jakiejkolwiek rozmowy z kolegami z zespołu, to narzędzie od Aware z pewnością w tym pomoże.