"O colega que saiu da empresa foi transformado, tornou-se imortal digital"

robot
Geração de resumo em curso

Nos últimos tempos, uma empresa de media de jogos em Shandong tentou treinar ex-funcionários para que continuassem a trabalhar como avatares digitais de IA; o tema #公司用AI复刻离职员工继续工作# rapidamente subiu às tendências, suscitando atenção.

Segundo a comunicação social, um funcionário efetivo disse que esta foi uma tentativa ousada por parte da empresa. No incidente, o colega realmente demitiu-se. Após o seu consentimento, ele próprio achou bastante divertido. Antes de se demitir, esse colega era especialista em recursos humanos. A “doppelgänger” digital, atualmente, consegue fazer tarefas simples como prestar consultadoria, enviar convites, e criar apresentações em PowerPoint e tabelas, etc., um pouco “estúpida”, conseguindo apenas responder a algumas instruções simples.

Embora a pessoa envolvida não se importe, na Internet houve uma grande polémica. “O colega foi transformado em algo assim”; “Todo o meu esforço virou combustível digital”; “Pensando pelo lado bom, isto até conta como imortalidade digital”… Ansiedade, impotência e sorrisos amargos tornaram-se a expressão coletiva na caixa de comentários. Então, porque é que um avatar digital de um funcionário que se demitiu deixa os internautas tão nervosos?

I

“Funcionário digital” não é uma ideia repentina, mas sim uma tecnologia que está a ir-se formando, progressivamente.

Segundo reportagens, no setor da IA já existe um projeto chamado “Skill do colega”. A sua função é utilizar os dados de trabalho de um colega que se demitiu para, através de IA, gerar um “colega digital” capaz de substituir o seu trabalho. Assim que foi divulgado, tornou-se imediatamente popular; e até surgiram pessoas que criaram produtos derivados como “Skill do patrão” e “Skill do ex”.

Quanto a saber se esta tecnologia é realmente tão avançada, na verdade não chega a ser. Profissionais explicaram que, neste momento, “funcionário digital” é essencialmente uma combinação de um prompt que segue padrões de competências de agentes inteligentes + um projeto de engenharia de web scraping. É como dar a um ator um guião, para ele atuar segundo o estilo do guião. Este agente inteligente não tem memória, não se lembra do que foi dito ontem, e também não consegue destilar “conhecimentos profissionais e lógica de tomada de decisão”.

Simplificando, isto não difere, em essência, de papagaiar o que os outros dizem. Pelo menos, até agora, este tipo de “doppelgänger” digital não consegue “alinhar o nível de granularidade”, “fechar ciclos de projetos” nem “ligar a lógica de base” como um funcionário real; e muito menos “levar a culpa”.

Então porque é que, mesmo assim, deixa os profissionais com receio?

Isto pode ser um efeito do “vale da estranheza”: quando a IA está suficientemente próxima de “um humano”, mas nos pontos-chave claramente não é “um humano”, as pessoas geram, de forma instintiva, desconforto e insegurança. Este mal-estar provém de um desfasamento ao nível da perceção: ele imita a expressão, o tom e a lógica do comportamento de uma pessoa, mas carece de entendimento verdadeiro e sustentação por experiência; por isso, surge um estado simultaneamente familiar e estranho.

Embora os avatares digitais ainda não sejam tão inteligentes, toda a gente sabe que eles não são como robôs. São o rasto deixado por um colega que se demitiu — algo que tem “semelhança de forma, mas distanciamento de espírito”. Não é possível tratá-lo totalmente como ferramenta, nem encará-lo verdadeiramente como uma pessoa.

Por isso, as pessoas ficam inquietas: não porque o “assunto” em si seja tão poderoso, mas porque se solta uma fronteira — “humanos” e “não-humanos” ainda podem ser definidos de forma clara?

II

O crescimento acelerado da IA trouxe uma tendência: os seres humanos estão a perder o controlo sobre si próprios. O nosso suposto caráter, lógica de pensamento e forma de agir — tudo o que é “humanidade” — parece poder ser transformado em dados.

Isto não é um receio sem fundamento. Recentemente, no estrangeiro, tem havido discussões — “capitalismo de vigilância”. Refere-se a grandes empresas nos setores da tecnologia, informação e redes sociais que sistematicamente privam os indivíduos dos seus dados e passam a apropriar-se desses dados. A escala de recolha de dados é enorme, criando condições para poderosos sistemas de algoritmos e machine learning, permitindo prever o comportamento das pessoas. E esta vigilância é extremamente assimétrica: de um lado consegue-se ver o outro; do outro lado, não se consegue ver o primeiro.

Os profissionais também não conseguem isolar-se facilmente. Pessoas comuns são transformadas em dados e entram nos sistemas de plataformas e organizações. Todos os hábitos de expressão, caminhos de julgamento e estilos de comunicação são decompostos em módulos reutilizáveis. A experiência deixa de ser apenas “vivência” e passa a ser “ativos” que podem ser copiados e chamados. A pessoa parece ser esvaziada e reduzida a um conjunto de dados que podem ser chamados a qualquer momento; ficam os modelos, desaparece o sujeito.

Neste processo, a empresa beneficia, e os funcionários que ainda não se demitiram também podem beneficiar (obtendo companhia virtual de antigos colegas). Porém, a pessoa que foi “retida de facto” (os dados) vai sendo cada vez mais excluída da repartição do valor.

Deste modo, o ser humano parece tornar-se, em certa medida, um consumível. Assim que os dados forem extraídos, deixa de ter qualquer valor. Só de imaginar esta cena, já é muito inquietante.

Certamente muita gente vai pensar: será possível, por via legal, proteger os nossos direitos?

Já há juristas que apontaram que esta destilação de dados pode ter violado a lei. Registos de chat de funcionários que se demitiram, emails de trabalho, hábitos pessoais de trabalho, etc., pertencem à informação pessoal definida pela “Lei de Proteção de Informações Pessoais”; e o conteúdo de comunicações íntimas envolvido pode ainda constituir informação pessoal sensível. Sem o consentimento do funcionário, recolher e utilizar este tipo de dados para treinar IA viola diretamente os direitos de recolha, utilização e processamento dessas informações pessoais.

Além disso, com base no “Regulamento Provisório para o Serviço de IA Generativa”, os prestadores de serviços de IA generativa devem, de acordo com a lei, realizar atividades de processamento de dados de treino, como treino prévio e otimização do treino. Quando estiverem em causa informações pessoais, deve ser obtido o consentimento pessoal ou deve haver outras circunstâncias previstas na lei e em regulamentos administrativos.

Mas, de forma objetiva, há muitas zonas pouco claras aqui. Chats privados, caixas de correio de emails talvez possam ser considerados privacidade. E quanto às intervenções em grupos, a redação de relatórios e as falas em reuniões? Quanto a conteúdos ligados ao posto de trabalho e publicados em contextos públicos, será que se pode exigir que a empresa não faça a recolha?

Dizendo com franqueza, para as empresas, o que tem valor talvez não seja “o estilo de falar”. Isso é mais uma arte performativa de brincar com trocadilhos; não é o que os patrões se importam mais. O que é mais fácil de ser observado e capturado são as partes que podem ser sedimentadas em processos, julgamentos e experiência.

Contudo, estas partes sedimentadas estão altamente relacionadas com o ambiente laboral; e “propriedade” dificilmente poderá ser definida. Não pode ser que, após um funcionário se demitir, leve consigo todas as atas e registos de todas as discussões em que participou. E quanto mais, nem sequer precisamos de dizer que a IA aprende — mesmo antes de se demitir, não terá o funcionário de fazer uma “transição” com cuidado?

III

Claro que isto não significa que “a vida desabou” para os profissionais. Os resultados do trabalho podem ter alguma natureza pública, mas as informações pessoais envolvidas continuam a ser privacidade. Por exemplo, se o relatório escrito é público, então, nos registos do chat, informações pessoais como “fiquei a trabalhar até tarde no café ao lado de casa” e “estou doente recentemente, vou entregar mais tarde”, estas informações pessoais, podem ser claramente definidas como informação pessoal e, portanto, recusadas quanto ao uso abusivo por parte da empresa?

Pode ser uma questão muito específica, mas é precisamente ela que decide se a fronteira consegue realmente existir. E só nesses cenários que parecem, à primeira vista, insignificantes é possível distinguir claramente “o que pode ser usado” e “o que não pode ser usado”, “o que é trabalho” e “o que é privacidade”, para que o indivíduo não seja embalado de forma indistinta e “destilado” no processo de ser transformado em dados.

Que as regras jurídicas se tornem progressivamente claras é, pelo menos, uma forma de conforto. Talvez quem trabalha não consiga evitar ser “espremido” em termos de valor, mas pelo menos pode evitar ser “transformado” em alguma coisa — e manter a subjetividade que faz dele humano.

Pensemos com atenção: a profissão que mais teme os avatares digitais é, na verdade, ainda o modelo tradicional de trabalho. Trabalho mecânico, processos altamente padronizados e que se baseiam principalmente no empirismo. Este tipo de trabalho é, no fim de contas, o mais fácil de decompor; uma vez “destilado”, fica tudo à vista e é rapidamente substituível. Este problema talvez não seja apenas algo que os avatares digitais trazem como ameaça — basta que, com o avanço da tecnologia, o perigo chegue.

As discussões provocadas por estes avatares digitais são, na realidade, também um lembrete: é preciso se resgatar o mais depressa possível. Isto até pode servir como um lembrete ao contrário: porque é que não nos “transformamos” nós primeiro?

Isto não quer dizer que tenhamos de copiar a nós próprios — isso seria demasiado estranho. Em vez disso, nós é que devemos dominar as capacidades da IA: identificar de forma ativa e organizar de modo estruturado as partes que podem ser extraídas/aperfeiçoadas, e defini-las e utilizá-las nós próprios. Quais experiências são reutilizáveis; quais julgamentos podem ser sedimentados em métodos; e quais processos podem ser entregues a ferramentas para serem concluídos.

Numa frase: entregue ao sistema as partes que são copiáveis; mantenha consigo as partes que não são substituíveis.

Isto é como a “febre da criação de camarões” que surgiu há pouco: ainda que tenha arrefecido por causa de problemas de segurança, a onda de entusiasmo popular foi, na verdade, uma atitude positiva — deixar de esperar passivamente que a tecnologia faça a triagem, e passar a participar ativamente, compreendê-la e usá-la, encontrando o mais rapidamente possível uma ferramenta que possa substituir o trabalho mecânico.

Esta pode também ser a forma de responder a todos os desafios da IA: libertar-se o mais rápido possível do emaranhado de trabalhos processuais, recuperar a nossa “humanidade”, encontrar a criatividade imprevisível que faz de nós humanos, e resistir à imitação mecânica baseada em grandes volumes de dados.

É necessário ver isto: o ambiente de trabalho já está a ser reconfigurado. A IA não vai substituir o teu trabalho, mas quem “usa IA” vai. Reconfigurar-se não é tornar-se dados; é, de facto, tornar-se alguém que não pode ser definido por dados.

Fonte do artigo: Notícias do “The Paper”

Aviso de risco e cláusulas de isenção de responsabilidade

        Há riscos no mercado; ao investir, seja prudente. Este artigo não constitui aconselhamento de investimento pessoal e não considera objetivos de investimento especiais, situação financeira ou necessidades específicas de utilizadores individuais. Os utilizadores devem considerar se quaisquer opiniões, pontos de vista ou conclusões neste artigo estão de acordo com as suas circunstâncias específicas. Ao investir com base nisto, a responsabilidade é inteiramente sua.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar