TIM adota copiloto com IA para auxiliar atendentes de call center
A TIM adotou um copiloto com inteligência artificial generativa para auxiliar seus atendentes de call center. A solução, batizada como TAIS Real Time, começou a ser testada em setembro do ano passado com 60 posições de atendimento (PAs) no Rio de Janeiro responsáveis pelos segmentos pós-pago e controle.
De setembro a fevereiro, o copiloto auxiliou os atendentes em 1,5 milhão de chamadas, reduziu em dois dígitos percentuais o tempo médio de atendimento e diminuiu o índice de rechamada. Diante dos bons resultados, a TIM pretende expandir a solução para toda a sua operação de atendimento.
A TAIS Real Time escuta em tempo real tudo o que o cliente e o atendente estão falando. Ao mesmo tempo em que vai transcrevendo a conversa, analisa os procedimentos previstos em sua base de conhecimento para propor ao atendente o que responder ao assinante.
“A TAIS Real Time não pode nem esperar o cliente acabar de falar. Ela vai pegando pedacinhos da conversa e rodando a sua inteligência para inferir a intenção. Ela própria formula a pergunta que o cliente quer fazer e propõe em seguida a resposta que a consultora deve falar. Tudo isso em tempo real”, detalha Claudio Luiz da Silva, diretor de IA e transformação da TIM, em conversa com Mobile Time.
TAIS Real Time: colaboradores, custo e LLMs
Os colaboradores também ficaram satisfeitos. Uma das atendentes relatou que a vida é outra depois da adoção da TAIS Real Time, lembra Silva. Além de melhorar o atendimento em si, facilitou também o treinamento de novos atendentes, acelerando a curva de aprendizado.
A solução combina diferentes grandes modelos de linguagem (LLMs) de acordo com a situação. E há um reaproveitamento do que o agente já aprendeu, reduzindo o processamento em novas demandas similares. Aliás, Silva garante que a redução no tempo médio de atendimento e no índice de rechamadas compensa o custo com tokens para rodar o copiloto. “Qualquer meio ponto percentual a menos de ligações recebidas já compensa. O custo do token não é um ponto crítico aqui”, afirma.
Paralelamente, a solução passa por um constante fine tuning ao longo do qual vai ajustando os LLMs que utiliza, de acordo com os resultados obtidos.
