Cultura organizacional: fator de sucesso ou fracasso nos projetos de IA
Original de Cezar Taurion no medium.com
Já escrevi alguns artigos sobre a intercessão de tecnologias avançadas como a IA e o papel dos executivos, mostrando como o fator humano é importante para o sucesso dos projetos.
Volto ao tema, agora discutindo a questão do impacto da cultura organizacional na velocidade de adoção e até mesmo sucesso desses projetos. Adoção da IA em uma empresa demanda uma cultura que aceite riscos (IA é probabilístico e, portanto, existe sempre a possibilidade de erros, e o que varia é o grau de assertividade dos modelos) e propensão a aceitar um mind set “data-driven”, apoiando decisões e ações nos processos. Se a empresa não estiver aberta, dificilmente veremos projetos, por mais fantástico que pareçam, serem aceitos de forma ampla pela organização. Provavelmente ficarão nos protótipos, não entrando em produção e não gerando valor.
Uma organização, por mais reativa que seja, pode aos poucos incorporar conceitos e princípios que permitam maior flexibilidade e inovação, e com isso as experimentações com IA começam a chamar atenção, facilitando sua disseminação pela empresa. Um dos pontos essenciais à essas mudanças é educação no tema. Disseminar conhecimento sobre conceitos e permitir que mais e mais pessoas nas empresas usem IA, principalmente agora que existem soluções fáceis de utilizar como sistemas LLM (Large Language Models) como chatGPT e outros, acessados via simples browsers ou apps.
Os primeiros projetos devem mostrar claramente que têm objetivos e expectativas realistas. Criar um overhype vai levar à frustração e consequentemente, a aumentar a reação contrária.
Além disso, existe o fator talentos. Há poucas pessoas que conhecem IA mais à fundo. Então, um dos principais desafios é como treinar e capacitar o pessoal que estará envolvido com essas tecnologias.
Vemos nitidamente que o fator “change management” se torna relevante.
O uso de IA de forma massiva implica em mudanças de processos, práticas, eliminação de tarefas e criação de outras e, sem dúvida, a capacitação do pessoal interno e eventualmente contratação de novos talentos.
Os projetos de IA, com ou sem LLM, precisam de pessoal técnico e engajamento dos líderes e profissionais dos setores de negócios. É necessário identificar que áreas de negócio poderiam ser as primeiras a serem usadas em provas de conceitos e isso, obviamente, depende do engajamento de seus líderes. As expectativas precisam ser realistas e os resultados obtidos devem ser amplamente divulgados, para que a organização aprenda com os acertos e erros. As ações de IA devem focar não apenas em resultados de curto prazo, mas terem a visão mais estratégica, de futuras possíveis utilizações, que, claro, só acontecerão se as primeiras apresentarem valor palpável para o negócio.
Um dos grandes desafios das empresas é a capacitação de talentos.
Como usar sistemas LLMs de forma adequada e segura? Existem vários desafios que dificultam a entrada em produção de aplicativos baseados em sistemas LLM, como:
1. A ambigüidade das linguagens naturais, que pode proporcionar uma experiência agradável para o usuário, mas uma experiência dolorosa para o desenvolvedor.
2. A natureza estocástica dos LLMs que pode levar à inconsistência na experiência do usuário e a falhas silenciosas, que passam desapercebidas em leituras rápidas.
3. A rapidez com que as tecnologias LLM estão evoluindo, o que torna muito difícil tomar decisões de negócios: análise de custo-latência, construção (usando código aberto) x compra (usando APIs pagas), solicitação x ajuste fino x técnicas mais recentes precisam ser feitas constantemente.
Além disso, existe, disseminada pela mídia, o receio que a IA vai eliminar empregos.
Volta e meia nos deparamos com afirmativas bombásticas que os robôs e a IA acabarão com os empregos e destruirão a humanidade. Em 1965, o prêmio Nobel de Ciências Econômicas, Herbert Simon predisse: “machines will be capable within 20 years of doing any work a man can do.” Ele projetou o cenário para 1985! De lá para cá vários livros e estudos abordaram o mesmo assunto.
Modelos LLM como o chatGPT revivem esse cenário apocalíptico. Um estudo de 2023, da OpenAI com a Universidade da Pennsylvania, “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models” concluiu que “around 80% of the U.S. workforce could have at least 10% of their work tasks affected by the introduction of LLMs, while approximately 19% of workers may see at least 50% of their tasks impacted.”
Esse estudo usou o banco de dados O*NET de informações sobre 1.016 ocupações, envolvendo 19.265 tarefas e 2.087 atividades de trabalho detalhadas (Detailed Work Activities — DWAs) associadas a tarefas. Humanos e LLMs (Large Language Model, que é um gerador de textos). As ligações entre ocupações e tarefas e DWAs foram então usadas para avaliar o impacto potencial dos LLMs nas ocupações.
No meu entender esse tipo de afirmativas bombásticas e sem base científica, não melhora o avanço da IA, pelo contrário, cria reações negativas e acaba desestimulando seu uso. A IA é uma excelente ferramenta, desde que usada na hora certa, para os problemas certos. Não é solução para todos os problemas do mundo.
Pelo menos o estudo foi sincero ao admitir que “A fundamental limitation of our approach lies in the subjectivity of the labeling. In our study, we employ annotators who are familiar with LLM capabilities. However, this group is not occupationally diverse, potentially leading to biased judgments regarding LLMs’ reliability and effectiveness in performing tasks within unfamiliar occupations.”. Nitidamente existem vieses que contaminam o estudo. E na prática, algumas habilidades importantes são difíceis de medir. Tarefas importantes e diferenciadas podem ser negligenciadas. Por exemplo, um robô com excelente destreza nos dedos não será um bom dentista se seu algoritmo de reconhecimento de imagem não puder reconhecer cáries adequadamente. Ainda estamos na era de tecnologias “narrow AI”, muito longe de uma hipotética máquina inteligente, senciente e multifuncional.
Exercitarmos o pensamento crítico é essencial. Um tecno-otimismo sem visão dos desafios do mundo real é fantasioso. LLMs são excelentes ferramentas, mas são geradores de texto ou imagem. Não são projetados para avaliar a veracidade do texto que eles inserem e produzem. Eles também não usam qualquer tipo de pensamento crítico, e é por isso que trabalhos que exigem pensamento crítico e acurácia das respostas não poderão ser substituídos por LLMs.
A preocupação com capacitação e a forma como IA é divulgada na empresa vai afetar em muito o entusiasmo ou rejeição. Os funcionários têm expectativas diversas, estão em pontos diferentes de suas trajetórias profissionais e, portanto, interesses diversos. Uma educação estilo “one size fits all” nem sempre funciona. É um ponto que merece muita atenção. A educação em IA demanda investimentos e tempo. Se a empresa está realmente engajada em adotar IA de forma mais intensa, esse cuidado é essencial.
IA não é obviamente apenas tecnologia. Demanda liderança engajada, cultura “data-driven” e aberta às experimentações e erros. A tecnologia é a parte mais fácil da equação. O maior desafio está na mobilização e engajamento dos funcionários e líderes, para que experimentem e adotem essas ferramentas.
Cursos relacionados:
Gestão da Inovação
Transformação Digital
Gestão da Mudança
Gestão de Riscos
Gestão de Indicadores – KPIs
Design Thinking
Gerenciamento de Projetos
Escritório de Projetos – PMO
Mapeamento de Processos
Escritório de Processos – BPMO
Simplificação de Processos
Escritório de Valor – VMO