ONLINE/OFFLINE


UM BÁSICO E ELEMENTAR SOBRE INTELIGÊNCIA ARTIFICIAL PARA BIBLIOTECÁRIO

Bibliotecários se lembram dos filmes e séries de ficção científica nos quais as máquinas e outros dispositivos possuem uma inteligência excepcional. Aliás, qualquer filme ou série, desta categoria, sempre apresenta algum recurso de inteligência capaz de expandir a capacidade humana de sair das mais insólitas situações. Ao menos nos filmes e séries como Star Trek, Star Wars ou qualquer outra odisseia intergaláctica. 

Na atualidade, surgem dispositivos e serviços contendo algoritmos de inteligência que tornam em realidade o que parecia ficção. Costumam chegar, em geral, acompanhados de prognósticos apocalípticos, como a extinção de profissões ou, mesmo, da raça humana. Em relação a extinção de atividades, sabe-se que aquelas funções repetitivas vão sendo automatizadas com maior intensidade nos próximos anos. Porém, no caso bibliotecário, escuto vaticínios há anos, desde a popularização dos computadores, da internet e web, do google, dos tablets e celulares, além de outros sistemas tecnológicos criados para o processamento da informação. No momento, a guilhotina da hora para a Biblioteconomia é a inteligência artificial, um dos temas em efervescência no momento.

Seu uso nas atividades de interação humana, não é uma intenção recente. O assunto é até antigo. A tentativa de decifrar a comunicação entre humanos e máquinas é um processo que remonta à década de 1950, e ao trabalho do cientista Alan Turing, que propôs um teste (Teste de Turing) para avaliar a capacidade de uma máquina exibir comportamento, semelhante ao do ser humano. Caso a máquina consiga enganar um entrevistador, levando-o a pensar que interage com um humano, teria êxito como uma inteligência artificial - IA. 

Entretanto, desde a época de Turing, há o debate sobre o seu teste ser realmente um método preciso para identificar a inteligência artificial. Porém, a percepção por trás da ideia permanece, na medida que a IA vai se aprimorando, tornando cada vez mais difícil distinguir a diferença entre humanos e máquinas. 

Ressalte-se que outros pioneiros importantes quando se aborda a evolução da IA, são: John McCarthy (responsável por cunhar o termo “inteligência artificial”, em 1956), Marvin Minsky, Allen Newell, Arthur Samuel e Herbert Simon.

Um aspecto que se destaca sobre a inteligência artificial e de seus recursos atualmente comercializados, enfatiza a capacidade de transformar a maneira de realizar o atendimento às pessoas e dos processos produtivos adotados pelas empresas. 

Neste contexto, pode-se indagar qual será o impacto de utilização da IA no trabalho bibliotecário? 

É uma questão relevante aos bibliotecários até porque o tema importa à sociedade em geral. Ademais, segmentos de atividade bibliotecária começam a ser afetados, como é o caso dos existentes em escritórios jurídicos.

Conforme previsão de Turing, os conceitos envolvidos na IA são difíceis de entender e, às vezes, mais difíceis de reconhecer em nossa vida diária. Pela própria natureza, a IA é projetada para fluir de forma transparente nas ferramentas utilizadas para tornar as tarefas mais precisas ou eficientes. Por exemplo, as sugestões de filmes da Netflix ou as listas de reproduções da Spotify. 

Pesquisa recente sobre a adoção da inteligência artificial, elaborada pela HubSpot Research Report, destaca que 63% dos entrevistados desconhecem que já a estão usando. A inteligência artificial está posicionada para alterar quase tudo - desde a produtividade pessoal aos processos organizacionais. 

Mudanças do tipo, ter a gestão de atividades priorizada automaticamente com base nos hábitos de trabalho da pessoa ou os serviços e produtos personalizados conforme o gosto ou interesse dos clientes (extraído da relação com a instituição e/ou com as mídias sociais). Uma situação com o qual bibliotecários tendem a desenvolver sua atividade. 

Independente de quanto a IA altere o processo de trabalho, não teremos todos de ser especialista em computação. No entanto, é importante possuir uma compreensão básica sobre o funcionamento desta tecnologia, até para vislumbrar suas possibilidades e avaliar como poderá tornar o trabalho bibliotecário mais eficiente e inovador no trato das informações e dos serviços aos usuários.

Neste sentido, lista-se alguns dos termos-chave que podem auxiliar o bibliotecário no conhecimento básico do mundo da IA. Ressalte-se que os termos não são um glossário completo sobre o assunto e nem esclarecem o que seja ou não a IA. É apenas uma relação de conceitos e definições gerais para tornar o entendimento e o contato com o tema mais assimilável, além de despertar para o interesse, sem gerar um sentimento de extinção profissional. 

Assim, estão relacionados com inteligência artificial, a saber:

Algoritmo: entendido como "um conjunto de regras que definem uma sequência de operações". Quem faz uso das redes sociais deve estar familiarizado, pois as mídias sociais como: Facebook, Twitter e Instagram usam algoritmos para determinar quais postagens são vistas em um feed de notícias. Também conhecem o uso de algoritmos em mecanismos de pesquisa para obter ranking para seus conteúdos na página de resultados da pesquisa. Quando se fala sobre inteligência artificial, os algoritmos são o que os programas para aprendizagem de máquina usam para realizar previsões a partir de um conjunto de dados analisados. Por exemplo, se um programa de aprendizado de máquina fosse analisar o desempenho de várias bases de dados da biblioteca, ele poderia criar um algoritmo para determinar quais termos, títulos e conteúdos recebem mais acessos para melhorar a curadoria da coleção.

Inteligência artificial: refere-se a uma área de ciência da computação que torna as máquinas capazes de realizarem coisas que exigiriam inteligência cognitiva se realizadas por um ser humano. Inclui tarefas como aprender, ver, falar, socializar e resolver problemas. Não é simplesmente copiar o funcionamento do cérebro humano, neurônio por neurônio. Mas desenvolver máquinas flexíveis capazes de realizar ações que maximizem as chances de sucesso em um objetivo específico.

Bots: conhecidos também como "chatbots" ou "chatterbots". São programas desenvolvidos para automatizar procedimentos, geralmente repetitivos. Auxiliar as pessoas em ações determinadas ou na busca de informações. É um recurso de uso limitado, porque são programados para extrair dados de uma fonte específica. Em alguns casos, são capazes de se integrar aos sistemas usados para aumentar a produtividade. Por exemplo, GrowthBot - um bot para profissionais de marketing - conecta-se com o HubSpot, o Google Analytics e outras fontes para fornecer informações sobre conteúdo na web. Alguns especialistas argumentam que os bots não se qualificam como IA porque dependem fortemente de respostas ou ações pré-carregadas e não podem "pensar" por si mesmos. No entanto, outros entendem que a capacidade dos bots de compreender a linguagem humana é uma aplicação básica de IA.

Ciência cognitiva: é o estudo interdisciplinar da mente e dos seus processos, extraídos dos fundamentos da filosofia, da psicologia, da linguística, da ciência da computação, da antropologia e da neurociência. A inteligência artificial é apenas uma aplicação da ciência cognitiva que analisa como os sistemas da mente podem ser simulados em máquinas. O termo cognitivo se refere aos tipos de pensamento, incluindo aqueles envolvidos na percepção, resolução de problemas, aprendizado, tomada de decisão, uso da linguagem e da experiência emocional.

Visão Computacional: aplicação da aprendizagem profunda (deep learning) para "entender" as imagens digitais. Ver e entender imagens é uma das funções humanas básicas. Para uma máquina ver uma imagem e, em seguida, descreve-la de forma similar à maneira como o olho humano e o cérebro trabalham juntos, é complicado. Cita-se o caso do carro autômato que precisa reconhecer e responder às luzes de sinalização, aos pedestres e outros obstáculos e ocorrências para ser permitida sua operação na estrada. O bibliotecário pode experimentar o recurso da visão computacional, ao usar o Google’s Quick Draw e treinar um sistema no reconhecimento de imagens. A visão computacional é um recurso que deve auxiliar o bibliotecário na indexação de imagens (fixas e em movimentos).

Mineração de Dados: é o processo computacional que agrega e organiza dados encontrando neles padrões, associações, mudanças e anomalias relevantes. A expressão surgiu pela primeira vez em 1990, em comunidades de bases de dado. Exemplo de aplicação encontrado em empresas de comércio eletrônico como a Amazon que faz uso do processo para analisar os dados do cliente e fornecer sugestões de produtos através da caixa "customers who bought this item also bought".

Aprendizagem profunda: é um subconjunto avançado sobre a aprendizagem de máquinas. É improvável que o bibliotecário necessite entender o funcionamento interno desse conceito, basta saber que a aprendizagem profunda pode encontrar padrões complexos em conjuntos de dados usando múltiplas camadas de correlações. Realiza isso simulando a maneira pela qual os neurônios operam em camadas no seu próprio cérebro. É por isso que cientistas da computação se referem a este tipo de aprendizado de máquina como uma "rede neural".

Aprendizado de Máquinas: aprendizado automático ou aprendizagem automática é um subcampo da ciência da computação que evoluiu do estudo de reconhecimento de padrões e da teoria do aprendizado computacional em inteligência artificial. Basicamente, é a capacidade de um programa absorver enormes quantidades de dados e criar algoritmos preditivos. É dito que a IA permite aos computadores aprenderem ao longo do tempo e, provavelmente, aprendam sobre como aprender. Os programas para aprendizado de máquina descobrem padrões em conjuntos de dados que os ajudam a alcançar um objetivo. À medida que analisam mais dados, ajustam os seus comportamentos para atingir seus objetivos de forma ainda mais eficiente. Como a aprendizagem de máquina dá aos computadores capacidade de autoinstrução sem serem explicitamente programados, são descritos como capazes de aprender como uma criança pequena: por experiência própria.

Processamento de Linguagem Natural (NLS): é o campo da ciência da computação e da inteligência artificial preocupado com as interações entre computadores e as línguas humanas (naturais) e, em particular, preocupado com a programação de computadores para processar dados de linguagem natural. É a área que pode tornar os bots mais sofisticados, capazes de entenderem comandos de texto ou de voz. Exemplos: o Siri (assistente pessoal para dispositivos Apple), transpõe a voz para o texto, conduzindo a consulta através de um mecanismo de pesquisa e respondendo de volta na sintaxe humana; a verificação ortográfica em documento do Word; ou o serviço de tradução do Google.

Análise Semântica: um termo relacionado com a linguística para tratar do processo de encadear palavras, orações, frases e parágrafos em uma escrita coerente. Também se refere à construção de linguagem no contexto cultural. Assim, se uma máquina que possui capacidades de processamento de linguagem natural também pode usar a análise semântica, significa que ela pode entender a linguagem humana e extrair dicas contextuais necessárias para entender idiomas, metáforas e outras figuras de linguagem. À medida que aplicativos alimentados por IA avançam em áreas como o da automação de conteúdo, é de se imaginar a utilidade da análise semântica na criação de textos para postagem em blog ou e-books quase indistinguíveis de um conteúdo editado.

Aprendizagem Supervisionada: é um tipo de aprendizado de máquina no qual os seres humanos inserem conjuntos de dados específicos e supervisionam parte do processo. Na aprendizagem supervisionada, os dados da amostra são rotulados e o programa de aprendizagem de máquina recebe um resultado claro para processar. 

Dados de Treinamento: são dados fornecidos ao programa de aprendizado de máquina para "aprender" e identificar padrões. Depois, mais conjuntos de dados de teste são fornecidos ao programa de aprendizado para verificar os padrões de precisão. 

Aprendizagem Não Supervisionada: é um outro tipo de aprendizado de máquina que faz pouco de envolvimento humano. O programa de aprendizagem de máquina é instruído a encontrar padrões e tirar conclusões por conta própria.

A inteligência artificial não é, em si uma caixa preta, e nem uma guilhotina do bibliotecário. Se pode restringir nosso campo de trabalho, também pode expandi-lo e muito, bem como contribuir para inovar nossas práticas e métodos de atuação. Assim como há, nos recursos de IA, conceitos de aprendizado da máquina, bibliotecários devem se manter, permanentemente, atualizados. Aprimorar suas as habilidades e competências para melhor proveito destas inovações tecnológicas.


   271 Leituras


author image
FERNANDO MODESTO

Bibliotecário e Mestre pela PUC-Campinas, Doutor em Comunicações pela ECA/USP e Professor do departamento de Biblioteconomia e Documentação da ECA/USP.