Um assunto quase obrigatório em qualquer conversa séria é, nestes dias, a IA (inteligência artificial) ou AI (Artificial Intelligence).
Confesso
minha ignorância quanto ao que é considerado um produto de IA ou é mais uma
dessas extraordinárias aplicações a que venho sendo apresentado quase
diariamente. Volta e meia, uma surpresa.
Leilah,
minha esposa, e eu tínhamos, havia vários anos, um aparelho de televisão de boa
marca, de bom tamanho, de imagem HD (alta definição) que nos satisfazia. Éramos
(e continuamos sendo) espectadores de cinema, na happy hour, e de futebol (eu)
e de tênis (ambos).
Há uns seis
meses surgiu uma oportunidade de uma compra com pontos gerados por cartão de
crédito e fomos aconselhados a comprar um aparelho de televisão para substituir
o antigo. Orientado por nossa filha e nosso genro, fizemos a aquisição, sabendo
apenas que era uma “televisão esperta”. Nossos conselheiros vieram instalá-la e
fizemos as conexões que já tínhamos com a outra. Constatamos que o tamanho da
tela era o mesmo e a imagem era melhor, mas não conhecíamos todos seus recursos.
Lampeiros,
passamos a usar os aplicativos de cinema, os canais de TV e a conexão com o
Ipad da Leilah.
Depois de
algum tempo, resolvi testar o Alexa (da Amazon), um dos aplicativos oferecidos pelo aparelho. Fiz alguns
comandos e, sabendo da conexão com nossa rede interna (wifi), eu quis verificar
se poderia ler e-books na televisão. Falei bem alto: “Alexa, abra o Kindle”.
“Ela” obedeceu e imediatamente passou a ler o e-book que eu estava lendo no
tablet, exatamente no ponto que eu tinha interrompido. Fiz depois vários testes
com outros livros, e “ela” leu livros em Inglês e Espanhol. Vi, nesta
aplicação, claramente, um software de IA.
Lido, há
muito tempo, com os computadores; no trabalho, fui analista de sistemas,
vendedor, participante em projetos internacionais e consultor; e, na
aposentadoria, sou apenas usuário. Pude, então, observar a constante evolução
do software. Por exemplo, do Word, processador de textos que uso há décadas.
Hoje, ao escrever, podendo escolher tamanho de página, tipo de letra (fonte),
cor, formato de parágrafo, construir índice etc., posso também comandar a
edição (correção do texto, não só ortográfica como gramatical), a tradução do
texto para vários idiomas (tradução básica, mas ajuda) e mais, o que passei a
usar recentemente, posso ditar para o computador e posso pedir ao Word para ler
meu texto. Vejo muita inteligência nesse software.
Fico
admirado, também, com minha proeza de publicar livros, impressos e e-books,
editando-os. Eu, um nonagenário que nunca se envolveu com artes gráficas,
consigo produzir arquivos de texto, devidamente formatados e, até, capas de
livros, atendendo as exigências das gráficas. Na minha preparação do material,
uso, além do Word, o Powerpoint (software de apresentações com recursos
gráficos), o Paint.net (editor de imagem) e o ILovePdf (conversor de arquivos).
No processo de publicação, as gráficas oferecem a visão prévia (eletrônica) do
livro, texto (miolo) e capa. Vejo, também, muita inteligência nesse software
todo.
Quanto
aos aplicativos, disponíveis nos computadores e, especialmente, nos telefones
celulares, aparelhos multifuncionais que tornaram obsoletos vários outros que
nos acompanharam até pouco tempo atrás, a inteligência do software é
extraordinária.
A IA, um
avanço tecnológico que aparenta estar saindo do controle humano é, ao mesmo
tempo, admirado e muito temido pela possibilidade que oferece de todo tipo de
ação criminosa. Para mim, é um avanço extraordinário das tecnologias de informação
e das comunicações, acelerado principalmente pelo processamento eletrônico de
imagens, de movimentos, de reconhecimento de voz e da disponibilidade de uma
base de dados praticamente infinita.
O pouco
que estou sabendo do assunto é da leitura do livro “Inteligência Artificial
para leigos” (“Artificial Intelligence for dummies”) que está servindo para que
minha ignorância não seja total.
Por
enquanto, vejo semelhanças ao que chamamos hoje de Tecnologia da Informação,
que já foi chamada Informática e, antes, Processamento de Dados. Elementos
chave da IA, como a base de dados (e sua análise), os algoritmos e o hardware
especializado são, basicamente, aqueles da Informática que evoluíram vertiginosamente
em abrangência e capacidade.
Rememoro,
agora, a evolução da Informática, que acompanhei de perto.
Minha
iniciação em sistemas de processamento de dados, aconteceu na IBM, em 1959. Fui
admitido pela empresa quando ela contratou profissionais com formação em cursos
universitários de base matemática, necessários para a comercialização no Brasil
dos novos equipamentos de processamento de dados, denominados, então, computadores eletrônicos e, na mídia em geral,
“cérebros eletrônicos”.
A IBM já era
fornecedora no Brasil, havia mais de 40 anos, de equipamento eletromecânico para
o processamento de dados de grandes empresas e organizações governamentais, o que
envolvia grande quantidade de informação e requeria resultados rápidos. Os
dados para o processamento eram enviados pelos vários departamentos para a “Seção
Mecanizada” em documentos escritos manualmente ou datilografados. À
vista desses documentos, esses dados eram registrados em cartões de cartolina
especial mediante perfurações, por operadoras (eram mulheres na maior parte dos
casos) de máquinas com teclado semelhante ao de máquinas de escrever. A seguir,
eram levados por outros operadores a cada uma das máquinas do conjunto (que não
eram interligadas), para serem processados. O processamento consistia na
preparação necessária dos dados (organização, cálculos, intercalação com cartões
de cadastros) e, finalmente, na obtenção dos documentos e relatórios impressos.
Portanto, a passagem dos dados de uma
máquina para outra era humana, por transporte dos cartões. Os
cálculos e decisões lógicas necessárias eram realizadas pelas máquinas, seguindo comandos especificados em seus painéis de controle, devidamente
preparados por operadores seniores. Eram aplicações, portanto, da inteligência
humana, tanto na construção do hardware como nos comandos dos painéis.
Com a
evolução da tecnologia, as máquinas eletromecânicas isoladas foram substituídas
por máquinas eletrônicas interligadas por cabos. Basicamente, a unidade central
de processamento e as unidades de entrada e saída de dados (leitora e
perfuradora de cartões, unidades de fitas e discos magnéticos, e impressoras). Inicialmente,
os computadores utilizavam válvulas, a seguir circuitos impressos e, depois, “chips”
(pastilhas de silício com microcircuito integrado). Quando a IBM lançou o seu
sistema IBM/360, em 1964, os chips tinham o tamanho da unha de um polegar de
adulto; hoje, aperfeiçoados, os chips são diminutos e têm capacidade muito
maior.
Quanto à
entrada de dados, os cartões perfurados continuaram em uso por muito tempo, até
serem totalmente substituídos por digitação em terminais das redes de
computadores. Os dados de arquivos passaram a ser registrados em rolos de fitas
magnéticas e discos magnéticos, principalmente. As impressoras, ligadas ao
computador, foram dispensadas de tabulações e aperfeiçoadas, com novos dispositivos, na velocidade de impressão e na extensão de uso de letras
minúsculas e caracteres especiais.
Os
comandos de painéis foram substituídos por instruções de programas com uma
vantagem imensa de recursos de operações matemáticas e lógicas. Os programas,
inicialmente em “linguagem de máquina”, passaram a ser feitos em linguagens simbólicas,
possibilitando maior produtividade e qualidade dos programas e a execução de
aplicações sofisticadas.
Concomitantemente, o desenvolvimento das comunicações permitiu o teleprocessamento, ou seja, o processamento à distância mediante terminais; inicialmente, unidades com teclado e um visor, sem processamento próprio, depois substituídos por microcomputadores. O teleprocessamento das empresas era interno, mas se estendia a diferentes locais por linhas telefônicas. Finalmente, com a criação da Internet, o teleprocessamento se estendeu a toda a população do globo terrestre.
Ao longo dessa evolução, pode-se observar claramente a transferência de ações e decisões humanas para as máquinas, com ganhos extraordinários em precisão e rapidez. Entretanto, permanece a necessidade de fornecer informações aos computadores, seja de forma manual ou por aparelhos; os programas, aplicativos e algoritmos precisam ser preparados; a base de dados tem de ser construída e atualizada, os equipamentos de computação e de comunicações precisam ser aperfeiçoados e mantidos, de forma que os resultados do processamento devam servir aos objetivos. Vejo muita dependência, ainda, da inteligência humana, no software e no hardware.
Está
havendo um esforço para a construção de uma rede eletrônica de neurônios que
tenha a mesma capacidade do cérebro humano. Já está se falando em AAI (“Autonomous
Artificial Intelligence”).
Contudo, entendendo que, por mais que se consiga avançar na IA, sempre será uma criação do “homo sapiens”, repito o que declarei numa reunião de amigos: “Se a inteligência é artificial, é resultado do trabalho do artífice.”
Washington
Luiz Bastos Conceição
Notas:
- O criador do cartão IBM foi Hermann Hollerith, um empresário norte-americano nascido em 1860. Seu sobrenome foi utilizado em São Paulo, por muitos anos, como denominação do cheque de pagamento ao pessoal em empresas e outras organizações.
- O livro “Inteligência Artificial Para Leigos” é de autoria de John Paul Mueller e Luca Massaron. Alta Books. Edição do Kindle.
- Quando o livro entra em detalhes, como na técnica de construção de algoritmos, usando novo jargão e novos tipos de diagramas (sou do tempo dos fluxogramas e diagramas de blocos), passo a outro capítulo.