Nas últimas semanas um novo sistema de Inteligência Artificial chamou a atenção pela sua interação e rapidez nas respostas. O ChatGPT virou tema de debates e de uma corrida por novos softwares com a mesma tecnologia. Em entrevista ao RDtv nesta sexta-feira (24/02), o professor dos cursos de Ciência da Computação, Análise e Desenvolvimento de Sistemas, Segurança e Gestão de Tecnologia da Informação, da USCS (Universidade de São Caetano do Sul), Marcelo Mecchi Morales, explicou sobre a nova tecnologia e falou sobre sua segurança e utilização.
Morales deixou claro durante a entrevista que o novo sistema conta com avanços em comparação com outros sistemas de interação por Inteligência Artificial como a Alexa ou mesmo a busca por voz nos celulares, como o Google. O especialista aponta que tal sistema, se usado de maneira correta, terá muito mais resultados positivos do que negativos.
“Não precisamos ter medo dessa tecnologia. Há um tempo atrás teve um irmão do ChatGPT chamado LaMDA, o nome não veio a tona na época, mas ficou famoso o caso do engenheiro da Google que relatou que o sistema da Inteligência Artificial, em que ele estava trabalhando, tinha adquirido consciência. Isso saiu na grande imprensa há alguns meses. Não, isso não acontece, não há esse perigo. A Inteligência Artificial não corre esse risco de adquirir uma consciência. Ela é uma tecnologia, ela será usada conforme o nosso propósito, conforme a nossa finalidade”, explicou.
Segundo o educador, “o princípio do funcionamento de uma IA (sigla para Inteligência Artificial) como essa é baseada em uma pilha de redes neurais e ela procura simular o comportamento de uma rede neural biológica, a nossa rede neural, o nosso cérebro. Ela procura aprender da mesma forma como nós aprendemos também”.
Na própria USCS, o novo sistema já é utilizado em sala de aula para o planejamento de aulas, auxílios em respostas e no estudo em si dos alunos da aula de tecnologia. Porém, Morales aponta que a tecnologia não necessariamente apresenta respostas corretas, pois demanda de “treinamento”, ou seja, da ação humana alimentando o ChatGPT com informações.
Em teste realizado durante a entrevista, o sistema foi questionado pelo professor se “faz maldade?”. “Como um modelo de linguagem não tenho capacidade de fazer maldade. Eu sou apenas um programa de computador desenvolvido para gerar respostas a partir do texto fornecido pelos usuários. Meu propósito é ajudar várias pessoas a obter várias informações e respostas precisas de maneira rápida e fácil, sempre mantendo a ética e a integridade”, respondeu.
A ideia do ChatGPT, segundo Morales, é ser um parceiro do ser humano na busca pelo conhecimento, fato que fez com que o educador não temesse a utilização deste tipo de sistema, principalmente levando em conta a corrida entre as empresas de tecnologia para avançar sobre este tema.