São Paulo, capital 12/7/2024 – “É necessário cuidado com o que se compartilha em um chatbot generativo”, diz o especialista Fernando Giannini
Segundo levantamento, porém, crença é de que a IA já é bastante utilizada, e proibição não adiantaria. Consultor alerta: proibir não é o caminho. Uso responsável, sim
Com o avanço das inteligências artificiais (IA), a Statista, plataforma alemã de inteligência de dados, levantou, entre agosto e setembro de 2023, a percepção da população dos Estados Unidos sobre o uso de ferramentas baseadas em IA por estudantes em seus trabalhos. Quando questionados sobre a frequência com que eles deveriam utilizar esse tipo de tecnologia, os entrevistados deram a entender que a aplicação deve ser evitada. As respostas que apontam que o uso de IA deve ser feito “nunca”, “raramente” ou só “às vezes”, somadas, representam 76% da amostra.
A pesquisa coletou informações junto a 1000 pessoas a partir de 18 anos, por meio de questionário on-line. Quando questionadas sobre qual seria a frequência de uso de IA entre estudantes, caso o recurso fosse proibido em trabalhos acadêmicos, essas pessoas acreditam que esse uso pouco diminuiria. A frequência seria reduzida em apenas 2%, em relação ao que percebem como o usual entre estudantes.
Debruçado sobre essas impressões norte-americanas, o brasileiro Fernando Giannini, autor do livro Chat GPT – Modos de pensar as relações com inteligências artificiais (2023, Streammer Educação e Tecnologia) e consultor em IA e Educação, entende que proibir ou evitar o uso de inteligência artificial por estudantes não é a questão. É necessário fazê-los entender com o que estão lidando. “Proibir não é o caminho. Orientar para o uso responsável, sim”, enfatiza o especialista.
Para Giannini, é preciso um aculturamento, entender como a máquina aprende e os contratos estabelecidos no uso de uma IA. Um educador esclarecido no assunto deve treinar para que a aplicação seja responsável e verdadeiramente proveitosa “No caso da IA generativa, é preciso que se explique, por exemplo, as implicações autorais e que o tratamento dos dados imputados na ferramenta não é claro”, entende.
“Portanto, é necessário cuidado com o que se compartilha em um chatbot generativo”, menciona o consultor, sobre dados sensíveis, produções inéditas e outros tantos conteúdos que podem ter sua propriedade questionada no futuro.
Por outro lado, as informações fornecidas pela IA não são totalmente confiáveis. “A base de dados é limitada e a máquina aprendeu a ‘criar’ respostas, quando as informações não constam em sua base”, destaca.
Outra questão importante é que as inteligências artificiais são predominantemente norte-americanas ou europeias e os resultados de pesquisas ou solicitações feitas em um chatbot, por exemplo, podem ser cultural e historicamente enviesados para uma visão de mundo predominante na Europa ou nos EUA, criando uma hegemonia estética e intelectual.
“É preciso massa crítica para usar uma IA, caso contrário, estaremos reféns de (ou endossando) conteúdos equivocados, incompletos ou totalmente fora de nosso contexto culltural”, finaliza Giannini.
Website: https://www.linkedin.com/in/gianninifernando/
Os novos kits requerem baixa quantidade de amostra e oferecem mais flexibilidade e desempenho para…
A Güntner, líder global em tecnologia de refrigeração e troca de calor, dá hoje as…
A Digital Cooperation Organization( DCO) concluiu sua participação na Cúpula do Futuro da ONU antes…
Michael Toh traz mais de 20 anos de liderança e experiência relevante no setor para…
Hoje, a Crayon anunciou que irá trabalhar com a Amazon Web Services (AWS), uma empresa…
Liderando o caminho da Revolução Multi-X, a Kymeta Goshawk u8, uma antena híbrida GEO-LEO, está…