Renan Paiva Oliveira Costa, Diego Damasceno Bispo da Silva, Samuel De Moura Moreira, Daniel Faustino Lacerda de Souza, R. Costa, Tiago Maritan Ugulino de Araújo
{"title":"评估深度学习模型在自动手语翻译中的应用","authors":"Renan Paiva Oliveira Costa, Diego Damasceno Bispo da Silva, Samuel De Moura Moreira, Daniel Faustino Lacerda de Souza, R. Costa, Tiago Maritan Ugulino de Araújo","doi":"10.18265/2447-9187a2022id8053","DOIUrl":null,"url":null,"abstract":"Os modelos recentes de Neural Machine Translation (NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações. Alguns trabalhos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes recursos no que diz respeito à disponibilidade de dados e recursos computacionais. Nesse contexto, o objetivo geral deste estudo foi explorar métodos modernos de NMT e analisar a sua potencial aplicabilidade em contextos de poucos recursos, como é o caso das línguas de sinais. Para uma melhor avaliação, foram adaptados e utilizados alguns modelos promissores identificados no componente de tradução automática da Suíte VLibras e os resultados obtidos foram comparados com aqueles atualmente fornecidos pela atual arquitetura LightConv, sendo utilizado o mesmo corpus bilíngue Português-LIBRAS de treinamento e validação com mais de 70.000 sentenças geradas por linguístas, um dos maiores desse tipo disponíveis no mundo. Os resultados indicam que a adoção de uma das duas arquiteturas de melhor desempenho (Basic Transformer ou ByT5) ajudaria a melhorar a precisão e a qualidade da tradução da Suite VLibras, com um aumento percentual de até 12,73% considerando a métrica BLEU.","PeriodicalId":21386,"journal":{"name":"Revista Principia - Divulgação Científica e Tecnológica do IFPB","volume":" 10","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-01-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Avaliação do uso de modelos de aprendizagem profunda na tradução automática de línguas de sinais\",\"authors\":\"Renan Paiva Oliveira Costa, Diego Damasceno Bispo da Silva, Samuel De Moura Moreira, Daniel Faustino Lacerda de Souza, R. Costa, Tiago Maritan Ugulino de Araújo\",\"doi\":\"10.18265/2447-9187a2022id8053\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Os modelos recentes de Neural Machine Translation (NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações. Alguns trabalhos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes recursos no que diz respeito à disponibilidade de dados e recursos computacionais. Nesse contexto, o objetivo geral deste estudo foi explorar métodos modernos de NMT e analisar a sua potencial aplicabilidade em contextos de poucos recursos, como é o caso das línguas de sinais. Para uma melhor avaliação, foram adaptados e utilizados alguns modelos promissores identificados no componente de tradução automática da Suíte VLibras e os resultados obtidos foram comparados com aqueles atualmente fornecidos pela atual arquitetura LightConv, sendo utilizado o mesmo corpus bilíngue Português-LIBRAS de treinamento e validação com mais de 70.000 sentenças geradas por linguístas, um dos maiores desse tipo disponíveis no mundo. Os resultados indicam que a adoção de uma das duas arquiteturas de melhor desempenho (Basic Transformer ou ByT5) ajudaria a melhorar a precisão e a qualidade da tradução da Suite VLibras, com um aumento percentual de até 12,73% considerando a métrica BLEU.\",\"PeriodicalId\":21386,\"journal\":{\"name\":\"Revista Principia - Divulgação Científica e Tecnológica do IFPB\",\"volume\":\" 10\",\"pages\":\"\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2024-01-12\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Revista Principia - Divulgação Científica e Tecnológica do IFPB\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.18265/2447-9187a2022id8053\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Revista Principia - Divulgação Científica e Tecnológica do IFPB","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.18265/2447-9187a2022id8053","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Avaliação do uso de modelos de aprendizagem profunda na tradução automática de línguas de sinais
Os modelos recentes de Neural Machine Translation (NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações. Alguns trabalhos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes recursos no que diz respeito à disponibilidade de dados e recursos computacionais. Nesse contexto, o objetivo geral deste estudo foi explorar métodos modernos de NMT e analisar a sua potencial aplicabilidade em contextos de poucos recursos, como é o caso das línguas de sinais. Para uma melhor avaliação, foram adaptados e utilizados alguns modelos promissores identificados no componente de tradução automática da Suíte VLibras e os resultados obtidos foram comparados com aqueles atualmente fornecidos pela atual arquitetura LightConv, sendo utilizado o mesmo corpus bilíngue Português-LIBRAS de treinamento e validação com mais de 70.000 sentenças geradas por linguístas, um dos maiores desse tipo disponíveis no mundo. Os resultados indicam que a adoção de uma das duas arquiteturas de melhor desempenho (Basic Transformer ou ByT5) ajudaria a melhorar a precisão e a qualidade da tradução da Suite VLibras, com um aumento percentual de até 12,73% considerando a métrica BLEU.