O que alcançamos
99%
De precisão em identificar Deep Fakes de áudio em português.
Uma arquitetura robusta
Usamos diversas técnicas avançadas de inteligência artificial, como Redes Neurais Convolucionais, Redes Adversárias Generativas e Tranferência de Aprendizado.
180K+
Espectrogramas de áudios usados no treinamento do modelo classificatório.
Um dataset diverso que inclui espectrogramas de áudios naturais e com alterações para aumentar a roustez do modelo.
Esperamos poder ajudar globalmente
Tudo que propomos e produzimos é Open-Source e está disponível nas plataformas GitHub e HuggingFace. Queremos poder incentivar pesquisar futuras na área em qualquer lugar do mundo.