Show simple item record

dc.contributor.advisorRecamonde-Mendoza, Marianapt_BR
dc.contributor.authorMercado, Luis Augusto Weberpt_BR
dc.date.accessioned2022-02-26T04:56:07Zpt_BR
dc.date.issued2021pt_BR
dc.identifier.urihttp://hdl.handle.net/10183/235482pt_BR
dc.description.abstractOne way to address guinea pigs (Cavia porcellus) internal state on a behaviour of inter est (e.g., elicit mother retrieval when isolated) is through the quantitative and qualitative analysis of vocalizations emitted by them. Researchers usually annotate these vocaliza tions for further counting and characterization using visual cues (spectrograms) generated from experiment recordings. This process demands time, effort and attention from these individuals. This work proposes a Machine Learning model for annotating these vocal izations – a fundamental step in both of these analysis types – in raw waveforms with no further human effort by using previously annotated recordings as base knowledge. Au dibleSincNet, the proposed model, overcomes the spectrogram-threshold based approach on the task of vocalization detection when trained using a manually annotated dataset with ~5.5 hours and evaluated on a separated test set with 1.5 hours of experiment recordings.en
dc.description.abstractUma maneira de avaliar o estado interno de Porquinhos-da-Índia (Cavias porcellus) com respeito a um comportamento – como incentivar o resgate da mãe quando isolado – se dá pela análise quantitativa e qualitativa das vocalizações emitidas pelos mesmos. Essas vocalizações são comumente anotadas por pesquisadores para futura contagem e caracterização destas. Para isso, um espectrograma gerado a partir de gravações dos experimentos é interpretado, processo este que demanda tempo, esforço e atenção desses indivíduos. Esse trabalho propõe um modelo de Aprendizado de Máquina para a anotação automática dessas vocalizações – um processo fundamental para ambos os tipos de análise – em formas de onda brutas, usando gravações previamente anotadas, sem a necessidade de esforço destes pesquisadores. O modelo proposto, AudibleSincNet, supera o modelo baseado em análise de espectrograma na tarefa de detectar vocalizações quando treinado em um conjunto de dados com aproximadamente 5.5 horas e avaliado em um conjunto de dados separado para teste com 1.5 horas de gravações de experimentos.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.language.isoengpt_BR
dc.rightsOpen Accessen
dc.subjectAprendizado de máquinapt_BR
dc.subjectCavia porcellusen
dc.subjectVocalizationsen
dc.subjectVocalização animalpt_BR
dc.subjectAudioen
dc.subjectRaw waveformsen
dc.subjectCnnen
dc.subjectSincen
dc.titleDetection of infant guinea pig vocalizations using machine learningpt_BR
dc.title.alternativeDetecção de vocalizações de filhotes de porquinhos-da-índia usando aprendizado de máquina en
dc.typeTrabalho de conclusão de graduaçãopt_BR
dc.contributor.advisor-coDietrich, Marcelo de Oliveirapt_BR
dc.identifier.nrb001137708pt_BR
dc.degree.grantorUniversidade Federal do Rio Grande do Sulpt_BR
dc.degree.departmentInstituto de Informáticapt_BR
dc.degree.localPorto Alegre, BR-RSpt_BR
dc.degree.date2021pt_BR
dc.degree.graduationCiência da Computação: Ênfase em Engenharia da Computação: Bachareladopt_BR
dc.degree.levelgraduaçãopt_BR


Files in this item

Thumbnail
   

This item is licensed under a Creative Commons License

Show simple item record