Riconoscimento delle vocalizzazioni dei suini rilevanti dal punto di vista comportamentale per la valutazione del benessere

Yingying Lv, Yuqing Liu, Yuzhen Song, Jianping Wang, Qian Li, Recognising Behaviourally Relevant Pig Vocalisations for Welfare Assessment via a Lightweight Deep Acoustic Model, Applied Animal Behaviour Science, 2026, 106936, ISSN 0168-1591, https://doi.org/10.1016/j.applanim.2026.106936. (https://www.sciencedirect.com/science/article/pii/S0168159126000274)

19-Feb-2026 (1 mesi 29 giorni fa)

Le vocalizzazioni suine contengono informazioni comportamentali che possono fungere da indicatori acustici di eventi e stati fisiologici rilevanti per il benessere e la gestione, inclusi segni respiratori, contesti di stress ad alta stimolazione e recettività alla riproduzione. Questo studio presenta un quadro integrato per il monitoraggio non invasivo a livello di evento delle vocalizzazioni suine comportamentali rilevanti in condizioni di allevamento commerciale.

Materiali e Metodi: Utilizza un modello a bassa massa di riconoscimento del comportamento acustico che classifica le vocalizzazioni suine in quattro categorie etologicamente rilevanti (normale, tosse, estro e urlo-normal, cough, oestrus, and scream). Il modello proposto si basa su una rete di memoria sequenziale feedforward profonda gerarchica con memoria del comportamento (HB-DFSMN), che incorpora un meccanismo di decadimento della memoria gerarchica e una fusione dinamica del contesto temporale per migliorare la modellazione delle caratteristiche acustiche a breve termine e ritmiche.

I coefficienti cepstrali Mel-frequency (MFCC-Mel-frequency cepstral coefficients) vengono utilizzati per rappresentare le caratteristiche vocali tempo-frequenza e il modello include livelli di convoluzione separabile in profondità (DPConv-depthwise separable convolution) per l'efficienza computazionale. Il sistema è stato addestrato e valutato su 4.238 campioni vocali etichettati, raccolti da un allevamento di suini commerciale.

Risultati: I risultati dimostrano che il modello riconosce accuratamente categorie comportamentali distinte con una precisione del 97,7% utilizzando solo 0,81 milioni di parametri. Studi di ablazione hanno ulteriormente confermato che i moduli basati sul comportamento migliorano significativamente il riconoscimento di segnali comportamentali significativi. Consentendo il riconoscimento non invasivo e in tempo reale di queste classi di vocalizzazione, il metodo supporta il monitoraggio degli eventi rilevanti per il benessere e la gestione della salute riproduttiva e respiratoria nell'allevamento di precisione.

Conclusioni: L'interpretazione del benessere dovrebbe essere contestualizzata con eventi di gestione e osservazioni ausiliarie, ove disponibili.