@article {136, title = {Een audiovisuele spontane emotie-database van gamers}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

TNO Defensie en Veiligheid, Soesterberg Een spontane audiovisuele emotie-database is opgenomen met het doel om automatische emotieherkenners te ontwikkelen. 28 proefpersonen hebben een videospel gespeeld (Unreal Tournament) waarin bepaalde spelelementen zijn gemanipuleerd om emoties uit te lokken. Er zijn spraak- en gezichtsopnamen gemaakt die na afloop door de gamers zelf zijn geannoteerd op emotie. Met deze opgenomen data is een aantal experimenten uitgevoerd. Ten eerste hebben we gekeken naar hoe het aanbieden van uni- of multimodale informatie (bijv. alleen audio, alleen video of beiden) de beoordeling van emotie beinvloedt. Ten tweede hebben we gekeken naar de betrouwbaarheid van de eigen emotiebeoordelingen van de gamers. Het uiteindelijke doel is om automatisch emotie in spraak te detecteren; we zullen voorlopige resultaten van een aantal emotieclassificatieexperimenten laten zien.

}, author = {Khiet Truong and Mark Neerincx and David van Leeuwen} } @article {190, title = {Automatische emotie-detectie in spraak in het project MultimediaN: Multi-Modal Interaction}, year = {2006}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Binnen het project MultimediaN Multi-Modal Interaction doen we o.a. onderzoek naar het automatisch detecteren van emotie in spraak. De laatste jaren wordt er steeds meer gewerkt aan het automatisch detecteren van emotie in spraak, ofwel gezicht, ofwel gebaren en daarbij komt men vaak dezelfde knelpunten tegen. Dit is een van de redenen waarom wij zijn begonnen met het detecteren van gelach. In deze presentatie zal ik iets meer vertellen over de moeilijkheden die gepaard gaan met dit soort emotie onderzoek; hoe komen we aan spontane emotionele spraak data, hoe gaan we emotie annoteren etc. Verder is het van belang dat de classificatie/detectie experimenten goed opgezet worden (classificatie vs. detectie) en dat de ontwikkelde emotie detectoren ook goed ge{\"e}valueerd kunnen worden. Ook zal ik ingaan op een aantal emotie detectie experimenten die we hebben uitgevoerd op een database en wat we van plan zijn om te gaan doen binnen het project.

}, author = {Khiet Truong} } @article {215, title = {Automatische detectie van uitspraakfouten: een akoestisch-fonetische aanpak}, year = {2004}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Om feedback te kunnen geven op de uitspraak van een buitenlander die een vreemde taal leert in een Computer-Aided Language Learning (CALL) omgeving zullen uitspraakfouten automatisch gedetecteerd moeten worden. Een veel gebruikte detectietechniek is die van de "confidence measures"; deze maten worden automatisch berekend met behulp van een automatische spraakherkenner. Een van de grootste nadelen van deze techniek is dat de detectie nauwkeurigheid te laag is. Dat kan te maken hebben met het feit dat "confidence measures" voor alle klanken op dezelfde manier berekend worden; er wordt dus niet gefocused op specifieke eigenschappen van individuele uitspraakfouten.

Wij presenteren een akoestisch-fonetische aanpak waarin we wel specifieke (namelijk akoestisch-fonetische) features gebruiken om uitspraakfouten te detecteren. We zullen ons concentreren op een frequente uitspraakfout in het Nederlands: de niet-stemhebbende velaire fricatief /x/ die foutief wordt uitgesproken als een niet-stemhebbende velaire plosief /k/. Onze experimenten laten zien dat deze akoestisch-fonetische aanpak uitspraakfouten van /x/ kan detecteren met een nauwkeurigheid die hoger is dan die van de "confidence measures".

}, author = {Khiet Truong and Helmer Strik and Catia Cucchiarini and Ambra Neri} }