@article {412, title = {Automatische aanmaak van lexica voor spraakherkenning}, year = {2000}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Nijmegen, The Netherlands}, abstract = {

De huidige systemen voor de herkenning van spraak vertrouwen op een aantal kennisbronnen om hun taak uit te voeren. E{\'e}n van die kennisbronnen is het zogenaamde lexicon: dit bevat informatie over de uitspraak van de woorden die de herkenner kan herkennen. Omwille van de eenvoud wordt vaak slechts {\'e}{\'e}n enkele uitspraak per woord opgenomen. Deze benadering strookt helemaal niet met de werkelijkheid en kan leiden tot herkenningsfouten. Het lijkt dan ook logisch om uitspraakvarianten van de woorden in het lexicon op te nemen. Twee vragen dringen zich op: hoe kunnen we die varianten bepalen, en hoe kunnen we ze integreren in het herkenningsproces? Het antwoord op beide vragen wordt gegeven door een nieuwe methode, die uitspraakregels automatisch afleidt uit spraakdata en deze toepast op een referentielexicon om woordmodellen met uitspraakvarianten te produceren. De uitspraakregels volgen uit een vergelijking van "hoe heeft de spreker de woorden werkelijk uitgesproken" en "hoe zal hij ze naar verwachting uitspreken". Door de kennis uit spraakdata te puren, kan niet alleen kwalitatieve maar ook kwantitatieve informatie over de uitspraakvariaties verzameld worden. Dit alles resulteert in een uiterst flexibele, geheel automatische methode die het aantal woordfouten van een herkenner met 10 {\`a} 20\% (relatief) kan terugdringen.

}, author = {Nick Cremelie} }