@article {310, title = {Analyse en visualisatie van de relatie tussen fonetische en geografische afstanden}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

In dialectonderzoek kijken we vaak naar niet taalkundige, externe factoren voor de verklaring van interne variatie van het taalsysteem. Een typisch voorbeeld is het effect dat natuurlijke grenzen hebben op dialectvariatie. Weijnen (1937) bijvoorbeeld bespreekt het effect van moerasgebieden op de dialectvariatie in de provincie Brabant. Aangezien reizen door de moerasgebieden in het zuidoosten van Brabant onmogelijk was, houdt Weijnen deze gebieden verantwoordelijk voor enkele van de belangrijkste dialectgrenzen in Brabant. Hinskens, Kallen \& Taeldeman (2000) hebben gekeken naar het belang van sociaal geconstrueerde grenzen: "The influence of socially constructed borders on the dialect landscape, especially those that reflect political, economic, or ecclesiastic boundaries, is often assumed to be minor compared to the influence of natural borders. However, upon closer consideration, European state borders cutting across old dialect continua sometimes appear to have significant impact on dialect change". Het laatstgenoemde type effect is door Heeringa et al. (2000) en Giesbers (2008) onderzocht voor het grensgebied tussen Nederland en Duitsland. Het gebied waar Heeringa et al. in ge{\"\i}nteresseerd waren, ligt ten noorden van de Rijn, rond de Duitse stad Bentheim. Giesbers onderzocht het Kleverlands dialectgebied dat ten zuiden van de Rijn ligt. Noordelijk van de Rijn werd de Nederlands-Duitse grens al bepaald in 1648 terwijl de grens in het Kleverlands gebied, ten zuiden van de Rijn, pas na 1815 werd bepaald. Dit dialectgebied was een perfect dialectcontinu{\"u}m zonder enige natuurlijke of politieke grenzen, maar recent op perceptieve gegevens gebaseerd onderzoek toont duidelijk een breuk in dit continu{\"u}m langs de grens. De verschillen tussen de dialecten binnen Nederland of Duitsland worden als veel kleiner waargenomen dan de verschillen tussen de Duitse en Nederlandse dialecten onderling (Giesbers 2008).

In onze lezing gaan we in op de vraag of ook de feitelijke dialectgegevens de hypothese ondersteunen dat de staatsgrens tot een taalkundige grens heeft geleid tussen de Nederlandse en Duitse dialecten in het Kleverlands gebied. De data bestaan uit fonetische transcripties van dialectwoorden voor 100 begrippen/concepten. Op basis van deze transcripties hebben we fonetische afstanden berekend tussen tien grensdialecten. De relatie tussen de geografische afstanden in het gebied en de fonetische afstanden visualiseren we vervolgens in 3D.

Referenties

}, author = {Folkert de Vriend and Jan Pieter Kunst and Roeland van Hout} } @article {312, title = {De "Gooise" /r/ en /r/-allofonie in het Nederlands}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

Sinds de jaren {\textquoteright}90 van de vorige eeuw (Van den Toorn 1992; Van de Velde 1996; Stroop 1998) staat de {\textquoteleft}Gooise{\textquoteright} /r/ in de belangstelling van taal- en spraakwetenschappers. Daarvoor was de term al bekend in het dagelijkse spraakgebruik, en van commentatoren in (vaak negatief getoonzette) krantenkolommen. Ondanks de wetenschappelijke en populaire aanvaarding van de term is er nog steeds veel onbekend over de bijbehorende /r/-variant, zoals wat zijn precieze fonetische eigenschappen zijn. Wat dat betreft spreken taalkundigen elkaar tegen als ze beweren dat de {\textquoteleft}Gooise{\textquoteright} /r/ alveolair (Gussenhoven 1992), retroflex (Stroop 1998), pre-velair (Collins \& Mees 1996) of zelfs uvulair (Van Oostendorp 2008) is.

Een corpus van echografische opnames van jonge vrouwelijke spreeksters van het Standaardnederlands toont aan dat er meerdere articulatiewijzen van /r/ mogelijk zijn voor vergelijkbare akoestische resultaten. De {\textquoteleft}Gooise{\textquoteright} /r/ heeft een variabele articulatiewijze, en verschilt in die zin niet enorm van de Amerikaanse /r/, zoals ge{\"\i}llustreerd door de echo-opnamen van Gick (2003) en al veel langer bekend uit Delattre{\textquoteright}s (1965) R{\"o}ntgenopnamen. Waar het Nederlands echter sterk verschilt van de Amerikaanse data is in de allofonische patronen van individuele sprekers: de {\textquoteleft}Gooise{\textquoteright}, approximantische /r/ wordt door sommige sprekers gecombineerd met een prevocalische variant een articulatorische connectie met de postvocalische lijkt te ontberen. Deze uitkomst heeft gevolgen voor op articulatorische kenmerken gebaseerde fonologische theorie{\"e}n, zoals Articulatory Phonology (Browman \& Goldstein 1986 et seq.).

Referenties

}, author = {Koen Sebregts} } @article {312, title = {De ontwikkeling van het tooncontrast in Limburgse dialecten}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, author = {Carlos Gussenhoven} } @article {312, title = {Drie labiodentalen op een rij: kan dat wel?}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

Er zijn heel wat talen in de wereld die zoals Engels en Frans aan woordbegin de labialen /w/ - /v/ - /f/ kennen. In die talen is de /w/ een bilabiaal die tegenover de labio-dentale /f/ en /v/ staat. Zo ook in het Belgisch-Nederlands, het Limburgs in Nederland en het Surinaams-Nederlands. In de rest van Nederland is echter wat anders aan de hand. Daar zijn dialecten te vinden waarin /w/ - /v/ - /f/ alledrie labiodentaal worden uitgesproken, b.v. in:

Voorzover mij bekend zijn die dialecten hierin (vrijwel) uniek. Ladefoged \& Maddieson (1996: 140-141, 322-325) melden alleen /w2/ (om de labiodentaal voortaan zo aan te duiden) en /v/ in Isoko (Uzere dialect; Niger-Kordofanian, Nigeria), maar zonder de /f/ te noemen.

Drie labiodentalen op een rij is ook voor vele dialecten in Nederland teveel van het goede, en die hebben de zaken daarom vereenvoudigd, maar niet als in het BelgischNederlands. Ze hebben van de /v/ een /f/ gemaakt, met als resultaat de oppositie /w2/ - /f/. De Friese dialecten lopen hierin voorop. Ook het Afrikaans heeft dit systeem.

Vergelijking van kaart 194 wijn en kaart 107b verf in FAND IV laat zien dat [w2] en [v] slechts in een minderheid aan dialecten lijken samen te gaan. Verf heeft in het grootste deel van Nederland massaal [f] aan het begin. Toch is dat effect weer minder duidelijk op kaart 107a vis met relatief veel [v].

Tussen het Belgisch-Nederlands met [w] {\textendash} [v] {\textendash} [f] en het Nederlands/Fries met [w2] {\textendash} [f] zitten allerlei gradaties. Nader onderzoek van de GTRP-gegevens brengt er een aantal aan het licht. Wat is de plaats van zulke graduele verschijnselen in de fonologische theorie?

Referenties

}, author = {Pieter van Reenen} } @article {136, title = {Een audiovisuele spontane emotie-database van gamers}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

TNO Defensie en Veiligheid, Soesterberg Een spontane audiovisuele emotie-database is opgenomen met het doel om automatische emotieherkenners te ontwikkelen. 28 proefpersonen hebben een videospel gespeeld (Unreal Tournament) waarin bepaalde spelelementen zijn gemanipuleerd om emoties uit te lokken. Er zijn spraak- en gezichtsopnamen gemaakt die na afloop door de gamers zelf zijn geannoteerd op emotie. Met deze opgenomen data is een aantal experimenten uitgevoerd. Ten eerste hebben we gekeken naar hoe het aanbieden van uni- of multimodale informatie (bijv. alleen audio, alleen video of beiden) de beoordeling van emotie beinvloedt. Ten tweede hebben we gekeken naar de betrouwbaarheid van de eigen emotiebeoordelingen van de gamers. Het uiteindelijke doel is om automatisch emotie in spraak te detecteren; we zullen voorlopige resultaten van een aantal emotieclassificatieexperimenten laten zien.

}, author = {Khiet Truong and Mark Neerincx and David van Leeuwen} } @article {134, title = {Een menselijke benchmark voor automatische taalherkenning}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Automatische taalherkenning heeft als doel het herkennen van de taal die gesproken wordt in een spraakfragment. Regelmatig worden wereldwijd systemen langs de lat gelegd in benchmark evaluaties, uitgevoerd door het Amerikaans NIST, en systemen worden steeds beter. Maar hoe goed kunnen mensen dat eigenlijk? En hoe meet je zoiets, en waar hangen de prestaties van af? We willen de resultaten presenteren van een onderzoek dat we bij het International Computer Science Institute in Berkeley en het University College Utrecht hebben uitgevoerd. En mensen doen het zo gek nog niet{\textendash}-als ze de taal in kwestie een beetje kennen.

}, author = {Rosemary Orr and David van Leeuwen} } @article {145, title = {Het modelleren van subtiele fonetische informatie in een computationeel model van menselijke woordherkenning}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

In de afgelopen jaren hebben verschillende psycholingu{\"\i}stische experimenten laten zien dat luisteraars al voor het einde van {\textquoteleft}ham{\textquoteright} weten of de spreker het broodbeleg bedoelt of het huisdiertje. Maar hoe komt het dat mensen " in ieder geval in het laboratorium " in staat zijn om de grenzen tussen woorden zo snel en trefzeker te vinden dat ze al verschil kunnen maken tussen de woorden {\textquoteright}ham{\textquoteright} en {\textquoteright}hamster{\textquoteright} voor het einde van de {\textquoteright}ham{\textquoteright}?

Het blijkt dat er subtiele fonetische informatie in het spraaksignaal zit die aangeeft of het einde van een woord in aantocht is of niet. Het is al langer bekend uit fonetisch onderzoek dat er in laboratoriumspraak (onder andere) subtiele verschillen in duur zijn die samenhangen met het aantal lettergrepen dat nog volgt tot aan het einde van het woord. Luisteraars blijken deze informatie dus te kunnen gebruiken tijdens het luisteren naar spraak. Maar hoe doen luisteraars dat nu eigenlijk?

Om een verklaring te vinden voor hoe mensen dat doen gebruiken wij in dit onderzoek een computermodel van de verwerking van spraaksignalen en de opslag van woorden in ons brein. De meest invloedrijke computationele modellen van auditieve woordherkenning kunnen echter deze subtiele fonetische informatie niet representeren en dus ook niet gebruiken tijdens woordherkenning. Wij presenteren een nieuw computationeel model, Fine-Tracker, dat dit wel kan. Fine-Tracker is een computermodel dat is ontwikkeld met gebruikmaking van technieken uit de automatische spraakherkenning en heeft net als automatische spraakherkensystemen echte spraak als input. Op deze manier slaat dit onderzoek een brug tussen de onderzoeksgebieden van de automatische spraakherkenning en de psycholingu{\"\i}stiek.

}, author = {Odette Scharenborg} } @article {311, title = {Klankverandering in Nederlandse dialecten: 1874 versus 1996}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

In 1874 publiceerde Johan Winkler zijn Algemeen Nederduitsch en Friesch dialecticon, een tweedelig werk met daarin 186 vertalingen van de gelijkenis van {\textquoteright}de verloren zoon{\textquoteright} in dialecten in Nederland, het noorden van Belgi{\"e} en het westen van Duitsland. In 1996 werd het werk van Winkler herhaald door Harrie Scholtmeijer. Hij verzamelde 81 vertalingen van de parabel in dialecten in Nederland. 74 van deze plaatsen zijn ook in het werk van Winkler vertegenwoordigd. Heeringa \& Nerbonne (2000) gebruikten het materiaal van Winkler en Scholtmeijer om dialectverandering te meten, en om convergentie en divergentie tussen dialecten vast te stellen (Auer et alii 2005). Van de 74 vari{\"e}teiten die in beide corpora voorkomen kozen H\&N er 42 {\textendash} inclusief Standaardnederlands en Standaardfries {\textendash} en converteerden de orthografische transcripties naar {\textendash} tamelijk brede {\textendash} fonetische transcripties. Zij maten uitspraakafstanden tussen dialecten en ten opzichte van het Standaardnederlands. Uitspraakafstanden werden gemeten met de Levensthein afstand (d.i. een tekenreeksbewerkingsafstand).

De manier waarop dialectverandering van invloed kan zijn op het gesproken taalgebruik wordt uitgebreid besproken door Hoppenbrouwers (1990): door de invloed van het Standaardnederlands en door wederzijdse be{\"\i}nvloeding gaan dialecten meer op elkaar lijken en versmelten gaandeweg tot grotere gehelen, aangeduid als {\textquoteleft}regiolecten{\textquoteright}. In dit verband komen minstens vier vragen op. Allereerst, welke dialecten convergeren naar het Standaardnederlands? Deze vraag is al beantwoord door Heeringa \& Nerbonne (2000). Vervolgens, welke dialecten convergeren naar naburige dialecten zodat regiolecten ontstaan? We willen deze vraag beantwoorden en proberen te verklaren waarom sommige dialecten wel convergeren met aangrenzende dialecten, en anderen juist niet. Een derde vraag is of de gegevens uit 1996 grotere dialectgroepen suggereren dan de gegevens uit 1874. Om deze vraag te beantwoorden worden de dialecten geclassificeerd op basis van zowel de gegevens uit 1874 als op basis van de gegevens uit 1996. We verwachten dat het aantal natuurlijke groepen in 1996 kleiner is dan in 1874. Ten slotte maken we een inventarisatie van de meest frequente klinkerveranderingen die niet het gevolg kunnen zijn van {\textquoteright}vernederlandsing{\textquoteright} en bekijken inhoeverre die stroken met de principes die werden voorgesteld door Labov (1994).

Referenties

}, author = {Wilbert Heeringa and Frans Hinskens} } @article {312, title = {Klankverschuiving versus morfo-fonologische structuur: diffusie van spontane palatalisatie [u]>[y] en umlaut in Oostelijke dialecten}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

Het latere oud-germaans onderging een radicale herstructurering van de klinkerinventaris met de introductie van een nieuwe serie van ronde voorklinkers, waarschijnlijk ongeveer tussen de 6de en 8ste eeuw (Grimm 1822). Deze nieuwe klinkerreeks (nog afwezig in het Gotisch) is wel toegeschreven aan Keltische substraatwerking maar ook aan taalinterne processen van push-chain om oplossing te bieden aan de overbezetting van het [achter]-domein van de klankruimte (Labov 2007). In weerwil van de globale gelijkenis van het fonologische systemen van het nieuwere continentale Germaans, is deze nieuwe serie in het taalsysteem ge{\"\i}ncorporeerd op tenminste twee manieren die ruimtelijk van elkaar gescheiden waren: 1. als een voorwaardelijke verandering ("secundaire umlaut") in ruwweg de vari{\"e}teiten van het hedendaagse Duitse grondgebied en de grensdialecten waarbij [u] tot [y] overging onder invloed van [i], en 2. als een over de gehele breedte opererende klankverschuiving van spontane palatalisatie van lange klinkers in taalvariaties op ruwweg het hedendaagse Nederland, [u:]\>[y:]. Voor het interne mechanisme van secundaire umlaut wordt oncontroversieel een umlaut-factor aangenomen in onbeklemtoonde lettergrepen. Een mogelijk taalintern scenario is dat de umlautfactor een licht gefronte allofoon van de voorafgaande achterklinker veroorzaakte, welke fronting fonemische status kreeg na reductie en afval van de umlautfactor (Sheter 1958), waarschijnlijk als onderdeel van een deflectieprocess in de laat Oud-germaanse periode. Omtrent het mechanisme van spontane palatalisatie is veel minder eenstemmigheid. Ondanks de mogelijke kritiek op een push-chain scenario (Goeman) is voorshands geen goed alternatief voor spontane palatalisatie voorhanden. Opmerkelijk is wel dat deze tweede verandering vatbaar is voor de sociologische dimensie. Deze spont. pal. diffundeert van west naar oost (Kloeke 1927, Van Reenen 1992) en heeft inmiddels het gebied van umlaut bereikt. In deze presentatie zullen we nagaan wat er op het grensvlak (grens Salland-Twente) gebeurt.

Referenties

}, author = {Gertjan Postma} } @article {309, title = {Large Scale Pronunciation Comparison}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

For many reasons it is desirable to be able to measure the phonetic (dis)similarity of two pronunciations automatically. While most dialectology and sociolinguistics focuses on single "shibboleths", large-scale comparison holds the promise of including much more material, of assessing the importance of single differences, and perhaps even allowing the formulation of general laws. But it requires automatic procedures to be feasible.

In this talk we sketch two approaches and problems in the research program aiming to measure pronunciation dissimilarity automatically. One approach is to measure dissimilarity based on phonetic transcriptions. While this risks "carrying" transcriber errors, it benefits from the implicit focus on the phonetic quality on the part of the transcribers. A puzzle at present is the question of how to include more phonetic sensitivity into the measurements. Current attempts fail, perhaps because the large numbers compensate sufficiently for missing sensitivity, but perhaps for other reasons as well.

The second approach is try to work on acoustic material directly, obviating the need for transcription. But this approach quickly requires techniques for abstracting phonetic quality from waveform, which, as phoneticians know, is no trivial task. Formant measurements need to be hand-corrected and is therefore not a suitable method if large amounts of data are to be analyzed. We use principal component analysis on the Bark-filtered spectra of vowels, which is an acoustic method that can be fully automatized. Normalizing for speaker-dependent variation becomes important when working directly with acoustic data. We average over a number of speakers per dialect in order to even out these speaker-specific differences. Subsequently Euclidean distance is used to measure the distance between vowels in different dialects.

}, author = {Therese Leinonen and John Nerbonne} } @article {139, title = {Leren en doceren van klinkers}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

L2 sprekers van het Nederlands hebben veelal grote problemen met de klinkers. Blijkbaar zijn wij niet (langer) in staat die te doceren. Hetzelfde geldt trouwens voor L2 (i.c. Engels) sprekende Nederlanders.

Uitgaande van Catford (1988) hoofdstuk 7-8 en Van Buuren (1993) hoofdstuk 7-9 (op Linguavox.nl/klinkers) wil ik weer eens Daniel Jones{\textquoteright} Cardinal Vowel benadering onder de aandacht brengen en enkele verbeteringen en verfijningen voorstellen.

}, author = {Lucas van Buuren} } @article {132, title = {Meer stemmen voor Nederlandse spraaksynthese}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

In mijn bijdrage van vorig jaar heb ik een overzicht gegeven van de nieuwe spraaksynthesizer van Fluency, toen nog volop in ontwikkeling. Inmiddels is de software verder ontwikkeld, en voorzien van zeven levendige, levensechte stemmen: drie mannen, twee vrouwen, en twee tieners (een jongen van 13 en een meisje van 16).

Bijzonder aan de nieuwe synthesizer is dat het betrekkelijk eenvoudig is een nieuwe stem te maken. De spreker moet een corpus inspreken dat bestaat uit 387 woorden en 387 zinnen (totaal 774 items). Elk item wordt door de spraaksynthese voorgezegd, en de spreker moet dit vrij precies nazeggen, met name wat betreft pauzes. De opnames kunnen door Fluency grotendeels automatisch worden omgezet in een spraakdatabase voor de synthesizer.

De software om het corpus op te nemen is vrij beschikbaar, en het opnemen van een nieuwe stem vereist geen grote investeringen in hardware: met een usb-microfoon en een notebook kan al een goede kwaliteit bereikt worden.

In deze bijdrage wil ik nader ingaan op de mogelijkheden die dit biedt voor spraakgehandicapten, en hoe andere partijen hierop kunnen inspelen.

}, author = {Arthur Dirksen} } @article {138, title = {Modaliteit in spontane en geacteerde spraak}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Frequentieanalyses van spraakfragmenten laten vaak {\'e}{\'e}n piek zien. In emotionele spraak daarentegen zijn soms meerdere pieken te vinden (modaliteit). Schreuder, van Eerten \& Gilbers (2006) hebben een pilotstudie gedaan naar modaliteit in voorgelezen, emotionele spraak. Zij vinden in sombere passages mineurmodaliteit (3 semitonen afstand tussen de pieken) en in vrolijke majeurmodaliteit (4 semitonen afstand).

In ons vervolgonderzoek is behalve geacteerde emotionele spraak (Bert \& Ernie, soapseries, motherese) ook spontane spraak (winnaars en verliezers in sportinterviews) onderzocht op modaliteit. De uitkomst is dat modaliteit frequent in geacteerde spraak voorkomt maar nauwelijks in spontane spraak. Mineur en majeur vinden we alleen duidelijk in overacting. In motherese vinden we wel veel modaliteit, maar niet altijd de verwachte majeurmodaliteit.

Volgens Boersma (2007) {\textquotedblleft}beschrijven{\textquotedblright} cue constraints ideaalpatronen voor de productie en perceptie van spraak. De resultaten van het hier gepresenteerde onderzoek geven aan dat in spontane spraak cue constraints minder sterk opereren dan in geacteerde spraak.

}, author = {Deelnemers MA-onderzoekscollege Fonologie} } @article {141, title = {Nederlandse baby{\textquoteright}s gebruiken statistische informatie om spraakklanken te leren onderscheiden}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

UiL-OTS Universiteit Utrecht Baby{\textquoteright}s hebben aanvankelijk een {\textquoteright}universele{\textquoteright} spraakperceptie. Zij zijn in staat om foneemcontrasten uit alle natuurlijke talen te onderscheiden. Dit vermogen verdwijnt echter gedurende het eerste levensjaar en wordt meer moedertaalspecifiek. Maye et al. (Cognition, 2002) suggereren dat (onder andere) statistisch leren verantwoordelijk is voor deze verandering. Maye et al. waren de eerste die aantoonden dat 6 en 8 maanden oude baby{\textquoteright}s bij het leren onderscheiden van spraakklanken gebruik maken van de statistische distributie van fonetische variatie. In een replicatie van dit experiment werden 10 tot 11 maanden oude Nederlandse baby{\textquoteright}s blootgesteld aan ofwel een bimodale ofwel een unimodale frequentiedistributie van een 8-staps spraakklankcontinu{\"u}m. Dit continu{\"u}m was gebaseerd op de Hindi stemhebbende en stemloze retroflexe plosieven (/ɖa/ en /ʈa/). De resultaten laten zien dat alleen baby{\textquoteright}s in de bimodale groep na de blootstelling reageren op het verschil tussen stemloos en stemhebbend. Dit wijst erop dat de spraakklanken voor deze groep in twee categorie{\"e}n worden gerepresenteerd. Samenvattend kan gezegd worden dat de resultaten van het huidige experiment de hypothese ondersteunen dat baby"s statistisch leren aanwenden om foneemcategorie{\"e}n te vormen.

}, author = {Desiree Capel and Elise de Bree and Annemarie Kerkhoff and Frank Wijnen} } @article {140, title = {Perceptie van onvolledig spraaksignaal}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Ito et al (2001) betogen dat de perceptie van /i,e,a,o,u/ niet alleen berust op de eerste twee formanten in het akoestisch signaal. Ook bij onderdrukking van een van deze formanten worden de vocalen goed ge{\"\i}dentificeerd.

In een vervolgexperiment hebben we 12 participanten 4 voorvocalen aangeboden, niet alleen de primaire kardinale vocalen /i,e/ maar ook de secundaire kardinale vocalen /y,2/. De participanten kregen alle vocalen zowel met als zonder tweede formant aangeboden. Wij concluderen evenals Ito et al (2001) dat primaire kardinale vocalen in beide condities goed worden waargenomen. Onvolledig gespecificeerde secundaire kardinale vocalen worden echter significant vaker als hun primaire kardinale tegenhanger waargenomen.

Wat zijn de perceptieve en/of cognitieve strategie{\"e}n van de luisteraar die dit verschil in perceptie verklaren? Wij zullen betogen dat de luisteraar prototypes van klanken heeft opgeslagen en dat deze ideaalpatronen de perceptie be{\"\i}nvloeden.

}, author = {Bea Valkenier and Dicky Gilbers} } @article {137, title = {Perceptie-effecten van geografische variatie in (micro-)prosodische eigenschappen: In hoeverre kunnen luisteraars de leeftijd, de lengte en het gewicht van een spreker raden?}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Hoe goed zijn luisteraars in het inschatten van de leeftijd, lengte en gewicht van een spreker op basis van haar/zijn stem? De resultaten van een aantal experimenten van Lass et al (1979, 1980a, 1980b, 1980c, 1980d) voor het Engels waren positief, maar achteraf blijken de data statistisch op een niet betrouwbare manier geanalyseerd te zijn (Cohen et al. 1980). Ook andere experimentele resultaten (Gunter \& Manning 1982, van Dommelen \& Moxness 1995) doen twijfel rijzen omtrent de conclusies van Lass et al.. Toch bestaat er een duidelijke relatie tussen de leeftijd, lengte en gewicht van een spreker en spraakparameters zoals pitch en formanten, gebaseerd vooral op de lengte van de vocal tract en de grootte en dikte van de stembanden (Greisbach 1999). Een mogelijke reden voor de ruis in de data is de sociale en geografische vrije (niet-lingu{\"\i}stische) variatie tussen sprekers. In dat geval verwachten we dat sprekers van een geografische variant beter in staat zouden zijn om sprekers van dezelfde variant te beoordelen in vergelijking met sprekers van een andere variant. In onze experimenten hebben we Nederlandse (Vlaamse) luisteraars in Antwerpen met Nederlandse luisteraars in Tilburg vergeleken in hun inschatting van de leeftijd, de lengte en het gewicht van mannelijke en vrouwelijke sprekers van de twee varianten in twee tussen-proefpersoon condities; met spraak die achterstevoren wordt afgespeeld ({\textquoteleft}reversed speech{\textquoteright} /= om het duidelijk hoorbaar verschil tussen Vlaams en Nederlands te maskeren) en met gewoon afgespeelde spraak. Onze verwachting dat luisteraars beter op hun eigen variant zouden presteren wordt duidelijk bevestigd voor alle drie de eigenschappen (leeftijd, lengte, gewicht) met significante interactie-effecten voor geslacht.

}, author = {Marie Nilsenov{\'a}} } @article {132, title = {RechtSpraakHerkenning: Nederlandse spraakherkenning in de rechtszaal}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

In toenemende mate moeten verhoren door politie volledig worden opgenomen. Ingeval van twijfel, kan dan altijd de oorspronkelijke opname opnieuw beluisterd worden. Ook de Nederlandse rechtbanken experimenteren met geluidsopnamen. De griffier maakt altijd het verslag van de rechtszitting, maar omdat het soms lastig is alles direct tijdens de zitting correct te noteren, worden er al voor intern gebruik dikwijls geluidsopnamen gemaakt: alles wat er gezegd wordt op een cassettebandje!

Door iedere spreker echter op een eigen spoor op te nemen en de opnamen door de spraakherkenner te halen, kan veel meer bereikt worden. De opnamen worden namelijk doorzoekbaar op zowel spreker als spraak. Iedereen die straks toegang heeft tot de opnamen kan met een paar simpele klikken zoeken naar de woorden X,Y en Z, uitgesproken door verdachte A of Rechter B.

De griffier kan de spraakherkenningsresultaten gebruiken om sneller een verslag te maken en rechters kunnen naar een gesproken samenvatting luisteren; bedoeld om hun geheugen op te frissen als ze de zaak weer oppakken na een langdurige onderbreking.

De Taal- en Spraaktechnologie wordt in het RechtSpraakHerkenningsproject ingezet voor de ondersteuning van de rechtbank, niet als vervanging van medewerkers. Rechtspraak blijft vooralsnog toch echt mensenwerk.

}, author = {Arjan van Hessen} } @article {312, title = {Regionale variatie in klinkers van het Standaardnederlands}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

De presentatie heeft drie doelstellingen: (1) de beschrijving van regionale variatie in het Standaardnederlands gesproken in Nederland en in Vlaanderen; (2) de interpretatie van deze patronen met betrekking tot convergentie/divergentie en (de)standaardisatie; (3) het onderzoeken of een analyse op basis van dynamische spectrale eigenschappen in plaats van steady state metingen van klinkers leidt tot een betere classificatie van sprekers in hun regio van herkomst.

De informanten in deze studie zijn 80 Nederlandse en 80 Vlaamse standaardtaalsprekers, gestratificeerd naar regio, sekse en leeftijd. De data zijn geselecteerd uit een woordenlijst. Alle geselecteerde klinkertokens dragen primaire woordklemtoon en worden gevolgd door een /s/. Voor deze presentatie beperken we ons tot de monoftongen. Naast de duur zijn op zeven punten in de tijd de grondfrequentie en F1, F2, F3 van de klinkers gemeten.

Enerzijds verwachten we dat de klinkervariatie groter zal zijn in deze woordenlijstdata dan in de draagzinnen van dezelfde sprekers (zie Adank et al. 2007) en dat regionale verschillen duidelijker aanwezig zullen zijn. Anderzijds verwachten we dat de akoestische ruimte van de individuele sprekers kleiner wordt in de woordenlijst, in vergelijking met de meer gemonitorde voorleestaak in Adank et al. (zie Van Bergem 1995). Dit kan een probleem opleveren voor standaard normalisatieprocedures, zoals die voorgesteld door Adank (2004), en zou kunnen resulteren in meer problemen bij het onderscheid maken tussen sprekers en regio{\textquoteright}s. Daarom willen we testen of het onderscheiden van sprekers/regio{\textquoteright}s op basis van dynamische formantdata succesvoller is dan die op basis van steady state metingen. McDougall \& Nolan (2007) hebben voor de klinker /u/ laten zien dat het onderscheid maken tussen sprekers op basis van formantdynamiek succesvol kan zijn.

Referenties

}, author = {Sander van der Harst and Hans Van de Velde and Roeland van Hout} } @article {143, title = {Transcriptie van Russische Intonatie ToRI, een interactieve module op het Internet}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

In een audiovisuele demonstratie zal ik een nieuw systeem presenteren voor het transcriberen van Russische intonatie: ToRI, gratis beschikbaar op het Internet. ToRI maakt gebruik van {\'e}{\'e}nduidige symbolen voor de transcriptie van toonhoogteaccenten, verbindende toonhoogtebewegingen en grenzen van uitingen gemarkeerd door toonhoogte. De beschrijving van alle toonhoogteverschijnselen in ToRI is gebaseerd op de resultaten van perceptie experimenten met moedertaalsprekers van het Russisch. Het systeem geeft ook de fonetische correlaten voor de realisatie van toonhoogteaccenten. In ToRI worden de toonhoogteaccenten gepresenteerd met audiovisuele voorbeelden en oefeningen voor het leren herkennen van toonhoogteaccenten en grensmarkeringen. In de voorbeelden en oefeningen worden ook de communicatieve functies van de accenten gegeven. Een alfabetische woordenlijst verklaart de in het systeem gebruikte terminologie. Het systeem is zodanig opgezet dat het als leermodule voor linguisten en vergevorderde studenten kan worden gebruikt, individueel of in een klassituatie.

}, author = {Cecilia Od{\'e}} } @article {312, title = {Variatie in verscherping: fonologie of fonetiek}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Amsterdam, The Netherlands}, abstract = {

Variatie in verscherping aan het einde van de lettergreep speelt een sleutelrol in recente discussies over de rolverdeling van de fonetiek en de fonologie in de beschrijving van taalverschijnselen. Het is de afgelopen jaren steeds duidelijker geworden dat het verschijnsel niet-categorisch is en dat is een probleem voor traditionele fonologische modellen. In deze lezing laat ik zien hoe recent empirisch onderzoek toch verenigd kan worden met een klassieke rolverdeling tussen fonologie en fonetiek: een waarin de fonetiek op een niet-categorische manier categorische representaties interpreteert.

Het eerste verschijnsel is dat verscherping in het Nederlands, net als in veel andere talen, onder experimentele condities niet-categorisch is gebleken (Warner et al. 2004). Er is een minimaal akoestisch verschil tussen de finale plosief in _rad_ en die in _rat_ en uit perceptie-experimenten blijkt dat luisteraars dit verschil ook kunnen oppikken, zij het lang niet zo goed als het fonemische verschil tussen _das_ en _tas_ (zie onder andere ook Wheeler 2005 voor het Catalaans, Piroth et al. 1991 voor het Duits, Pye 1986 voor het Russisch en Wilson 2003 voor het Turks). Dit lijkt te betekenen dat subfonemische verschillen een rol spelen in de perceptie, en volgens een beroemd artikel van Port en Leary (2005) toont dit de onhoudbaarheid van de formele fonologie aan.

Het tweede verschijnsel is dat Ernestus en Baayen (2003) hebben aangetoond dat de {\textquoteright}onderliggende{\textquoteright} stemhebbendheid van stamfinale obstruenten voor een groot deel statistisch voorspelbaar is uit de vergelijkbaarheid van de stam met andere stammen. Sprekers hebben volgens deze auteurs ook kennis van deze statistische regelmatigheden die, wederom, fonologische kennis zouden uitsluiten.

In beide gevallen laat ik zien dat verscherping wel degelijk nog steeds als een fonologisch verschijnsel kan en zelfs moet worden beschouwd. Wel moeten de theorie{\"e}n worden verfijnd om de grotere empirische basis preciezer te kunnen beschrijven; maar dat ligt in de natuur van de wetenschap.

Referenties

}, author = {Marc van Oostendorp} } @article {142, title = {Voorspellers van {\textquoteright}audiovisual benefit{\textquoteright} voor het perceptief scheiden van stemmen bij oudere luisteraars}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Oudere luisteraars hebben over het algemeen meer moeite om de spraak van een bepaalde spreker gescheiden te houden van een of meerdere concurrerende sprekers op de achtergrond. In deze studie onderzoeken we hoeveel baat iemand heeft bij het zien van het gezicht van de doelspreker bovenop het alleen horen van een mix van twee concurrerende stemmen. Veertig oudere luisteraars (65-plussers), varierend in mate van gehoorverlies, deden mee aan deze foneemdetectiestudie. Daarnaast werden een aantal achtergrondtesten bij hen afgenomen: gehoorverlies, lipleesscore, informatieverwerkingssnelheid, executief functioneren (planning en organisatie), en selectieve aandacht. We onderzochten welke van deze achtergrondmaten correleerden met gemiddelde foneemdetectiescore en met de mate van {\textquoteright}audiovisual benefit{\textquoteright}. De resultaten zullen besproken worden.

}, author = {Esther Janse and Alexandra Jesse} } @article {144, title = {Web-resource "Russian Dialectal Phonetics" as a model of effective authoring procedures for educational linguistic hypermedia e-learning content development}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

An original and efficient model of hypertextual authoring processes and guidelines for electronic multi-media educational and scientific resources{\textquoteright} development will be presented for discussion. Basic authoring principles were tested in the course of development of the interactive Web-resource "Русская диалектная фонетика (Russian Dialectal Phonetics)". This new open-source electronic public educational and research resource in Russian linguistics is the first one based on the ideology of "Shareable Courseware Object Reference Model" (SCORM). The Russian dialectology electronic course{\textquoteright}s structure comprises two major components: a theoretical overview and practical sections (on-line self-tests, exercises). An interactive glossary of linguistic and other special terms is also appended through dense network of hyperlinks. As essential multi- and hypermedia product the course comprises texts, charts, sonagrams, intonograms and diagrams, images (dialect maps), authentic dialectal spoken language records from the archive of dialectological expeditions of the Philological Faculty of the MGU.

}, author = {G. Kedrova} } @article {135, title = {What{\textquoteright}s in a name? Autonomata Too!}, year = {2008}, publisher = {Nederlandse Vereniging voor Fonetische Wetenschappen}, address = {Utrecht, The Netherlands}, abstract = {

Het Autonomata Too project is een project in het STEVIN-programma. In dit project proberen we de automatische spraakherkenning van Nederlandse, Vlaamse en buitenlandse namen te verbeteren door rekening te houden met uitspraakvarianten van namen ten gevolge van interculturele fenomenen, meer specifiek de oorsprong van een naam en de oorsprong van de spreker van een naam. Deze verschijnselen worden op een aantal niveaus onderzocht: variaties van uitspraken binnen de Nederlandse foneemset; het nut van het toevoegen van fonemen uit een buitenlandse foneemset; het aantal varianten dat leidt tot een optimale herkenning. Autonomata Too maakt hierbij gebruik van een namencorpus dat is opgenomen in een eerder project: Autonomata. Dit namencorpus wordt gebruikt om patronen op te sporen die ontstaan als Nederlanders namen van Nederlandse komaf uitspreken, c.q. namen van buitenlandse komaf, of als buitenlandse sprekers (met enige kennis van het Nederlands) namen van Nederlandse of buitenlandse oorsprong uitspreken. In de voordracht zal het Autonomata Too project worden voorgesteld en een aantal eerste onderzoeksresultaten worden gepresenteerd.

}, author = {Henk van den Heuvel} }