Tweak-Test van Sformula, WordNet, Naked Keywords & Random Retrieval

Maat: px
Weergave met pagina beginnen:

Download "Tweak-Test van Sformula, WordNet, Naked Keywords & Random Retrieval"

Transcriptie

1 Eindwerkstuk voor Corpustaalkunde: Tweak-Test van Sformula, WordNet, Naked Keywords & Random Retrieval Wybo Wiersma,

2 Inhoudsopgave: Inleiding:...1 Onderzoeksopzet: Waar naartoe, Waarvandaan...1 Wegen: Random Retrieval & Naked Keywords... 2 Wegen: Sformula...3 Wegen: WordNet...7 Middelen: De tools... 9 Referentiekader Resultaten: Naked & Random Resultaten: WordNet Tweaks: Sformula Resultaten: Sformula Conclusie Kanttekeningen Literatuurlijst:...31

3 1 Inleiding: Het bepalen van de semantische relaties tussen woorden is een belangrijke taak voor de Computationele Taalkunde en Information Retrieval. Het wordt bijvoorbeeld toegepast voor het disambigueren van de betekenis van een woord in een bepaalde context. De specifieke betekenis van een woord heeft meestal gevolgen voor de vraag of een document relevant is. Ook is het vaak zo dat de manier waarop een regel van toepassing is op een woord ambigu is totdat de precieze betekenis van dat (of een ander) woord in die zin vaststaat. Semantische gelijkheid is zelf echter ook een ambigu begrip. Semantiek kan namelijk voor verschillende contexten gedefinieerd worden. Men kan bijvoorbeeld de semantische vector voor een woord op documentniveau berekenen (dus per document een specifieke semantische vector). Deze kan vervolgens afgezet worden tegen de semantische betekenis van de opgegeven combinatie van zoekwoorden. Wanneer er veel gelijkenis is tussen de twee vectoren, wordt het document relevant bevonden. Een veelbelovende uitwerking van deze methode wordt beschreven door Hongyan Jing en Evelyne Tzoukermann. 1 Een andere interpretatie van semantische afstand is corpusbreed. In dat geval wordt de gemiddelde semantische afstand tussen een sleutelwoord en een ander woord corpusbreed bepaald. Het grootste nadeel van deze methode is dat de informatie betreffende de specifieke rol die een woord speelt binnen een bepaald document verloren gaat. De semantische relatie wordt een gemiddelde van alle semantische relaties die tussen de twee woorden bestaan binnen het gehele corpus. Deze variant van semantische afstand wordt hier gehanteerd. In dit essay beschrijf ik een aantal verschillende algoritmes voor het berekenen van semantische gelijkheid. De methodes van aanpak zijn in vier groepen te verdelen: Random Retrieval, Naked Keywords, Sformula en tot slot WordNet-gebaseerd. De eerste twee zijn referentiealgoritmes. Dezen hebben weinig tot niets te maken met semantische afstand, maar ze worden ingezet als referentiepunten voor het beoordelen van de performance van Sformula en de WordNet-algoritmes. Het gehanteerde criterium in dit onderzoek is de mate waarin een algoritme/methode in staat is tot het achterhalen van duidelijk te onderscheiden semantische trendgroepen in grote hoeveelheden data. Verschillende methodes zullen verschillende scores behalen voor verschillende toepassingen. Information Retrieval is geen uitzondering op dit paradigma. De behaalde ratings in dit onderzoek zijn dan ook toepassingsgericht. De F-scores bijvoorbeeld, liggen binnen dit onderzoek stukken hoger dan in onderzoeken die betrekkin hebben op TREC-data. En ook het hanteren van de corpusbrede definitie van semantische afstand is iets wat bij uitstek zinvol is voor deze toepassing, maar wat waarschijnlijk een stuk minder goed past bij doelstellingen die meer precisie vergen. Hieronder bespreek ik eerst de onderzoeksopzet en het corpus. Vervolgens bespreek ik de algoritmes, hun taalkundige aspecten en de gebruikte tools. Dan behandel ik de resultaten van het onderzoek. F-scores, precision/recall-grafieken en expand rates 2 staan hierbij centraal. Bij Sformula komen hier ook de getweakte parameters, en hun (taalkundige) effecten aan bod. Tot slot bespreek ik een aantal problemen in het onderzoek. Ook passeren de zwakheden en de mogelijke verbeteringen van de Sformula hierbij de revue. 1 Hongyan Jing, Evelyne Tzoukermann, Information Retrieval based on Context Distance and Morphology Annual ACM Conference on Research and Development in Information Retrieval: Proceedings of the 22 nd annual international AMC SIGIR conference on Research and development in information retrieval (1999). 2 De expand-rate is de mate waarin de query, gewogen naar de woord-voorkomens in het corpus, is geexpandeerd dankzij het algoritme. In het hoofdstuk Resultaten: WordNet wordt dit verder uitgelegd.

4 2 Onderzoeksopzet: Waar naartoe, Waarvandaan Het doel van het onderzoek is het evalueren van een aantal algoritmes voor het bepalen van de corpusbrede semantische gelijkheid van twee woorden. Dit is getest door de algoritmes te gebruiken voor query expansie. Query expansie is het toevoegen van woorden aan een reeks zoekwoorden op basis van de van tevoren opgegeven sleutelwoorden. In dit onderzoek zijn twee queries met bijbehorende semantische clusters gebruikt. De sleutelwoorden waren: prescription, medications, approved, doctors voor het eerste cluster, het zogenaamde prescription-drugs cluster (PDC), en de woorden money, transaction, account, bank werden gebruikt voor het Afrika-mail cluster (AMC). De sleutelwoorden zijn bepaald door een aantal significante woorden te selecteren uit de woordfrequentielijst van het PDC, resp. AMC cluster. Ook zijn er een aantal runs gedraaid waarin slechts 1 sleutelwoord als input gebruikt is voor de beide clusters; doctors voor het PDC cluster en bank voor het AMC cluster. De clusters die als gold standard data zijn gebruikt, zijn (voor Inleiding II) door Bart Alewijnse uit het SpamCorpus geëxtraheerd. Hij heeft dit semi-automatisch gedaan. Eerst met de hand en vervolgens met het clusteringprogramma Rainbow. Het gebruikte deel van de data is van voldoende kwaliteit is om het hier als gold standard data te gebruiken. Wel is het zo dat het feit dat de data deels geselecteerd is door een computerprogramma een aantal implicaties heeft voor de resultaten van het onderzoek. Zo zal de data per cluster bijvoorbeeld in grote mate gelijkvormig zijn (voor de computer). De twee clusters bevatten ongeveer 1125 mails per stuk. Een derde cluster, waarin niet-gerelateerde mail zit (hacker-mail, sex-mail, etc ), is ongeveer 2250 mails groot. Voor dit laatste cluster zijn geen queries opgesteld. Dit cluster dient als ruis, dus als bron voor false positives. De clusters zijn afkomstig uit het SpamCorpus. Het SpamCorpus heb ik voor een eerdere opdracht (Inleiding II) samengesteld, schoongemaakt (attatchments verwijderd etc ), kortom gebruiksklaar gemaakt. De mails in het SpamCorpus zijn vanaf 1997 verzameld door Paul Wouters, die een site runt waarop verscheidene spam-statistieken te zien zijn. 3 Het corpus bevat op dit moment mails en miljoen woorden (iets minder dan 216 woorden per mail). De drie clusters samen vormen het subcorpus. Dit bevat 4507 spam mails en 1.15 miljoen woorden (iets minder dan 255 woorden per mail). Er zijn andere manieren dan query expansie om algoritmes voor het berekenen van semantische afstand te benchmarken. Zo kan men kijken of de uitkomsten overeenkomen met de eigen intuïtie. Wat ook kan is het gemiddelde van de intuïties van vele proefpersonen nemen en op basis daarvan bepalen hoe goed een algoritme werkt. Alexander Budanitsky en Graeme Hirst hebben dit o.a. in hun artikel gedaan. Een andere aanpak die zij gebruiken is het testen van de algoritmes voor een concrete toepassing (zij gebruiken het voor contextdisambiguatie). 4 Mijns inziens is het kijken in welke mate mensen iets gerelateerd achten te subjectief en te algemeen. Daarom kies ik hier ook voor de toepassingsgerichte aanpak. De prestatie van een algoritme is namelijk alleen maar te meten in relatie tot een bepaald doel. Relatie-indexen opleveren die het gemiddelde zijn van wat mensen vinden is slechts één doel van de vele. Een doel wat bovendien niet eens zo veel zegt over de prestaties van een algoritme binnen computationele toepassingen aangezien de belevingswereld en de cognitieve eigenaardigheden van computerprogramma s (die immers in de praktijk daarna met de resultaten van het algoritme aan de slag moeten) (nog lang) niet te vergelijken zijn met die van mensen Alexander Budanitsky, Graeme Hirst, Semantic distance in WordNet: An experimental, application-oriented evaluation of five measures Workshop on WordNet and Other Lexical Resources in the North American Chapter of the Association for Computational Linguistics (2001).

5 3 Wegen: Random Retrieval & Naked Keywords De referentiealgoritmes zijn Random Retrieval (hiervan 2 varianten) en Naked Keywords. Naked Keywords houdt in het zoeken met de ongewijzigde sleutelwoorden. In ons geval voor de beide clusters dus prescription, medications, approved, doctors en money, transaction, account, bank, respectievelijk doctors en bank bij de 1-zoekwoord runs. Het gewicht per zoekwoord is 1. Dit gewicht wordt bij elk voorkomen van het zoekwoord opgeteld bij de clusterscore van het cluster waar de query waar het woord deel van uitmaakt bij hoort. De documenten met een clusterscore hoger dan de treshold worden als relevant gemarkeerd voor het cluster. De treshold is een parameter binnen het onderzoek. Edoch is ze niet doel van het onderzoek. Daarom is hier en op alle andere plaatsen in dit onderzoek de treshold gehanteerd waarmee de hoogste F-score gehaald wordt. 5 De prestaties van het Naked Keywords algoritme zijn belangrijk voor het staven van de prestaties van de overige algoritmes. Gewoon zoeken met de opgegeven zoekwoorden is immers de meest basale, en ook de meest geïmplementeerde zoektechniek. Random Retrieval is wat de naam doet vermoeden. Toch is de implementatie van de beide varianten van dit algoritme niet helemaal wat men zou verwachten. Het algoritme zoekt zelf namelijk geen willekeurige documenten in het corpus. Het willekeurige zit hem in de zoekwoorden en de zoekwoord-gewichten die door dit algoritme gegenereerd worden. Eerst wordt een lijst opgesteld met daarin alle woorden die vaker dan 25 keer voorkomen in het subcorpus. Per cluster wordt vervolgens 50% van de woorden uit deze lijst geselecteerd (een woord kan aan geen enkel, of aan meerdere clusters worden toegewezen). Vervolgens krijgen de hier geselecteerde woorden een willekeurig gewicht tussen 0 en 1 toegewezen. Gaat men met deze zoekwoorden zoeken dan zal het gevolg zijn dat de documenten een willekeurige clusterscore krijgen. De keuze voor het minimum aantal voorkomens van 25 zit hem in het feit dat dit zelfde minimum gehanteerd is voor inclusie in de WordNet algoritmes (Sformula hanteert een andere grens). In de eerste variant van Random Retrieval worden alle woorden (dus mogelijkerwijs ook de oorspronkelijke sleutelwoorden) op deze manier willekeurig geselecteerd en van een waarde voorzien. In de tweede variant krijgen de opgegeven sleutelwoorden een speciale behandeling. Dezen blijven namelijk in het cluster waarin ze gespecificeerd zijn, en hun gewicht blijft ook op 1 staan. Het nut van de eerste variant is het aangeven van een absolute ondergrens. Alles wat slechter scoort dan de willekeur doet meer kwaad dan goed. De tweede variant waarin de sleutelwoorden onaangetast blijven vormt een wat relevantere ondergrens. Bij de implementaties van (het retrieval-deel van) alle niet-random algoritmes is het namelijk ook zo dat de sleutelwoorden het gewicht 1 krijgen (en ze blijven ook in hun eigen cluster) terwijl de nieuw toegevoegde zoekwoorden in gewicht variëren tussen 0 en 1. Als de meeste van de door het algoritme toegevoegde zoekwoorden slecht gekozen of slecht geschaald zijn binnen de context van het subcorpus (en uitgaande van de gold standard data) dan zal het algoritme een F-score behalen die niet ver van deze ondergrens ligt. De Random Retrieval en Naked Keywords algoritmes hebben niet echt in het oog springende taalkundige aspecten. Alleen kan worden opgemerkt dat een woord minstens 25 maal moet voorkomen onder de 1.15 miljoen woorden van het gebruikte subcorpus om in aanmerking te komen voor inclusie bij de random zoekwoorden. Het Naked Keyword algoritme gebruikt geen stemming en geen context-disambiguisatie. Bank (Rabobank) en bank (zitten) zijn hetzelfde, en chihuahua en chihuahua-tje zijn verschillend. 5 Zie de beschrijving bij stweak.pl onder Middelen: De Tools voor een beschrijving van hoe ik de treshold bij de maximale F-score bepaald heb.

6 4 Wegen: Sformula Sformula is een formule die ik heb opgesteld voor een eerder vak (Inleiding II). De formule is speciaal bedoeld voor het ontdekken van semantische trends in grote corpora. Voor het volledige SpamCorpus heb ik hem bijvoorbeeld gebruikt om over de tijdsspanne van 1996 tot 2004 trends in de twee semantische clusters seks en geld te ontdekken. Het nu uitgevoerde onderzoek is de eerste uitgebreide poging om Sformula te benchmarken. Ook heb ik een aantal berekeningen uitgevoerd op basis van een aantal verschillende parameters (tweaken). Bij de resultaten ga ik hier verder op in. De naam Sformula staat voor Semantic formula, hoewel de S eigenlijk afkomstig is van een naamgevings-gewoonte die ontstond naar aanleiding van de naam van het eerste tooltje wat ik schreef voor het opschonen van het SpamCorpus (SmailClean.pl). De formule gaat uit van het taalkundige idee dat collocaties semantische verwantschappen aanduiden. Hier gebruik ik de ruime definitie van collocaties: collocaties zijn bepaalde woordpatronen die vaak voorkomen rond het sleutelwoord waarvoor men de semantisch gerelateerde begrippen wil vinden. Binnen het vrij beperkte discours van de SPAM-wereld is dit geen onredelijke aanname. Maar ook in gewone teksten lijkt het me niet onwaarschijnlijk dat semantische relaties achterhaald kunnen worden op basis van collocaties. Zo wordt in het artikel van Pascual Cantos en Aquilio Sanchez gekeken naar collocaties en hun vorming aan de hand van de semantische aantrekkingskracht van woorden. 6 Het beeld wat hieruit naar voren komt is niet in tegenspraak met de manier waarop Sformula de mate van semantische gerelateerdheid berekent. De eerste stap die het algoritme Sformula neemt is het voor elk woord nagaan hoe vaak, en op welke afstand het voorkomt in de buurt van een sleutelwoord. Elk woord wordt dus voorzien van een lijst met alle sleutelwoorden. Die lijst bevat uiteindelijk alle afstanden waarop het woord is aangetroffen relatief ten opzichte van het sleutelwoord. Het window is -10 tot 10, wat inhoudt dat maximaal 10 woorden naar links en maximaal 10 woorden naar rechts gekeken wordt. Met tekstuele barrières zoals zinnen en paragrafen wordt geen rekening gehouden. De window-breedte en het negeren van zinsgrenzen is iets wat eventueel gewijzigd kan worden, maar binnen dit onderzoek hebben we daar niets mee gedaan (o.a. omdat veel spam niet eens echte zinnen bevat). Een woord wordt nadien pas meegenomen door de formule wanneer het minimaal 50 keer voorkomt in het gehele corpus (dus niet 50 maal in het subcorpus). Woorden die minder vaak voorkomen krijgen sowieso een irrelevante waarde door de opbouw van de formule. De 50-voorkomens grens is dus niet meer dan een optimalisatie om de hardware te sparen. Het meest zeggende deel van de formule is hieronder weergegeven. Dit deel berekent de semantische afstand tussen een occ van een woord en een sleutelsemant (NB: een hogere output betekent dus semantisch ongelijker, een lager betekent gelijker, zie verderop voor het deel van de formule wat er voor zorgt dat de waarde uiteindelijk een gelijkheidsmaat wordt waarvan de waarde altijd tussen 0 en 1 ligt (1 precies gelijk, 0 totaal ongelijk)). De begrippen zijn ten eerste: Een sleutelsemant staat voor één of meerdere van tevoren door de gebruiker opgegeven sleutelwoorden. De woorden in het sleutelsemant vormen samen de leidende partij in de berekening van de semantische relatie. De relevantie van de sleutelwoorden (met waarde 1 elk) is de premisse waarmee de formule aanvangt. Sformula breidt het collocatieconcept uit naar collectieve collocaties voor een semant. Woorden die binnen een bepaalde vraagstelling als semantisch equivalent worden beschouwd vormen een semant. En een semant kan ook collocaties aangaan met woorden. Een woord is een woord waarvoor de semantische relatie met betrekking tot het sleutelsemant berekend gaat worden. Een zoekwoord kan een woord 6 Pascual Cantos, Aquilino Sanchez, Lexical Constellations: What Collocates Fail to Tell International Journal of Corpus Linguistics (2001).

7 5 zijn waarvan is aangetoond dat het semantisch is gerelateerd aan het sleutelsemant, maar het kan ook een sleutelwoord zijn wat deel uitmaakt van het sleutelsemant. De variabelen in de formule zijn als volgt: - matches is het aantal keren dat het woord is aangetroffen in de buurt van het sleutelsemant. - occ is het aantal keren dat het woord is aangetroffen op een specifieke afstand van het sleutelsemant (de som van alle occ s voor een woord is dus gelijk aan matches voor dat woord) - wordc is het aantal keren dat het woord voorkomt in het (sub-)corpus. - keysemantc is het aantal keren dat het sleutelsemant voorkomt in het corpus (in het geval waarin het sleutelsemant uit meerdere sleutelwoorden bestaat is het dus de som van de voorkomens van deze sleutelwoorden). Het linker deel van de hierboven afgebeelde formule ((matches occ) / occ) zorgt er voor dat voorkomens op steeds dezelfde afstand (een hoge occ) hoger worden aangeslagen dan voorkomens op steeds wisselende afstanden (meer maar lagere occ s). Dit zorgt er ook voor dat de relatie tussen matches en occ s zodanig gedefinieerd is dat woorden die op een grotere afstand van het sleutelsemant voorkomen minder kans hebben om een kleine semantische afstand op te leveren. Het is immers zo dat de kans op een bepaalde combinatie van tekens kleiner wordt naarmate de combinatie meer tekens moet bevatten of overspannen. Derhalve zal het ook zo zijn dat voor alle woorden (tekens) afzonderlijk geldt dat de kans dat zij voorkomen op een vaste afstand van een sleutelsemant kleiner wordt naarmate de afstand groter wordt (dus door het hoger raten van voorkomens op vaste afstanden leg je impliciet vast dat collocatiewoorden op kleinere afstanden een hogere rating krijgen). Het middelste deel van de semantische afstandsformule ((wordc - occ) / sqrt (matches)) zorgt er voor dat de semantische afstand sterk toeneemt wanneer het woord vaak voorkomt in het corpus. Dit wordt afgeremd wanneer er veel matches zijn, of wanneer de occ groot is. Let wel dat het in de formule hierboven slechts gaat om de semantische relatie tussen een één occ van een woord en een sleutelsemant. Voor elke occ van het woord wordt de formule doorlopen. Het doel van het middelste deel van de formule is het verwijderen van stopwoorden en andere woorden die weliswaar vaak bij de sleutelsemant staan, maar die ook zonder het sleutelsemant vaak voorkomen. Het rechter deel van de formule (sqrt((keysemantc - occ) / matches)) doet hetzelfde als het middelste, maar nu voor het aantal voorkomens van de sleutelsemant. Wel is het gewicht dankzij de wortel minder sterk dan in het geval van het aantal voorkomens van het woord. De reden hiervoor is dat het kwalijker is wanneer een vaak voorkomend woord erg significant geacht wordt bij een vrij zeldzame sleutelsemant dan wanneer een zeldzaam woord een grote significantie krijgt bij een vaak voorkomende sleutelsemant. De reden dat het rechter deel er dan toch bij zit is dat het ook weer niet de bedoeling is dat een heel vaak voorkomende sleutelsemant zomaar semantische relaties aangaat met woorden waarvoor deze helemaal niet relevant zijn. Desondanks blijft het een kenmerk van Sformula dat de relevantie gedefinieerd is als corpusgerelateerd, en dat er dus semantische relaties worden uitgedrukt die buiten het corpus tegen-intuïtief kunnen zijn. Deze drie delen worden tenslotte gedeeld door occ. Hier wordt de invloed van occ pas echt significant. In het linker deel van de formule was de invloed al significant. In de twee

8 6 rechter delen niet in de meeste gevallen. Het is echter zo dat occ vooral midden- en rechtsboven in de formule staat om er voor te zorgen dat de semantische afstand netjes op nul uitkomt wanneer occ, matches, wordc en keysemantc allemaal gelijk zijn, bijvoorbeeld allemaal 1 (dat is wanneer een sleutelsemant bestaande uit 1 sleutelwoord wat 1 keer voorkomt in de buurt van een woord staat wat ook maar 1 keer voorkomt). Taalkundig gezien is het misschien vreemd om woorden in dat geval als volledig semantisch equivalent te beschouwen. Maar voor het onderzoeken van trends in grote corpora is het niet rampzalig (het enige document met het sleutelwoord krijgt wat meer gewicht), en bovendien komt de situatie überhaupt nooit voor aangezien niemand het in zijn hooft haalt om een trendanalyse te doen voor een sleutelwoord wat maar eenmaal voorkomt. Het is vooral wiskundig gezien netjes om het hele bereik van nul tot oneindig te bestrijken. Hieronder is de volledige formule te zien. Het deel wat de semantische afstand berekent (het deel boven de grote breukstreep) is hier ingebed in een structuur die er voor zorgt dat de semantische afstand omgezet wordt in een gelijkheidsmaat die uiteindelijk op een zinvolle manier gegarandeerd binnen het bereik van 0 en 1 blijft. De negatieve e-macht zet de semantische afstand om in een gelijkheidsmaat. Zie de grafiek op de volgende pagina ter illustratie. Sformula (pas de formule toe voor elke occ, sommeer de resultaten, deze som is een maat voor de semantische gelijkheid, domein [0 1], met 0 is ongerelateerd, 1 is gelijk) Deze gelijkheidswaarde per occ die opgeleverd wordt door de negatieve e-macht wordt vervolgens vermenigvuldigd met occ, en daarna gesommeerd voor alle occ s zodat in het deel onder de grote breukstreep iets berekend wordt wat lijkt op het gemiddelde van alle voorkomens, en wat altijd tussen 0 en 1 ligt. Ik ga hier niet al te diep in op het onderste deel, maar wat wel belangrijk is, is dat (keysemantc / (matches + 1)) er de kern van vormt. Hoe vaker het sleutelsemant voorkomt vergeleken met het aantal matches, hoe kleiner de semantische gelijkheid wordt.

9 7 Dit lijkt misschien een wat rommelige manier van doen, aangezien in het deel binnen de negatieve e-macht ook al gecorrigeerd werd voor het aantal keren dat de sleutelsemant voorkomt, maar het heeft een reden. Wanneer men het lijvige deel onder de breukstreep zou vervangen door alleen matches, de som van de occ s, dan zou men in de bizarre situatie terechtkomen waarin een extra voorkomen van het woord op een niet zo frequent voorkomende afstand van het sleutelsemant de semantische gelijkheid juist naar beneden haalt (aangezien er dan een gemiddelde wordt berekend, en een extra kleine occ levert in de berekening van het gemiddelde een extra geval van een kleine semantische gelijkheid). Het berekenen van een gemiddelde gaat dus tegen alle logische intuïties in. Daarom delen we dus onder de breukstreep het aantal voorkomens van de sleutelsemant door het aantal matches. Deze deling levert een groter getal op naarmate het sleutelsemant vaker voor komt. En dus in dat geval een kleinere semantische gelijkheid aangezien dit grotere getal onder de (grote) breukstreep staat. Wanneer er meer matches bij komen, gebeurt het omgekeerde. Nu is het effect van een extra match dus zoals we het mochten verwachten. Een extra match levert een extra semantische gelijkheid op én een versterking van de op basis van de andere occ s berekende semantische gelijkheid. De linker en de rechter delen onder de breukstreep zorgen er samen voor dat de formule altijd een waarde tussen nul en 1 oplevert, dus ook wanneer keysemantc kleiner is dan matches. Als er bijvoorbeeld immers een sleutelsemant is die eenmaal voorkomt en die omringd wordt door twintig maal hetzelfde woord dan levert het middelste deel (1 / ) op. Een getal kleiner dan 1! Als we de som van de semantische gelijkheden hierdoor zouden delen, zou ze groter worden in plaats van kleiner en groter dan 1! Dat terwijl het gestelde bereik [0..1] was. In de grafiek hieronder is te zien hoe het rechter deel van de formule het geleidelijk en naadloos overneemt van het linker deel (waarin wel gewoon gedeeld wordt door matches) op het moment dat het gevaar van een wanverhouding tussen matches en keysemantc aan het wijken is. Het rechter deel van de formule (de groene lijn) neemt het over van het linker deel (de blauwe lijn) zodat de som van de drie delen onder de breuklijn een stijgende lijn blijft (de rode lijn).

10 8 Wegen: WordNet WordNet is een semantische database die is samengesteld door de afdeling Cognitie Wetenschappen van de Princeton University e.a. De database is op het internet gratis beschikbaar. 7 In WordNet zijn meer dan concepten, zogenaamde synsets, opgeslagen. Voor deze concepten zijn verschillende relaties vastgelegd. Voorbeelden van relaties zijn die tussen hyper- en hyponiemen (zoogdier schaap is een hyperoniem hyponiem relatie). Andere zijn de relaties tussen meronymen en holonymen (snuit schaap, kamer huis, zijn meronym holonym relaties). Er zijn nog meer relaties gespecificeerd in WordNet, maar dit zijn wel de belangrijkste. Wat hiernaast nog belangrijk is, is dat de hyperoniem hyponiem relaties hiërarchisch geordend zijn in een soort boomstructuur. De wortel/stam van deze structuur die voor sommige algoritmes is toegevoegd heet root-node, en deze heeft geen semantische betekenis. De root-node is er enkel en alleen om een pad tussen minder direct gerelateerde woorden mogelijk te maken. Er zijn in de loop der tijd verschillende algoritmes ontwikkeld om automatisch graden van semantische gerelateerdheid uit WordNet te extraheren. De in dit onderzoek geteste zijn: Hso, Lesk, Vector, Lin, Path en Wup. De laatste drie: Lin, Path en Wup zijn eigenlijk geen maten voor semantische gerelateerdheid, maar voor gelijkheid (similarity, niet relatedness). Deze algoritmes gebruiken alleen de hyperoniem hyponiem relatie. Hso daarentegen gebruikt ook de meronym holonym relaties, en tevens nog andere. 8 Lesk en Vector maken (daarnaast ook nog) gebruik van de beschrijvingen van de synsets. Wat opgemerkt dient te worden is dat niet alle WordNet-gebaseerde algoritmes besproken worden in dit onderzoek. Desondanks zijn ze wel behoorlijk representatief. Hieronder zal ik de algoritmes kort uitleggen. Eerst komen de drie similarity measures aan bod, en daarna de twee relatedness measures. Path is de simpelste. Deze meet de kortste weg tussen twee synsets. Het kortst mogelijke pad heeft lengte 1 en komt voor wanneer twee synsets hetzelfde zijn. In alle andere gevallen is het pad langer en de teruggegeven semantische relatie kleiner. De formule is als volgt: Wup (Wu en Palmer 1994, herzien door Resnik in 1999) zoekt de synset die het verst verwijderd is van de root-node maar die toch beide te relateren synsets als hyponiem heeft. Deze synset wordt de Least Common Subsumer (LCS) genoemd. De afstand van deze synset ten opzichte van de root-node wordt vervolgens geschaald op basis van de afstand van de te relateren synsets ten opzichte van de root-node. De formule is hieronder afgebeeld. Diepte is hierin de afstand ten opzichte van de root-node. Lin (Lin 1998) gebruikt naast WordNet ook een datafile met daarin de Information Content (IC) voor alle WordNet synsets, a.k.a. hoe frequent ze voorkomen in een Corpus. De IC van de LCS wordt vervolgens geschaald op basis van de IC s van de te relateren synsets. Hiermee wordt een corpustaalkundig stukje realiteit toegevoegd aangezien de frequentie van Ted Petersen, Siddharth Patwardhan, Jason Michelizzi, WordNet::Similarity Measuring the relatedness of Concepts Human Language Technology Conference (2004).

11 9 woorden/synsets een grote invloed heeft op het bepalen van redelijke semantische relaties. De manier waarop dit gedaan wordt is echter dubieus. De formule is: Hierin wordt alleen maar rekening gehouden met de IC, en niet met de padlengte. Bovendien gaat Lin er van uit dat de IC van de LCS bepalend is voor de relatie tussen de synsets (wat hetzelfde inhoudt als zeggen dat fiets en auto dan pas in redelijke mate voertuigen zijn wanneer het concept voertuig vaak wordt gebruikt in het corpus). Hso (Hirst & St-Onge 1998) lijkt op Path in zoverre dat het uitgaat van de padlengte tussen de synsets. Hso is echter een relatedness measure en geen similarity measure en derhalve beperkt Hso zich niet tot de hyponiem hyperoniem relaties, maar worden alle in WordNet gecodeerde relaties gebruikt. Naast de padlengte wordt ook bijgehouden hoe vaak het pad overgaat op een ander type relatie. Hoe vaker er van type gewisseld moet worden, des te zwakker is de relatie. De formule waar dit algoritme gebruik van maakt is als volgt: Hierin is afstand het aantal synsets wat op de kortste weg tussen de te relateren synsets ligt. Het aantal typewijzigingen wordt weergegeven door d, en k en c zijn constanten. Het bereik is [0..16]. Bij de eerdere formules was het bereik netjes [0..1]. Lesk (Lesk 1985, uitgebreid door Banerjee & Petersen 2003) vergelijkt de synsetbeschrijvingen die in WordNet zijn opgenomen om te bepalen of begrippen gerelateerd zijn. De originele versie van Lesk keek alleen naar de beschrijvingen bij de te vergelijken woorden zelf. De in 2003 aangepaste versie kijkt ook naar de beschrijvingen van de synsets in WordNet die direct aan de te vergelijken synsets gerelateerd zijn. 9 Hoe langer de reeks van overlappende woorden in de beschrijvingen des te hoger wordt de relatie aangeslagen. De formule is hieronder afgebeeld. Hierin is som de som van alle overlappende woorden/ woordreeksen en n is de lengte van de op dat moment gesommeerde woordreeks. Het bereik is [0..inf). Vector (Patwardhan 2003) gebruikt net als Lesk de beschrijvingen bij de synsets. Het verschil is dat Vector er semantische vectoren van maakt. Dit wordt gedaan door de semantische vectoren van de in de beschrijving gebruikte woorden te middelen voor elke beschrijving. De semantische relatie tussen twee synsets wordt berekend door de cosinus te nemen van de semantische vectoren van de beschrijvingen van de beide synsets. 9 Satanjeev Banerjee, Ted Pedersen, Extended Gloss Overlaps as a Measure of Semantic Relatedness Proceedings of the Eighteenth International Joint Conference on Artificial Intelligence (2003).

12 10 Middelen: De tools De gebruikte tools zijn voor een deel een uitbreiding op en een aanpassing van de voor het eerdere spam-onderzoek geschreven tools (ssemanticanalyse.pl, smakesample.pl, sgoall.pl). Enkele tools van het vorige onderzoek kon ik zelfs in ongewijzigde vorm weer inzetten (sparsewords.pl en swordvalues.pl). Ook zijn er een aantal nieuwe tools geschreven die nodig waren voor dit specifieke onderzoek (clustererormover.pl, stweak.pl, stweakrun.pl, stweakstatdata.pl, swordnets.pl, wordcounter.pl en srateexpand.pl). Daarnaast zijn er ook nog tools die gebruikt zijn om het SpamCorpus gebruiksklaar te maken. Op die tools ga ik hier niet in. Ook ga ik niet in op de library s die ik voor het vorige onderzoek geschreven heb, en die ik ook bij dit onderzoek weer gebruikt heb. Al deze tools zijn Open Source en beschikbaar onder de GPL licentie. 10 Wat daarnaast een belangrijke categorie van tools is, zijn de 3rd party tools. Voor de WordNet algoritmes heb ik gebruik gemaakt van het perl programma WordNet::Similarity. Dit is gemaakt door Siddharth Patwardhan e.a. en op zijn beurt maakt het weer gebruik van het programma WordNet::QueryData van Jason Rennie (ook deze programma s zijn Open Source). 11 Hierin zijn de eerder besproken WordNet-gebaseerde algoritmes reeds geïmplementeerd. Ik zal hieronder één voor één de door mij geschreven tools beschrijven op de volgorde waarin ze gebruikt zijn. smakesample.pl is een tooltje voor het maken van een random sample vanuit een directory-structuur naar een kopie van die zelfde directory-structuur. Het is gebruikt om een random sample te nemen uit de twee gold standard clusters (PDC en AMC). Dit is gedaan omdat de clusters wat aan de grote kant waren (zou teveel processor-tijd vergen om ze allemaal in het testproces op te nemen) en zodat er een controle-run kon worden uitgevoerd op andere data. clustererormover.pl is een betrekkelijk simpel tooltje wat als taak heeft het kopiëren van een bepaalde selectie mails vanuit de structuur die het SpamCorpus heeft (jaartal/body voor de body van de ) naar een kopie van die zelfde structuur. De reeks geselecteerde (bestandsnamen van) mails worden ingelezen uit een directory met daarin symlinks (met de zelfde filenaam als de files in de SpamCorpus-structuur). Dit was namelijk de manier waarop Bart Alewijnse zijn clusters heeft ingedeeld. Aangezien de symlinks niet relatief, maar absoluut waren (en ze dus nergens meer naar verwezen nadat ik ze gekopieerd had naar mijn eigen machine) heeft het tooltje nog een extra functie en dat is het opnieuw maken van de symlinks, en dezen te kopiëren naar de gold/clusternaam directory. wordcounter.pl is een diagnostisch tooltje. Het levert een lijst met de meest voorkomende woorden in een bepaald cluster. Zowel het cluster als het aantal woorden wat men wil zien kan op de commandline worden opgegeven. Ook geeft het tooltje enige statistieken weer zoals het aantal files, het aantal woorden in de files en het aantal woorden per file. De output wordt voorzien van comment-tekens (# s) behalve op de plaats waar de statistieken op de volgende wijze getoond worden: $varnaam = waarde;. Door ze met > in een file te dumpen, en door deze file later d.m.v. require in te lezen in een perl-programma, kunnen de waarden zonder menselijke tussenkomst meteen weer worden gebruikt in een volgend programma. Dit is zinvol omdat ssemanticanalyse.pl deze statistieken later weer nodig heeft voor de normalisaties. sparsewords.pl maakt deel uit van het algoritme van Sformula. Het maakt voor alle woorden het eerder besproken lijstje met voorkomens relatief ten opzichte van sleutelwoorden WordNet::Similarity WordNet::QueryData

13 11 swordnets.pl heeft een aantal functies die alle WordNet gerelateerd zijn. De op deze plaats in de gebruikscyclus gebruikte functionaliteit is het maken van een lijst (zonder stopwoorden) met woorden die vaker voorkomen dan 25 maal. Deze lijst wordt verderop door de WordNet algoritmes gebruikt. De hoofdfunctie is het runnen van de verschillende WordNet algoritmes (maar dit gebeurt pas verderop vanuit stweakrun.pl). Bij WordNet::Similarity zit ook een command-line tool (similarity.pl), maar die is ten eerste traag en omslachtig, en ten tweede doet die niet precies wat ik wilde. Daarom heb ik een deel van die tool opnieuw geïmplementeerd in swordnets.pl. swordnets.pl is en blijft echter afhankelijk van WordNet::Similarity voor het echte werk. stweakrun.pl is de spil van dit onderzoek. In dit programma kan men een aantal commandlines opgeven met speciale tags op de plaatsen waar een bepaald te variëren argument opgegeven moet worden (de tag is {argumentnaam}). Vervolgens kan men het aantal stappen, en de stapgrootte opgeven waarmee voor iedere run de waarde van het argument moet worden opgehoogd (of een lijst met alle te testen waarden voor wanneer het een nominale variabel betreft). Dit kan gespecificeerd worden voor verschillende sets van programma s. Voor dit onderzoek zijn de sets: naked, random, wordnet en formula gedefinieerd. Deze kunnen worden afgedraaid door op de commandline./stweakrun seriesnaam r naked r random, etc. op te geven. Seriesnaam is een speciale archief-directoryprefix parameter die samen met de waardes van de andere argumenten wordt meegegeven aan het hulp-tooltje stweak.pl. Stweak.pl wordt vanuit stweakrun.pl aangeroepen (verderop meer over stweak.pl). Andere tools die vanuit stweakrun.pl gedraaid worden zijn: swordnets.pl (hierboven besproken), swordvalues.pl en ssemanticanalyse.pl (over deze twee hier onder meer). swordvalues.pl is het programma waarin Sformula geïmplementeerd is. Dit programma berekent de semantische afstand tussen woorden op basis van de door sparsewords.pl opgeleverde input (de lijsten). De output van swordvalues.pl bestaat uit een lijst met zoekwoorden waar achter het gewicht is gespecificeerd. Hetzelfde outputformaat wordt gehanteerd door swordnets.pl. Deze files vormen de input voor ssemanticanalyse.pl. ssemanticanalyse.pl is binnen dit onderzoek de zoekmachine. De lijsten met zoekwoorden (output van zowel swordvalues.pl als swordnets.pl) worden door dit script ingelezen en gebruikt om het corpus langs te gaan. De output van ssemanticanalyse.pl is een lijst met daarin voor alle documenten de som van de voor de zoekwoorden behaalde score in de verschillende clusters. Daarnaast heeft ssemanticanalyse.pl nog een tweede taak. Ssemanticanalyse kan de lijst met clusterscores op een aantal manieren normaliseren. Dit zijn: normwocount (score van een file delen door het aantal woorden in de file), normclcount (er voor zorgen dat de totaalscores van beide clusters even groot zijn door de scores voor het cluster met de hoogste score, relatief ten opzichte van die van het cluster met de laagste score, omlaag te halen) en normcltopcount (scores in een cluster delen door de gemiddelde score van de top 5% in dat cluster, en dit voor elk cluster). Voor de gepresenteerde resultaten van dit onderzoek is normwocount gebruikt. stweak.pl is ook een zeer belangrijk programma binnen dit onderzoek. Het heeft tot taak het beoordelen van de clusterscorelijstjes die opgeleverd zijn door ssemanticanalyse.pl (berekent F-score, recall en precision). Daarnaast zoekt het bij deze beoordeling naar de treshold die bij de optimale F-score hoort. Dit wordt gedaan door eerst een hash te maken met daarin alle scores die alle documenten behalen in alle clusters. In deze hash wordt per score opgeslagen hoeveel documenten true positives dan wel false positives worden wanneer de treshold deze score passeert. Vervolgens wordt deze hash naar aflopende clusterscores gesorteerd. Deze scores worden één voor één afgelopen en bij elke stap wordt de F-score berekend. Zo kan de hoogste F-score bepaald worden door steeds de F-score op te slaan die tot op dat punt de hoogste is (ook de treshold, de recall en de precision worden op die momenten opgeslagen). Daarnaast levert stweak.pl ook nog een lijst waarin voor elk document wordt

14 12 aangegeven of het een positive dan wel een negative is, en of dezen true of false zijn. Wat steak.pl ook doet is het opslaan van al deze gegevens en daarnevens het kopiëren van de zoekwoordenlijst en de clusterscorelijstjes naar/in een archiefmap zodat het een en ander nadien nog met de hand gecontroleerd kan worden. Ook wordt er telkens een regel toegevoegd aan een overzichtsfile waarin de F-scores, recall, precision, treshold en alle getweakte variabelen (en hun waardes) netjes naast elkaar staan. srateexpand.pl zoekt voor een reeks zoekwoordenlijstjes uit in welke mate er query expansie heeft plaatsgevonden. De gewogen voorkomens van de toegevoegde zoekwoorden worden gedeeld door het aantal voorkomens van de originele zoekwoorden (de sleutelwoorden, in geval van Sformula de sleutelsemant) in het hele SpamCorpus. De maat hiervoor het ik hier de expand genoemd. Het is nodig om hiernaar te kijken want algoritmes die een hoge expand-rate hebben bij hoge F-scores zijn beter in staat tot zinvolle query expansie dan algoritmes waarbij de expand lager is. Bovendien kan een hoge expand bij een lage F-score een aanduiding zijn voor een te sterke expansie als oorzaak voor de slechte F- score. De expand wordt door srateexpand.pl toegevoegd aan de door stweak.pl gecreëerde outputfiles. sgoall.pl bevat een soort runlist vergelijkbaar met die van stweakrun.pl maar nu voor alle tools die gedraaid moeten worden om te beginnen bij het SpamCorpus het complete onderzoek vrijwel zonder menselijke tussenkomst opnieuw te kunnen uitvoeren (natuurlijk onder het voorbehoud dat alle config-vars zoals directory-namen etc in de source goed ingesteld zijn). stweakstatdata.pl maakt tenslotte SPSS-ready datafiles van de outputfiles van srateexpand.pl. De tweak-variabelen, de precision s voor 21 recall-punten, en naar wens gemiddelden van expands en precision-scores worden berekend en in tab-delimited tekstfiles gezet.

15 13 Referentiekader Resultaten: Naked & Random De gebruikte sleutelwoorden voor het PDC- en AMC zijn zodanig gekozen dat ze zeer frequent en zeer typerend zijn voor hun clusters. Voor het zoeken met de kale sleutelwoorden (naked) werden derhalve hoge F-scores verwacht. Daarnaast zorgt de verdeling van de documenten in twee clusters en 1 restgroep en hun verhouding qua grootte van 1:1:2 er voor dat de precision 0,25 is wanneer alle documenten aan beide clusters worden toegewezen (de zwarte horizontale lijn in de onderstaande grafiek geeft deze ondergrens weer). De paarse lijnen geven de precision/recall weer van respectievelijk de naked run met vier sleutelwoorden per cluster (donker paars) en de naked run met één sleutelwoord per cluster (licht paars). De rode cirkels geven de punten aan waar de combinatie van recall en precision de F-score maximaal maakt. Voor de normale run is de maximale F-score 0,918 en voor de 1-woords run is de maximale F-score 0,677. Deze F-scores zijn erg hoog. De paarse lijnen (met name de donker paarse) kunnen derhalve gezien worden als een streefgrens. De blauwe lijnen geven de redelijke ondergrens weer. De donkerblauwe vertegenwoordigt de precision/recall van 50 Random Retrieval runs van variant 1 van dit algoritme. De lichtblauwe is het gemiddelde van 25 runs van variant 2 van het Random Retrieval algoritme (de sleutelwoorden in hun originele categorie met hun originele gewicht, scoort daarom iets beter). De lijnen in deze grafiek vormen een zinvol referentiekader voor het beoordelen van de prestaties van de geteste algoritmes. Precision / Recall grafiek van Naked Keywords en Random Retrieval. Tussen Random Wk en Naked is acceptabel voor normale runs, tussen Random en Naked One voor 1-keyword-runs

16 14 Resultaten: WordNet De WordNet-algoritmes hebben in de meeste gevallen gepresteerd binnen het zojuist besproken referentiekader. In een aantal gevallen vielen de resultaten er echter duidelijk onder de maat. Over het geheel genomen waren ze bovendien niet zeer goed. Om één van de oorzaken hiervoor te kunnen bespreken en om überhaupt de prestaties van de algoritmes te kunnen vergelijken is het nodig om het concept van de expand uiteen te zetten (zie voor een andere oorzaak het hoofdstuk Kanttekeningen). De voetafdruk van een set zoekwoorden is het totaal aantal voorkomens van een zoekwoord in het gehele SpamCorpus gewogen naar zijn gewicht, en gesommeerd voor alle zoekwoorden. De expand is de voetafdruk van de query inclusief de door het algoritme toegevoegde zoekwoorden gedeeld door de voetafdruk van de sleutelwoorden waarmee begonnen werd. De expand is dus de maat voor de mate waarin het algoritme aan query expansie heeft gedaan. Het is belangrijk om dit in de gaten te houden aangezien de maximale F-score met de kale zoekwoorden (Naked) al 0,918 was. Een algoritme kan in dit onderzoek dus goede F- scores behalen omdat ze goede query expansie doet maar ook omdat ze amper aan query expansie doet. Dit laatste geval is natuurlijk een veel mindere prestatie dan het eerste. In de nu volgende grafieken is het referentiekader weergegeven in zwart en grijs om het niet te prominent aanwezig te laten zijn. De rode cirkels geven de punten aan waar de maximale F- score behaald is voor resp. de normale run en de 1-sleutelwoords run (normale run scoort consistent hoger). Precision / Recall van het Path algoritme. Matige prestaties voor alle varianten behalve voor de (s)et senses en remove s(t)opwords variant en de combinatie hiervan.

17 15 Path presteert matig zoals te zien is in de bovenstaande Precision / Recall grafiek. Alle varianten behalve de t en de t s variant scoren zelfs op en onder het Random gemiddelde. De s staat voor set senses; het handmatig specificeren van welke concepten er wel, en welke concepten er niet met een bepaald opgegeven sleutelwoord worden bedoeld (binnen de twee clusters). WordNet werkt namelijk met zogenaamde synsets, hetgeen concepten zijn waarin synoniemen en/of vergelijkbare bijbetekenissen van andere woorden bijeen zijn gebracht. De code t staat voor het verwijderen van stopwords. Dit heeft een aanzienlijke invloed. Het gaat bij de WordNet algoritmes echter vooral om frequente woorden met weinig betekenis zoals who en inc. Echte stopwoorden zijn namelijk niet eens opgenomen in WordNet. De expand van Path schommelt tussen de 17 en de 34 resp. 57 en 140 (voor One; de 1-keywordruns), hetgeen aan de hoge kant, maar niet extreem is. Wup presteert uitgesproken slecht. Voor een deel is dit toe te schrijven aan het feit dat Wup expand s voortbrengt tussen resp voor One. Dit is erg hoog. Zelfs hoger dan wat het Random Keywords algoritme haalt (zit op resp ). Wup valt door de mand omdat er twee clusters zijn en omdat Wup woorden toevoegt aan het ene cluster die ook, en vaak beter onder het andere kunnen vallen. Voorbeelden zijn: job met gewicht 0,43 in het PDC cluster en natural met gewicht 0,49 in het AMC cluster. Een verzachtende factor is dat er deze week net een bug is ontdekt in het WordNet::Similarity programma die de implementatie van Wup betreft. Het gevolg van deze bug is inderdaad een hogere gelijkheidsscore. Wel is het zo dat deze bug alleen optreedt wanneer een paar begrippen meer dan 1 Least Common Subsumer heeft die op verschillende afstanden van de rootnode liggen (komt bijna niet voor). Wup presteert rampzalig als gevolg van een veel te hoge expand

18 16 Lin houdt zich ook niet zo goed. Voor een groot deel is dit, net als bij Wup te wijten aan een te grote gretigheid bij het gelijk veronderstellen van woordparen (expand resp ). Path, Wup en Lin zijn gelijkheids-, en geen relatedness maten (alleen hyponiem hyperoniem, niet de andere paden). Dit verklaart een deel van hun slechte prestaties, maar het verklaart niet waarom ze zulke hoge gelijkheidswaarden zouden moeten afgeven. Als we echter naar hun formules kijken dan wordt het een en ander vooral met betrekking tot Wup en Lin duidelijk. De formules van Wup en Lin zijn namelijk vrijwel hetzelfde. Het enige verschil is dat Lin rekening probeert te houden met het corpus als context door alleen veel voorkomende synsets als LCS en als sterk gerelateerde paren te gebruiken (iets wat de expand verkleint). Echter in beide gevallen is het zo dat een gelijkheid van 1/2 e helemaal niet zo veel is. Een LCS ergens midden in de boom, en twee synsets als bladeren van die LCS in de top is al voldoende voor een score van 1/2. In hyponiem hyperoniem relaties komt dat behoorlijk vaak voor. Het helemaal niet gezegd dat de manier van doen in Wup en Lin verkeerd is (de interpretatie van de schaal is een subjectief iets). Een gelijkheid van 1/2 e is alleen wel erg veel wanneer je dat als gewicht geeft aan een woord wat je in query expansie hebt toegevoegd. Dat de prestatie van het Lin-algoritme in wezen helemaal zo slecht nog niet is, blijkt uit de eerste vijf door dit algoritme gelijk-bevonden woorden voor beide clusters: AMC; transfer {0,70}, return {0,68}, measures {0,67}, deposit {0,67}, bill {0,67}, PDC; medicine {0,58}, medication {0,58}, prescriptions {0,57}, md {0,55}, rock {0,54}. Wat (duidelijk) gezien kan worden in de grafieken van Lesk, Wup en Lin is dat de variant met stopwoordcorrectie in alledrie de gevallen veel beter presteert dan die waarin niets gedaan is met stopwoorden. Ook het instellen van de senses heeft een structureel positieve invloed. En tot slot scoort het zoeken met 1-sleutelwoord lager. Lin presteert matig omdat ze te grote gelijkheidswaarden toekent

19 17 Hso brengt ons bij de WordNet relatedness measures. De maximale prestatie is meteen een stuk beter (max. F-score 0,69). Zeker gezien het feit dat de expand voor de s -variant 83,33 is. Wat meteen opvalt is dat hier het al dan niet setten van de senses een cruciaal verschil maakt. De normale Hso-run (rode lijn) ligt amper boven de random ondergrens, terwijl de s -variant stukken hoger ligt. Verder is het ook opmerkelijk dat het verwijderen van stopwoorden hier een positieve invloed heeft waar de senses niet geset zijn (de groene, ononderbroken lijn ligt boven de rode), terwijl de invloed negatief is als de senses wel geset zijn (de gestreepte groene lijn ligt bij de hogere recalls onder de gestreepte rode lijn). Een reden voor de goede score bij een hoge expand is dat het domein van Hso niet tussen nul en 1 ligt. De woorden in de lijst hebben een waarde die varieert tussen 0 en 5,5. Deze hogere waarden vertekenen de expand aangezien de aanvankelijke sleutelwoorden de waarde 1 behouden. Het verbetert echter misschien de prestaties ook op een onvoorziene manier. De waarde van een toegevoegd woord wordt in dit onderzoek namelijk bepaald door het gemiddelde te nemen van de door het algoritme opgeleverde semantische afstand tussen de sleutelwoorden (bij normale runs zijn dat er 4) en het woord. Hierdoor houden woorden die erg gerelateerd zijn aan alle vier de termen, een hoog gemiddelde. Aangezien hier de maximale waarde hoger is dan 1, zou het kunnen dat woorden die de essentie van de query beter beschrijven dan de query zelf, met een hoog gewicht naar voren geschoven worden. Dit zou zo kunnen zijn, gezien de top 5 in elk cluster: AMC; deposit {5,5}, deposits {5,5}, accounts {5}, bill {5}, accounting {4,5}, PDC; prescriptions {5,5}, medicines {5}, medicine {5}, medication {5}, physican {4} (vgl. met de sleutelwoorden). Het grote nadeel van Hso echter is dat het zeer traag is. Een run duurt al snel 24 uur op een 2,6 Ghz computer met 1 GB ram (gem. 2 uren bij de andere WordNet algoritmes).

20 18 Lesk laat indrukwekkende F-scores zien. Voor de normale run behaalt Lesk maximaal een F-score van Voor de 1-keyword-run is het 0.732, wat (zelfs) hoger is dan de door het Naked Keywords referentiekader-algoritme behaalde maximale F-score voor deze run. Lesk valt echter snel door de mand als we naar de expand s gaan kijken. De expand bij de F- score van is slechts 2.53, wat inhoudt dat slechts 3/5 e deel van de voetafdruk van de uiteindelijke query is toegevoegd door Lesk. Het andere deel bestaat uit de zoekwoorden waarmee het Naked Keywords referentie algoritme een F-score van behaalde. Wanneer we naar de andere Lesk runs kijken dan blijkt het voor lagere F-scores niet veel beter te worden. Expand s bij de volgende F waarden 0.895, 0.77, 0.76 zijn 4.05, 3.13 en De woorden die opgeleverd worden zijn echter wel goed en de gewichten zijn beschaafd. In de praktijk variëren ze tussen de 0 en de 0.7. Wat wel een punt van aanmerking is, is dat de gewichten zeer snel aflopen tot op een punt waar ze amper meer invloed kunnen hebben (zit al op 0.005, ver voor de helft van de lijst met meer dan 2000 suggesties per cluster). Een niet onaanzienlijk deel van de reeds magere - expand kan door de som van al deze woorden veroorzaakt zijn. Lesk komt vrij goed uit dit onderzoek en samen met Hso, die betere expand s behaalde, is ze het beste afgestemd op de hier gestelde taak. Het grote voordeel van lesk is echter dat ze naar WordNet standaarden betrekkelijk snel is. Meer dan een paar uren per run heeft Lesk niet nodig. Lesk behaalt goede F-scores, maar met minieme expand s

Semantische. Eindwerkstuk voor Information Retrieval Wybo Wiersma, s

Semantische. Eindwerkstuk voor Information Retrieval Wybo Wiersma, s Semantische Zwaartekracht Eindwerkstuk voor Information Retrieval Wybo Wiersma, s1298577 Wybo Wiersma Semantische Zwaartekracht 1 Inhoudsopgave Inleiding......2 Eerder werk......3 Window gebaseerde Information

Nadere informatie

Normering en schaallengte

Normering en schaallengte Bron: www.citogroep.nl Welk cijfer krijg ik met mijn score? Als je weet welke score je ongeveer hebt gehaald, weet je nog niet welk cijfer je hebt. Voor het merendeel van de scores wordt het cijfer bepaald

Nadere informatie

Hoofdstuk 26: Modelleren in Excel

Hoofdstuk 26: Modelleren in Excel Hoofdstuk 26: Modelleren in Excel 26.0 Inleiding In dit hoofdstuk leer je een aantal technieken die je kunnen helpen bij het voorbereiden van bedrijfsmodellen in Excel (zie hoofdstuk 25 voor wat bedoeld

Nadere informatie

User Profile Repository Testrapportage kwaliteit

User Profile Repository Testrapportage kwaliteit CatchPlus User Profile Repository Testrapportage kwaliteit Versie 1.1 User Profile Repository Testrapportage kwaliteit Versie: 1.1 Publicatiedatum: 20-4-2012 Vertrouwelijk GridLine B.V., 2012 Pagina 1

Nadere informatie

Netwerkdiagram voor een project. AOA: Activities On Arrows - activiteiten op de pijlen.

Netwerkdiagram voor een project. AOA: Activities On Arrows - activiteiten op de pijlen. Netwerkdiagram voor een project. AOA: Activities On Arrows - activiteiten op de pijlen. Opmerking vooraf. Een netwerk is een structuur die is opgebouwd met pijlen en knooppunten. Bij het opstellen van

Nadere informatie

Multimedia Information Retrieval

Multimedia Information Retrieval Doel Multimedia Information Retrieval Opdracht 2: Text analysis versie 0.6, 25 november 2008 Onderzoeken van de kwantitatieve eigenschappen van een aantal teksten; het uitvoeren van een kwantitatieve tekstanalyse;

Nadere informatie

Combinatorische Algoritmen: Binary Decision Diagrams, Deel III

Combinatorische Algoritmen: Binary Decision Diagrams, Deel III Combinatorische Algoritmen: Binary Decision Diagrams, Deel III Sjoerd van Egmond LIACS, Leiden University, The Netherlands svegmond@liacs.nl 2 juni 2010 Samenvatting Deze notitie beschrijft een nederlandse

Nadere informatie

Oplossingen Datamining 2II15 Juni 2008

Oplossingen Datamining 2II15 Juni 2008 Oplossingen Datamining II1 Juni 008 1. (Associatieregels) (a) Zijn de volgende beweringen juist of fout? Geef een korte verklaring voor alle juiste beweringen en een tegenvoorbeeld voor alle foute be-weringen:

Nadere informatie

DE INVLOED VAN GELUK, PECH, BIED- EN SPEELTECHNIEK OP DE SCORE BIJ BRIDGE

DE INVLOED VAN GELUK, PECH, BIED- EN SPEELTECHNIEK OP DE SCORE BIJ BRIDGE DE INVLOED VAN GELUK, PECH, BIED- EN SPEELTECHNIEK OP DE SCORE BIJ BRIDGE Versiedatum: 30-8-2008 Jan Blaas Blz. 1 van 7 Versiedatum: 30-8-08 INHOUDSOPGAVE Inleiding... 3 Hoe groot is de invloed van pech

Nadere informatie

Rapporten. Labels en Rapporten in Atlantis 1. Atlantis heeft twee manieren om output te genereren: 1. labels 2. rapporten (reports)

Rapporten. Labels en Rapporten in Atlantis 1. Atlantis heeft twee manieren om output te genereren: 1. labels 2. rapporten (reports) Labels en Rapporten in Atlantis 1 Atlantis heeft twee manieren om output te genereren: 1. labels 2. rapporten (reports) Rapporten Een rapport is eigenlijk altijd een tekst bestand, die vorm wordt gegeven

Nadere informatie

5. Functies. In deze module leert u:

5. Functies. In deze module leert u: 5. Functies In deze module leert u: - Wat functies zijn; - Functies uitvoeren; - De verschillende functies van Calc kennen. - Naar een ander werkblad verwijzen. U kunt eenvoudige berekeningen, zoals aftrekken,

Nadere informatie

Rhino: Back-up maken. RsyncBackup

Rhino: Back-up maken. RsyncBackup Rhino: Back-up maken Wij als gebruikers berokkenen zelf de meeste schade aan onze PC s. Niet virussen of trojans. We wissen ongewild bestanden en maken fouten met software. Ook een hardwarestoring kan

Nadere informatie

De statespace van Small World Networks

De statespace van Small World Networks De statespace van Small World Networks Emiel Suilen, Daan van den Berg, Frank van Harmelen epsuilen@few.vu.nl, daanvandenberg1976@gmail.com, Frank.van.Harmelen@cs.vu.nl VRIJE UNIVERSITEIT AMSTERDAM 2 juli

Nadere informatie

Het twee of meer planningssysteem ziet er als volgt uit wanneer de gebruiker is ingelogged.

Het twee of meer planningssysteem ziet er als volgt uit wanneer de gebruiker is ingelogged. Twee of meer planningssysteem Het twee of meer planningssysteem ziet er als volgt uit wanneer de gebruiker is ingelogged. Inloggen Het systeem is gebaseerd op user verificatie. Hiervoor kan elke gebruiker

Nadere informatie

Toetsen in Blackboard

Toetsen in Blackboard Toetsen in Blackboard Met de tool Test kun je toetsvragen maken en afnemen. In dit document wordt uitgelegd 1. Hoe een toets gemaakt kan worden. 2. Hoe een toets bewerkt kan worden. 3. Hoe een toets beschikbaar

Nadere informatie

Examen VWO. Wiskunde A1,2 (nieuwe stijl)

Examen VWO. Wiskunde A1,2 (nieuwe stijl) Wiskunde A1,2 (nieuwe stijl) Examen VWO Voorbereidend Wetenschappelijk Onderwijs Tijdvak 2 Woensdag 18 juni 13.3 16.3 uur 2 3 Voor dit examen zijn maximaal zijn 88 punten te behalen; het examen bestaat

Nadere informatie

Robuustheid regressiemodel voor kapitaalkosten gebaseerd op aansluitdichtheid

Robuustheid regressiemodel voor kapitaalkosten gebaseerd op aansluitdichtheid Robuustheid regressiemodel voor kapitaalkosten gebaseerd op aansluitdichtheid Dr.ir. P.W. Heijnen Faculteit Techniek, Bestuur en Management Technische Universiteit Delft 22 april 2010 1 1 Introductie De

Nadere informatie

De enveloppenparadox

De enveloppenparadox De enveloppenparadox Mats Vermeeren Berlin Mathematical School) 6 april 013 1 Inleiding Een spel gaat als volgt. Je krijgt twee identiek uitziende enveloppen aangeboden, waarvan je er één moet kiezen.

Nadere informatie

Samenvatting De hoofdonderzoeksvraag van dit proefschrift is vast te stellen hoe term- en relatie-extractietechnieken kunnen bijdragen tot het beantwoorden van medische vragen. Deze vraag is ingegeven

Nadere informatie

Over Plantinga s argument voor de existentie van een noodzakelijk bestaand individueel ding. G.J.E. Rutten

Over Plantinga s argument voor de existentie van een noodzakelijk bestaand individueel ding. G.J.E. Rutten 1 Over Plantinga s argument voor de existentie van een noodzakelijk bestaand individueel ding G.J.E. Rutten Introductie In dit artikel wil ik het argument van de Amerikaanse filosoof Alvin Plantinga voor

Nadere informatie

Cover Page. The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation.

Cover Page. The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation. Cover Page The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation. Author: Witsenburg, Tijn Title: Hybrid similarities : a method to insert relational information

Nadere informatie

Een computerprogramma is opgebouwd uit een aantal instructies die op elkaar volgen en die normaal na elkaar uitgevoerd worden.

Een computerprogramma is opgebouwd uit een aantal instructies die op elkaar volgen en die normaal na elkaar uitgevoerd worden. 2 Programmeren 2.1 Computerprogramma s Een computerprogramma is opgebouwd uit een aantal instructies die op elkaar volgen en die normaal na elkaar uitgevoerd worden. (=sequentie) Niet alle instructies

Nadere informatie

Bijlage Inlezen nieuwe tarieven per verzekeraar

Bijlage Inlezen nieuwe tarieven per verzekeraar ! Bijlage inlezen nieuwe tarieven (vanaf 3.2) Bijlage Inlezen nieuwe tarieven per verzekeraar Scipio 3.303 biedt ondersteuning om gebruikers alle tarieven van de verschillende verzekeraars in één keer

Nadere informatie

Handleiding bij de Booktest Generator

Handleiding bij de Booktest Generator Handleiding bij de Booktest Generator Het programma voor het maken van toetsen bij boeken. (c) 2005/2009 Visiria Uitgeversmaatschappij Twisk Inleiding Onze dank voor het aanvragen van de Booktest Generator.

Nadere informatie

3. Structuren in de taal

3. Structuren in de taal 3. Structuren in de taal In dit hoofdstuk behandelen we de belangrijkst econtrolestructuren die in de algoritmiek gebruikt worden. Dit zijn o.a. de opeenvolging, selectie en lussen (herhaling). Vóór we

Nadere informatie

Uitwerking tentamen Analyse van Algoritmen, 29 januari

Uitwerking tentamen Analyse van Algoritmen, 29 januari Uitwerking tentamen Analyse van Algoritmen, 29 januari 2007. (a) De buitenste for-lus kent N = 5 iteraties. Na iedere iteratie ziet de rij getallen er als volgt uit: i rij na i e iteratie 2 5 4 6 2 2 4

Nadere informatie

Vier in Balans-tool. Rapportage Teamlid

Vier in Balans-tool. Rapportage Teamlid Vier in Balans-tool Rapportage Teamlid 1 Inleiding Deze tool is gebaseerd op het Vier in Balans-model en is aangevuld met elementen uit Didactiek en Leiderschap in Balans. Dit model vat samen wat er uit

Nadere informatie

REKENVAARDIGHEID BRUGKLAS

REKENVAARDIGHEID BRUGKLAS REKENVAARDIGHEID BRUGKLAS Schooljaar 008/009 Inhoud Uitleg bij het boekje Weektaak voor e week: optellen en aftrekken Weektaak voor e week: vermenigvuldigen Weektaak voor e week: delen en de staartdeling

Nadere informatie

Praktische toepassing van functies

Praktische toepassing van functies Excellerend Heemraadweg 21 2741 NC Waddinxveen 06 5115 97 46 richard@excellerend.nl BTW: NL0021459225 ABN/AMRO: NL72ABNA0536825491 KVK: 24389967 Praktische toepassing van functies De laatste twee functies

Nadere informatie

Handicom. Symbol for Windows. Image Manager. (Versie 3) Handicom, 2006, Nederland

Handicom. Symbol for Windows. Image Manager. (Versie 3) Handicom, 2006, Nederland Handicom Symbol for Windows Image Manager (Versie 3) Handicom, 2006, Nederland Inhoud 1. Image Manager hoofdscherm... 2 1.1 Onderdelen van het venster... 2 1.2 Het scherm veranderen... 2 1.3 Een andere

Nadere informatie

Het minimale aantal sleutels op niveau h is derhalve

Het minimale aantal sleutels op niveau h is derhalve 1 (a) In een B-boom van orde m bevat de wortel minimaal 1 sleutel en maximaal m 1 sleutels De andere knopen bevatten minimaal m 1 sleutels en maximaal m 1 sleutels (b) In een B-boom van orde 5 bevat elke

Nadere informatie

Hoofdstuk 21: Gegevens samenvatten

Hoofdstuk 21: Gegevens samenvatten Hoofdstuk 21: Gegevens samenvatten 21.0 Inleiding In Excel kunnen grote (en zelfs ook niet zo grote) tabellen met getallen en tekst er nogal intimiderend uitzien. Echter, Excel komt helemaal tot haar recht

Nadere informatie

Cursus Excel voor beginners (6) Functies.

Cursus Excel voor beginners (6) Functies. Cursus Excel voor beginners (6) Functies. Handleiding van Auteur: CorVerm September 2008 Functies in Excel. Laten we eerst even kijken wat een functie is. Een functie bestaat uit een aantal argumenten

Nadere informatie

Uitgebreide uitwerking Tentamen Complexiteit, mei 2007

Uitgebreide uitwerking Tentamen Complexiteit, mei 2007 Uitgebreide uitwerking Tentamen Complexiteit, mei 007 Opgave. a. Een beslissingsboom beschrijft de werking van het betreffende algoritme (gebaseerd op arrayvergelijkingen) op elke mogelijke invoer. In

Nadere informatie

Voorbereidend Wetenschappelijk Onderwijs Tijdvak 2 Woensdag 18 juni uur

Voorbereidend Wetenschappelijk Onderwijs Tijdvak 2 Woensdag 18 juni uur Wiskunde A (oude stijl) Examen VWO Voorbereidend Wetenschappelijk Onderwijs Tijdvak 2 Woensdag 18 juni 13.3 16.3 uur 2 3 Voor dit examen zijn maximaal 9 punten te behalen; het examen bestaat uit 2 vragen.

Nadere informatie

Wat maakt WizeNote uniek?

Wat maakt WizeNote uniek? wizenote Wat maakt WizeNote uniek? Het belang van begrijpelijk schrijven Online informatie is vaak veel te moeilijk. Op basis van veel onderzoek is onze schatting dat 80% van de zakelijke teksten geschreven

Nadere informatie

Excel reader. Beginner Gemiddeld. bas@excel-programmeur.nl

Excel reader. Beginner Gemiddeld. bas@excel-programmeur.nl Excel reader Beginner Gemiddeld Auteur Bas Meijerink E-mail bas@excel-programmeur.nl Versie 01D00 Datum 01-03-2014 Inhoudsopgave Introductie... - 3 - Hoofdstuk 1 - Databewerking - 4-1. Inleiding... - 5-2.

Nadere informatie

Symbol for Windows BlissEditor

Symbol for Windows BlissEditor Handicom Symbol for Windows BlissEditor ( Versie 4 ) Handicom, 2006, Nederland Inhoud 1. Inleiding... 2 2. Schermopbouw van de Bliss Editor...3 2.1 Werkbalk... 3 2.2 Matrix... 4 2.3 Palet met basisvormen,

Nadere informatie

HOVO statistiek November 2011 1

HOVO statistiek November 2011 1 Principale Componentenanalyse en hockeystick-short centring Principale Componentenanalyse bedacht door Karl Pearson in 1901 Peter Grünwald HOVO 31-10 2011 Stel we hebben een grote hoeveelheid data. Elk

Nadere informatie

Computationele Intelligentie

Computationele Intelligentie Computationele Intelligentie Uitwerking werkcollege Representatie, Ongeïnformeerd zoeken, Heuristisch zoeken 1 lokkenwereld a. De zoekboom die door het dynamische breadth-first search algoritme wordt gegenereerd

Nadere informatie

Van mij. Een gezicht is geen muur. Jan Bransen, Universiteit Utrecht

Van mij. Een gezicht is geen muur. Jan Bransen, Universiteit Utrecht [Gepubliceerd in Erik Heijerman & Paul Wouters (red.) Praktische Filosofie. Utrecht: TELEAC/NOT, 1997, pp. 117-119.] Van mij Een gezicht is geen muur Jan Bransen, Universiteit Utrecht Wij hechten veel

Nadere informatie

Starten van de tool De tool wordt opgestart door een web browser te openen (bij voorkeur Google Chrome) en in de adresbalk te typen:

Starten van de tool De tool wordt opgestart door een web browser te openen (bij voorkeur Google Chrome) en in de adresbalk te typen: Gist demo Toelichting op de interface en werking van de tool. v0.1, 20 januari 2016, Erik Boertjes v0.2, 1 februari 2016, Rianne Kaptein v0.3, 9 mei 2016, Rianne Kaptein Doel Met behulp van de tool beschreven

Nadere informatie

VBA voor doe het Zelvers - deel 10

VBA voor doe het Zelvers - deel 10 VBA voor doe het Zelvers - deel 10 Handleiding van Auteur: leofact Oktober 2014 handleiding: VBA voor doe het Zelvers - deel 10 VBA voor Doe het Zelvers is een reeks artikelen, bedoelt voor mensen die

Nadere informatie

Uitgebreide uitwerking Tentamen Complexiteit, juni 2017

Uitgebreide uitwerking Tentamen Complexiteit, juni 2017 Uitgebreide uitwerking Tentamen Complexiteit, juni 017 Opgave 1. a. Een pad van de wortel naar een blad stelt de serie achtereenvolgende arrayvergelijkingen voor die het algoritme doet op zekere invoer.

Nadere informatie

9. Strategieën en oplossingsmethoden

9. Strategieën en oplossingsmethoden 9. Strategieën en oplossingsmethoden In dit hoofdstuk wordt nog even terug gekeken naar alle voorgaande hoofdstukken. We herhalen globaal de structuren en geven enkele richtlijnen voor het ontwerpen van

Nadere informatie

Hoe werkt u met Moderne Wiskunde 12 e editie onderbouw?

Hoe werkt u met Moderne Wiskunde 12 e editie onderbouw? Hoe werkt u met Moderne Wiskunde 12 e editie onderbouw? Inhoud 1 In vogelvlucht p. 2 2 Hoe wilt u werken? p. 3 3 Hoe maken de leerlingen kennis met Moderne Wiskunde online? p. 5 4 Meer dan lesstof in het

Nadere informatie

1 Inleiding in Functioneel Programmeren

1 Inleiding in Functioneel Programmeren 1 Inleiding in Functioneel Programmeren door Elroy Jumpertz 1.1 Inleiding Aangezien Informatica een populaire minor is voor wiskundestudenten, leek het mij nuttig om een stukje te schrijven over een onderwerp

Nadere informatie

In dit gedeelte worden drie problemen genoemd die kunnen voorkomen in netwerken.

In dit gedeelte worden drie problemen genoemd die kunnen voorkomen in netwerken. Aantekening Wiskunde Steiner Aantekening door D. 2086 woorden 25 mei 2016 2,1 1 keer beoordeeld Vak Wiskunde Resultaten Vragen bij het wetenschappelijk materiaal 9.1 Prototype example, p. 374-376 In dit

Nadere informatie

Gebruikers handleiding. Lizard Configuration Manager ToolTip. Installatie. Instellen. Initieel instellen

Gebruikers handleiding. Lizard Configuration Manager ToolTip. Installatie. Instellen. Initieel instellen Gebruikers handleiding Lizard Configuration Manager ToolTip Installatie Installeer eerst het volgende: Installeer python 2.5.2; zie de map Breda\Tooltip\lcm\install\python-2.5.2.msi Ga naar dos (run/uitvoeren

Nadere informatie

Hoe goed is een test?

Hoe goed is een test? Hoe goed is een test? 1.0 het ideale plaatje Als we een test uitvoeren om te ontdekken of iemand ziek is hebben we het liefst een test waarbij de gezonde en de zieke groepen duidelijk gescheiden zijn.

Nadere informatie

Grofweg zijn er twee typen redeneervraagstukken. A. Gedrag van een formule verklaren. B. Het doorzien van de structuur van de formule.

Grofweg zijn er twee typen redeneervraagstukken. A. Gedrag van een formule verklaren. B. Het doorzien van de structuur van de formule. Redeneren met formules Redeneren met formules is een regelmatig terugkerend onderwerp op examens. Kijk maar eens als extreem voorbeeld naar de opgave Behendigheid uit het examen VWO wiskunde 2012 tijdvak

Nadere informatie

Praktische opdracht Wiskunde A IQtest

Praktische opdracht Wiskunde A IQtest Praktische opdracht Wiskunde A IQtest Praktische-opdracht door een scholier 2063 woorden 27 januari 2004 7,6 20 keer beoordeeld Vak Wiskunde A Inhoudsopgave Inleiding Hoe dacht William Stern over intelligentie?

Nadere informatie

Hoofdstuk 13: Sorteren & Filteren* 2010

Hoofdstuk 13: Sorteren & Filteren* 2010 Hoofdstuk 13: Sorteren & Filteren* 2010 13.0 Inleiding Spreadsheets bieden meer grip op gegevens. De twee beste manieren om meer grip te krijgen, is door de gegevens te sorteren of door bepaalde waarden

Nadere informatie

Vier in Balans-tool. Individuele Rapportage

Vier in Balans-tool. Individuele Rapportage Vier in Balans-tool Individuele Rapportage 1 Inleiding Deze tool is gebaseerd op het Vier in Balans-model en is aangevuld met elementen uit Didactiek en Leiderschap in Balans. Dit model vat samen wat er

Nadere informatie

Handleiding De Biedwedstrijd

Handleiding De Biedwedstrijd Handleiding De Biedwedstrijd Auteur: Marcel Hofstede Versie: 2.1 Handleiding Biedwedstrijd (V2.1) Blz. 1 van 11 INHOUDSOPGAVE Programma Biedwedstrijd...3 1. Installatie en opstarten van het programma...3

Nadere informatie

Containers stapelen. M.L. Koning april 2013

Containers stapelen. M.L. Koning april 2013 Technische Universiteit Eindhoven 2WH03 - Modelleren C Containers stapelen L. van Hees 0769244 M.L. Koning 0781346 2 april 2013 Y.W.A Meeuwenberg 0769217 1 Inleiding De NS vervoert dagelijks grote hoeveelheden

Nadere informatie

Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms

Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms Giso Dal (0752975) Pagina s 5 7 1 Deelverzameling Representatie

Nadere informatie

PROS1E1 Gestructureerd programmeren in C Dd/Kf/Bd

PROS1E1 Gestructureerd programmeren in C Dd/Kf/Bd Inhoudsopgave 1 Inleiding... 1 2 Toekenning- en herhalingsopdrachten (for loop)... 2 2.1 De wet van Ohm... 3 2.2 De spaarrekening... 3 2.3 De transformator... 3 3 Keuze- en herhalingsopdrachten (if, switch,

Nadere informatie

Bijlage 2: 3.2 onderzoek

Bijlage 2: 3.2 onderzoek Bijlage : 3. onderzoek Ik heb een onderzoek gedaan naar de fitheid van de kinderen van groep 7 en 8 van de Sint Lambertus school in Asten. Ik heb eerst een enquête afgenomen, en heb daarna testjes afgenomen

Nadere informatie

Toets deel 2 Data-analyse en retrieval Vrijdag 1 Juli 2016:

Toets deel 2 Data-analyse en retrieval Vrijdag 1 Juli 2016: Toets deel 2 Data-analyse en retrieval Vrijdag 1 Juli 2016: 11.00-13.00 Algemene aanwijzingen 1. Het is toegestaan een aan beide zijden beschreven A4 met aantekeningen te raadplegen. 2. Het is toegestaan

Nadere informatie

Uitwerkingen Sum of Us

Uitwerkingen Sum of Us Instant Insanity Uitwerkingen Sum of Us Opgave A: - Opgave B: Voor elk van de vier kubussen kun je een graaf maken die correspondeert met de desbetreffende kubus. Elk van deze grafen bevat drie lijnen.

Nadere informatie

Website maker. Bezoek je domein om de Website maker in te stellen. De volgende melding zal zichtbaar zijn.

Website maker. Bezoek je domein om de Website maker in te stellen. De volgende melding zal zichtbaar zijn. Aan de slag met de Bezoek je domein om de in te stellen. De volgende melding zal zichtbaar zijn. Volg de url 'administratie paneel' om in te loggen en de vervolgens in te stellen. Als eerst krijg je de

Nadere informatie

Om een zo duidelijk mogelijk verslag te maken, hebben we de vragen onderverdeeld in 4 categorieën.

Om een zo duidelijk mogelijk verslag te maken, hebben we de vragen onderverdeeld in 4 categorieën. Beste leerling, Dit document bevat het examenverslag voor leerlingen van het vak wiskunde A vwo, tweede tijdvak (2019). In dit examenverslag proberen we een zo goed mogelijk antwoord te geven op de volgende

Nadere informatie

Handicom. Symbol for Windows. Image Manager. (Versie 4) Handicom, 2011, Nederland

Handicom. Symbol for Windows. Image Manager. (Versie 4) Handicom, 2011, Nederland Handicom Symbol for Windows Image Manager (Versie 4) Handicom, 2011, Nederland Inhoud Inleiding... 2 1. Image Manager hoofdscherm...3 1.1 Onderdelen van het venster...3 1.2 Het scherm veranderen...3 1.2.1

Nadere informatie

Gebruiksvriendelijkheid: Gebruiksaanwijzing:

Gebruiksvriendelijkheid: Gebruiksaanwijzing: Gebruiksvriendelijkheid: Elon Education is een tool waarmee online woordjes geleerd kunnen worden voor de vreemde talen. Ook is het mogelijk om met Elon Education de tafels te oefenen, werkwoorden enz.

Nadere informatie

In de door ons gebruikte demo verloopt het herkennen van beelden in feite in 2 fasen:

In de door ons gebruikte demo verloopt het herkennen van beelden in feite in 2 fasen: Practicum: deel 1 Hond zoekt Bal In het practicum Hond zoekt Bal laten we je kennis maken met de werking van supercomputers. We gebruiken daarvoor een applicatie waarmee met een webcam objecten herkend

Nadere informatie

Meetellen van vakken bij meerdere inschrijvingen - notitie voor specialisten HvA Reinier van der Neut / 20-03-2012

Meetellen van vakken bij meerdere inschrijvingen - notitie voor specialisten HvA Reinier van der Neut / 20-03-2012 Meetellen van vakken bij meerdere inschrijvingen - notitie voor specialisten HvA Reinier van der Neut / 20-03-2012 Wanneer een student inschrijvingen heeft op twee of meer verschillende opleidingen en

Nadere informatie

Vier in Balans-tool. Teamrapportage

Vier in Balans-tool. Teamrapportage Vier in Balans-tool Teamrapportage 1 Inleiding Deze tool is gebaseerd op het Vier in Balans-model. Dit model vat samen wat er uit wetenschappelijk onderzoek bekend is over succesvolle invoering en gebruik

Nadere informatie

Het overzetten van WinDigipet data tussen PC (s) of Laptops

Het overzetten van WinDigipet data tussen PC (s) of Laptops Het overzetten van WinDigipet data tussen PC (s) of Laptops (versie ProX.3) Door: Bob vermeulen Versie: 1.1 Datum: 27-03-2009 2009-03-27 1 van 17 INHOUD 1 Inleiding... 3 2 De voorbereiding... 3 2.1 WindigiPet

Nadere informatie

Computationele Intelligentie

Computationele Intelligentie Computationele Intelligentie Uitwerking werkcollege Representatie, Ongeïnformeerd zoeken, Heuristisch zoeken 1 lokkenwereld a. De zoekboom die door het dynamische breadth-first search algoritme wordt gegenereerd

Nadere informatie

Koppeling met een database

Koppeling met een database PHP en MySQL Koppeling met een database 11.1 Inleiding In PHP is het eenvoudig om een koppeling te maken met een database. Een database kan diverse gegevens bewaren die met PHP aangeroepen en/of bewerkt

Nadere informatie

Cover Page. The handle holds various files of this Leiden University dissertation.

Cover Page. The handle  holds various files of this Leiden University dissertation. Cover Page The handle http://hdl.handle.net/1887/29764 holds various files of this Leiden University dissertation. Author: Takes, Frank Willem Title: Algorithms for analyzing and mining real-world graphs

Nadere informatie

Samenvatting De belangrijkste onderzoeksvraag waarop het werk in dit proefschrift een antwoord probeert te vinden, is welke typen taalkundige informatie het nuttigst zijn voor de lexicale desambiguatie

Nadere informatie

Undo (ongedaan maken) in Picasa

Undo (ongedaan maken) in Picasa Undo (ongedaan maken) in Picasa De veranderingen in Picasa 3.6 en 3.8 spelen voor dit onderwerp geen rol - hoogstens zijn er kleine verschillen in de schermafbeeldingen. Zie Intro Picasa 3.6NL en Intro

Nadere informatie

automatische zoekverbetering

automatische zoekverbetering automatische zoekverbetering taaltechnologische technieken Eric Sieverts VOGIN HvA / december 2012 (taal)technologische methoden best-match zoeken met relevantie-ordening truncatie, wordstemming, fuzzy

Nadere informatie

Examen VWO - Compex. wiskunde A1

Examen VWO - Compex. wiskunde A1 wiskunde A1 Examen VWO - Compex Voorbereidend Wetenschappelijk Onderwijs Tijdvak 1 Woensdag 25 mei totale examentijd 3 uur 20 05 Vragen 14 tot en met 21 In dit deel staan de vragen waarbij de computer

Nadere informatie

Tips & Tricks: Tip van de maand december 2011. NX CAE NX Nastran: Memory optimalisatie buffsize f06 output

Tips & Tricks: Tip van de maand december 2011. NX CAE NX Nastran: Memory optimalisatie buffsize f06 output Tips & Tricks: Tip van de maand december 2011 NX CAE NX Nastran: Memory optimalisatie buffsize f06 output Door: Christophe Vandevelde In de techtip van augustus hebben we het gehad over de hardware optimalisatie

Nadere informatie

Modelleren C Appels. Christian Vleugels Sander Verkerk Richard Both. 2 april 2010. 1 Inleiding 2. 3 Data 3. 4 Aanpak 3

Modelleren C Appels. Christian Vleugels Sander Verkerk Richard Both. 2 april 2010. 1 Inleiding 2. 3 Data 3. 4 Aanpak 3 Modelleren C Appels Christian Vleugels Sander Verkerk Richard Both 2 april 2010 Inhoudsopgave 1 Inleiding 2 2 Probleembeschrijving 2 3 Data 3 4 Aanpak 3 5 Data-analyse 4 5.1 Data-analyse: per product.............................

Nadere informatie

HANDLEIDING ZOEKMACHINE OPTIMALISATIE

HANDLEIDING ZOEKMACHINE OPTIMALISATIE HANDLEIDING ZOEKMACHINE OPTIMALISATIE Bij het bepalen van nieuwe woorden en teksten voor de zoekmachine moet rekening gehouden worden met de inhoud van de website, en hoe Google websites een rang geeft

Nadere informatie

Samenvoegen met Word en Excel 2010

Samenvoegen met Word en Excel 2010 Samenvoegen met Word en Excel 2010 Inhoudsopgave Samenvoegen Word-Excel / Mailingen... 2 Tip Samenvoegvelden automatisch markeren... 4 Tip Installeer PDF-creator... 7 Tip Sla het Word-document en Excel-document

Nadere informatie

Wiskunde C vwo. Workshop Noordhoff wiskundecongres 19 november 2015 Jan Dijkhuis en Sabine de Waal. Programma

Wiskunde C vwo. Workshop Noordhoff wiskundecongres 19 november 2015 Jan Dijkhuis en Sabine de Waal. Programma Wiskunde C vwo Workshop Noordhoff wiskundecongres 19 november 2015 Jan Dijkhuis en Sabine de Waal Programma 1. Vorm en ruimte in Getal & Ruimte 2. Logisch redeneren in Getal & Ruimte 1. Examenprogramma

Nadere informatie

1 Rekenen in eindige precisie

1 Rekenen in eindige precisie Rekenen in eindige precisie Een computer rekent per definitie met een eindige deelverzameling van getallen. In dit hoofdstuk bekijken we hoe dit binnen een computer is ingericht, en wat daarvan de gevolgen

Nadere informatie

Computerprogramma PPS, dd. 10 januari 2005

Computerprogramma PPS, dd. 10 januari 2005 Computerprogramma PPS, dd. 10 januari 2005 Inleiding Het computerprogramma PPS is een Excel-applicatie waarmee competenties geïnventariseerd en geoperationaliseerd kunnen worden. Voor elke toegevoegde

Nadere informatie

Factor = het getal waarmee je de oude hoeveelheid moet vermenigvuldigen om een nieuwe hoeveelheid te krijgen.

Factor = het getal waarmee je de oude hoeveelheid moet vermenigvuldigen om een nieuwe hoeveelheid te krijgen. Samenvatting door een scholier 1569 woorden 23 juni 2017 5,8 6 keer beoordeeld Vak Methode Wiskunde Moderne wiskunde Wiskunde H1 t/m H5 Hoofdstuk 1 Factor = het getal waarmee je de oude hoeveelheid moet

Nadere informatie

Het warmteverlies van het lichaamsoppervlak aan de wordt gegeven door de volgende formule:

Het warmteverlies van het lichaamsoppervlak aan de wordt gegeven door de volgende formule: Opgave 1. (4 punten) Inleiding: Een vleermuis is een warmbloedig zoogdier. Dat wil zeggen dat hij zijn lichaamstemperatuur op een konstante waarde moet zien te houden. Als de omgeving kouder is dan de

Nadere informatie

Mijn Natuurlijke Werk Stijl (NWS)

Mijn Natuurlijke Werk Stijl (NWS) Mijn Natuurlijke Werk Stijl (NWS) Gegevens van de referentiegroep: Uw unieke logincode: Bewaar deze code goed, u kan ze gebruiken voor het aanvragen van bijkomende rapporten. Copyright 2011-2013 Pontis

Nadere informatie

Information Retrieval: introductie 1

Information Retrieval: introductie 1 Information Retrieval: introductie 1 hoe is relevante informatie in zeer grote hoveelheden van documenten te vinden? deze documenten moeten wel door de computer verwerkbaar zijn vaak zijn er te veel hits:

Nadere informatie

6. Absolute en relatieve celadressering

6. Absolute en relatieve celadressering 6. Absolute en relatieve celadressering In deze module leert u: - Wat absolute en relatieve celadressering is; - De relatieve celadressering toepassen; - De absolute celadressering toepassen; - De absolute

Nadere informatie

Modulewijzer InfPbs00DT

Modulewijzer InfPbs00DT Modulewijzer InfPbs00DT W. Oele 0 juli 008 Inhoudsopgave Inleiding 3 Waarom wiskunde? 3. Efficiëntie van computerprogramma s............... 3. 3D-engines en vectoranalyse................... 3.3 Bewijsvoering

Nadere informatie

Deel 3 havo. Docentenhandleiding havo deel 3 CB

Deel 3 havo. Docentenhandleiding havo deel 3 CB Deel 3 havo De hoeveelheid leerstof is gebaseerd op drie lesuren per week. Met drie lesuren is het in ieder geval mogelijk om de basisstof van tien hoofdstukken door te werken, eventueel met de verkorte

Nadere informatie

Blog-Het gebruik van variabelen in Excel VBA

Blog-Het gebruik van variabelen in Excel VBA Blog-Het gebruik van variabelen in Excel VBA Versie : 2012.01.31.1 (Blog http://www.reinder.eu) Dank voor de leuke reacties op het vorige blog en ook dank voor de kritische noot over het nivo dat de gebruiker

Nadere informatie

Getal en Ruimte wi 1 havo/vwo deel 1 hoofdstuk 4 Didactische analyse door Lennaert van den Brink (1310429)

Getal en Ruimte wi 1 havo/vwo deel 1 hoofdstuk 4 Didactische analyse door Lennaert van den Brink (1310429) Getal en Ruimte wi 1 havo/vwo deel 1 hoofdstuk 4 Didactische analyse door Lennaert van den Brink (1310429) - een lijst met operationele en concrete doelen van de lessenserie, indien mogelijk gerelateerd

Nadere informatie

Mastermind met acht kleuren

Mastermind met acht kleuren Geschreven voor het vak: Wiskunde gedoceerd door H. Mommaerts Onderzoekscompetentie Mastermind met acht kleuren Auteurs: Tom Demeulemeester Pieter Van Walleghem Thibaut Winters 6LWIi 22 april 2014 1 Inleiding

Nadere informatie

Machten, exponenten en logaritmen

Machten, exponenten en logaritmen Machten, eponenten en logaritmen Machten, eponenten en logaritmen Macht, eponent en grondtal Eponenten en logaritmen hebben alles met machtsverheffen te maken. Een macht als 4 is niets anders dan de herhaalde

Nadere informatie

HET BELANGRIJKSTE OM TE WETEN OM MEER ZELFVERTROUWEN TE KRIJGEN

HET BELANGRIJKSTE OM TE WETEN OM MEER ZELFVERTROUWEN TE KRIJGEN HET BELANGRIJKSTE OM TE WETEN OM MEER ZELFVERTROUWEN TE KRIJGEN Gratis PDF Beschikbaar gesteld door vlewa.nl Geschreven door Bram van Leeuwen Versie 1.0 INTRODUCTIE Welkom bij deze gratis PDF! In dit PDF

Nadere informatie

Programmeermethoden NA. Week 5: Functies (vervolg)

Programmeermethoden NA. Week 5: Functies (vervolg) Programmeermethoden NA Week 5: Functies (vervolg) Kristian Rietveld http://liacs.leidenuniv.nl/~rietveldkfd/courses/prna/ Bij ons leer je de wereld kennen 1 Functies Vorige week bekeken we functies: def

Nadere informatie

Uitwerkingen opgaven Kunstmatige intelligentie

Uitwerkingen opgaven Kunstmatige intelligentie Uitwerkingen opgaven Kunstmatige intelligentie Opgave 8 (1.6.2001) e. Uiteindelijk wordt onderstaande boom opgebouwd. Knopen die al eerder op een pad voorkwamen worden niet aangegeven, er zijn dus geen

Nadere informatie

Uitwerking tentamen Algoritmiek 9 juli :00 13:00

Uitwerking tentamen Algoritmiek 9 juli :00 13:00 Uitwerking tentamen Algoritmiek 9 juli 0 0:00 :00. (N,M)-game a. Toestanden: Een geheel getal g, waarvoor geldt g N én wie er aan de beurt is (Tristan of Isolde) b. c. Acties: Het noemen van een geheel

Nadere informatie

Handleiding: Hoog in Google!

Handleiding: Hoog in Google! Handleiding: Hoog in Google! Iedereen wilt graag dat zijn of haar internetsite als één van de eersten getoond wordt wanneer er in Google wordt gezocht. Dit kun je bereiken via: techniek en content. De

Nadere informatie

3. Structuren in de taal

3. Structuren in de taal 3. Structuren in de taal In dit hoofdstuk behandelen we de belangrijkst econtrolestructuren die in de algoritmiek gebruikt worden. Dit zijn o.a. de opeenvolging, selectie en lussen (herhaling). Vóór we

Nadere informatie