Lezingen 2019

vogin-ip-klein
Sprekers bij de
VOGIN-IP-lezing
21 maart 2019

.
Eliot Higgins /Plenaire keynote/  
Bellingcat – Truth in a Post-Truth World
Frédérik Ruys /Plenaire keynote/  
Van data exploratie naar animatie: de valkuilen in visualisaties
Arnoud Engelfriet Zoeken en gevonden worden, mag dat onder de AVG/GDPR?
Marieke van Erp 27.000 Recepten vinden in 8 miljoen krantenberichten: Geesteswetenschappen op het snijvlak van taaltechnologie en big data
Folgert Karsdorp
Mike Kestemont
Keeping it real: the artificial synthesis of hiphop lyrics
Paula Kassenaar Zalando’s take on building a fashion knowledge graph
Cynthia Liem Verborgen schatten langs de digitale snelweg
Daan Odijk Op zoek naar vermaak met Data Science & AI

Sprekers

 
Eliot Higgins
Eliot Higgins is the founder of Bellingcat, a multi-award winning investigative collective, that uses online open source investigation to examine a broad range of topics, including the shooting down of MH17 by a Russian Buk missile launcher in Eastern Ukraine, the conflict in Syria, extrajudicial executions by a range of state and non-state actors from across the world, and much more. Higgins has played a key role in the development and spread of the field of online open source investigation. Bellingcat’s work was recently the topic of the documentary “Bellingcat – Truth in a Post-Truth World”
| web | twitter | wikipedia | youtube |
 
Keynote: “Bellingcat – Truth in a Post-Truth World”
Eliot Higgins examines the use of online open source investigation in investigating incidents from across the world, and its use in discerning the truth about events happening thousands of miles away, all by using publicly available material.
[A one and half hour documentary with the same title can still be viewed on “Uitzending gemist“.]
[Zie ook deze blogpost en deze en deze]
 
Frédérik Ruys
Frédérik Ruys van het in information design en visual storytelling gespecialiseerde bedrijf vizualism noemt zichzelf datajournalist en informatiearchitect. Ook wie Frédérik zelf niet heeft ontmoet, is waarschijnlijk wel al producten van hem tegengekomen. Hij is namelijk degene die de opvallende visualisaties van de VPRO-serie “Nederland van boven” heeft verzorgd. Een cruciale uitspraak op de website van vizualism: “Visualiseren betekent niet het versimpelen van de informatie, maar het verhelderen.”
| web | twitter | li | youtube | nl-van-boven |
 
Keynote: “Van data exploratie naar animatie: de valkuilen in visualisaties”
De hedendaagse stortvloed aan data moeten we verbeelden, willen we inzicht kunnen krijgen in onze complexe wereld. En het groeiend aantal tools helpt ons deze datasets op verrassende en spectaculaire manier te visualiseren. Maar uiteindelijk gaat het om het verhaal. Daarom stimuleert Fréderik vooral ook anderen zelf te schetsen en te ontwerpen aan de hand van data. Met een aantal handreikingen (de visualisatie matrix) en openhartige verhalen uit de praktijk, helpt hij je over de drempel van visualisatievrees.
 
Arnoud Engelfriet
Mr.ir. Arnoud Engelfriet is ICT-jurist en partner bij adviesbureau ICTRecht. Hij is gespecialiseerd in internetrecht, waar hij zich al sinds 1993 mee bezighoudt. Hij adviseert ondernemingen en instanties over zaken als privacy/AVG, auteursrechten, informatievrijheid en regulering. Hij schreef onder meer de boeken AVG Compliance in de praktijk en De wet op internet. Hij blogt elke werkdag over internetrecht op blog.iusmentis.com
| web | blog | twitter | li | wikipedia |
 
Lezing: “Zoeken en gevonden worden, mag dat onder de AVG/GDPR?”
De nieuwe Europese privacywet (AVG of GDPR) roept vele vragen op voor informatiespecialisten. Welke rechten en plichten gelden bij opname van persoonsgebonden informatie? Moeten archieven op verzoek geschoond, hebben mensen recht op gratis inzage en zijn openbare informatiebronnen nog wel legaal aan te bieden? Plus, welke administratieve randvoorwaarden gelden voor het beheer van dergelijke archieven en bestanden? In deze lezing zet privacy- en ICT-jurist Arnoud Engelfriet op praktische en verhelderende wijze de regels op een rijtje. U komt te weten waar de pijnpunten zitten en hoe u die op pragmatische wijze kunt aanpakken.
 
Marieke van Erp
Marieke van Erp leidt het Digital Humanities Lab van het KNAW Humanities Cluster, een onderzoeksgroep die gericht is op het integreren van digitale methoden in het geesteswetenschappelijk onderzoek. Ze is in 2010 gepromoveerd aan de Universiteit van Tilburg in samenwerking met Naturalis op het toegankelijk maken van historische tekstuele bronnen door middel van taaltechnologie. Daarna werkte ze aan de Vrije Universiteit Amsterdam op oa het (NWO) CLARIAH en (EU FP7) NewsReader project, waar ze taaltechnologie met het semantic web domein combineerde.
| web | dhlab | twitter | li | slides | scholar | github |
 
Lezing: “27.000 Recepten vinden in 8 miljoen krantenberichten: Geesteswetenschappen op het snijvlak van taaltechnologie en big data.”
Recepten zijn een populaire websitecategorie. Sommige websites zijn gespecialiseerd in trendy, hedendaagse recepten, andere zijn juist weer gericht op de traditionele keuken. Websites missen vaak echter de breedte en chronologie. omdat ze een product zijn van het heden of het recente verleden. Kranten vormen een belangrijke bron voor inkijkjes in het dagelijkse leven van vroeger, en publiceerden vaak ook recepten. Deze kunnen ons meer inzichten geven in eetgewoontes en meningen over eten door de tijd. Nu is het echter zo dat deze recepten bij het digitaliseringsproces van kranten niet specifiek zijn aangemerkt, en je kunt ze ook niet zo maar vinden door ‘recept’ als zoekwoord in te typen, omdat je dan ook doktorsrecepten terugkrijgt, en je mist de recepten waar het woord ‘recept’ niet in voorkomt.
In deze presentatie zal ik uitleggen hoe we systemen ontwikkelen die recepten kunnen herkennen, structureren en classificeren uit de Delpher krantencollectie van de Koninklijke Bibliotheek. Ik zal ingaan op specifieke uitdagingen voor het werken met data die via OCR is gedigitaliseerd, wat deze technologieën kunnen betekenen voor geesteswetenschappelijk onderzoek en hoe ze ingezet kunnen worden voor andere domeinen.
 
Folgert Karsdorp
Folgert Karsdorp is a researcher at the Meertens Institute of the Royal Netherlands Academy of Arts and Sciences. His research is interdisciplinary, adopting computational methods to study the field of humanities, in particular folkloristics. Karsdorp’s research interests lie in the development of computational text analysis methods in the context of ethnology, literary theory and cultural evolution.
| web | web | twitter | github | scholar |
 
Mike Kestemont 
Mike Kestemont is assistant professor in the department of literature at the University of Antwerp. He enjoys research in computational text analysis, in particular for historic texts. Authorship attribution is one of his main areas of expertise: in the innovative research domain of stylometry (computational stylistics), he designs computational algorithms which can automatically identify the authors of anonymous texts through the quantitive analysis of individual writing styles. He has often applied stylometry to historic literature.
| web | UA | twitter | li | github | scholar |

Lezing: “Keeping it real: the artificial synthesis of hiphop lyrics”
The interest for artificial or machine-driven intelligence is currently going through a marked renaissance in a variety of fields. Apart from the impressive advances which have recently been booked in computer vision, language technology is also benefiting hugely from a family of models that is now colloquially known as ‘deep learning’. One remarkable application is currently attracting much attention: through the application of so-called recurrent models, it has become possible to have computers generate, fully independently, text in a variety of genres and styles. While the semantic coherence of such texts should not be over-estimated, the grammatical correctness and stylistic qualities of such artificially written texts are often surprisingly convincing.
In this talk, we will report an experiment where we have applied this technology in the domain of hiphop lyrics, an established subgenre of present-day popular music that is known for its explicit content and typical scansion style. Last summer, we experimented with this technology at a major music festival in The Netherlands, allowing us to gather quality judgments from a large, anonymous crowd of festival goers. The methodology of this experiment was a Turing test-like setup, where users had to distinguish between synthetic hiphop and authentic rap lyrics. In this talk, we will discuss how easily participants could distinguish human-generated and computer-generated text and which (linguistic) factors seem to have influenced their decision making.
[zie ook deze blogpost]

 
Paula Kassenaar
Paula Kassenaar is als product manager bij Zalando verantwoordelijk voor “Browse”; kort door de bocht is dat alle navigatie die de klant kan aanklikken en niet zelf hoeft in te typen. Begin 2017 stond ze aan de wieg van de Fashion Knowledge Graph, een systeem dat in het technologisch landschap van deze fashion e-commerce gigant steeds meer zijn waarde bewijst. Nog steeds werkt Paula zeer nauw samen met de teams in Zalando’s tech hub Helsinki waar de graph ontwikkeld wordt. Voordat ze naar Berlijn verhuisde studeerde Paula Industrial Design aan de TU/e(indhoven)
| twitter | li |
 
Lezing: “Zalando’s take on building a fashion knowledge graph”
With an assortment of over 400.000 products it is a challenge, to say the least, to find what you are looking for in online fashion store Zalando. Especially if you are not completely sure what you are looking for. One thing is certain; to enable you to find your future favourite sweater, it helps if Zalando knows every possible detail about that sweater. In this lecture Paula will dive into how the Fashion Knowledge Graph contributes to solving this challenge. What is a graph in this scope? How is it different (better?) from other systems? How is the graph built and maintained? How does the graph contribute to good data quality? And how does it affect the customer experience?
 
Cynthia Liem
Cynthia Liem is Universitair Docent Informatica aan de TU Delft, en daarnaast ook actief uitvoerend musicus (klassiek piano – Magma Duo). Haar informatica-onderzoek richt zich op zoekmachines en aanbevelingssystemen voor multimediale data. Haar bijzondere interesse gaat hierbij uit naar het vindbaar en toegankelijk maken van digitaal materiaal dat niet triviaal op de radar van gebruikers zit. Cynthia deed industriële ervaring op bij Bell Labs Nederland, Philips en Google, ontving verschillende beurzen en prijzen, waaronder de Lucent Global Science Scholarship, Anita Borg Memorial Scholarship, recent een NWO Veni-beurs, en was in de tweede helft van 2018 ‘Researcher-in-Residence’ aan de Koninklijke Bibliotheek.
| web | twitter | ted-x | li | scholar |
 
Lezing: “Verborgen schatten langs de digitale snelweg”
Dankzij de snel toenemende digitalisering hebben we tegenwoordig toegang tot veel meer—en veel diversere—informatie dan in vorige decennia. Hieronder bevinden zich ook de nodige verborgen schatten, waarvan we aanvankelijk mogelijk helemaal geen weet hadden.
Hoe vinden en herkennen we zulke verborgen schatten op grotere schaal, en hoe krijgen we ze bij bredere publieken onder de aandacht? In deze lezing zal ik verschillende technische, praktische en filosofische uitdagingen rondom deze vragen bespreken, die ik zal illustreren met voorbeelden uit mijn eerdere werk op het gebied van digitale muziekverrijking, mijn Researcher-in-Residence project aan de Koninklijke Bibliotheek, en recente discussies rond algemene informatievoorziening.
 
Daan Odijk
Daan Odijk is de lead data scientist bij RTL. In 2016 is hij gepromoveerd aan de Universiteit van Amsterdam op onderzoek naar algorithmes voor het zoeken naar nieuws. Daarna leidde hij het data en personalisatie team bij journalistieke startup Blendle. Bij RTL leidt Daan een team van data scientists en programmeurs die werken aan RTL-brede data-gedreven producten, waaronder personalisatie voor RTL Nieuws en Videoland.
| web | twitter | li | scholar | github |
 
Lezing: “Op zoek naar vermaak met Data Science & AI”
Als het grootste commerciële TV bedrijf van Nederland in een dalende TV markt maakt RTL een overgang naar een mediabedrijf waarbij de consument centraal staat. RTL gaat voor een hechte relatie en directe interactie met zijn kijkers, volgers en bezoekers, via elk denkbaar kanaal. In dit praatje zal ik uitleggen hoe wij data science en AI gebruiken om onze gebruikers te helpen de juiste content te vinden; van de meer dan een miljoen dagelijkse bezoekers van rtlnieuws.nl tot de 2 miljard keer dat onze video’s jaarlijks worden bekeken, waarvan veel bij het snel groeiende Videoland.

 
vogin-ip-klein