Lezingen 2020

vogin-ip-klein Sprekers bij de
VOGIN-IP-lezing
19 maart 2020

.
Dawn Anderson /Plenaire keynote/  
Understanding Natural Language Processing and BERT for Search Intent
Christiaan Triebert /Plenaire keynote/
Visual Investigations en “The Cockpit Tapes”
Dennis Agusi Hoe Philips content beter vindbaar maakt met een taxonomie
Andreas Blumauer Deep Text Analytics based on Knowledge Graphs
Jelle van Haaster 21ste eeuw vs. Overheid
Bianca Kramer Citaties – bouwstenen van open wetenschap
Edgar Meij AI and Automated News at Bloomberg
Jerry Vermanen Hoe vind je data die niet gevonden wil worden?

Sprekers

Dawn Anderson
Dawn Anderson is the Managing Director of Bertey, a digital marketing agency in the UK. Dawn’s primary specialism is in SEO and she has been practising in this field for 13 years. She has worked with brands both large and small to help them gain visibility through natural search and findability across a number of sectors. Dawn also lectures periodically at Manchester Metropolitan University on digital marketing strategy and search strategy for undergraduates in both the business school and the fashion promotion school. Dawn also supervises Master level students undertaking their dissertations in digital strategy. She is a regular speaker on search and digital marketing both in the UK and internationally, including Brighton SEO, SMX, Pubcon, State of Search, Ungagged and Mozcon.
| web | twitter | li | slides | youtube |

Keynote:
Understanding Natural Language Processing and BERT for Search Intent

Whilst natural language understanding is not a new industry, some recent developments have entirely changed the levels of sophistication available for search engines and technological organisations alike. Google BERT, is both a natural language model which was open sourced by Google for the machine learning and natural language understanding community to run with on their own projects, but also the name of a major algorithmic update by the search giant. Google BERT allows search engines to utilise tools to understand the very complex and nuanced contexts of human language and therefore intent much better. Dawn will talk about what this means for search and findability and what the future holds with these important changes.
[see also this voginip post and this SearchEngineLand post]

 
Christiaan Triebert
Christiaan Triebert is een verslaggever in het Visual Investigations team van The New York Times.
Voordat hij in 2019 bij The Times kwam, werkte Christiaan als senior onderzoeker en trainer bij onderzoekscollectief Bellingcat. Voor het trainen van journalisten in het vinden, verifiëren en analyseren van openbaar beschikbare digitale informatie, werkte hij in diverse landen in Azië, het Midden-Oosten, Europa en Latijns Amerika. In 2017 won hij de European Press Prize Innovation Award voor zijn reconstructie uit gelekte Whatsapp berichten en informatie op sociale media van de mislukte militaire coup in Turkije.
Christiaan begon zijn journalistieke loopbaan als freelance (foto)journalist. Hij rapporteerde uit Oekraïne en Irak. In de loop van de tijd concentreerde zijn werk zich op internationale misdaad en conflict analyse. Hij publiceerde in diverse media, zoals Al Jazeera Media Institute, Daily Beast en Foreign Policy. Voor Airwars deed hij onderzoek naar burgerslachtoffers die in Irak en Syrië vielen bij luchtaanvallen van de door de VS geleide coalitie.
Christiaan behaalde een bachelor internationale betrekkingen en filosofie aan de Universiteit Groningen en een master “conflict, security and development” bij King’s College London.
| web | web | twitter | li | DWDD | NYT |
 
Keynote:
“Visual Investigations en “The Cockpit Tapes””

Hoe combineert het Visual Investigations team van The New York Times traditionele verslaggeving met open bronnen onderzoek? Deze keynote zal een kijkje in de keuken geven aan de hand van de “Cockpit Tapes”, een uniek inzicht in de Russische luchtmacht in Syrië die onder meer laten zien dat ze vier ziekenhuizen binnen 12 uur bombardeerde.
[zie ook deze blogpost en deze]
dennis177
Dennis Agusi
Dennis Agusi is Director Communication Channels bij Philips en vanuit die hoedanigheid verantwoordelijk voor zowel interne als externe communicatiekanalen. Dennis begon in 2010 bij Philips en heeft sindsdien meerdere communicatiekanalen binnen Philips geïntroduceerd. Zo was hij verantwoordelijk voor de gefaseerde transitie naar één nieuw global intranet voor de medewerkers van het concern.
| dwg | twitter | li | slides |

Lezing: “Hoe Philips content beter vindbaar maakt met een taxonomie”
Dennis neemt jullie erin mee hoe de Philips Communicatie Taxonomie zich de afgelopen jaren ontwikkelde tot de sleutel in het vindbaar maken van content op diverse communicatiekanalen. Met één overkoepelende taxonomie, beheerd in een dedicated tool en omringd met juiste governance en processen, wordt content van onder andere het intranet, SharePoint sites, Global News Center en binnenkort het Digital Asset Management systeem toegankelijk gemaakt. Dennis vertelt waarom Philips besloot een taxonomie in te zetten, hoe deze taxonomie uitgroeide tot de taxonomie zoals die er nu staat en wat de belangrijkste succesfactoren daarin zijn geweest. Ook zullen de verschillende toepassingen op de diverse kanalen de revue passeren.
[zie ook deze presentatie en dit artikel]


Andreas Blumauer
Andreas Blumauer has a master’s in Business Informatics and is passionate about Knowledge Graphs, Semantic Technologies, and Machine Learning. He founded the Semantic Web Company 15 years ago and since then the company has helped over 100 companies use Semantic Web-based methods and techniques. Their Semantic AI platform, PoolParty Semantic Suite, is one of the leading technologies in graph and metadata management, text mining, and advanced data analytics.
Customers are Fortune 500 companies looking for better ways to establish collaborative workflows and new data strategies that solve all the problems related to data silos, data quality, information retrieval, and data integration.
Andreas is confident that knowledge graphs have the potential to change not just organizations, but the world, because they are capable of nothing more than connecting data, knowledge, and people so we can provide answers to small, large, and even global problems.
| blog | web | li | youtube | video | slides |

Lezing: “Deep Text Analytics based on Knowledge Graphs”
Automatic annotation and classification of texts are often performed using machine learning techniques, statistical methods, controlled vocabularies and ontologies (e.g. SKOS), or comprehensive knowledge graphs such as DBpedia or Wikidata.
All these methods have advantages and disadvantages as discussed and summarized in this presentation. But what if all these methods are combined? What new possibilities for text analysis arise from this, and how does this influence the governance model underlying the knowledge modeling process?

 
Jelle van Haaster
Jelle van Haaster (‘89) is militair, academicus en softwarespecialist. Tussen 2008 en 2012 rondde hij de militaire opleiding tot officier af, samen met de bachelor Krijgswetenschappen. In 2013 studeerde hij Public International Law en won hij de René Olthuisprijs voor zijn bachelorscriptie over datamining op sociale media. Van 2013 tot 2019 deed hij promotieonderzoek aan de Faculteit Militaire Wetenschappen en de Universiteit van Amsterdam. Naast zijn promotieonderzoek deed hij andere projecten zoals het integreren van digitale capaciteiten in Mali, het bouwen van apps voor Defensie en een levensreddende app voor de VN. In 2018 werd hij uitgeroepen tot Ambtenaar van het Jaar. Op 5 juli 2019 promoveerde hij op een onderzoek naar het nut van militaire cyberoperaties.
| web | boek | twitter | li | sem.scholar | NRC |
 
Lezing: “21ste eeuw vs. Overheid”
De maatschappij verandert snel. Waar een smartphone in 1998 nog gezien werd als “een mobiele telefoon? Wat moet ik daar nu mee?!” zijn we nu 22 jaar verder en is het een integraal deel van ons leven. De exponentiële acceptatie en adaptatie van technologie zoals smartphones en internet verandert een aantal cruciale onderdelen van onze samenleving.
Oorlogvoering is één van die onderdelen. Waarom zou je in de 21e eeuw nog fysiek naar een conflictgebied gaan als je iedereen over de hele wereld kunt bereiken zonder fysiek naar die persoon of groep toe te gaan? In deze presentatie gaat Jelle in op de veranderende maatschappij onder druk van digitale technologieën en de impact daarvan op de rol van de overheid en op de aard van conflicten in de 21e eeuw.
[Zie ook dit interview in NRC]
 
Bianca Kramer
Vakspecialist (Bio)Medische Wetenschappen bij de Universiteitsbibliotheek Utrecht. Onderzoekt en bepleit Open science – van metadata tot cultuurverandering. Mede-initiatiefnemer van het project “Innovations in Scholarly Communication”. Co-auteur van rapporten over publicatieculturen voor de VSNU en over Open Access en Plan S voor cOAlition S. Docent bij VOGIN en GO-opleidingen.
| uu | web | twitter | orcid | scholar |

Lezing: “Citaties – bouwstenen van open wetenschap”
Citaties zijn een belangrijk onderdeel van de wetenschap – ze maken het mogelijk claims te verifieren, discussie over wetenschappelijke theorieen en observaties door de tijd te volgen, en het ‘landschap’ van wetenschap in kaart te brengen. Een open infrastructuur voor citaties is daarvoor van belang: transparant, toegankelijk voor mensen en machines, en vrij van invloed van commerciële belangen.
Deze lezing zal een overzicht geven van huidige initiatieven op het gebied van open citaties. In een interactieve discussie met het publiek zal een aantal voorbeelden verkend worden van hoe open citaties in de praktijk gebruikt kunnen worden, en welke voorwaarden daarvoor gelden. Er zal ook aandacht besteed worden aan de rol van uitgevers, en aan de vraag of citaties, als feitelijke informatie, vrij zijn van copyright of niet.

 
Edgar Meij
Edgar Meij is the head of Bloomberg’s Artificial Intelligence (AI) Discovery team in Bloomberg’s Engineering department. He leads several groups of researchers and engineers that work on graph analytics, question answering, and smart contextual suggestions with severe latency constraints. Together, these researchers and engineers build, maintain, and leverage the company’s Question Answering systems and the Bloomberg Knowledge Graph, together with its advanced machine learning-based analytics which are used to drive accurate, timely, and contextual financial insights. This links together 40M+ entities, including companies, people, financial instruments, geographic location, and more, enabling Bloomberg Terminal clients to ask complex questions and issue complex commands in natural language. Edgar’s teams formulate data science and machine learning use cases as graph problems and perform fundamental research in those fields leading to publications in top venues. The algorithms and systems they develop are used to make information more discoverable, relevant and actionable in a wide variety of Bloomberg products, including the Bloomberg Terminal, automated news, enterprise products, and more.
| web | twitter | videolect | li | scholar | slides |
 
Lezing: “AI and Automated News at Bloomberg”
While the technology is far from mature, artificial intelligence in the form of autonomous production of journalistic content is becoming increasingly prominent in newsrooms – and it’s here to stay. The promise of automatically generating news at a faster pace, at a larger scale, in multiple languages, and with potentially fewer errors, has scholars and practitioners championing this technology. As always, this development fuels fears that journalists will soon be out of work. Yet, today’s algorithms cannot ask questions, explain phenomena, or establish causality, giving human journalists the opportunity to write stories that address the ‘why’ something happens – as opposed to the ‘what’ that machines tell us. In this talk, I will discuss how Bloomberg’s automated news stories are driving increasingly advanced insights for our clients. Furthermore, I will demonstrate how these stories improve search and discoverability of news and other types of data, as well as increasingly help us benchmark and verify input data.

 
Jerry Vermanen
Jerry Vermanen werkt als datajournalist bij de datajournalistieke onderzoekswebsite Pointer (KRO-NCRV). Hij ontmaskerde directeuren die miljonair zijn geworden van zorggeld, confronteerde downloaders van kinderporno met data en slimme zoektechnieken, en werkte samen met Bellingcat en Lighthouse Reports om Nederlandse wapens in conflictgebieden te ontdekken. Daarnaast schreef hij samen met Andrew Dasselaar het Handboek Internetresearch & Datajournalistiek.
| web | twitter | blog | nieuwsbrief | boek |
 
Lezing: “Hoe vind je data die niet gevonden wil worden?”
Je zoekt datasets voor je volgende briljante project, maar waar je ook zoekt: nergens vind je wat je nodig hebt. Datajournalist Jerry Vermanen (Pointer, KRO-NCRV) deelt een aantal van zijn tips en truuks om data te vinden die niet gevonden wil worden. Heb je al een persoonlijke alarmeringsdienst opgezet voor specifieke datasets? Of wil je weten hoe je het verwerken van data kunt crowdsourcen? Na deze lezing kun je dat geplande onderzoeksproject toch nog afronden.

 
vogin-ip-klein