Workshops 2023

vogin-ip-klein Workshops bij de 11de
VOGIN-IP-lezing
16 maart 2023
  • Jeroen Bosman
  • Bianca Kramer
  • Open (source) infrastructuur voor de wetenschap: weg van de grote commerciële spelers?
  • Robin Ottjes
  • Hoe kom ik nu aan de full-text?
  • Bob Coret
  • Shannon van Muijden
  • Werken met het termennetwerk
  • Nees Jan van Eck
  • Bibliometrische visualisaties voor het bijhouden van wetenschappelijke literatuur
  • Menno den Engelse
  • Gegevens verzamelen met SPARQL
  • Max Kemman
  • Grote hoeveelheden tekst analyseren als data
  • Hanno Lans
  • Werken met Wikidata
  • Annique Mossou
  • Geolocation zoals Bellingcat dat doet
  • Dorien van Mulukom
  • Trainen van informatievaardigheden
  • Alexander Pleijter
  • Zo word je factchecker
  • Ewoud Sanders
  • Slimmer zoeken in Delpher
  • Erwin Verbruggen   *
  • Bewerken van datasets met OpenRefine
    Deze workshops duren 2 uur. Wanneer er veel belangstelling voor is, kunnen sommige workshops tweemaal, zowel voor de lunch (10.55-12.55) als daarna (13.50-15.50) worden gegeven.
    Bij alle workshops is het in principe nodig over een laptop te beschikken.

    Jeroen Bosman
    Informatiespecialist voor Open Science, i.h.b. in de Geowetenschappen, bij de Universiteitsbibliotheek Utrecht. Onderzoekt en bevordert in die rol de transitie naar open wetenschap in al haar facetten. Mede-initiatiefnemer van het project “Innovations in Scholarly Communication”. Co-auteur van rapporten over publicatieculturen voor de VSNU en over Open Access en Plan S voor cOAlition S. Docent bij GO-opleidingen en VOGIN.
    | uu | web | twitter | mastodon | orcid | scholar |

    biancaBianca Kramer
    Zelfstandig adviseur, onderzoeksanalist en workshop facilitator bij Sesame Open Science. Onderzoekt en bepleit Open science – van metadata tot cultuurverandering. Mede-initiatiefnemer van het project “Innovations in Scholarly Communication”. Co-auteur van rapporten over publicatieculturen voor de VSNU en over Open Access en Plan S voor cOAlition S. Docent bij VOGIN en GO-opleidingen.
    | web | web | twitter | mastodon | orcid |

    Workshop “Open (source) infrastructuur voor de wetenschap: weg van de grote commerciële spelers?”
    Bij veel organisaties en individuen (zowel onderzoekers als ondersteuners en beleidsmedewerkers) groeit de aandacht voor open source, niet-commerciële en door gebruikers (mede)bestuurde infrastructuur voor onderwijs en onderzoek. Daarbij spelen zorgen over kosten, data sovereignty, marktdominantie en sterke afhankelijkheid van de grote commerciële aanbieders een rol.
    Open infrastructuur hoeft niet per se zelf ontwikkeld te worden. In deze workshop kijken we voor een aantal functies binnen onderwijs en onderzoek naar reeds bestaande infrastructuur en wat het in praktijk zou vragen om daar (morgen) op over te stappen, dan wel bij te blijven, als individu maar ook als organisatie. Is functionaliteit vergelijkbaar? Hoe zit het met betrouwbaarheid en interoperabiliteit? Hoe kan de betreffende open infrastructuur financieel gesteund worden?
    Deelnemers bepalen zelf naar welke twee soorten infrastructuur zij in kleine groepen gaan kijken en maken daarbij een keuze uit o.a.: citatiedatabases, altmetrics, CRISsen, ELO, microblogging, referentiebeheersystemen, publiceren van artikelen, messaging, polling tools, preprint archieven, survey tools.

    Robin Ottjes
    Robin Ottjes is een medisch informatiespecialist bij de Centrale Medische Bibliotheek van het UMCG. Zijn takenpakket bestaat grotendeels uit drie thema’s, namelijk onderzoek ondersteuning, onderwijs en innovatie. Hieronder vallen het werken met onze repository (PURE), het geven van workshops en het innoveren van bibliotheekdiensten. Het beste voorbeeld hiervan is het opzetten van een 3D en VR-lab in de medische bibliotheek. Als afgestudeerd historicus weet hij dat je niet in het verleden moet blijven hangen, daarom is het zoeken en testen van nieuwe tools of technologieën die het werk van artsen, onderzoekers en studenten makkelijker moet maken ook een belangrijk onderdeel van zijn werk.
    | web | twitter | li |

    Workshop “Hoe kom ik nu aan de full-text?”
    Dankzij het hybride werken is lang niet iedereen elke dag meer te vinden “on campus”, maar ook voor mensen thuis moet de toegang tot wetenschappelijke informatie en bibliotheekdiensten goed geregeld zijn. De bibliotheek heeft hierin een taak om bronnen zo bereikbaar mogelijk te houden, waar onze gebruikers ook werken. Daarnaast is de opkomst van open access publiceren de laatste jaren ook in een stroomversnelling geraakt. Dat een groot deel van het wetenschappelijk werk nu open access beschikbaar is, is natuurlijk erg mooi, maar de open access-artikelen zijn her en der verspreid over het web. Wat is de meest efficiënte manier om deze publicaties te vinden?
    Ook niet onbelangrijk is dat toegang tot tijdschriften erg prijzig is en veel instituten hebben niet de middelen om een licentie op alle bronnen te nemen. Vooral organisaties buiten de academische wereld worstelen met toegang tot onderzoek. Bovendien moeten de organisaties met toegang de vraag stellen, wat zullen we doen als we plotseling de toegang tot een reeks tijdschriften verliezen om het abonnement is geannuleerd? Als de bibliotheek een artikel niet kan leveren, dan weten we dat onze gebruikers andere manieren zullen gebruiken om de pdf te krijgen. Echter, deze andere manieren bespreken we bijna nooit. Hoeveel verschillende manieren zijn er precies? Hoe werken ze?
    Deelnemers van de workshop leren over alle mogelijke manieren, hulpmiddelen en krijgen tips om de full-tekst te vinden van wetenschappelijke publicaties. We bespreken “best practices” van bibliotheek-tools en diensten (Linkresolvers, Discovery, LeanLibrary, LibX, Apps, etc.) en testen we vooral alle alternatieve tools zoals EndNote Click (voorheen Kopernio), Unpaywall, CORE Discovery, OpenAccess-Button, LibKey Nomad, Google Scholar-Button en andere extensies of bookmarklets.
    De tools die we willen laten zien zijn maar beperkt beschikbaar op smartphones of tablets. Neem daarom als het kan een laptop mee waarop in Edge, Chrome of FireFox extensies geïnstalleerd mogen worden.

    Bob Coret

    | web | blog | twitter | mastodon | li | github | slides |
     

     

     

    Shannon van Muijden
    Shannon van Muijden is al een jaar of zeven bezig met linked data en erfgoed in haar functie als datamanager bij het Zuiderzeemuseum. Daar werkt ze niet alleen aan het opschonen en verrijken van de eigen collectiedata maar ook die van musea uit het netwerkverband van Zuiderzeemusea en het Netwerk Maritieme Bronnen. Ze doet dit volgens de nationale strategie zoals die is opgetekend door het Netwerk Digitaal Erfgoed en werkt dan ook nauw met hen samen. Daarna zorgt Shannon dat data van collega-musea uit het netwerk wordt opgeschoond en verrijkt zodat deze duurzaam online verbonden en doorzoekbaar is op het platform http://www.zuiderzeecollectie.nl. Shannon is hierin constant op zoek naar efficiëntere manieren om dit mogelijk te maken zodat collega’s in andere musea veel tijd en moeite bespaard kan worden.
    | li |

    Workshop: “Werken met het termennetwerk”
    Gebruikers willen digitaal erfgoed zo goed mogelijk vinden. Dat lukt alleen als collectiebeheerders van organisaties hun materiaal voorzien van eenduidige termen. Om dit gemakkelijk te maken is een handige tool ontwikkeld: de zoekmachine Termennetwerk: https://termennetwerk.netwerkdigitaalerfgoed.nl/
    Ben je een (erfgoed) instelling en heb je last van rommelige trefwoordenlijsten, thesauri of persoonslijsten? In deze workshop laten we je zien hoe je deze kunt opschonen met behulp van het termennetwerk en ook hoe je deze computer-leesbaar kunt maken door het toevoegen van URI’s, alles geautomatiseerd met software OpenRefine en good-old Excel. Neem dus je laptop mee en installeer de opensource software OpenRefine; dan gaan we direct aan de slag! Leer reconcilen met het termennetwerk in OpenRefine en handige tips & tricks met Excel om grote hoeveelheden data snel op te schonen.

    Nees Jan van Eck
    Nees Jan van Eck is senior onderzoeker bij het Centrum voor Wetenschap en Technologie Studies (CWTS) van de Universiteit Leiden. Hij doet onderzoek op het gebied van bibliometrie en scientometrie. Zijn onderzoek richt zich op de ontwikkeling van visualisatietools en algoritmen, voornamelijk voor het analyseren van de structuur en ontwikkeling van de wetenschap. Nees Jan is de hoofdontwikkelaar van VOSviewer en CitNetExplorer, twee bekende softwaretools voor het visualiseren van bibliometrische gegevens. De VOSviewer softwaretool wordt vaak gebruikt in bibliometrische studies. Inmiddels zijn er meer dan 5000 publicaties in internationale wetenschappelijke tijdschriften verschenen waarin de tool wordt gebruikt. Veder is VOSviewer Online, de webversie van de tool, bijna een half miljoen keer gebruikt om interactieve visualisaties mee te bekijken en te delen. Naast zijn werk op het gebied van bibliometrische visualisaties richt Nees Jan zich ook op het bestuderen van bibliometrische gegevensbronnen en het analyseren van de volledige tekst van wetenschappelijke publicaties.
    | web | web | twitter | scholar | li | publons | slides |

    Workshop: “Bibliometrische visualisaties voor het bijhouden van wetenschappelijke literatuur”
    Het is van essentieel belang dat onderzoekers een actueel overzicht hebben van de literatuur in hun onderzoeksveld. Gegeven het enorme aantal publicaties dat wekelijks in wetenschappelijke tijdschriften verschijnt kan het bijhouden van alle relevante literatuur en het verkrijgen van een goed overzicht van een onderzoeksveld echter een uitdaging zijn en veel tijd kosten. Bibliometrische visualisaties ondersteunen deze taak. Dit soort visualisaties bieden een intuïtief overzicht van de relevante literatuur in een onderzoeksveld. Zo kunnen onderzoekers een beter inzicht krijgen in de structuur en de ontwikkeling van een veld en een indruk krijgen van de belangrijkste bijdragen in het veld.
    Deze workshop is bedoeld voor iedereen die geïnteresseerd is in het maken van bibliometrische visualisaties. In deze workshop krijgen deelnemers een introductie in het werken met de VOSviewer softwaretool voor het maken van dit soort visualisaties. Deelnemers gaan zelf met de tool aan de slag en zullen begeleid worden in het maken van visualisaties van een onderzoeksveld naar keuze en op basis van een zelfgekozen databron (bijvoorbeeld Dimensions, Lens, OpenAlex, Scopus, Web of Science, etc.). Ze zullen ook worden getraind in het interpreteren van deze visualisaties en het gebruik ervan om zo een beter begrip te krijgen van de structuur en de ontwikkeling van het onderzoeksgebied. Tot slot hebben de deelnemers de mogelijkheid om de gemaakte interactieve visualisaties met behulp van VOSviewer Online, de webversie van de tool, eenvoudig beschikbaar te maken en te delen met anderen. Voor het praktische gedeelte van de workshop is een laptop vereist.
    [Zie ook deze blogpost]

    Menno den EngelseMenno den Engelse
    Menno is datamaker en werkt vooral binnen de erfgoedsector. Zijn missie: collecties en historische gegevens zo goed mogelijk verbinden. Omdat goede (geografische) referentiedata daarbij onontbeerlijk zijn heeft hij voor Amsterdam het Adamlink stratenregister gemaakt en voor ‘s-Hertogenbosch zet hij Wikidata in om een soortgelijk register te maken. Menno is lid van de Cinema Context redactie en mede-initiatiefnemer van crowdsourceplatform hetvolk.org.
    | web/blog | mastodon | li |

    Workshop “Gegevens verzamelen met SPARQL”
    Sparql, de querytaal om rdf mee te bevragen, kan je op steeds meer plekken gebruiken om informatie op te halen, zoals bijvoorbeeld uit linked data collecties. Wikidata, waar inmiddels meer dan honderd miljoen items zijn beschreven, is zo’n plek. Maar er zijn ook kleinere datasets met sparql te bevragen, zoals bijvoorbeeld Cinema Context – een filmhistorische database.
    Na een superkorte introductie van rdf gaan we meteen sparqlen op deze sets. Zorg dus dat je een laptop meeneemt! Aan het eind van de cursus ben je in staat een query te schrijven en de resultaten als csv te downloaden. Voorbeelden van vragen: geef me de coördinaten van alle openbare bibliotheekvestigingen van Nederland, geef me alle films die in 1935 vertoond werden in Rotterdam of geef me alle films waarin een niet-menselijke acteur een rol had. Zelf een vraag meenemen mag natuurlijk ook.

    Max KemmanMax Kemman
    Max Kemman is senior onderzoeker bij Dialogic. Hij doet beleidsonderzoek gerelateerd aan wetenschap, open science, digitalisering van het hoger onderwijs en digitaal erfgoed. Geregeld moet hij een overzicht maken van de wetenschappelijke output binnen een domein, waarbij algoritmen om zo’n overzicht te creëren goed van pas komen. Hij is docent bij de VOGIN Academie waar hij eveneens een cursus verzorgt over het analyseren van teksten als data. Eerder deed hij promotieonderzoek in Luxemburg op het gebied van digital humanities waar veel van deze methoden worden ontwikkeld en/of toegepast.
    | web | blog | twitter | li |

    Workshop “Grote hoeveelheden tekst analyseren als data”
    Er wordt steeds meer tekst geproduceerd. Gelukkig komen er ook steeds meer tools beschikbaar om grip te houden op de grote hoeveelheid informatie die beschikbaar komt. In deze workshop gaan we een aantal tools leren die helpen om overzichten te creëren van (grote) datasets van teksten. Zo is het mogelijk om van boeken, wetenschappelijke papers, kranten, tweets of e-mails overzichten te maken en te ontdekken hoe verschillende thema’s zich door de tijd ontwikkelen en of er teksten zijn die afwijken van de rest. Tijdens de workshop gebruiken we hiervoor Voyant Tools, een online omgeving waarin verschillende van dit soort overzichten gemaakt kunnen worden zoals woordenwolken, topic models, woordentrends en afwijkende woorden per uitsnede. Om te oefenen kan je werken met een collectie teksten die ik klaar zet, maar als je zelf een dataset van teksten hebt is het nog mooier.

    Hanno LansHanno Lans
    Hanno Lans is data-adviseur voor erfgoedorganisaties en overheid. Hij heeft gewerkt voor onder meer de Tweede Kamer, Nationaal Archief en Beeld & Geluid. Hij gebruikt Wikidata voor de geautomatiseerde vaststelling van de auteursrechtenstatus van onder meer de collecties van Paleis het Loo, Wereldculturen en de Lakenhal. Hij werkt aan aggregatie van erfgoeddata voor Erfgoed Gelderland, modellering van mediakunst op Wikidata voor de samenwerkende musea binnen LIMA en de implementatie van Wikibase bij het Kunstmuseum. In zijn vrije tijd actief op Wikipedia.
    | web | wikidata | wikimedia | github | twitter | li |

    Workshop “Werken met Wikidata”
    In de workshop wordt gekeken naar de mogelijkheden die Wikidata biedt om de datakwaliteit te verhogen van datasets van erfgoedinstellingen, met name van personen. Wikidata is een vrij bewerkbare linked open dataset waaraan wereldwijd informatie wordt toegevoegd. Dit heeft voor instellingen als voordeel dat de soms summiere informatie die in de eigen data aanwezig is via dit kanaal verrijkt wordt. Dit geeft een instelling met betrekkelijk weinig inspanning toegang tot gegevens als man/vrouwverdeling, de auteursrecht-vertegenwoordigers en andere instellingen die werken van een persoon hebben. Ook is de informatie als linked open data beschikbaar. Voor Google, Apple en Amazon is dat een welkome bron om gebruik van te maken voor het aanbieden van informatie in verschillende applicaties. Doordat Wikidata is opgezet als een referentiedatabase betekent dit dat de toegeleverde informatie en de bronnen daarvan beschikbaar komen in zoeksystemen zoals Google. Aan de hand van de collecties van Paleis het Loo en Wereldculturen wordt gekeken hoe op een gestructureerde wijze data toegevoegd, gemonitord en teruggehaald kan worden. Ook wordt praktisch ingegaan op de werkwijze binnen Wikidata, aandachtspunten waar rekening mee moet worden gehouden bij het gebruik van dergelijke dynamische data en handige hulpmiddelen zoals OpenRefine om zelf data te kunnen bewerken.

    Annique Mossou
    Annique Mossou is a trainer and researcher for Bellingcat. Previously she was part of an OSINT-team of the Dutch National Police, where she specialised in online jihadist propaganda. At Bellingcat, she focuses on the world of mis- and disinformation, conspiracies and Ukraine.
    | bellingcat | benedmo |
     

    Workshop: “Geolocation zoals Bellingcat dat doet”
    Van de vele OSINT-technieken die Bellingcat bij haar onderzoek toepast is geolocation wel een van de bekendste. Het uitvinden op welke plek een foto of video gemaakt is kan allerlei doelen dienen. Het kan onder meer gebruikt worden om fake nieuws te debunken – bewijzen dat beelden op een andere plaats zijn opgenomen dan de begeleidende tekst suggereert – of om juist te onderbouwen dat beschikbaar beeldmateriaal bewijsbaar op een bepaalde plek is opgenomen. Zo kent iedereen intussen wel de beelden uit Oekraïne die de hele wereld over gaan: raketten die gebouwen verwoesten of inslaan ergens op de stoep.
    Maar hoe weten we nou of we deze beelden ook echt kunnen geloven, er is tegenwoordig zoveel disinformatie of beelden die worden hergebruikt. Geolocation is dan een belangrijk verificatiemiddel en dus ook een middel tegen disinformatie. Maar hoe vinden we de locatie van die beelden terug? Welke tools of websites kun je daarbij het beste gebruiken? In haar workshop zal Annique Mossou je daar actief kennis mee laten maken.

    Dorien van Mulukom
    Dorien van Mulukom is Informatiespecialist Onderwijs bij de Hanzehogeschool. Ze verzorgt sinds 2005 met veel enthousiasme workshops en trainingen op het gebied van informatievaardigheden voor leerlingen, studenten en docenten. De trainingen die ze geeft zijn interactief, de deelnemers worden actief betrokken bij de presentatie waardoor achteruithangen of niet deelnemen geen optie is. Sinds 2015 verzorgd ze met enige regelmaat train-de-trainer workshops. Dorien weet nog heel goed hoe het is als je kundig bent op je vakgebied maar geen ervaring hebt in het overbrengen van deze kennis voor groepen.
    | web | li | twitter |

    Workshop: “Trainen van informatievaardigheden”
    Je bent deskundig in jouw vakgebied en je wilt jouw kennis en vaardigheden via trainingen en workshops doorgeven aan anderen. Als je een workshop wilt verzorgen zul je een aantal uitdagingen aan moeten gaan. Hoe stem je met je opdrachtgever de leerdoelen af en zorg je dat jouw workshop aansluit bij de leervraag van de deelnemers. Hoe voorkom je dat deelnemers achterover hangen en hoe ga je om met moeilijke situaties.
    In de vaak kort beschikbare tijd wil je aan jouw deelnemers (te) veel handige kennis overdragen. Welke oefeningen kun je doen waarbij de deelnemer actief deelneemt zodat het geleerde ook na de workshop in de praktijk toegepast gaat worden? En hoe gaat dat als je de trainers gaat trainen?
    In deze workshop geeft Dorien je de nodige handvatten waarmee je jezelf comfortabeler voelt tijdens het geven van trainingen.

    Alexander Pleijter
    Werkt als universitair docent internetjournalistiek aan de opleiding Journalistiek en Nieuwe Media van de Universiteit Leiden. Daar is hij ook coordinator van Nieuwscheckers, een factcheckproject dat sinds 2009 bestaat. Actief op Twitter bij het signaleren van nepnieuws
    | blog | nieuwscheckers | web | twitter | li |
     

     
    Workshop “Zo word je factchecker”
    Fake news! Het is inmiddels een gevleugelde term. Als een journalist een fout maakt of een verzonnen bericht rumoer veroorzaakt, dan valt al gauw de term ‘nepnieuws’. Nieuwscheckers houdt zich sinds 2009 bezig met het checken van discutabele nieuwsberichten. Berichten van gerenommeerde media, maar ook van vage clickbaitwebsites. Sinds 2021 maakt Nieuwscheckers deel uit van een Nederlands-Vlaams consortium van factcheckers, nieuwsmedia en onderzoekers dat zich bezighoudt met de bestrijding van desinformatie. In deze workshop gaat het over de diverse kanten van het factchecken: hoe controleer je of nieuws klopt? Welke tools gebruik je daarbij? Hoe ga je te werk? Aan de hand van diverse voorbeelden en opdrachten krijg je een kijkje in de keuken van de factchecker.

    Ewoud Sanders
    Ewoud Sanders is journalist en historicus. Hij had wekelijks een taalrubriek in NRC Handelsblad (WoordHoek), waarvoor hij veel van Delpher gebruik maakte. Deze rubriek is in 2022 verhuisd naar de website van het Instituut voor de Nederlandse taal. Vanaf 1 januari 2023 wordt de rubriek vervolgd op Ensie.nl. Voor de Koninklijke Bibliotheek schreef hij een gidsje over Delpher, waarvan twee edities zijn verschenen. Daarnaast is hij auteur van onder meer ‘Slimmer zoeken op internet’ (16 edities), dat o.a. wordt gebruikt op hogescholen en bij diverse ministeries.
    | wikipedia | twitter | li | woordhoek |

    Workshop “Slimmer zoeken in Delpher”
    Met ruim 100 miljoen gedigitaliseerde pagina’s uit Nederlandse kranten, boeken en tijdschriften is Delpher.nl een ware goudmijn. Waar je meer in vindt als je verschillende zoektechnieken toepast. In deze workshop, waarbij de deelnemers zelf gaan zoeken, laat Ewoud Sanders zien hoe je het meeste uit Delpher kunt halen.

    Erwin Verbruggen
    Erwin Verbruggen is projectleider voor museale en erfgoed­projecten bij het digitale productbureau Q42. Erwin behaalde een MA in Preservation and Presentation of the Moving Image aan de Universiteit van Amsterdam. Voordat hij bij Q42 kwam, was Erwin projectleider voor Europese samenwerkingsprojecten bij het Nederlands Instituut voor Beeld en Geluid, waar hij aan kennis­deling deed door oa. het publiceren van open access tijdschriften en trainingen over digitale duurzaamheid coördineerde. Hij liep stage bij mensenrechtenorganisatie WITNESS in Brooklyn (NY) en was filmprogrammeur voor het Open Air Filmfestival Pluk de Nacht in Amsterdam.
    | web | web | li | slides | flickr |

    Workshop “Bewerken van datasets met OpenRefine”
    OpenRefine is gratis en open source software om datasets te bewerken en op te schonen. OpenRefine is krachtig genoeg om grote datasets (tot honderdduizenden records) te manipuleren, te transformeren tussen verschillende formaten, en te koppelen (‘reconcilen’) met externe databronnen en kennisbanken, waaronder Wikidata. Wereldwijd wordt OpenRefine gebruikt door bibliotheekmedewerkers, onderzoekers, datajournalisten en in vele projecten rond Linked Open Data; het is ook een populaire tool in de Wikimedia­gemeenschap.
    Programmeerervaring is niet nodig. Bovendien is OpenRefine bijzonder privacyvriendelijk: de software draait als een server op je eigen machine en de gebruikersinterface bevindt zich in je browser. Je bewerkt je data lokaal, en deelt enkel datasets met anderen als je daar zelf voor kiest.
    In deze workshop leer je alle basishandelingen van de software: data analyseren, filteren, transformeren, clusteren, en ‘reconcilen’ met Wikidata. Na de workshop ben je zelfstandig in staat om met OpenRefine aan de slag te gaan.

    vogin-ip-klein