Workshops 2022

vogin-ip-klein Workshops bij de 10de
VOGIN-IP-lezing
11 mei 2022
  • Joyce van Aalten
  • Aan de slag met knowledge graphs
  • Wouter Beek
  • Thomas de Groot
  • Werken met Linked Data met de TriplyDB software
  • Jeroen Bosman
  • Bianca Kramer
  • Systematisch zoeken op internet kan niet …. of wel?
  • Guus van den Brekel
  • Robin Ottjes
  • Hoe kom ik nu aan de full-text?
  • Erik Elgersma
  • Een startende éénpitter in informatieland: wat goed ging en wat niet
  • Sandra Fauconnier
  • Bewerken van datasets met OpenRefine
  • Kristina Hettne
  • Een gereedschapskist voor digitale vaardigheden
  • Max Kemman
  • Grote hoeveelheden tekst analyseren als data
  • Hanno Lans
  • Werken met Wikidata
  • Alexander Pleijter
    Leon Pauw
  • Zo word je factchecker  
    [Leon Pauw vervangt oorspronkelijk docent Alexander Pleijter]
  • Ewoud Sanders
  • Slimmer zoeken in Delpher
    Deze workshops duren 2 uur. Bij voldoende belangstelling, kunnen sommige zowel voor de lunch (10.55-12.55) als daarna (13.50-15.50) worden gegeven.
    Bij alle workshops is het in principe nodig over een laptop te beschikken.

    Joyce van Aalten
    Joyce van Aalten is zelfstandig adviseur op het gebied van vindbaarheid van informatie. Hierbij heeft ze zich gespecialiseerd in het opzetten en toepassen van taxonomieën, thesauri en knowledge graphs. Ze adviseert en ondersteunt diverse organisaties, waaronder Philips, CZ en de Tweede Kamer op dit vlak. Daarnaast is ze docent bij GO. Joyce is mede-auteur van het leerboek “Maak het vindbaar“ en ze spreekt regelmatig op congressen, waaronder de Taxonomy Boot Camp in Londen.
    | web | blog | twitter | slides | li |

    Workshop “Aan de slag met knowledge graphs”
    We kennen de knowledge graph inmiddels al een tijd, en komen de knowledge graph in steeds meer hoedanigheden tegen. Uiteraard is daar de Google Knowledge Graph en de Facebook Graph. En we horen over knowledge graphs binnen websites zoals Zalando of AirBNB. Maar ook binnen organisaties en specifieke organisatiedomeinen speelt een (enterprise) knowledge graph steeds vaker een belangrijke rol of wordt ermee geëxperimenteerd.
    Maar hoe ga je nu zelf aan de slag met je eigen knowledge graph? Deze workshop begint met een korte introductie: wat zijn knowledge graphs, hoe zijn ze opgebouwd, hoe worden ze gebruikt en waarin worden ze opgeslagen. En wat hebben kreten als RDF, SKOS, triples, ontologieën en Linked Open Data hiermee te maken?
    Maar deze workshop is vooral: zelf aan de slag gaan! Een knowledge graph bouw je uiteraard niet in een uurtje. Maar we gaan wel samen de eerste stappen zetten: bepalen hoe je een knowledge graph opzet en hoe je die kunt toepassen. Zo maak je kennis met de belangrijkste basisprincipes, uitgangspunten en tools, die je na de workshop zelf kunt blijven toepassen.

    Wouter BeekWouter Beek
    Wouter is oprichter en eigenaar van Triply. Hij heeft veel technische kennis van linked data vanuit zijn academische achtergrond (onderzoeker aan de Vrije Universiteit). Daarnaast heeft hij ook veel praktische ervaring met het gebruik van linked data in productieprocessen en binnen grote organisaties. Wouter heeft ervaring met het vertalen van de technische aspecten van linked data naar de business voordelen voor de organisatie. Ten slotte zet Wouter zich in voor de kennisdeling van linked data technieken en deelt hij de ervaringen die hij heeft opgedaan in de praktijk in journals en op conferenties.
    | web | web | twitter | li | github | scholar |
     
    Thomas de GrootThomas de Groot
    Thomas is een ervaren linked data ontwikkelaar en modelleur. Hij heeft de technische kennis van meerdere opdrachten (Triply BV, master thesis) in huis om de technische haalbaarheid van oplossingsrichtingen te kunnen inschatten. Thomas werkt samen met gebruikers en domeinexperts om samen tot de juiste domein ontologie te komen. Met de verscheidenheid aan opdrachten die hij uitgevoerd heeft is hij ervaren geworden in het bedenken van praktische oplossingen voor uitdagingen op het gebied van data omzetting en data kwaliteit.
    | web | li | twitter | github |
     
    Workshop “Werken met Linked Data met de TriplyDB software”
    Organisaties wisselen steeds meer verschillende data met elkaar uit. Hierdoor wordt het alsmaar lastiger om data efficiënt te combineren, en ontstaan steeds meer kopieën van dezelfde gegevens. Linked data is een nieuwe manier om verschillende databronnen met elkaar te verbinden. Het is bovendien gebaseerd op open standaarden. Triply ontwikkelt met TriplyDB het eerste SaaS-georiënteerde database product waarmee op een integrale manier met linked data gewerkt kan worden.
    In deze workshop laten Wouter en Thomas middels concrete voorbeelden zien wat de voordelen van linked data zijn. Deelnemers krijgen de mogelijkheid om zelf data als linked data in TriplyDB te uploaden en gebruiken. Hiermee worden aanknopingspunten geboden over hoe jij linked data binnen jouw organisatie kunt inzetten om jouw werk makkelijker te maken.
    Jeroen Bosman
    Informatiespecialist voor Open Science, i.h.b. in de Geowetenschappen, bij de Universiteitsbibliotheek Utrecht. Onderzoekt en bevordert in die rol de transitie naar open wetenschap in al haar facetten. Mede-initiatiefnemer van het project “Innovations in Scholarly Communication”. Co-auteur van rapporten over publicatieculturen voor de VSNU en over Open Access en Plan S voor cOAlition S. Docent bij GO-opleidingen en VOGIN.
    | uu | web | twitter | orcid | scholar |

    biancaBianca Kramer
    Vakspecialist (Bio)Medische Wetenschappen bij de Universiteitsbibliotheek Utrecht. Onderzoekt en bepleit Open science – van metadata tot cultuurverandering. Mede-initiatiefnemer van het project “Innovations in Scholarly Communication”. Co-auteur van rapporten over publicatieculturen voor de VSNU en over Open Access en Plan S voor cOAlition S. Docent bij VOGIN en GO-opleidingen.
    | uu | web | twitter | orcid | scholar |

    Workshop “Systematisch zoeken op internet kan niet …. of wel?”
    Wie zoekt naar informatie wil dat graag goed doen, met een hoge “recall & precision”. Ook wil je graag controle over je zoekproces en dat liefst later kunnen reproduceren. In extreme mate gelden die eisen bij zoeken naar wetenschappelijke literatuur voor zogenaamde ‘systematic reviews’. De vraag is of je diezelfde systematische zoekaanpak ook kunt toepassen op serieuze internetzoekacties om bij een goed omschreven onderzoeksvraag nieuws, rapporten, websites, blogs en meer te kunnen vinden. In deze workshop wordt u, deels via demonstraties, deels via eigen zoekacties en deels via discussie, langs alle stappen geleid die samen aangeduid kunnen worden als ‘systematic search applied to the web‘. Het wordt een spannende tocht want vergeleken met goed georganiseerde wetenschappelijke literatuur stelt het internet je voor veel meer valkuilen en verrassingen. Toch zal blijken dat er met de nodige creativiteit meer mogelijk is dan u misschien denkt.

    Guus van den Brekel
    Guus van den Brekel is medisch informatiespecialist bij de Centrale Medische Bibliotheek van het UMCG. Hij is verantwoordelijk voor het onderhouden, ontwikkelen en innoveren van bibliotheekdiensten voor medewerkers en studenten. Hij is een ‘go-between’ voor IT-afdelingen voor bibliotheeksystemen en –diensten. Research Impact and Support is zijn huidige focus als facultaire coördinator van PURE UMCG, het huidige onderzoeks-informatiesysteem van de Rijksuniversiteit Groningen, maar hij is altijd op zoek naar tools die het werk van arts, docent, student of onderzoeker makkelijker en efficiënter maken.
    | web | blog | twitter | slides | li |

    Robin Ottjes
    Robin Ottjes is een medisch informatiespecialist bij de Centrale Medische Bibliotheek van het UMCG. Zijn takenpakket bestaat grotendeels uit drie thema’s, namelijk onderzoek ondersteuning, onderwijs en innovatie. Hieronder vallen het werken met onze repository (PURE), het geven van workshops en het innoveren van bibliotheekdiensten. Het beste voorbeeld hiervan is het opzetten van een 3D en VR-lab in de medische bibliotheek. Als afgestudeerd historicus weet hij dat je niet in het verleden moet blijven hangen, daarom is het zoeken en testen van nieuwe tools of technologieën die het werk van artsen, onderzoekers en studenten makkelijker moet maken ook een belangrijk onderdeel van zijn werk.
    | web | twitter | li |

    Workshop “Hoe kom ik nu aan de full-text? – Actueler dan ooit, met het huidige “thuiswerken”!””
    Thuiswerken en off-campus toegang tot wetenschappelijk informatie en bibliotheekdiensten is crucialer dan ooit door Corona. Daarnaast is toegang tot tijdschriften erg prijzig en veel instituten hebben niet de middelen om een licentie op alles te nemen. Vooral organisaties buiten de academische wereld worstelen met toegang tot onderzoek. Bovendien moeten de organisaties met toegang de vraag stellen, wat zullen we doen als we plotseling de toegang tot een reeks tijdschriften verliezen omdat het abonnement is geannuleerd? Als de bibliotheek een artikel niet kan leveren, weten we dat onze gebruikers andere manieren zullen gebruiken om de pdf te krijgen. Echter, deze andere manieren bespreken we bijna nooit. Hoeveel verschillende manieren zijn er precies? Hoe werken ze? Hoe kan ik het groeiende aantal open access-artikelen -die her en der verspreid zijn over het web- op de meest efficiënte manier vinden?
    Deelnemers aan de workshop leren over alle mogelijke manieren en hulpmiddelen en krijgen tips om de full-tekst te vinden van wetenschappelijke publicaties. We bespreken “best practices” van bibliotheek-tools en diensten (Linkresolvers, Discovery, LeanLibrary, LibX, Apps, etc.) en testen vooral alle alternatieve tools zoals EndNote Click (voorheen Kopernio), Unpaywall, CORE Discovery, OpenAccess-Button, LibKey Nomad, Google Scholar-Button en andere extensies of bookmarklets.
    Breng laptops, smartphones en/of tablets mee en zorg dat in ieder geval Chrome, Edge en/of Firefox beschikbaar is.

    elgersma177Erik Elgersma
    Erik Elgersma is auteur van onder andere het boek “Concurreren op Kennis” (2020, Business Contact) en visiting lecturer op de School of Business and Economics van de VU. Twee jaar geleden is Erik, na 20 jaar in loondienst marktinformatie te hebben verzameld en geanalyseerd, zijn eigen informatie-adviesbureau begonnen (www.strategicanalysisservices.nl).
    | web | web | li |

    Workshop “Een startende éénpitter in informatie-land: wat goed ging en wat niet”
    In de workshop evalueert Erik Elgersma na de eerste twee jaar wat wel en niet werkte in zijn informatie-éénpitter rol. Ter inspiratie worden de actuele gegevens van zijn eigen bedrijf als case study gebruikt. De evaluatie bestaat uit vragen die relevant zijn voor iedere informatie professional zoals:

    • Wie zijn je klanten?
    • Hoe goed ken je ze?
    • Wie is eigenlijk je concurrent?
    • Waarom en hoe kun je van die concurrent winnen?
    • Hoe zorg je dat je beoogde klanten jou kennen?
    • Wat werkt? Wat werkt niet?
    • Hoe vind je uit waarmee je ze het beste kan bedienen?
    • Hoe innoveer je je diensten om ze nog beter te kunnen bedienen?

    Na afloop van de workshop heeft de deelnemer vragen en antwoorden ter reflectie. De workshop kan bijdragen aan het nog beter kunnen invullen van haar of zijn rol als informatie-professional.
    [zie ook deze video]

    Sandra FauconnierSandra Fauconnier
    Sandra Fauconnier is kunsthistorica met ruim 20 jaar ervaring in internet- en videoprojecten in de culturele sector. Ze werkte o.a. bij het Nederlands Instituut voor Mediakunst (tegenwoordig LIMA), als projectleider van ARTtube, videoplatform van Nederlandse en Vlaamse musea, en bij de Wikimedia Foundation. Ze is ook actief bewerker van Wikimediaprojecten (vooral Wikidata en Wikimedia Commons). Momenteel is ze directeur van OpenRefine, open source software voor het bewerken en opschonen van datasets.
    | twitter | li | wikimedia | blog | medium | slides |

    Workshop “Bewerken van datasets met OpenRefine”
    OpenRefine is gratis en open source software om datasets te bewerken en op te schonen. OpenRefine is krachtig genoeg om grote datasets (tot honderdduizenden records) te manipuleren, te transformeren tussen verschillende formaten, en te koppelen (‘reconcilen’) met externe databronnen en kennisbanken, waaronder Wikidata. Wereldwijd wordt OpenRefine gebruikt door bibliotheekmedewerkers, onderzoekers, datajournalisten en in vele projecten rond Linked Open Data; het is ook een populaire tool in de Wikimediagemeenschap.
    Programmeerervaring is niet nodig. Bovendien is OpenRefine bijzonder privacyvriendelijk: de software draait als een server op je eigen machine en de gebruikersinterface bevindt zich in je browser. Je bewerkt je data lokaal, en deelt enkel datasets met anderen als je daar zelf voor kiest.
    In deze workshop leer je alle basishandelingen van de software: data analyseren, filteren, transformeren, clusteren, en ‘reconcilen’ met Wikidata. Na de workshop ben je zelfstandig in staat om met OpenRefine aan de slag te gaan.

    Kristina HettneKristina Hettne
    Kristina Hettne werkt als digital scholarship librarian bij het Centre for Digital Scholarship van de Universiteitsbibliotheek Leiden. Ze ondersteunt onderzoekers bij het zo open mogelijk beschikbaar maken van hun data, software en artikelen en die geschikt te maken voor hergebruik. Haar achtergrond is computerwetenschappen en bioinformatica. Ze is Carpentries instructor en GOFAIR-liason, en heeft meerdere trainingen gegeven aan bibliotheekmedewerkers en data stewards voor verschillende digitale vaardigheden zoals machine-leesbare metadata creëren, programmering, scripting, en nette data manipulatie.
    | web | twitter | orcid |

    Workshop “Een gereedschapskist voor digitale vaardigheden”
    Digitale vaardigheden ontwikkelen: hoe doe je dat? Welke tools heb je nodig en wanneer gebruik je die? Van dagelijkse databewerking en het maken van mooie figuren voor rapporten tot het goed kunnen communiceren met onderzoekers en hen ondersteunen. Het zijn allemaal voorbeelden waar digitale vaardigheden van pas komen. In de workshop gaan we samen ontdekken hoe verschillende tools zoals spreadsheetprogramma’s, OpenRefine, R en RMarkdown je in je werk kunnen ondersteunen en wanneer je het beste welke tool kan gebruiken. Om optimaal gebruik te kunnen maken van digitale tools zijn er basale digitale vaardigheden nodig. We kijken samen naar de lessen van de “Carpentries” als een voorbeeld van een leeromgeving waar je ook zelf mee aan de slag kan. Het doel van de workshop is om ervaringen uit te wisselen en nieuwe vaardigheden op te doen om met een goede basis verder zelf te kunnen leren.

    Max KemmanMax Kemman
    Max Kemman is senior onderzoeker bij Dialogic. Hij doet beleidsonderzoek gerelateerd aan wetenschap, open science, digitalisering van het hoger onderwijs en digitaal erfgoed. Geregeld moet hij een overzicht maken van de wetenschappelijke output binnen een domein, waarbij algoritmen om zo’n overzicht te creëren goed van pas komen. Hij is docent bij de VOGIN Academie waar hij eveneens een cursus verzorgt over het analyseren van teksten als data. Eerder deed hij promotieonderzoek in Luxemburg op het gebied van digital humanities waar veel van deze methoden worden ontwikkeld en/of toegepast.
    | web | blog | twitter | li |

    Workshop “Grote hoeveelheden tekst analyseren als data”
    Er wordt steeds meer tekst geproduceerd. Gelukkig komen er ook steeds meer tools beschikbaar om grip te houden op de grote hoeveelheid informatie die beschikbaar komt. In deze workshop gaan we een aantal tools leren die helpen om overzichten te creëren van (grote) datasets van teksten. Zo is het mogelijk om van boeken, wetenschappelijke papers, kranten, tweets of e-mails overzichten te maken en te ontdekken hoe verschillende thema’s zich door de tijd ontwikkelen en of er teksten zijn die afwijken van de rest. Tijdens de workshop gebruiken we hiervoor Voyant Tools, een online omgeving waarin verschillende van dit soort overzichten gemaakt kunnen worden zoals woordenwolken, topic models, woordentrends en afwijkende woorden per uitsnede. Om te oefenen kan je werken met een collectie teksten die ik klaar zet, maar als je zelf een dataset van teksten hebt is het nog mooier.

    Hanno LansHanno Lans
    Hanno Lans is data-adviseur voor erfgoedorganisaties en overheid. Hij heeft gewerkt voor onder meer de Tweede Kamer, Nationaal Archief en Beeld & Geluid. Hij gebruikt Wikidata voor de geautomatiseerde vaststelling van de auteursrechtenstatus van onder meer de collecties van Paleis het Loo, Wereldculturen en de Lakenhal. Hij werkt aan aggregatie van erfgoeddata voor Erfgoed Gelderland, modellering van mediakunst op Wikidata voor de samenwerkende musea binnen LIMA en de implementatie van Wikibase bij het Kunstmuseum. In zijn vrije tijd actief op Wikipedia.
    | web | wikidata | wikimedia | github | twitter | li |

    Workshop “Werken met Wikidata”
    In de workshop wordt gekeken naar de mogelijkheden die Wikidata biedt om de datakwaliteit te verhogen van datasets van erfgoedinstellingen, met name van personen. Wikidata is een vrij bewerkbare linked open dataset waaraan wereldwijd informatie wordt toegevoegd. Dit heeft voor instellingen als voordeel dat de soms summiere informatie die in de eigen data aanwezig is via dit kanaal verrijkt wordt. Dit geeft een instelling met betrekkelijk weinig inspanning toegang tot gegevens als man/vrouwverdeling, de auteursrecht-vertegenwoordigers en andere instellingen die werken van een persoon hebben. Ook is de informatie als linked open data beschikbaar. Voor Google, Apple en Amazon is dat een welkome bron om gebruik van te maken voor het aanbieden van informatie in verschillende applicaties. Doordat Wikidata is opgezet als een referentiedatabase betekent dit dat de toegeleverde informatie en de bronnen daarvan beschikbaar komen in zoeksystemen zoals Google. Aan de hand van de collecties van Paleis het Loo en Wereldculturen wordt gekeken hoe op een gestructureerde wijze data toegevoegd, gemonitord en teruggehaald kan worden. Ook wordt praktisch ingegaan op de werkwijze binnen Wikidata, aandachtspunten waar rekening mee moet worden gehouden bij het gebruik van dergelijke dynamische data en handige hulpmiddelen zoals OpenRefine om zelf data te kunnen bewerken.

    Alexander Pleijter
    Werkt als universitair docent internetjournalistiek aan de opleiding Journalistiek en Nieuwe Media van de Universiteit Leiden. Daar is hij ook coordinator van Nieuwscheckers, een factcheckproject dat sinds 2009 bestaat. Actief op Twitter bij het signaleren van nepnieuws
    | blog | nieuwscheckers | web | twitter | li |
     
    Update d.d. 20 april:
    Door omstandigheden is Alexander Pleijter helaas verhinderd deze workshop te verzorgen. Hij zal worden vervangen door Leon Pauw. Leon is factchecker voor Nieuwscheckers. Hij houdt zich daar o.a. bezig met het factchecken van berichten over de oorlog in Oekraïne. Hierbij een overzicht van factchecks die hij recent voor Nieuwscheckers heeft verzorgd.
     
     
    Workshop “Zo word je factchecker”
    Fake news! Het is inmiddels een gevleugelde term. Als een journalist een fout maakt of een verzonnen bericht rumoer veroorzaakt, dan valt al gauw de term ‘nepnieuws’. Nieuwscheckers houdt zich sinds 2009 bezig met het checken van discutabele nieuwsberichten. Berichten van gerenommeerde media, maar ook van vage clickbaitwebsites. Sinds 2021 maakt Nieuwscheckers deel uit van een Nederlands-Vlaams consortium van factcheckers, nieuwsmedia en onderzoekers dat zich bezighoudt met de bestrijding van desinformatie. In deze workshop gaat het over de diverse kanten van het factchecken: hoe controleer je of nieuws klopt? Welke tools gebruik je daarbij? Hoe ga je te werk? Aan de hand van diverse voorbeelden en opdrachten krijg je een kijkje in de keuken van de factchecker.
    Ewoud Sanders
    Ewoud Sanders is journalist en historicus. Hij had wekelijks een taalrubriek in NRC Handelsblad (WoordHoek), waarvoor hij veel van Delpher gebruik maakte. Deze rubriek is dit jaar verhuisd naar de website van het Instituut voor de Nederlandse taal. Voor de Koninklijke Bibliotheek schreef hij een gidsje over Delpher, waarvan twee edities zijn verschenen. Daarnaast is hij auteur van onder meer ‘Slimmer zoeken op internet’ (16 edities), dat o.a. wordt gebruikt op hogescholen en bij diverse ministeries.
    | wikipedia | twitter | li | woordhoek |

    Workshop “Slimmer zoeken in Delpher”
    Met ruim 100 miljoen gedigitaliseerde pagina’s uit Nederlandse kranten, boeken en tijdschriften is Delpher.nl een ware goudmijn. Waar je meer in vindt als je verschillende zoektechnieken toepast. In deze workshop, waarbij de deelnemers zelf gaan zoeken, laat Ewoud Sanders zien hoe je het meeste uit Delpher kunt halen.

    vogin-ip-klein