lördag 21 september 2019

Fundering LIBRISXL

https://kundo.se/org/librisxl/d/sparbar-change-management/#c3343012

tackar min poäng är att det inte fungerar med att inte ha tydlig spårbar med helpdesk ID och ändringshantering som vi inte kan ta del av.


Bara om ni börjar dela era interna ID nummer skulle förbättra kommunkationen enormt... och när en ändring går i produktion säger ni det i release notes att taskid xxx är i produktion...

Allt detta med att koppla ihop sig är så komplext att man måste ha bättre verktyg och bättre kommunikation... jämför jag med Wikidata så tror jag det är just deras publika workboard, användandet av verktyg som Telegram etc. gör att där händer det saker. Detta ekosystem börjar bli komplext och Wikipedia/Wikidata har idag
  • > 300 språk
  • har > 4000 externa kopplingar ung. 40 nya per vecka där LIBRISXL är en 
  • vi har i WIkidata change stream(API) som Google med flera läser direkt och hämtar saker direkt dvs. ramlar det in "skräp" hos oss så sprids det snabbt (se nedan exempel Älvrosgården)
    • ex. felaktiga LIBRIS nummer sprids snabbt.... 

Jag kommer från att ha jobbat med internationella banksystem och där är hastighet / tydlighet extremt viktig... aktörer som Chase Manhattan Bank kastar ut dig om du inte sköter dig. Det duger inte att någon säger att dom är medvetna om ett problem.... det är 100 miljoner $ som ligger i New York som inte kan levereras video dvs.man måste vara tydlig med att alla har samma bild av problemet och att alla vet status är....

Skall #LIBRISXL bli ett system som kopplar ihop Sveriges kunskap så gissar jag att ni måste kunna koppla ihop flera 100 aktörer och enkelt kunna samsöka hos dessa....  nu har vi 8 June 2018 skapat EN egenskap i Wikidata för LIBRIS-URI och 2019 sep kan ingen förklara hur det skall fungera med VIAF.... i min värld känns inte detta seriöst...

Tekniken finns idag 2 timmar vs. LibrisXL VIAF 1 år
Exempel hur snabbt saker kan ske idag om rätt personer involveras och bra verktyg finns.

I förra veckan var jag i en taxi i Indonesien och hittade en trolig dublett i Wikidata. Eftersom jag använde en mobil ville jag ha en "second opinion" och twittrade en tjej i Wellington, New Zealand som har domänkunskap och hon sa att det var en dubblett...



Eftersom det var på twitter lyssnade utvecklaren hos https://bloodhound-tracker.net/ på dialogen.... han insåg att detta borde hans applikation som använder Wikidata Q id ta hand om och undrade om det fanns en changestream... jag svarade https://tools.wmflabs.org/wikidata-todo/rcvis.html men den var inte optimalt så jag hittade ett API och tjejen från Wellington hittade en snygg SPARQL fråga https://twitter.com/salgo60/status/1171187676310949889?s=20



2 timmar efter detta hade en uppdatering checkats in i GITHUB med 100 rader ny kod som tar hand om "problemet" att en person hos Wikidata ex. Carl Linnaeus skapas flera ggr men sedan mergas ihop" dvs. det är alla dagar i veckan bättre att peka på senaste personen från extern applikation (troligen ett problem LibrisXL kommer att se om ni startar med länkad data och kopplar "samma som" Wikidata)
https://github.com/.../400dfe812255f114cc383f2d62b2aa234c...
https://twitter.com/Bloodhound.../status/1171485463892246529



det är denna tydlighet/snabbhet plus att vara proaktiv som behövs för att synas i det nya #LOD landskapet är min tro.... plus att vara enkel att kommunicera med se min kommentar SWIB18 28 nov. 2018




I exemplet ovan var Bloodhound tracker proaktiv när det gäller kontakter jag haft med LIBRISXL/myndigheter är jag inte ens säker att man skulle kunna förstå problemet.... det behövs nya roller och nya kompetenser.... bara denna utmaning att skapa kunskapsgrafer är inte trivial och dom som är snabba är Airbnb, Apple, Google, Ebay och har specialister på kunskapsgrafer .... Google anställde även han som skapat Wikidata Denny Vrandečić https://twitter.com/vrandezo som just jobbar med att se till att Wikidata utnyttjas på bästa sätt av Google. Min tro är att vill man vara med och "synas Digitalt" så behövs en laguppställning med rätt kompetens och riktiga verktyg och tydlighet.... det blir en helt annan synbarhet jmf hur Google läser Wikidata change stream och LIBRIS inte vet vad Älvrosgården är tweet






En tendens jag ser är att projekt som #LIBRISXL inte kan skapa bra kunskapsgrafer med sitt "gamla data" utan det blir bara massa text när dom konverterar dvs. 7 år in i projektet rapporterar ni inga positiva förändringar och jag ser massa konstigheter att eran Auktoritetsavdelining anger Wikipedia som källa (fel varje dag i veckan)
https://twitter.com/OsmaSuo.../status/1070292220660629504...
https://twitter.com/OsmaSuo.../status/1172386192198815748...

Min tro är efter att ha följt detta projekt under 2 år att ni måste helt styra om projektet och bli mycket mycket mycket mycket bättre på att kommunicera och öppen för återkopplingar.... kollar vi på Google insåg dom 2014 att dom inte kunde hantera eget data själva i projektet #Freebase utan skänkte allt data till #Wikidatahttps://static.googleusercontent.com/.../archive/44818.pdf nu sitter vi 2019 sep och ingen kan vara tydlig med hur en så enkel sak som koppling LIBRIS/LIBISXL/VIAF skall se ut.... det fungerar inte 2019 Biblioteken behöver mer än någonsin synas och göras relevanta är min tro..... plus att ni precis som Google bör vara tydliga hur ni skall jobba ihop med ex. Wikidata..... och då pratar jag utbyte av kunskapsgrafer inte som idag att man flyttar id;n mellan LIBRIS XL och Wikidata det är inte där det stora mevärdet finns tror jag....

Exempel där Wikipedia blir källa till LIBRIS
Jag pratade med er fd. CIO Peter Krantz för 3 år sedan om problemet med att LIBRIS har Wikipedia som källa och han beklagade att så var fallet och filosofeade över om det va lättja eller brist på insikt..... nu ser vi i sommar 2019 att LIBRISXL skapar instruktionsfilmer med just denna galenskap och ni har deaktivera kommentarer och när man påpekar detta för chefer hos er så är svaret det är inte mitt ansvar.... dvs. det går inte att påpeka felaktigheter....

Personen är Augusta Tonning



Skulle någon i WIkipedia belägga fakta med en länk till Wikipedia så tar de 10 sekunder så är det borta....



  • Summering 
    • det saknas kommentars funktion 
    • Wikipedia skall inte vara källa
    • Om man vill uttrycka relation till WIkipedia så ange "samma som" WIkidata Q4989911
    • Skall WIkipedia citeras gör det till sidan och version av sidan ex. Special:Citera och inte till hela sv:Wikipedia
    • Källor verka anges som textsträngar försök ha länkad data så "En annan historia" skall anges som 6qjxvpvj2sqq6h8 som sedan blir klickbara
    • Samma med länk WIkidata, VIAF etc. gör dom länkarna klickbara jmf
      • VIAF 8847156253580608110007




        lite tragiskt är att när nu LIBRISXL finns i VIAF men som SELIBR så betyder det att då Wikidata synkroniseras med VIAF hamnar LIBRISXL värdet för Augusta Tonning i SELIBR fältet se Q4989911#P906 och fel format signaleras enl. nedan



Några tankar från en som vill att ni skall bli bättre och att vi kan börja använda ert data och även förbättra ert data. Dagens modell utan helpdesk nummer gör att enkla saker som ett externt ID tar enormt mycket tid/energi jmf det med en mycket mer komplex uppgift som Bloodhoundtracker löser på 2 timmar med 3 personer i olika tidszoner...

Med hopp om bättre tydlighet
Magnus Sälgö
0705937579


Inga kommentarer:

Skicka en kommentar