Closed jonassodergren closed 2 years ago
Det är nästan inga privata svenska företag i Wikidata i dagsläget. Det finns vad jag vet inga öppna data alls om privata svenska företag. Företagen skulle själva ihop kunna göra en graf, för den datamängden kanske inte passar jättebra i Wikidata. Alla världens företag kommer troligtvis aldrig att läggas in i Wikidata.
@jonassodergren smuts sparar jag på så mer tack
att flertalet utegym har chinsstänger som är designade av personer som aldrig gjort en chin, dvs att stången inte är stum.>
Jag är inte där ens i tanken mina tankar snurrar mer kring att man borde ha länkade data från leverantörerna vilka maskiner dom levererar och vilka muskelgrupper dom tränar se mina tankar vid min 19:00
Tanke QRC koder på alla kommuners saker @jonassodergren vi pratade om persistenta dentifierare,... en QRC kod är en kandidat till en persistent identifierar --> den skulle finnas på alla enskilda utegyms stationer så man kan
Tanke 2 Har man QRC kod och länkade data så skulle din feedback på chins enkelt kunna sammanlänkas med alla andra feedback på chins stänger....
Snygg lösning Stockholms stad feedback Stockholms stad har tror jag köpt in ett verktyg att visa feedback för en stadsdel på en karta.... liknande bprde kunna gå att göra med utegym men kanske ha muskelgrupper, "karta där man har ont" osv....
OT BILDER
jag besöker långsamt utegym och tar foton och försöker prata med folk länk senaste utegymsbilderna / enbart mina bilder
**Feedback jag fått*** När jag fotar utegym så försöker jag prata med folk nedan feedback 1) utegymmen används enormt lite 2) jag gillar utegym undanskymda i skogen 3) jag har haft eget kommersiellt gym och det skulle enkelt med några brädor gå att göra apparaterna bättre sp man kan variera vikter etc...
@jonassodergren jag tror inte vi förstår hur mycket dialog som behövs... jag var med på ett Open Street Map event och då pratade man om Tag:access delivery dvs. med alla budjobb är det enormt viktigt att märka ut på husen vilken dörr budfirmor skall ta....
Min hemma filosof fundering är att detta måste systematiseras så vi inte får som för anslagstavlorna 290 smaker av kravinsamling...
Såg att du visade att openstreetmap kan länka tillbaka till ett q-nummer i wikidata
@jonassodergren Det är där saker blir intressant att man ramlar över till 5-stardata OSM skriver bra om det / Key:wikidata / Why link to Wikidata?
Gillar idén med QR-koder. Kanske en kod för att räkna besök, en kommun borde vilja se hur allmännyttiga platser används och hur de uppfattas.
Japp feedback borde dagens teknik göra enklare i Holland fick cyklister en knapp på styret som dom tryckte på då dom uppfatta trafiksituationen jobbig.... liknande för astma... Stockholms stads pratskärmar... upplevd trygghet
Hade jag trott mer på nationella dataverkstaden hade jag föreslagit att dom skulle implementera något liknande QRpedia där telefonens inställningar avgör vilket Wikipedia språk du kommer till och dom genererar unika QRC koder...
Lång video om att koppla ihop med Wikidata, dataportalen, Scholia
POC hur man skulle kunna koppla dataportalen och Anslagstavlorna till Wikipedia
1) skapa Wikipedia konto
2) Visit your global.js page on Meta: User:
mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:SuperHamster/view-it.js&action=raw&ctype=text/javascript' ); mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:Salgo60/scholia.js&action=raw&ctype=text/javascript' );
mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:Salgo60/anslagstavla.js&action=raw&ctype=text/javascript' );
mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:Salgo60/dataportalen.js&action=raw&ctype=text/javascript' );
En tanke hur strukturerad data skall kopplas till dataportalens dataset med samma som Wikidata, samma med Anslagstavlorna,......
Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset.
Jag ska rådfråga någon som är duktig på specen. Men jag kollade lite fort: https://www.w3.org/TR/vocab-dcat-2/#Property:resource_identifier. Det ser faktiskt märkligt ut att en identifierare enbart finns på katalogen och inte specifika dataseten i katalogen. Ska undersöka det mer noggrant.
Coolt
Jag har lyft frågan
Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset.
Det som är snyggt är vetenskapliga dokument och Scholia där har man gjort hemläxan och infört DOI och ORCID... Google har ett bra dokument "Building Google Dataset Search and Fostering an Open Data Ecosystem"
Sedan är nog 100 miljarders frågan vad är optimalt gissar att det inte är B-laget hos Google som funderar hur saker skall struktureras och göras "findable"...
Steg 0 tror jag att vi får en öppen data vision som är gemensam.
Lyssnar jag på
och
Röran med Skolmat <-> dataportalen Hur rörigt det blir med att flera kommuner lägger "dataset" som verkar peka på samma API för skolmaten se notebook
sedan
Fostra en community ;-) starta med DOI Annan käpphäst är att starta med DOI se DIGGSweden/DCAT-AP-SE/issues/86# dvs. att samma dataset oberoende av i vilken portal det finns alltid har samma DOI så den som "skördar" aldrig tvekar - "Building Google Dataset Search and Fostering an Open Data Ecosystem"
Att starta med reconciliation
Jämför Google dataset search "Reconciling to the Google Knowledge Graph" se även video "The Google Dataset Search Engine"
Att ta ledarskap Idag finns massa fina Livsmedels visioner men det känns inte som någon översätter detta till data som data. Det behövs en process och bygga upp kunskap vart vi vill och hur...
Jo google har ett bra tänk såklart. Men jag tror att dataportalen.se räcker väldigt långt för Sverige om den börjar användas. Fler behöver nog bara kavla upp ärmarna och börja dela, och när man ändå delar så bör vi börja använda identifierare och tänka till lite på bästa format. Kritiken som lyfts på forumet kan kondenseras till dessa två punkter tror jag. Exempelvis https://www.dataportal.se/sv/datasets/180_5782/jobadlinks-jobbannonsfiler-annonser-jobtechlinks-2021-04-24targz är i format från schema.org och just google med flera är såklart intresserad av att indexera den informationen. Så det går att få dessa portaler att hänga ihop med små medel. I issuen ovan diskuteras kategorisering av dataset om jag förstår rätt, tänker att det inte löser problemet helt. Betrakta exempelvis https://www.dataportal.se/sv/datasets/180_6676/jobsearch-trends , det är id:t 180_6676 som är lite magiskt idag. Givet ett känt sätt att producera det id:t så borde det bli mycket enklare att börja koppla ihop dataseten som du efterfrågar.
Det här inte lätt hur tänker du med datasets/180_6676/jobsearch-trends skall kopplas?
Delar din vision om vad som är möjligt om bara grunderna blir rätt. Källan till API:et ovan är https://data.jobtechdev.se/annonser/search-trends. I den mappen så finns även ett dcat-extrakt som beskriver datasetet. Det jag har svårt att få ihop är att id-numret till datasetet inte skapas av den som skapar datasetet. Tänker att det blir svårt att bygga kunskapsgrafer om den som tillhandahåller ett dataset inte kan länka till sitt egna dataset på ett förutbestämt sätt. Så jag är på en lite mer "basic" nivå än dig. =)
Är inte DOI lösningen? tror inte man skall lita på att saker som dataportalen etc. finns för evigt....
jag är på en lite mer "basic" nivå än dig. =)
nja jag famlar enormt men Wikidata är lite kul eftersom det inbjuder till att testa nya saker...
Jag har inte blivit kompis med DCAT ännu tyvärr...
Exempelvis DOI skulle kunna vara en lösning. Men aktören som tillhandahåller datasetet behöver börja skapa ett sådant id alt annan vettig beständig identifierare. Känns rimligt att det borde gå att beskriva i DCAT.
Det är lite geggigt kollar jag på dct:identifier "https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz#about1" så är det inte trivialt att hitta den på dataportalen
Borde finnas ett mervärde att enkelt kunna hoppa mellan dom olika portaler i en perfekt värld så skulle det finnas kopplingar hos data.europa.eu till andra liknande dataset
Precis, alla avser samma dataset, blir geggigt iom att inget unikt identifierar datasetet. Det är så uppenbart att det saknas att jag börjar fundera på om jag tänker fel på något sätt. =)
Tycker Google AI blog uttrycker det bra "Building Google Dataset Search and Fostering an Open Data Ecosystem" Connecting Replicas of Datasets
Det antipattern jag tycker jag ser är att när tekniker snöar in i RDF syntax tappar man användarna och slutresultatet blir katastrof - gissar att dataportalen och ladda upp data känns komplext för dom som borde kunna den.... Denny som skapade Wikidata pratar ibland om att det skall vara lätt att göra rätt idag är det inte det... tips testa lek med Wikidata jag tycker dom lyckats ganska bra...
Tips2 Kolla lite på citation graphs där lyckas man med att vetenskapliga publikationer kan dyka upp på massa ställen och citera andra tidsskrifter som skrivits av andra gubbar
Annan intressant tanke är att ändringshistoriken skall kommuniceras
"Proper methods of attribution (at the individual and institutional level) are very important for incentivizing digitization, mobilization, and sharing of data deriving from collections (physical and digital). One strategy for elevating the academic value of curatorial actions is to create the necessary infrastructure that captures the breadth of activities undertaken by curatorial staff. Several programs exist for aggregating metrics for research products other than publication"
SKOS - Simple Knowledge Organization System ett annan utmaning är när saker inte är samma som men nästan då fungerar SKOS. Jag leker lite med det för Wikidata och Skansen se SkansenWikidata/issues/11
Frågan om tillit är intressant. Tycker ovan "affärsmodell" kunde användas mer för dataset https://arbetsformedlingen.se/platsbanken/annonser?s=2 (datakällan är ovan https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz). Myndigheten kan visa upp flera annonser för användaren, men samtidigt är det tydligt att myndigheten inte kan ansvara för annonsen som den länkar till. Just att länka till wikidata, youtube, andra myndigheters dataset blir mindre av en trustfråga om man faktiskt låter slutanvändaren vara med i bedömningen om de kan lite på informationen. Blir lätt byråkratiskt och en onödig överbyggnad om offentliga organisationer ska få bestämma vilken information som "får vara ihoplänkad".
Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset.
Japp vi måste bort från textsträngar så långt det går. "Things not strings"
Japp tillit är viktigt när vi får detta att snurra
En galenskap jag kanske ser komma är det jag ser med projektet Riksdagens corpus är att det saknas bra källor som är maskinläsbara på Riksdagsmän från Riksarkivet och KB fast dom jobbat i 400 år så då måste man välja Wikidata med alla dess fel och brister se welfare-state-analytics/riksdagen-corpus/wiki/
Skapade nyss en video hur mycket tid det tar att skapa kvalitet
tror jag starta 2022 jan och har gjort hälften...se dialog med ML projektet
Här är ett exempel på strings från Linköpings kommun: "Exempel
GET /api/3/schools/nearby/?latitude=57.7840241562&longitude=14.2806602478 HTTP/1.1
Host: skolmaten.se
Client:
HTTP/1.1 200 OK
{ "schools": [ { "id": 5023781168873472, "name": "Smedbyns förskola", "userDistance": 0.0 }, { "id": 44707002, "name": "Björnens förskola", "userDistance": 0.17934306455811086 } ] } " Noter: ingen identifikatorer på skolorna bara strängar. https://www.linkoping.se/open/data/skolmat/
exempel på strings från Linköpings kommun:
Det galna här är
Lesson learned: är halvt omöjligt att få folk att inse vad Linked data är
Grundfelet man jobbar inte strukturerat utan i SÌLOS och alla har sin agenda att fakturera, visa upp sig, är rädda för förändring se hur skridskoklubbar jobbar
Fattar. Men ovan sökning ger id på skolorna? Menar ni att id:et är internt och saknar innebörd?
Det Magnus återkommer till ofta är DOI som är väldigt intressant. Är det fritt fram för vem som helst att börja utfärda dessa? Känns som att en organisation skulle förvalta utgivningen för alla myndigheter.
DOI ... fritt fram för vem som helst att börja utfärda dessa
ingen aning men känns som ett DIGG uppdrag att ha dessa plus att som @dpriskorn tjatar ha en egen Wikidata
Fattar. Men ovan sökning ger id på skolorna? Menar ni att id:et är internt och saknar innebörd?
Felet med skolmat är se Video från 2022 jun och Notebook - API endpunkt
**Se även*** exempel livsmedel visionen och deras systemkarta
- alla ingridienser (gjordes av Jan AInali på ett event 2019 tror jag)
Länk: Ainali/tastydata
@jonassodergren jag skrev om gemensam datakatalog så vi hittar alla identifierare finns det planer?
Se https://community.dataportal.se/topic/120/eionet-data-dictionary
På Wikipedia med sin galna värld får vi mycket gratis men många bra design beslut har tagits
Tror man borde göra som skridskoåkarna gör efter varje säsong sätta sig ned och fundera varför dataportalen är vad den är... tycker inte DIGG växt i rollen som digital expertmyndighet utan blir mer diskussionsgrupps poliser...
Kanske vi kan införa ett användbarhetsindex för olika dataset? Där indexet baseras på datasetets uppfyllnad av, finns bra identifierare?, är fokus på things och inte strings, finns det ett känt format som skulle kunnat användas, är formatet öppet?, länkas det till relaterad information etc. Att bara diskutera de kriterierna är intressant, bedömningar kan ju med fördel göras av communityn alá wiki. @Ainali @salgo60 @dpriskorn
Kanske vi kan införa ett användbarhetsindex för olika dataset?
Du menar typ 5 ★ OPEN DATA?
Exakt. Men annan part än den som tillhandahåller datasetet behöver ju göra bedömningen och dokumentera resultatet var min tanke.
Men annan part än den som tillhandahåller datasetet behöver ju göra bedömningen och dokumentera resultatet var min tanke.
Behövs det verkligen? Skalan är ju ganska enkel och lätt att förstå och en myndighet lär ju knappast ljuga i sin självbedömning.
Bara en idé. Vilken självbedömning?
Bara en idé. Vilken självbedömning?
Om femstjärnemodellen införs som ett användbarhetsindex på Dataportalen som ett obligatoriskt fält så blir det uppladdarens (vilket i de allra flesta fall också är myndigheten som producerar datasetet) självbedömning.
Jag tror det är bra med att enkelt kunna dela erfarenheter och/eller var projekt finns som använder ett visst data set..
Kanske sätta upp en Wiki där man kan beskriva problem/önskningar vore bra. Tycker vi hittar hela tiden nya saker i dataset som borde dokumenteras... idag då de flesta inte har en backlog förrsvinner den erfarenheten...
Det utkast jag gjorde på hur jag uppfattar Riksarkivet SBL som är en extremt trovärdig källa men enormt skitigt data som dom är långsamma att rätta...
https://sv.wikipedia.org/wiki/Anv%C3%A4ndare:Salgo60/Source:SBL
Tycker vi ser med Riksdagens data massa saker som bör dokumenteras. När Riksdagen själva saknar en yta för detta kan en wiki vara bra
Jag gillar idén med att bedöma myndigheterna hur de överlag klarar av att dela öppen länkad data. Då är det bara 600 bedömningar totalt. För varje datamängd skalar inte bra, vi är för få engagerade konsumenter. Kanske om man hade en recessionsmöjlighet på dataportalen för varje datamängd att de skulle kunna få vettig återkoppling.
För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.
Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.
För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.
Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.
Håller med men då betyder det att alla lagdelar måste fungerar. Idag ser vi bara gegga och vi saknar styrning som användare mistral pekar på och då måste vi runda detta...
Samma problem med skalning har vi i Wikidata hela tiden men eftersom det nästan aldrig fungerar så blir det massa merarbete i Wikidata och verktyg som Wikidata:Mismatch_Finder tas fram för att runda dysfunktionella system. Exempel vad vi ser
Tycker min analogi att myndigheter/kommuner/arkiv... bör vara lika funktionella som proffsiga skridskoklubbar och nedanstående modell är bra... tycker dom flesta vi kommunicerar med är på Level 1 "Process unpredictable, poorly controlled and reactive" --> vi kan inte lita på dom, vi kan inte spåra vad dom gör utan det är en process lika tillförlitlig som att säga till en tonåring att städa sitt rum ;-)
--> vi måste runda detta och skapa ett "mellanlager" som alla kan uppdatera... vi har testat dagens system som bygger på att organisationerna själva tar ansvar och bygger upp egen kompetens sedan innan 2013 som du vet video min slutsats dom gör inte sin arbetsuppgiften och vi lider av att dom är på nivå 1 Level 1 "Process unpredictable, poorly controlled and reactive"
@Ainali du som varit med på hela resan vad talar för att det skall fungera 2022...? Jag tycker jag ser denna galenskap hela tiden
För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.
Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.
Håller med om att det enda skalbara och långsiktiga alternativet är att den ansvariga självskattar och redovisar. Min poäng var nog att dels tar det väldigt lång tid (många år) att införa. Går det att prova och se om det skulle tillföra något för låt säga 10 organisationers separat av användarna och inte producenten? Fungerar det inte så fungerar det inte. Fungerar det så är det enklare att skala upp en sådan MVP.
Håller med men då betyder det att alla lagdelar måste fungerar.
Det behövs inga lagändringar för att lägga till ett fält i formuläret på Dataportalen. Inga av de andra fälten finns definierade i lagtext. Det här kan DIGG göra i eftermiddag om de vill.
lagändringar = rätt personer i laget , inte lagtext.... lag hjälper inte när organisationer är dysfunktklnella och saknar ledarskap/vision se Rättsinformationsprojektet och 15 års uthållighet resultat 0
DIGG laget idag sitter och funderar i 4 månader om dom kan ändra en timeout på diskussionsgruppen, dom kan inte ge oss unika helpdesk id:n... enormt rädda.... utan vision.... när jag lyssnade på DIGG i Almedalen verkar dom bara vilja vara kompisar och bli fler...
För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.
Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.
Håller med men då betyder det att alla lagdelar måste fungerar. Idag ser vi bara gegga och vi saknar styrning som användare mistral pekar på och då måste vi runda detta...
Samma problem med skalning har vi i Wikidata hela tiden men eftersom det nästan aldrig fungerar så blir det massa merarbete i Wikidata och verktyg som Wikidata:Mismatch_Finder tas fram för att runda dysfunktionella system. Exempel vad vi ser
brist på versionshantering källsystemen
brist på helpdesknummer hos källsystemet
brist på spårbarhet mellan Wikidata och källsystem då det uppstår problem
....
Tycker min analogi att myndigheter/kommuner/arkiv... bör vara lika funktionella som proffsiga skridskoklubbar och nedanstående modell är bra... tycker dom flesta vi kommunicerar med är på Level 1 "Process unpredictable, poorly controlled and reactive" --> vi kan inte lita på dom, vi kan inte spåra vad dom gör utan det är en process lika tillförlitlig som att säga till en tonåring att städa sitt rum ;-)
--> vi måste runda detta och skapa ett "mellanlager" som alla kan uppdatera... vi har testat dagens system som bygger på att organisationerna själva tar ansvar och bygger upp egen kompetens sedan innan 2013 som du vet video min slutsats dom gör inte sin arbetsuppgiften och vi lider av att dom är på nivå 1 Level 1 "Process unpredictable, poorly controlled and reactive"
Håller helt med om detta. Det är nog inte dumt med ett buffertlager nu när det är såhär kasst jämt. De får helt enkelt rycka upp sig och städa i eget hus om de ska få vara med i världsklass (i WD).
Levererar de inte så gör de inte det. Då ska man tydligt kunna se vad vi vill ha och vem som klarar av det. På vandringsleder är det 1/290 kommuner vad jag har hittat hittills som klarar av att leverera ett minimum av kvalitet.
Jag tycker vi ska bilda en ny demokratisk ideell organisation för datakonsumenter som bildar opinion på området och ger kudos/pris till dem som faktiskt levererar. Då kan vi fråga tripadvisor, google, öppna Skolplattformen, m.fl. om de vill vara med.
Vi kan vara konkreta med vad vi önskar av myndigheterna och samordning och tvärsektoriell styrning för att faktiskt kunna få till ett vettigt öppen data ekosystem.
Nu har vi ju ett trasigt ekosystem och en massa huvudlösa höns som inte styrs av någon som är tydlig på regeringsnivå. Intresset i politiska partier för öppen data verkar vara lågt. Det skulle vi kunna jobba mera målriktad med också.
Jag tycker vi ska bilda en ny demokratisk ideell organisation
Om du vill slippa det administrativa med driva en organisation känns det som att det är verksamhet som skulle kunna inkluderas i antingen CivicTech Sweden eller Open Knowledge Sweden.
Jag hade en timmes snack med Jonas StorStockholm och saker som ramlade ut
Kan tipsa om https://www.swedishjobtech.se/ (angående värdförening) som har mycket erfarna projektledare och som verkar för öppna data på ett väldigt positivt sätt. De kanske kan vara intresserade av denna dialog. Uppmärksammar de på denna tråd.
Trevligt det "problem" jag fastna i med Jobtechs data och yrken SSYK var att det blev så komplext...
Apropå arbetsgivare och grafer och länkar så har jag förstått att bolagsverket tar betalt för sin data delvis för att finansiera Svenska akademin (som för övrigt också underpresterar i mina och Magnus ögon för de har skitig data) Det finns alltså inte någon öppen datamängd att skapa en graf utifrån. Med andra ord så kommer du få väldigt svårt att länka ihop om inte du först pratar med regeringen och ber dem fixa så datan bliver fri. Bolagsverket är bunden enligt lag att betala 16 mio årligen till SA så det behövs en lagändring. Kanske skulle kungen själv börja finansiera sin fina akademi framledes? 😉 Kolla hur det ser ut i Norge och Danmark på området. Hur offentliga är företagsdata där?
Cool video! Lärde mig mycket. Såg att du visade att openstreetmap kan länka tillbaka till ett q-nummer i wikidata. Vet du om det används av arbetsgivare för att beskriva sina arbetsplatser/företag i någon omfattning idag? Finns lite att utforska för vår verksamhet tänker jag (jobtech/af)? Sorry att jag smutsar ner din tråd om utegym. Kan slänga in en fråga om utegym, har märkt att flertalet utegym har chinsstänger som är designade av personer som aldrig gjort en chin, dvs att stången inte är stum. Antar att den datapunkten inte i ditt dataset.. =)