Open salgo60 opened 2 years ago
id: 77-2 Även "projekt" som DIGISAM som starta 2011 borde följas upp varför dom underlevererar och nu verkar tystna bort utan att leverera och utan att analysera varför blir det så fel... 2022 dec efter 10 år verkar RAÅ tro att befintlig personal kan utbildas i länkade data något vi aldrig sett lyckas... istället skapas nya pdf:er
id: 77-3 Antipattern: inget data levereras
Vi kan se 3 Öppna data projekt som verkar köras med samma gäng men som knappt levererar data
Exempel på projektkyrkogården är projekt där utegymsspecar tas fram och efter 3 år kommer 45 datapunkter dvs. enormt ineffektivt
id: 77-4 Antipattern Strings not things - blogpost om Europeana misslyckandet - chatGPTs förklaring vad skall förändras
Min hobbyanalys
Efter detta tog jag fram The Magnus list med checkpunkter vad en extern källa skall ha för att fungera med Wikidata
id: 77-4-2 Antipattern Strings not things - Europeiska dataportalen tar emot textsträngar och "fusköversätter" se Dataportal Väst Utegyms data
Exempel på hur svensk textsträng skickas till EDP där den översätts till > 10 språk - istället för att skicka Linked data
Jag felanmälde att det skickas runt textsträngar 2020-06-24
id: 77-4-3 Antipattern: Strings not things - SKBL skapar ett projekt med API mot databasen KARP Göteborgs universitet, systematiserar yrken, och olika fält på ett bra sätt (dock INTE ett sätt som hela Sveriges humaniora enats om) MEN det är strings och inte Things --> en kunskapsgraf behövs --> jag var med på deras styrgruppsmöte 2020 dec och dom skulle titta på det hela men projektet han dö innan dess...
id: 77-4-4 Antipattern: Strings not things
Riksarkivet SBL 100 års verksamhet men primärt ge ut i böcker --> vi webscrapar och gissar...
Extrem lite publiceras av Riksarkivet SBL se nedan 100 år vs. 5 år
id: 77-5 Antipatterns:
Persistent unika Identifierare används inte fast det finns för svenska skolor se SCB / Skolverket / WIkidata men det används inte
Skolmat har funnits som Öppna data sedan 2014 se Vinnova presentation, se "omstart? 2020" NSÖD presentation
Skall Livsmedelsverket vision med skolmaten kunna förverkligas så fungerar inte det...
Datastory har hämtat Skolverkets/SCB data och skapat objekt för alla skolor på Wikidata egenskap Property:P7894 och skapat en skolkarta med koppling betyg
id: 77-6 Antipattern pekar inte på EU metadata "samma som"
Badplatser som är EU bad finns hos EU med persistent identifierare Bathingwateridentifier men det nämns inte i skapad specifikarion 2021
Svensk badplats spec som "hittar på ny egen term hov_ref
id: 77-7 Anti pattern Strings not Things flyttas mellan portaler se även 77-4
European data portalen skickar DCAT och har textsträngar med språkkod, korrekt vore att skicka #Linkeddata och/eller #51 se Notebook European data portal - quality of Metadata
Answer EDP Helpdesk We store the metadata as it comes from the data providers
id: 77-9 Anti pattern: Saknas processtänk och tydliga mål och tydlig ägare plus saker dokumenteras inte i publika backlogs Anti pattern 2: SFS måste skrivas så 290 kommuner med låg eller ingen datamognad förstår att dom inte skall skapa silos se Riksdagens backlog #82
Idag verkar öppna data projekt vara lösa projekt med en produktbudget som lever sina egna liv innan de dör och verkar sakna tydlig styrning och riktlinjer vad dom skall leverera... väldigt slappt styrda med "projektytor" på Linked in... --> tveksam om projekten lär av varandra mer än att det verkar vara samma personer som engagerar varandra sedan 2014... och samma personer likar varandra på Linked in 😢
Exempel Nationell Dataverkstad (deras skuggbacklog) som jag skickade en förfrågan till att få Anslagstavlor mer digitala #17 och mer på nivå 2022 att folk kan prenumerera på vad politiker, kommun gör inom olika ämnesområden eller saker som berör dom dvs. att demokratin utnyttjar tekniken som 2022 Facebook, Linked in, twitter gjort i 10 tals år och inte ha 290 silos se en vision #11 för en intresseförening med verksamhet i flera kommuner
Exempel hur Sollefteå kommun lägger ut sin info Internet Archive - Förvaringsplats för protokollet: Sekretariatet
Motiveringen från projektet att INTE skapa ett bättre ekosystem och skapa länkade data av dokument som enl. kommunallagen skall kungöras på kommunernas Anslagstavlor
Motivering projekt nationell dataverkstad se linked in
"Fredrik Eriksson Know It svarar efter en halvbra utredning att dom troligen inte gör detta med motivering
_"Vi har konstaterat att besöken på dessa digitala anslagstavlor är relativt få vilket kan tyda på ett visst ointresse från allmänheten"
"Det vi vet är att dubbelarbete inte kommer att accepteras av dessa verksamheter"
Vilken annan organisation skyller på dubbelarbete och skapar 290 Silos finns en anledning att vi inte har ett Facebook för varje kommun.... det är så dumt implementerat så min slutsats är att dessa människor skall inte jobba med IT och IT-lösningar som berör vår demokrati...
Positivt hade det varit i Frankrike hade vi säkert haft 35 038 silos
Se även "Vad saknas? Varför blir det så dumt? - ingen pratar design mönster" - IA
id: 77-10
I en sund organisation rättas saker till men det ser vi inte här --> en analys
id: #77-11
ett försök av Kungliga biblioteket att leverera Länkade data --> start 2012 resultat efter 10 år en hemsnickrad lösning med data av extremt låg kvalitet och en organisation som är rädda att diskutera och inte har en vision ens om hur man jobbar ihop eller hur copyright skall beskrivas
Hur dom 12 nov 2019 inte ens vet hur copyright i datat skall presenteras
massa dåliga leveranser och ingen publik backlog / driftsinstabilitet
deras egen analys 2019 "Leaving comfort behind" som saknar en insikt varför dom underlevererar...
bra teoretiker och bra teorier "rensa datat vid källan" men en icke levererande organisation, där skitdata kallas spretig data, där validerar data undviks för den är så spretig 2023.... vem behöver ett nationalbibliotek med dålig data?
Pratade med Miriam Björkhem/Miriam Säfström 2018 och dom har tagit ett design beslut att inte ha källor för alla sina påstående.... känns som en old school modell Riksarkivet SBL
Finns idag 2023 fortfarande ingen tanke hur ändringscykeln skall ske verkar vara email
Min slutsats ör den samma som med Riksarkivet SBL det finns en digital 0 vision och saknar visionört ledarskap
Det är inte ok att driva ett projekt > 10 år och inte vara mer digitalt mogna
Enormt lite egenskaper allt på svenska hur tänker man....
Efter 10 års projekt fortfarande extremt med strings i systemet är mer text in RDF än Linked data
Globally unique and persistent identifiers remove ambiguity in the meaning of your published data by assigning a unique identifier to every element of metadata and every concept/measurement in your dataset
enormt fel tänk att LIBRISXL inte har författare som textsträngar se svar tweet, nu när digitaliseringen kommer igång med Litteraturbanken så har dom massa författare som LIBRISXL inte har med persistent identifierare --> vi skapar #DIGITALA kultursilos
Notebook som kollar kopplingarna mellan Litteraturbanken <-> Wikidata <-> LIBRISXL borde vara lika och ha botar som uppdaterade varandra.... tror det var vad LIBRISXL lovade i Washington men men men dom lyckas inte ens med att ha persistenta identifierare för alla personer se även Riksarkivet SBL som gör samma grundfel
redan 2014 pekade Niklas på att KB borde arbeta aktivt med vokabulär utveckling något vi inte ser idag 2023, KB borde jobba med DIGG att ta fram kontrollerade vokabulär se #51
På direkt fråga 2023 om dom använder SHACL som Wikidata gör se video där Niklas filosoferar över detta 28:30 min (Wikidata:WikiProject_Schemas) dvs. efter 10 år är LIBRISXL datat fortfarande så dåligt att man inte ens tycker det är värt att validera den...
På SWIB i Bonn efterlyste jag det 2018(bibliotekens stora konferens om Länkade data) och idag 2022 ser jag inte detta
id: 77-12 K-samsök RAÄ
Nedan beskrivet hur illa man tyckte det var 2014. Nu 2022 finns planer på en ny version men ingen verkar kunna svara på vad som skall levereras mer än 2.0.... Gissar att det är laget som är problemet flummigt 2.0 statement
Det finns ingen triple store, vilket innebär att man får bygga nya tabeller varje gång en ny relation läggs till. Vidare lagras alla länkar mellan objekt i K-samsök separat, så att objekten inte känner till dem, eftersom K-samsök inte äger objekten.
Flera intervjupersoner tar upp problem med datakvalitet och ägandeskap. Dataleveransen upplevs som spretig, delvis på grund av att det inte finns någon överenskommelse kring master data (som är ett sätt att se auktoritetslistor) och för att mycket data inte är strukturerad, vilket gör att man måste matcha i fritext. Detta kopplas till frågan om ägandeskap, och att en konsekvens av skördningen är att data frikopplas från förvaltaren. Den varierande datakvaliteten beror också på underliggande datainsamling och museisystem.
Roll 2: Auktoritetslistor – samordnare och/eller ägare
För att länkade data ska funka fullt ut måste man i någon utsträckning använda samma auktoritetslistor (gemensamma resurser för exempelvis plats och tid – ett slags master data) – eller specificera hur olika auktoriteter förhåller sig till varandra. För att auktoritetslistor ska komma till användning måste de upplevas som relevanta och långsiktiga, för vilket det krävs samordning och ägarskap. Oavsett ägarskap handlar det inte om att skapa en enda stor kulturhistorisk ontologi, utan att se till att gemensamma basdata finns på plats samtidigt som andra uppdelningar av koncept är möjliga. Ett sätt att uppnå långsiktighet är att koppla till wikidata (där det eventuellt redan finns en del poster som kan användas). Hur K-samsök agerar i frågan om auktoritetslistor är en avvägning som både har att göra med ansvar och kostnad, men också att dra fördel av den mångfald länkade data kan erbjuda samtidigt som man faciliterar en samsyn när sådan är möjlig och till hjälp för innehållsleverantörer.
K-samsök kan även ta denna roll utan att vara aggregator, men om arbetet som aggregator ska bli framgångsrikt måste man aktivt förhålla sig till denna fråga. Här krävs samordning, bl a innehållsleverantörer, Riksarkivet och Kungliga biblioteket.
Kommentar Magnus: Intressant att man redan 2014 peka på Wikidata lite konstigt att inget material hittas efter 2014....
id: 77-13
Antipattern: SFS / författningar tar idag inte höjd för interoperabilitet, metadata och saker som SPARQL federation
Ingen skapar 2022 en bank som inte kan använda SWIFT och skicka pengar till andra banker
'En kommunallag skapas SFS 2017:725 --> resultat 290 SILOS skapas utan tanke på metadata, interoperablilitet....
[ ] 290 websidor skapas alla med olika struktur/metadata --> ingen vet hur många besökare som görs på dessa anslagstavlor etc se DIGG #76
[ ] det går inte söka i alla 290 kommuners Anslagstavlor se #86
[ ] det går inte att prenumerera
[ ] det finns ingen koppling mellan kommunal data och Riksdagens data se Riksdagen #20
[ ] inga kopplingar till gemensamma vokabulär skapas #51
[ ] eli:transposes dvs. det beslut som skall tas/tas beror på annat beslut skall finnas i metadatat se Riksdagen #77
[ ] ofta saknas dokumentet utan man bara kungör, dokumentet finns på Stadshuset
[ ] ingen metadata skapas utan i bästa fall PDF:er dvs 1 star data
Se vidare
Det tar 3 år att komma på att API kunskaper saknas i ett 16 miljoners projekt som NSÖD... gissar ett konsultstyrt projekt där man inte vill "dela på pengarna och vet att ingen bryr sig om man levererar eller ej"
status 2022 är att man inte ens lyckas skapa ett lag med den egna personalen....
Citat
id: 77-14 Regerings (förre?) digitaliseringsstrategi från 2007 som nyss tagits bort från regeringen.se hade endast OMÄTBARA mål.
Mätbart SMART:a mål har följande kvaliteter:
Den går alltså inte att styra utifrån dessa mål eftersom inte går att mäta. Hur bliver en effekten av att vi kör enligt mål som inte går att mäta? Risk att köra i diket? Kasta miljarder efter projekt med liten eller ingen nytta för skattebetalarna? Vem ansvarar överordnad för havererade digitaliseringsprojekt?
id: 77-16 Antipattern: Skapa lösa projekt som skapar betydelselösa rekommendationer och inget händer / ingen mäter vad det kostar och ingen reagerar.... slutresultat vi skickar det vi lova att göra men inte gjorde till nästa projekt som inte heller levererar - ingen av projekten har publika backlogs utan mer har "glada Linked in tillrop" för att få likes
Projekt NSÖD höll på i 3 år --> blev inget data se ovan 77-3 och lite tomma rekommendationer som ingen följer
nytt "försök" Nationellt dataarkiv - verkar lite samma gäng som nu kör projekt utan backlog, utan tydlighet det blir flummiga rekommendationer på annans data se Anslagstavlan #15 och den enormt svaga styrgruppen med bland annat "administratörer" från DIGG #66
Grundproblemet: se 77-10 saknas kompetens hos regeringskansliet, Vinnova , Rise att styra projekt och ha visioner och framförallt kunskap... nu har även DIGG tillkommit som helt verkar spårat ut så mycket att dom som valt att jobba där även dom reagerar....
id: 77-17 Antipattern: Dåliga lösningar för att man inte vågar ställa krav eller själv har kompetens....
id: #77-17
Antipattern: Dåliga lösningar för att man inte vågar ställa krav eller själv har kompetens....
- väljer csv filer för badvatten data 2021 och tror att annars publiceras inget data.... Facit 2022 dec av 290 kommuner var det i princip inga som publicera jmf Badvatten i Wikidata eller GITHUB
** se diskussion
- kompetens saknas i NSÖD projektet och DIGG kan inte peka med rak hand och Lantmäteriet är inte ens synliga
Det är en baggis att konvertera till WGS84. Se https://duckduckgo.com/?q=python+convert+sweref99+to+wgs84&iax=images&ia=images finns fri programvara tex gdal. Det är inte i det tekniska som problemet ligger. Det är styrningen som är trasig och då åker skiten neråt och det bliver dyrt och dåligt när fel folk anställer inkompetenta medarbetare som inte levererar och inga jobbar öppet, transparent eller agilt i nån del av organisationen.
Det finns bra argument för SWEREF99 när precision är väldigt viktigt, men för det mesta är det skitsamma vilket Lantmäteriet själva skriver:
I stället används SWEREF 99. WGS 84 och SWEREF 99 avviker för närvarande (2021) 7‑8 dm från varandra och skillnaden ökar med några centimeter per år. För många GPS-tillämpningar i Sverige kan WGS 84 och SWEREF 99 betraktas som samma sak eftersom det i praktiken är svårt att mäta med lägre osäkerhet i WGS 84. https://www.lantmateriet.se/sv/geodata/gps-geodesi-och-swepos/Referenssystem/Tredimensionella-system/WGS-84/
Det är en baggis att konvertera till WGS84. Se https://duckduckgo.com/?q=python+convert+sweref99+to+wgs84&iax=images&ia=images finns fri programvara tex gdal
@dpriskorn nja du måste veta vilken SWEREF det är kolla Stockholmsstads utegym JSON så anger dom inte det.... jag har hittat någonstans SWEREF99_18_00 se min Notebook
Det finns bra argument för SWEREF99
Det finns ännu bättre argument för WGS84 ;-) Tror user casen när WGS84 inte duger är få jag gick en GIS kurs på Skövde Universitet och då var det massa tankar om mätfel etc...
Det är en baggis att konvertera till WGS84. Se https://duckduckgo.com/?q=python+convert+sweref99+to+wgs84&iax=images&ia=images finns fri programvara tex gdal
@dpriskorn nja du måste veta vilken SWEREF det är kolla Stockholmsstads utegym JSON så anger dom inte det.... jag har hittat någonstans SWEREF99_18_00 se min Notebook
json där koordinat anges utan koordinatsystem
min Issue om Stockholms stads utegymsdata #114 som dom inte besvarat på några månader
Det finns bra argument för SWEREF99
Det finns ännu bättre argument för WGS84 ;-)
Tror user casen när WGS84 inte duger är få jag gick en GIS kurs på Skövde Universitet och då var det massa tankar om mätfel etc...
Finns det olika varianter av SWEREF99 TM? 😳 Vad jag läser på https://sv.wikipedia.org/wiki/SWEREF_99_TM?wprov=sfti1 så är det en grej men med 12 regionala kartprojektioner med mindre projektionsfel. Det saknas dock källa i svwiki på det 🤷♂️ Det måste såklart anges in datamängden vilken projektion som används för alla koordinater som inte är WGS84. Annars bliver det ju missförstånd och galenskap.
@dpriskorn Japp det finns ett antal projektioner gissar ingen använder Stockholms stads öppna data därav tystnaden...
Tröstlöst att Stockholm stad inte svarar på min feedback... känns helt rätt att jag i veckan sa att jag inte ville snacka Linked data med dom...för att dom är för dåliga...
Vi måste börja ställa krav på öppna backloggar och helpdesknummer och få stopp på den här cirkusen...
Jag känner mig vid det här laget ganska säker på att tydlig styrning uppifrån, reformpolitik och saftiga viten är enda vägen ut ur det här. Inga av de lägre myndigheterna har någon som helst incitament att lyssna på oss i dagsläget. 🤷♂️
@dpriskorn plus rätt laguppställning
Någon måste slå näven i bordet och kasta ut all inkompetens... hör aldrig DIGG /NSÖD /Nationell dataverkstaden prata Persistenta Idetifierare/Kunskapsgrafer dom är inte lärande organisationer --> en blind leder en blind och det blir trams där man efter 3 år kommer på att man inte kan API... lösningen är att ha ytor som GITHUB/Wikidata och kunna ha versions hantering på alla termer, spårbarhet på fel/leveranser, persistenta identifierare och kunna att jobba agilt med prioriterade backlogs som Wikidata gör och uppmuntra till dialog mellan alla myndigheter/kommuner som jag efterlyste 2018
@dpriskorn plus rätt laguppställning
[ ] förstå FAIRDATA F1 #68
[ ] kunna kunskapsgrafer #78
[ ] ha en digital vision att Riksdagens beslut skall digitalt kunna följas till EU och hur det implementerats i alla länder men även hur saker verkställs i myndigheter och kommuner #75 / #77
[ ] våga vara tydlig med att kommuner myndigheter inte levererar nu körs projekt efter projekt med junior konsulter som fakturerar miljoner och hoppas kommuner vaknar till,
DIGG har funnits i 3 år och verkar inte klara av att ha en publik backlog, byt ut dessa människor direkt vi har
testat i 15 år "att vänta" i Rättsinformations projektet
testat med kommuner sedan 2012 att vänta och hoppas att saker skall ske automatiskt..... se på hur dom skapar 290 silos av Anslagstavlor.... nu verkar ett nytt väntande projekt köras Nationell dataverkstaden med samma misslyckande taktik
Någon måste slå näven i bordet och kasta ut all inkompetens... hör aldrig DIGG /NSÖD /Nationell dataverkstaden prata Persistenta Idetifierare/Kunskapsgrafer dom är inte lärande organisationer...
Helt enig. Det här är som att kasta pärlor för svin. De myndigheter vi försöker kontakta verkar inte begripa sig på vad vi säger och levererar noll data av värde över tid.
=> verkar vara organiserad spill av pengar och tid i projekt och organisationer med inkompetenta chefer i fina kläder och stela organisationer utan en förmåga att leverera värde för medborgarna som efterfrågar data.
De följer inte best practice när det gäller interoperabilitet, öppna standarder, samordning mellan myndigheter, följer inte nya lagar, saknar tydlig ansvarsperson, m.m.
De jobbar inte agilt vilket kan öka effektiviteten och innovationsgraden enligt McKinsey, de är intransparenta så vi ser inte vad de gör över tid och de svarar inte på frågor och tar inte emot tips och förbättringsförslag.
Alltså en black box som inte levererar data och inte kan förklara sig heller. 🤷♂️
id: 77-18 Antipattern Svårt att attrahera visionärer - mer verkar det som medarbetare anställs som vill se att statens kaka är säker och trygg eller konsulter som är timtjuvar och inte levererar mer än likes på Linked in 😢 #77-3 - intressant hur Statskontoret sågar DIGG - #610 MEN levererar en PDF där det naturliga vore att Statskontoret arbetade datadrivet och deras myndighetsgenomlysningar även levereras iform av data med länkade data och samma som och kopplingar till dom åtgärder respektive myndighet leverar för att åtgärda de problem Statskontoret pekar på
Riksdagens Öppna data som kureras och kopplas till 5-star data #71
koppling Högsta domstolens domar <-> SOU:er Justitieråd som citerar utredningar de själva var delaktiga i - twitter - lördagsintevjun vid 31 min där detta togs upp som ett problem - video om bakgrunden
Idag finns knappt bilder med metadata/licens/persistenta identifierare och samma som se försök att med Stockholms stad starta en dialog #62
Känns som det saknas en insikt i Linked data och hur digitalisering skall fungera jämför hur Wikidata och iNaturalist har
så skulle WIkipedia/ Airbnb / TripAdvisory / ... hämta bilder med ett klick som nedan,....
skapades redan kring 2012 men är idag inte 5-star data och det sitter i väggarna att det skall vara så dåligt som det är idag se dialog 2022 sep
id: 77-19
anti-pattern: vaga luddiga mål som vi vet på förhand att alla kommer lyckas
Fast de "strategiska innovationsprogrammen" behöver ju inte argumentera för sin sak, de har säkrat finansieringen och avgör själva om de uppfyller målen (som är så luddiga att vi vet på förhand att alla kommer "lyckas").
DIGG topic/521/ IA
Exempel
Se vidare:
id: 77-20
Antipattern 77-20: DIGGS underleverans genom att INTE peka med rak hand att dit vill vi utan fastnat i likes på Linked in och otydlig egen kompetens #100
--> skapar nya digitala SILOS med massa textsträngar istället för kunskapsgrafer #85
Antipattern 77-21 Konsultstyrda projekt som NSÖD, Nationell dataverkstad har ingen pondus och ingen helhetssyn... man behöver 3 år för att några kommuner dumpar sitt leverantörsreskonta men ingen ser helhet och kopplar hela kedjan -->
ID: 77-21
Anti pattern: "Ingen tar ansvar" och städar "sin" portal --> skit in skit ut --> städa datan vid källan och se till att dålig data inte skickas vidare bra föreläsning av Niklas på KB om att vi vill inte ha ett reningsverk vid varje handfat dvs. "dagens lösning" att konsumenterna får dålig/oanvändbar data och skall försöka städa den är alltid fel ...
se även Europeana #77-4
eftersom Europeana/ EDP etc. inte styr upp saker så får dom massa textsträngar --> det blir fullösningar
se även #77-9 de flesta portalerna som Europeana verkar inte ha publika backlogs och felrapportering vet inte användarna hur man gör.... ser samma med DIGG #50 som inte ger oss helpdesknummer / samma Riksdagen #76 / samma Nationell Dataverkstad #17 där man nu 2022 dec lite tveksamt startat med GITLAB ser dock inga sprintar/publika prioriterade backlogs
ID: 77-22
Antipattern: Kostnaden för havererade IT projekt med enorm inkompetens i styrgrupper och projekt redovisas ej utan saker göms av tjänstemän som har som sin agenda att "jävlas" och mörka deras egen inkompetens
Det finns således inte några andra allmänna handlingar än budgetpropositionen från 2017 att lämna ut som motsvarar din förfrågan. Hoppas du är nöjd med svaret. Med vänliga hälsningar Pontus Hederberg Kansliråd Justitiedepartementet Kriminalpolitiska enheten 103 33 Stockholm Tfn 08-405 53 01 Mobil 072-579 69 79 [e-postadress] www.regeringen.se
se även diskussion på forum.civictech.se
ID: #77-23
Anti pattern: API first tillämpas inte - organisationerna är inte data drivna utan Öppna data är något som kommer sist...
Niklas Lindström från Kungliga biblioteket som var del av Rättsinformationssystem projektet och kunnig som idag 2022 finns på Kungliga Biblioteket i ett annat mer eller mindre dysfunktionellt projekt #77-11
man måste äga frågan som organisation
Gissar att det är hans lärdom av att ha jobbat med 100 myndigheter och Rättsinformationssystemet under flera år
id: #77-15
Antipattern: utreda utreda och inte leverera och inte veta att detta gjorts innan...
#220 se hur DIGG helt saknar kunskap om tidigare utredningar utan startar om igen och skall skapa nya PDF:er med princip samma sak eller GD:ar som uttalar sig om "Textdata och delning av statliga utredningar för maskinell analys" och inte vet om ett projekt som startade 1998 se SFS 1998:725
Verva lades ner den 31/12 2008 då försvann materialet från deras webbplats.... Vervas uppdrag var att ge myndigheter, kommuner och landsting möjligheter att utveckla sin verksamhet och kompetens. Målet var att medborgare och företag skulle uppleva kontakten med förvaltningen som enkel, effektiv och ändamålsenlig.
Riksarkivet inte kan hantera persistenta identifierare från nedlagda/levande myndigheter se fråga 2023 utan det skapas bara en post i NAD att dom tagit emot datat iform av en fysisk flyttkartong (finns den digitala representationen kvar?) se "Arkiv Verket för förvaltningsutveckling VERVA" där informationen kan begäras ut till läsesalen - gissar det hämtas fram en kartong - se chatGPT om hur persistenta identifierare bör stödjas vid arkivering och vara en del av Arkivförordning (1991:446)
Vervas uppdrag 2006 där det ingår att styra upp Arkivlagen
Se Vervas instruktioner SFS:828 - GITHUB rep / issues / versionshistorik
- ansvara för utveckling av rättsinformation samt fullgöra de uppgifter som framgår av rättsinformationsförordningen (1999:175)
status 2023 SFS 1999:175
status 2024 SFS 1999:175 man skall fundera ett år vad som gick fel och kanske starta om Ju2023/02684 - 2025 kommer denna haveriutredning
ESV och DIGGs GD pratar 2021 "Textdata och delning av statliga utredningar för maskinell analys" och vet inte hur de skall lösa det hela utan tror PDF:er skall lösa problemet
ställer frågan till ChatGPT vad saknar de för kompetenser
Modell nedan där det är tydligt att har man inte kontroll på öppna ärenden/ dokumenthanteringsprocessen/ jobbar med helpdesk och spårbarhet så är man på Level 1 "Process unpredictable, poorly controlled and reactive"
Varför misslyckas Sverige med att bli bäst i världen på Digitalisering
Skall detta lyckas behövs skapandet av DIGG utvärderas och alla dessa projekt som inte levererar analyseras... se #100
chatGPT
Tips från chatGPT hur man skapar en lärande organisation
Se även försök med skuggbackloggar där "samhället"/andra myndigheter/kommuner utanför staketet samlar förväntningar på dom som ligger vid poolen och inte jobbar agilt med publika backlogs
id: 77-1 DIGG task id post/1664: Projektkyrkogård... alt. topic/375 IA
Idag verkar det inte finnas ett strukturerad sätt att hantera misslyckade projekt och dra lärdomar...
Idag känns det som DIGG har dåligt självförtroende och kontaktskräck att vara tydlig och peka på problem och lösningar... exempel att vara vag och vän av ordning undrar ser DIGG inte att 15 år med Rättsinformationssystemet misslyckats citat
Exempel 2022 hur kommunerna tar bort sina Öppna data sidor.... DIGG verkar inte ha kontroll eller skapar visioner