-
Notifications
You must be signed in to change notification settings - Fork 1
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Harvestácia LKODu Registra priestorových informácií (LKOD-RPI) #52
Comments
ad1.1) URI katalógu Súbor s katalógom je v poriadku až na URI katalógu, ktoré musí aj URL, ktoré vráti metadáta katalógu. Tj. vo vašom prípade by to mohlo byť takto nejak:
pričom toto vráti ten JSON, ktorý si uviedol. A toto Vaše lokálne URI musí byť aj použité. ad1.2) API vs. statické súbory Samozrejme, môže byť použité API, dôležité je, aby vrátilo potrebné metadáta podľa DCAT-AP-SK-3.0.0 štandardu. Tu je jeho najnovšia verzia: file:///home/ubuntu/git/centralny-model-udajov/tbox/national/dcat-ap-sk/index.html ad1.2) K príkladu metadát datasetu Metadáta štandardu pre HVD dataset: Dôležitá informácia je, že formát musí byť buď TTL alebo JSON-LD, tak ako je to v štandarde uvedené. Ostatné formáty, ako napr. RDF/XML nie sú podporované. ad2+3) Poskytovatelia Párovanie na poskytovateľov prebieha cez URI poskytovateľa. Tj. musí byť použité uri vo forme Dôležitá informácia je, že datasety harvestovavné z LKODov sa zámerne nedajú editovať na strane NKODu. Prípadné zmeny, opravy chýb, atď, je potrebné vykonať na strane zdroja. Takže správne hovoríš, že najskôr ich bude potrebné vymazať z NKODu, ak sa tam už nahrali. V rámco NKODu tu je zoznam poskytovateľov: Čiže aby sa datasety na portáli zobrazili, je potrebné, aby bol ešte predtým pridaný takýto poskytovateľ do zoznamu. Ak budú mať poskytovatelia aj iné datasety, tak si ich budú môcť nahodiť cez portál. Preto budú musieť ale mať zriadený prístup, čo riešime my: stačí o to požiadať na adrese [email protected]. Každopádne, budeme potrebovať ich zoznam, aby sme ich vedeli pridať do NKODu. Ich názov, IČO, názov kontaktného miesta, email kontaktného miesta. To isté bude patriť pre registráciu LKOD-RPI. Registrácia celého LKODu-RPI musí vykonať niekto za gestora RPI v NKODe (Nový lokálny katalóg). Predpokladám, že to asi budeš ty. |
@miroslavliska prosim dopln sem odkazy na NKOD v 3.0 a aj odkazy na tie validacne kriteria... Dakujem velmi pekne. |
|
Seva Miro, kde presne nájdeme ten "Python" validator? Cc: @radochudy |
@miroslavliska ako pristupit k mapovaniu, ked pre geodata mame GeoDcaT ale narodny profil pre NKOD pocita zatial len s DCAT? Vdaka. |
@miroslavliska aky je z vasej strany preferovany encoding? Turtle ci JSON LD? Ak JSON LD aky encoding poloziek pouzivat - sk ekvivalenty poloziek ako je uvedene tu https://htmlpreview.github.io/?https://github.com/slovak-egov/centralny-model-udajov/blob/develop/tbox/national/dcat-ap-sk/index.html#rozhranie-dcat-ap-dataset ? Preco sa vlastne robil vlastny preklad poloziek dcat do SK alternativ? https://datova-kancelaria.github.io/dcat-ap-sk-2.0/kontexty/rozhranie-katal%C3%B3gu-otvoren%C3%BDch-d%C3%A1t.jsonld Ja by som za RPI radsej ponechal EN nazvoslovie... Dakujem |
Čo sa týka formátu, to je asi na Vás, ktorý vyberieš. Ja osobne by som si vybral TTL. Ak nechceš použiť tieto slovenské definície pre čitateľnosť JSON-LD: ktoré sme prebrali podľa odporúčaní ČR (čitateľnosť aj pre developerov čo nevedia čo je RDF), tak to ani nemusíš robiť, a môžeš vytvoriť rovno výsledné JSON-LD, kde použiješ správne URIčka ahotovo. Dôležité je, aby tam boli tie triplety a tým je to OK. |
Čo sa týka DCAT/GeoDCAT, toto je určite na diskusiu, pokúsim sa získať ďaľší názor ako sa s tým vysporiadať. Každopádne, národný portál tak či podporuje zatiaľ len DCAT-AP-3.0.0, pričom harvestovanie GeoDCAT nepredpokladám že bude implementované tak skoro, hoc pipelines na strane harvestra by nebolo až také ťažké updatnúť. Reálne to nevidím na rok 2024. |
Ahoj, nájdete to tu: Plánujem tu publishnut ešte viac zdrojových kódov v blízkej budúcnosti. |
LInk na dokument s mapovanim.... postupne ho doplnam. https://docs.google.com/document/d/1lpO12YKGiWDb7KsyzvbElKScIA8JyH_PycH48_oqjU4/edit?usp=sharing |
Dobry den,
Polozka uzemny prvok z registra adries a Súvisiace geografické územie:
Polozka Kontaktný bod – meno a email :
vdaka |
Dobrý deň:
|
Dobrý deň, Pre datasety, ktoré platia pre celú SR je to jednoduché, stačí uviesť: https://data.gov.sk/id/nuts1/SK0 Myslím, že bolo spomenuté, že z názvu obce alebo okresu viete odvodiť hranice. Viete to použiť aj naopak? |
Uvedené otázky vytvoril: @MartinTuchyna
Pre integráciu na NKOD navrhujeme za RPI ísť cestou DC AP Dokumentov https://htmlpreview.github.io/?https://github.com/datova-kancelaria/dcat-ap-sk-2.0/blob/main/index.html#rozhranie-dcat-ap-dokumenty ktoré budeme generovat na báze dohodnutej spoločnej frekvencie harvestovania z Vašej strany. K tomuto riešeniu teda vytvoríme metadáta popisujúce katalóg RPI datasetov, ktoré by sa mali preniesť do NKOD (tu je potrebné prediskutovať aj niektoré veci priamo s providermi, lebo viacero organizácií registrovalo priestorové dáta na open Data portal ručne a mohlo by dochádzať k duplicitám. Za nás navrhujeme tieto prípady vyčistiť a provideri budú otvorené priestorové dáta popisovať metaújmi v RPI a tie sa pretransformujú potom aj pre potreby NKOD do DCAT štruktúry…). Z hľadiska implementácie spôsobu DCAT AP dokumentov, máme otázku k štruktúre samotného súboru. Bude možné mať na strane nášho súboru popisujúceho katalóg odkaz na jednotlivé datasety formou volania nášho API, ktoré vráti dáta v DCAT štruktúre, alebo budeme musieť reálne generovať nejaké statické súbory a zavesiť ich niekam na web server? Aby bolo jasné tak uvediem nejaký reálny priklad (sémantiku a správnosť DCAT kódovania nateraz neriešte - zaujíma nás technická realizácia…):
Ak sa podarí automatizovane naintegrovať metaúdaje do Open Data, viete tieto metaúdaje napárovať na konkrétne OVM (resp. ste schopní zabezpečiť harvesting distribuovaného katalógu), tak aby sa správne zobrazovali pod danými OVM?
Ak áno, na základe akého identifikátora bude na strane Open Data realizované párovanie metaúdajov na jednotlivé OVM?
The text was updated successfully, but these errors were encountered: