]> pere.pagekite.me Git - homepage.git/blobdiff - blog/index.rss
Generated.
[homepage.git] / blog / index.rss
index 2ecc1d376828d1ff1979b9f8a6a2a5675ac6a1e6..e42e39614e2a86dbe67edd3dba3a98a2389fd0f2 100644 (file)
                 <atom:link href="http://people.skolelinux.org/pere/blog/index.rss" rel="self" type="application/rss+xml" />
        
        <item>
-               <title>A day in court challenging seizure of popcorn-time.no for #domstolkontroll</title>
-               <link>http://people.skolelinux.org/pere/blog/A_day_in_court_challenging_seizure_of_popcorn_time_no_for__domstolkontroll.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/A_day_in_court_challenging_seizure_of_popcorn_time_no_for__domstolkontroll.html</guid>
-                <pubDate>Fri, 3 Feb 2017 11:10:00 +0100</pubDate>
-               <description>&lt;p align=&quot;center&quot;&gt;&lt;img width=&quot;70%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-02-01-popcorn-time-in-court.jpeg&quot;&gt;&lt;/p&gt;
-
-&lt;p&gt;On Wednesday, I spent the entire day in court in Follo Tingrett
-representing &lt;a href=&quot;https://www.nuug.no/&quot;&gt;the member association
-NUUG&lt;/a&gt;, alongside &lt;a href=&quot;https://www.efn.no/&quot;&gt;the member
-association EFN&lt;/a&gt; and &lt;a href=&quot;http://www.imc.no&quot;&gt;the DNS registrar
-IMC&lt;/a&gt;, challenging the seizure of the DNS name popcorn-time.no.  It
-was interesting to sit in a court of law for the first time in my
-life.  Our team can be seen in the picture above: attorney Ola
-Tellesbø, EFN board member Tom Fredrik Blenning, IMC CEO Morten Emil
-Eriksen and NUUG board member Petter Reinholdtsen.&lt;/p&gt;
-
-&lt;p&gt;&lt;a href=&quot;http://www.domstol.no/no/Enkelt-domstol/follo-tingrett/Nar-gar-rettssaken/Beramming/?cid=AAAA1701301512081262234UJFBVEZZZZZEJBAvtale&quot;&gt;The
-case at hand&lt;/a&gt; is that the Norwegian National Authority for
-Investigation and Prosecution of Economic and Environmental Crime (aka
-Økokrim) decided on their own, to seize a DNS domain early last
-year, without following
-&lt;a href=&quot;https://www.norid.no/no/regelverk/navnepolitikk/#link12&quot;&gt;the
-official policy of the Norwegian DNS authority&lt;/a&gt; which require a
-court decision.  The web site in question was a site covering Popcorn
-Time.  And Popcorn Time is the name of a technology with both legal
-and illegal applications.  Popcorn Time is a client combining
-searching a Bittorrent directory available on the Internet with
-downloading/distribute content via Bittorrent and playing the
-downloaded content on screen.  It can be used illegally if it is used
-to distribute content against the will of the right holder, but it can
-also be used legally to play a lot of content, for example the
-millions of movies
-&lt;a href=&quot;https://archive.org/details/movies&quot;&gt;available from the
-Internet Archive&lt;/a&gt; or the collection
-&lt;a href=&quot;http://vodo.net/films/&quot;&gt;available from Vodo&lt;/a&gt;.  We created
-&lt;a href=&quot;magnet:?xt=urn:btih:86c1802af5a667ca56d3918aecb7d3c0f7173084&amp;dn=PresentasjonFolloTingrett.mov&amp;tr=udp%3A%2F%2Fpublic.popcorn-tracker.org%3A6969%2Fannounce&quot;&gt;a
-video demonstrating legally use of Popcorn Time&lt;/a&gt; and played it in
-Court.  It can of course be downloaded using Bittorrent.&lt;/p&gt;
-
-&lt;p&gt;I did not quite know what to expect from a day in court.  The
-government held on to their version of the story and we held on to
-ours, and I hope the judge is able to make sense of it all.  We will
-know in two weeks time.  Unfortunately I do not have high hopes, as
-the Government have the upper hand here with more knowledge about the
-case, better training in handling criminal law and in general higher
-standing in the courts than fairly unknown DNS registrar and member
-associations.  It is expensive to be right also in Norway.  So far the
-case have cost more than NOK 70 000,-.  To help fund the case, NUUG
-and EFN have asked for donations, and managed to collect around NOK 25
-000,- so far.  Given the presentation from the Government, I expect
-the government to appeal if the case go our way.  And if the case do
-not go our way, I hope we have enough funding to appeal.&lt;/p&gt;
-
-&lt;p&gt;From the other side came two people from Økokrim.  On the benches,
-appearing to be part of the group from the government were two people
-from the Simonsen Vogt Wiik lawyer office, and three others I am not
-quite sure who was.  Økokrim had proposed to present two witnesses
-from The Motion Picture Association, but this was rejected because
-they did not speak Norwegian and it was a bit late to bring in a
-translator, but perhaps the two from MPA were present anyway.  All
-seven appeared to know each other.  Good to see the case is take
-seriously.&lt;/p&gt;
-
-&lt;p&gt;If you, like me, believe the courts should be involved before a DNS
-domain is hijacked by the government, or you believe the Popcorn Time
-technology have a lot of useful and legal applications, I suggest you
-too &lt;a href=&quot;http://www.nuug.no/dns-beslag-donasjon.shtml&quot;&gt;donate to
-the NUUG defense fund&lt;/a&gt;.  Both Bitcoin and bank transfer are
-available. If NUUG get more than we need for the legal action (very
-unlikely), the rest will be spend promoting free software, open
-standards and unix-like operating systems in Norway, so no matter what
-happens the money will be put to good use.&lt;/p&gt;
-
-&lt;p&gt;If you want to lean more about the case, I recommend you check out
-&lt;a href=&quot;https://www.nuug.no/news/tags/dns-domenebeslag/&quot;&gt;the blog
-posts from NUUG covering the case&lt;/a&gt;.  They cover the legal arguments
-on both sides.&lt;/p&gt;
+               <title>Idea for storing trusted timestamps in a Noark 5 archive</title>
+               <link>http://people.skolelinux.org/pere/blog/Idea_for_storing_trusted_timestamps_in_a_Noark_5_archive.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Idea_for_storing_trusted_timestamps_in_a_Noark_5_archive.html</guid>
+                <pubDate>Wed, 7 Jun 2017 21:40:00 +0200</pubDate>
+               <description>&lt;p&gt;&lt;em&gt;This is a copy of
+&lt;a href=&quot;https://lists.nuug.no/pipermail/nikita-noark/2017-June/000297.html&quot;&gt;an
+email I posted to the nikita-noark mailing list&lt;/a&gt;.  Please follow up
+there if you would like to discuss this topic.  The background is that
+we are making a free software archive system based on the Norwegian
+&lt;a href=&quot;https://www.arkivverket.no/forvaltning-og-utvikling/regelverk-og-standarder/noark-standarden&quot;&gt;Noark
+5 standard&lt;/a&gt; for government archives.&lt;/em&gt;&lt;/p&gt;
+
+&lt;p&gt;I&#39;ve been wondering a bit lately how trusted timestamps could be
+stored in Noark 5.
+&lt;a href=&quot;https://en.wikipedia.org/wiki/Trusted_timestamping&quot;&gt;Trusted
+timestamps&lt;/a&gt; can be used to verify that some information
+(document/file/checksum/metadata) have not been changed since a
+specific time in the past.  This is useful to verify the integrity of
+the documents in the archive.&lt;/p&gt;
+
+&lt;p&gt;Then it occured to me, perhaps the trusted timestamps could be
+stored as dokument variants (ie dokumentobjekt referered to from
+dokumentbeskrivelse) with the filename set to the hash it is
+stamping?&lt;/p&gt;
+
+&lt;p&gt;Given a &quot;dokumentbeskrivelse&quot; with an associated &quot;dokumentobjekt&quot;,
+a new dokumentobjekt is associated with &quot;dokumentbeskrivelse&quot; with the
+same attributes as the stamped dokumentobjekt except these
+attributes:&lt;/p&gt;
+
+&lt;ul&gt;
+
+&lt;li&gt;format -&gt; &quot;RFC3161&quot;
+&lt;li&gt;mimeType -&gt; &quot;application/timestamp-reply&quot;
+&lt;li&gt;formatDetaljer -&gt; &quot;&amp;lt;source URL for timestamp service&amp;gt;&quot;
+&lt;li&gt;filenavn -&gt; &quot;&amp;lt;sjekksum&amp;gt;.tsr&quot;
+
+&lt;/ul&gt;
+
+&lt;p&gt;This assume a service following
+&lt;a href=&quot;https://tools.ietf.org/html/rfc3161&quot;&gt;IETF RFC 3161&lt;/a&gt; is
+used, which specifiy the given MIME type for replies and the .tsr file
+ending for the content of such trusted timestamp.  As far as I can
+tell from the Noark 5 specifications, it is OK to have several
+variants/renderings of a dokument attached to a given
+dokumentbeskrivelse objekt.  It might be stretching it a bit to make
+some of these variants represent crypto-signatures useful for
+verifying the document integrity instead of representing the dokument
+itself.&lt;/p&gt;
+
+&lt;p&gt;Using the source of the service in formatDetaljer allow several
+timestamping services to be used.  This is useful to spread the risk
+of key compromise over several organisations.  It would only be a
+problem to trust the timestamps if all of the organisations are
+compromised.&lt;/p&gt;
+
+&lt;p&gt;The following oneliner on Linux can be used to generate the tsr
+file.  $input is the path to the file to checksum, and $sha256 is the
+SHA-256 checksum of the file (ie the &quot;&lt;sjekksum&gt;.tsr&quot; value mentioned
+above).&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;&lt;pre&gt;
+openssl ts -query -data &quot;$inputfile&quot; -cert -sha256 -no_nonce \
+  | curl -s -H &quot;Content-Type: application/timestamp-query&quot; \
+      --data-binary &quot;@-&quot; http://zeitstempel.dfn.de &gt; $sha256.tsr
+&lt;/pre&gt;&lt;/blockquote&gt;&lt;/p&gt;
+
+&lt;p&gt;To verify the timestamp, you first need to download the public key
+of the trusted timestamp service, for example using this command:&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;&lt;pre&gt;
+wget -O ca-cert.txt \
+  https://pki.pca.dfn.de/global-services-ca/pub/cacert/chain.txt
+&lt;/pre&gt;&lt;/blockquote&gt;&lt;/p&gt;
+
+&lt;p&gt;Note, the public key should be stored alongside the timestamps in
+the archive to make sure it is also available 100 years from now.  It
+is probably a good idea to standardise how and were to store such
+public keys, to make it easier to find for those trying to verify
+documents 100 or 1000 years from now. :)&lt;/p&gt;
+
+&lt;p&gt;The verification itself is a simple openssl command:&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;&lt;pre&gt;
+openssl ts -verify -data $inputfile -in $sha256.tsr \
+  -CAfile ca-cert.txt -text
+&lt;/pre&gt;&lt;/blockquote&gt;&lt;/p&gt;
+
+&lt;p&gt;Is there any reason this approach would not work?  Is it somehow against
+the Noark 5 specification?&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Nasjonalbiblioteket avslutter sin ulovlige bruk av Google Skjemaer</title>
-               <link>http://people.skolelinux.org/pere/blog/Nasjonalbiblioteket_avslutter_sin_ulovlige_bruk_av_Google_Skjemaer.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Nasjonalbiblioteket_avslutter_sin_ulovlige_bruk_av_Google_Skjemaer.html</guid>
-                <pubDate>Thu, 12 Jan 2017 09:40:00 +0100</pubDate>
-               <description>&lt;p&gt;I dag fikk jeg en skikkelig gladmelding.  Bakgrunnen er at før jul
-arrangerte Nasjonalbiblioteket
-&lt;a href=&quot;http://www.nb.no/Bibliotekutvikling/Kunnskapsorganisering/Nasjonalt-verksregister/Seminar-om-verksregister&quot;&gt;et
-seminar om sitt knakende gode tiltak «verksregister»&lt;/a&gt;.  Eneste
-måten å melde seg på dette seminaret var å sende personopplysninger
-til Google via Google Skjemaer.  Dette syntes jeg var tvilsom praksis,
-da det bør være mulig å delta på seminarer arrangert av det offentlige
-uten å måtte dele sine interesser, posisjon og andre
-personopplysninger med Google.  Jeg ba derfor om innsyn via
-&lt;a href=&quot;https://www.mimesbronn.no/&quot;&gt;Mimes brønn&lt;/a&gt; i
-&lt;a href=&quot;https://www.mimesbronn.no/request/personopplysninger_til_google_sk&quot;&gt;avtaler
-og vurderinger Nasjonalbiblioteket hadde rundt dette&lt;/a&gt;.
-Personopplysningsloven legger klare rammer for hva som må være på
-plass før en kan be tredjeparter, spesielt i utlandet, behandle
-personopplysninger på sine vegne, så det burde eksistere grundig
-dokumentasjon før noe slikt kan bli lovlig.  To jurister hos
-Nasjonalbiblioteket mente først dette var helt i orden, og at Googles
-standardavtale kunne brukes som databehandlingsavtale.  Det syntes jeg
-var merkelig, men har ikke hatt kapasitet til å følge opp saken før
-for to dager siden.&lt;/p&gt;
-
-&lt;p&gt;Gladnyheten i dag, som kom etter at jeg tipset Nasjonalbiblioteket
-om at Datatilsynet underkjente Googles standardavtaler som
-databehandleravtaler i 2011, er at Nasjonalbiblioteket har bestemt seg
-for å avslutte bruken av Googles Skjemaer/Apps og gå i dialog med DIFI
-for å finne bedre måter å håndtere påmeldinger i tråd med
-personopplysningsloven.  Det er fantastisk å se at av og til hjelper
-det å spørre hva i alle dager det offentlige holder på med.&lt;/p&gt;
+               <title>Når nynorskoversettelsen svikter til eksamen...</title>
+               <link>http://people.skolelinux.org/pere/blog/N_r_nynorskoversettelsen_svikter_til_eksamen___.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/N_r_nynorskoversettelsen_svikter_til_eksamen___.html</guid>
+                <pubDate>Sat, 3 Jun 2017 08:20:00 +0200</pubDate>
+               <description>&lt;p&gt;&lt;a href=&quot;http://www.aftenposten.no/norge/Krever-at-elever-ma-fa-annullert-eksamen-etter-rot-med-oppgavetekster-622459b.html&quot;&gt;Aftenposten
+melder i dag&lt;/a&gt; om feil i eksamensoppgavene for eksamen i politikk og
+menneskerettigheter, der teksten i bokmåls og nynorskutgaven ikke var
+like.  Oppgaveteksten er gjengitt i artikkelen, og jeg ble nysgjerring
+på om den fri oversetterløsningen
+&lt;a href=&quot;https://www.apertium.org/&quot;&gt;Apertium&lt;/a&gt; ville gjort en bedre
+jobb enn Utdanningsdirektoratet.  Det kan se slik ut.&lt;/p&gt;
+
+&lt;p&gt;Her er bokmålsoppgaven fra eksamenen:&lt;/p&gt;
+
+&lt;blockquote&gt;
+&lt;p&gt;Drøft utfordringene knyttet til nasjonalstatenes og andre aktørers
+rolle og muligheter til å håndtere internasjonale utfordringer, som
+for eksempel flykningekrisen.&lt;/p&gt;
+
+&lt;p&gt;Vedlegge er eksempler på tekster som kan gi relevante perspektiver
+på temaet:&lt;/p&gt;
+&lt;ol&gt;
+&lt;li&gt;Flykningeregnskapet 2016, UNHCR og IDMC
+&lt;li&gt;«Grenseløst Europa for fall» A-Magasinet, 26. november 2015
+&lt;/ol&gt;
+
+&lt;/blockquote&gt;
+
+&lt;p&gt;Dette oversetter Apertium slik:&lt;/p&gt;
+
+&lt;blockquote&gt;
+&lt;p&gt;Drøft utfordringane knytte til nasjonalstatane sine og rolla til
+andre aktørar og høve til å handtera internasjonale utfordringar, som
+til dømes *flykningekrisen.&lt;/p&gt;
+
+&lt;p&gt;Vedleggja er døme på tekster som kan gje relevante perspektiv på
+temaet:&lt;/p&gt;
+
+&lt;ol&gt;
+&lt;li&gt;*Flykningeregnskapet 2016, *UNHCR og *IDMC&lt;/li&gt;
+&lt;li&gt;«*Grenseløst Europa for fall» A-Magasinet, 26. november 2015&lt;/li&gt;
+&lt;/ol&gt;
+
+&lt;/blockquote&gt;
+
+&lt;p&gt;Ord som ikke ble forstått er markert med stjerne (*), og trenger
+ekstra språksjekk.  Men ingen ord er forsvunnet, slik det var i
+oppgaven elevene fikk presentert på eksamen.  Jeg mistenker dog at
+&quot;andre aktørers rolle og muligheter til ...&quot; burde vært oversatt til
+&quot;rolla til andre aktørar og deira høve til ...&quot; eller noe slikt, men
+det er kanskje flisespikking.  Det understreker vel bare at det alltid
+trengs korrekturlesning etter automatisk oversettelse.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Bryter NAV sin egen personvernerklæring?</title>
-               <link>http://people.skolelinux.org/pere/blog/Bryter_NAV_sin_egen_personvernerkl_ring_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Bryter_NAV_sin_egen_personvernerkl_ring_.html</guid>
-                <pubDate>Wed, 11 Jan 2017 06:50:00 +0100</pubDate>
-               <description>&lt;p&gt;Jeg leste med interesse en nyhetssak hos
-&lt;a href=&quot;http://www.digi.no/artikler/nav-avslorer-trygdemisbruk-ved-a-spore-ip-adresser/367394&quot;&gt;digi.no&lt;/a&gt;
-og
-&lt;a href=&quot;https://www.nrk.no/buskerud/trygdesvindlere-avslores-av-utenlandske-ip-adresser-1.13313461&quot;&gt;NRK&lt;/a&gt;
-om at det ikke bare er meg, men at også NAV bedriver geolokalisering
-av IP-adresser, og at det gjøres analyse av IP-adressene til de som
-sendes inn meldekort for å se om meldekortet sendes inn fra
-utenlandske IP-adresser.  Politiadvokat i Drammen, Hans Lyder Haare,
-er sitert i NRK på at «De to er jo blant annet avslørt av
-IP-adresser. At man ser at meldekortet kommer fra utlandet.»&lt;/p&gt;
-
-&lt;p&gt;Jeg synes det er fint at det blir bedre kjent at IP-adresser
-knyttes til enkeltpersoner og at innsamlet informasjon brukes til å
-stedsbestemme personer også av aktører her i Norge.  Jeg ser det som
-nok et argument for å bruke
-&lt;a href=&quot;https://www.torproject.org/&quot;&gt;Tor&lt;/a&gt; så mye som mulig for å
-gjøre gjøre IP-lokalisering vanskeligere, slik at en kan beskytte sin
-privatsfære og unngå å dele sin fysiske plassering med
-uvedkommede.&lt;/p&gt;
-
-&lt;P&gt;Men det er en ting som bekymrer meg rundt denne nyheten.  Jeg ble
-tipset (takk #nuug) om
-&lt;a href=&quot;https://www.nav.no/no/NAV+og+samfunn/Kontakt+NAV/Teknisk+brukerstotte/Snarveier/personvernerkl%C3%A6ring-for-arbeids-og-velferdsetaten&quot;&gt;NAVs
-personvernerklæring&lt;/a&gt;, som under punktet «Personvern og statistikk»
-lyder:&lt;/p&gt;
+               <title>Epost inn som arkivformat i Riksarkivarens forskrift?</title>
+               <link>http://people.skolelinux.org/pere/blog/Epost_inn_som_arkivformat_i_Riksarkivarens_forskrift_.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Epost_inn_som_arkivformat_i_Riksarkivarens_forskrift_.html</guid>
+                <pubDate>Thu, 27 Apr 2017 11:30:00 +0200</pubDate>
+               <description>&lt;p&gt;I disse dager, med frist 1. mai, har Riksarkivaren ute en høring på
+sin forskrift.  Som en kan se er det ikke mye tid igjen før fristen
+som går ut på søndag.  Denne forskriften er det som lister opp hvilke
+formater det er greit å arkivere i
+&lt;a href=&quot;http://www.arkivverket.no/arkivverket/Offentleg-forvalting/Noark/Noark-5&quot;&gt;Noark
+5-løsninger&lt;/a&gt; i Norge.&lt;/p&gt;
+
+&lt;p&gt;Jeg fant høringsdokumentene hos
+&lt;a href=&quot;https://www.arkivrad.no/aktuelt/riksarkivarens-forskrift-pa-horing&quot;&gt;Norsk
+Arkivråd&lt;/a&gt; etter å ha blitt tipset på epostlisten til
+&lt;a href=&quot;https://github.com/hiOA-ABI/nikita-noark5-core&quot;&gt;fri
+programvareprosjektet Nikita Noark5-Core&lt;/a&gt;, som lager et Noark 5
+Tjenestegresesnitt.  Jeg er involvert i Nikita-prosjektet og takket
+være min interesse for tjenestegrensesnittsprosjektet har jeg lest en
+god del Noark 5-relaterte dokumenter, og til min overraskelse oppdaget
+at standard epost ikke er på listen over godkjente formater som kan
+arkiveres.  Høringen med frist søndag er en glimrende mulighet til å
+forsøke å gjøre noe med det.  Jeg holder på med
+&lt;a href=&quot;https://github.com/petterreinholdtsen/noark5-tester/blob/master/docs/hoering-arkivforskrift.tex&quot;&gt;egen
+høringsuttalelse&lt;/a&gt;, og lurer på om andre er interessert i å støtte
+forslaget om å tillate arkivering av epost som epost i arkivet.&lt;/p&gt;
+
+&lt;p&gt;Er du igang med å skrive egen høringsuttalelse allerede?  I så fall
+kan du jo vurdere å ta med en formulering om epost-lagring. Jeg tror
+ikke det trengs så mye.  Her et kort forslag til tekst:&lt;/p&gt;
 
 &lt;p&gt;&lt;blockquote&gt;
 
-&lt;p&gt;«Når du besøker nav.no, etterlater du deg elektroniske spor. Sporene
-dannes fordi din nettleser automatisk sender en rekke opplysninger til
-NAVs tjener (server-maskin) hver gang du ber om å få vist en side. Det
-er eksempelvis opplysninger om hvilken nettleser og -versjon du
-bruker, og din internettadresse (ip-adresse). For hver side som vises,
-lagres følgende opplysninger:&lt;/p&gt;
+  &lt;p&gt;Viser til høring sendt ut 2017-02-17 (Riksarkivarens referanse
+  2016/9840 HELHJO), og tillater oss å sende inn noen innspill om
+  revisjon av Forskrift om utfyllende tekniske og arkivfaglige
+  bestemmelser om behandling av offentlige arkiver (Riksarkivarens
+  forskrift).&lt;/p&gt;
 
-&lt;ul&gt;
-&lt;li&gt;hvilken side du ser på&lt;/li&gt;
-&lt;li&gt;dato og tid&lt;/li&gt;
-&lt;li&gt;hvilken nettleser du bruker&lt;/li&gt;
-&lt;li&gt;din ip-adresse&lt;/li&gt;
-&lt;/ul&gt;
-
-&lt;p&gt;Ingen av opplysningene vil bli brukt til å identifisere
-enkeltpersoner. NAV bruker disse opplysningene til å generere en
-samlet statistikk som blant annet viser hvilke sider som er mest
-populære. Statistikken er et redskap til å forbedre våre
-tjenester.»&lt;/p&gt;
+  &lt;p&gt;Svært mye av vår kommuikasjon foregår i dag på e-post.  Vi
+  foreslår derfor at Internett-e-post, slik det er beskrevet i IETF
+  RFC 5322,
+  &lt;a href=&quot;https://tools.ietf.org/html/rfc5322&quot;&gt;https://tools.ietf.org/html/rfc5322&lt;/a&gt;. bør
+  inn som godkjent dokumentformat.  Vi foreslår at forskriftens
+  oversikt over godkjente dokumentformater ved innlevering i § 5-16
+  endres til å ta med Internett-e-post.&lt;/p&gt;
 
 &lt;/blockquote&gt;&lt;/p&gt;
 
-&lt;p&gt;Jeg klarer ikke helt å se hvordan analyse av de besøkendes
-IP-adresser for å se hvem som sender inn meldekort via web fra en
-IP-adresse i utlandet kan gjøres uten å komme i strid med påstanden om
-at «ingen av opplysningene vil bli brukt til å identifisere
-enkeltpersoner».  Det virker dermed for meg som at NAV bryter sine
-egen personvernerklæring, hvilket
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/Er_lover_brutt_n_r_personvernpolicy_ikke_stemmer_med_praksis_.html&quot;&gt;Datatilsynet
-fortalte meg i starten av desember antagelig er brudd på
-personopplysningsloven&lt;/a&gt;.
-
-&lt;p&gt;I tillegg er personvernerklæringen ganske misvisende i og med at
-NAVs nettsider ikke bare forsyner NAV med personopplysninger, men i
-tillegg ber brukernes nettleser kontakte fem andre nettjenere
-(script.hotjar.com, static.hotjar.com, vars.hotjar.com,
-www.google-analytics.com og www.googletagmanager.com), slik at
-personopplysninger blir gjort tilgjengelig for selskapene Hotjar og
-Google , og alle som kan lytte på trafikken på veien (som FRA, GCHQ og
-NSA).  Jeg klarer heller ikke se hvordan slikt spredning av
-personopplysninger kan være i tråd med kravene i
-personopplysningloven, eller i tråd med NAVs personvernerklæring.&lt;/p&gt;
-
-&lt;p&gt;Kanskje NAV bør ta en nøye titt på sin personvernerklæring?  Eller
-kanskje Datatilsynet bør gjøre det?&lt;/p&gt;
+&lt;p&gt;Som del av arbeidet med tjenestegrensesnitt har vi testet hvordan
+epost kan lagres i en Noark 5-struktur, og holder på å skrive et
+forslag om hvordan dette kan gjøres som vil bli sendt over til
+arkivverket så snart det er ferdig.  De som er interesserte kan
+&lt;a href=&quot;https://github.com/petterreinholdtsen/noark5-tester/blob/master/docs/epostlagring.md&quot;&gt;følge
+fremdriften på web&lt;/a&gt;.&lt;/p&gt;
+
+&lt;p&gt;Oppdatering 2017-04-28: I dag ble høringuttalelsen jeg skrev
+  &lt;a href=&quot;https://www.nuug.no/news/NUUGs_h_ringuttalelse_til_Riksarkivarens_forskrift.shtml&quot;&gt;sendt
+  inn av foreningen NUUG&lt;/a&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Where did that package go? &amp;mdash; geolocated IP traceroute</title>
-               <link>http://people.skolelinux.org/pere/blog/Where_did_that_package_go___mdash__geolocated_IP_traceroute.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Where_did_that_package_go___mdash__geolocated_IP_traceroute.html</guid>
-                <pubDate>Mon, 9 Jan 2017 12:20:00 +0100</pubDate>
-               <description>&lt;p&gt;Did you ever wonder where the web trafic really flow to reach the
-web servers, and who own the network equipment it is flowing through?
-It is possible to get a glimpse of this from using traceroute, but it
-is hard to find all the details.  Many years ago, I wrote a system to
-map the Norwegian Internet (trying to figure out if our plans for a
-network game service would get low enough latency, and who we needed
-to talk to about setting up game servers close to the users.  Back
-then I used traceroute output from many locations (I asked my friends
-to run a script and send me their traceroute output) to create the
-graph and the map.  The output from traceroute typically look like
-this:
-
-&lt;p&gt;&lt;pre&gt;
-traceroute to www.stortinget.no (85.88.67.10), 30 hops max, 60 byte packets
- 1  uio-gw10.uio.no (129.240.202.1)  0.447 ms  0.486 ms  0.621 ms
- 2  uio-gw8.uio.no (129.240.24.229)  0.467 ms  0.578 ms  0.675 ms
- 3  oslo-gw1.uninett.no (128.39.65.17)  0.385 ms  0.373 ms  0.358 ms
- 4  te3-1-2.br1.fn3.as2116.net (193.156.90.3)  1.174 ms  1.172 ms  1.153 ms
- 5  he16-1-1.cr1.san110.as2116.net (195.0.244.234)  2.627 ms he16-1-1.cr2.oslosda310.as2116.net (195.0.244.48)  3.172 ms he16-1-1.cr1.san110.as2116.net (195.0.244.234)  2.857 ms
- 6  ae1.ar8.oslosda310.as2116.net (195.0.242.39)  0.662 ms  0.637 ms ae0.ar8.oslosda310.as2116.net (195.0.242.23)  0.622 ms
- 7  89.191.10.146 (89.191.10.146)  0.931 ms  0.917 ms  0.955 ms
- 8  * * *
- 9  * * *
-[...]
-&lt;/pre&gt;&lt;/p&gt;
-
-&lt;p&gt;This show the DNS names and IP addresses of (at least some of the)
-network equipment involved in getting the data traffic from me to the
-www.stortinget.no server, and how long it took in milliseconds for a
-package to reach the equipment and return to me.  Three packages are
-sent, and some times the packages do not follow the same path.  This
-is shown for hop 5, where three different IP addresses replied to the
-traceroute request.&lt;/p&gt;
-
-&lt;p&gt;There are many ways to measure trace routes.  Other good traceroute
-implementations I use are traceroute (using ICMP packages) mtr (can do
-both ICMP, UDP and TCP) and scapy (python library with ICMP, UDP, TCP
-traceroute and a lot of other capabilities).  All of them are easily
-available in &lt;a href=&quot;https://www.debian.org/&quot;&gt;Debian&lt;/a&gt;.&lt;/p&gt;
-
-&lt;p&gt;This time around, I wanted to know the geographic location of
-different route points, to visualize how visiting a web page spread
-information about the visit to a lot of servers around the globe.  The
-background is that a web site today often will ask the browser to get
-from many servers the parts (for example HTML, JSON, fonts,
-JavaScript, CSS, video) required to display the content.  This will
-leak information about the visit to those controlling these servers
-and anyone able to peek at the data traffic passing by (like your ISP,
-the ISPs backbone provider, FRA, GCHQ, NSA and others).&lt;/p&gt;
-
-&lt;p&gt;Lets pick an example, the Norwegian parliament web site
-www.stortinget.no.  It is read daily by all members of parliament and
-their staff, as well as political journalists, activits and many other
-citizens of Norway.  A visit to the www.stortinget.no web site will
-ask your browser to contact 8 other servers: ajax.googleapis.com,
-insights.hotjar.com, script.hotjar.com, static.hotjar.com,
-stats.g.doubleclick.net, www.google-analytics.com,
-www.googletagmanager.com and www.netigate.se.  I extracted this by
-asking &lt;a href=&quot;http://phantomjs.org/&quot;&gt;PhantomJS&lt;/a&gt; to visit the
-Stortinget web page and tell me all the URLs PhantomJS downloaded to
-render the page (in HAR format using
-&lt;a href=&quot;https://github.com/ariya/phantomjs/blob/master/examples/netsniff.js&quot;&gt;their
-netsniff example&lt;/a&gt;.  I am very grateful to Gorm for showing me how
-to do this).  My goal is to visualize network traces to all IP
-addresses behind these DNS names, do show where visitors personal
-information is spread when visiting the page.&lt;/p&gt;
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;www.stortinget.no-geoip.kml&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geoip-small.png&quot; alt=&quot;map of combined traces for URLs used by www.stortinget.no using GeoIP&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;When I had a look around for options, I could not find any good
-free software tools to do this, and decided I needed my own traceroute
-wrapper outputting KML based on locations looked up using GeoIP.  KML
-is easy to work with and easy to generate, and understood by several
-of the GIS tools I have available.  I got good help from by NUUG
-colleague Anders Einar with this, and the result can be seen in
-&lt;a href=&quot;https://github.com/petterreinholdtsen/kmltraceroute&quot;&gt;my
-kmltraceroute git repository&lt;/a&gt;.  Unfortunately, the quality of the
-free GeoIP databases I could find (and the for-pay databases my
-friends had access to) is not up to the task.  The IP addresses of
-central Internet infrastructure would typically be placed near the
-controlling companies main office, and not where the router is really
-located, as you can see from &lt;a href=&quot;www.stortinget.no-geoip.kml&quot;&gt;the
-KML file I created&lt;/a&gt; using the GeoLite City dataset from MaxMind.
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-scapy.svg&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-scapy-small.png&quot; alt=&quot;scapy traceroute graph for URLs used by www.stortinget.no&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;I also had a look at the visual traceroute graph created by
-&lt;a href=&quot;http://www.secdev.org/projects/scapy/&quot;&gt;the scrapy project&lt;/a&gt;,
-showing IP network ownership (aka AS owner) for the IP address in
-question.
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-scapy.svg&quot;&gt;The
-graph display a lot of useful information about the traceroute in SVG
-format&lt;/a&gt;, and give a good indication on who control the network
-equipment involved, but it do not include geolocation.  This graph
-make it possible to see the information is made available at least for
-UNINETT, Catchcom, Stortinget, Nordunet, Google, Amazon, Telia, Level
-3 Communications and NetDNA.&lt;/p&gt;
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;https://geotraceroute.com/index.php?node=4&amp;host=www.stortinget.no&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geotraceroute-small.png&quot; alt=&quot;example geotraceroute view for www.stortinget.no&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;In the process, I came across the
-&lt;a href=&quot;https://geotraceroute.com/&quot;&gt;web service GeoTraceroute&lt;/a&gt; by
-Salim Gasmi.  Its methology of combining guesses based on DNS names,
-various location databases and finally use latecy times to rule out
-candidate locations seemed to do a very good job of guessing correct
-geolocation.  But it could only do one trace at the time, did not have
-a sensor in Norway and did not make the geolocations easily available
-for postprocessing.  So I contacted the developer and asked if he
-would be willing to share the code (he refused until he had time to
-clean it up), but he was interested in providing the geolocations in a
-machine readable format, and willing to set up a sensor in Norway.  So
-since yesterday, it is possible to run traces from Norway in this
-service thanks to a sensor node set up by
-&lt;a href=&quot;https://www.nuug.no/&quot;&gt;the NUUG assosiation&lt;/a&gt;, and get the
-trace in KML format for further processing.&lt;/p&gt;
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geotraceroute-kml-join.kml&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geotraceroute-kml-join.png&quot; alt=&quot;map of combined traces for URLs used by www.stortinget.no using geotraceroute&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;Here we can see a lot of trafic passes Sweden on its way to
-Denmark, Germany, Holland and Ireland.  Plenty of places where the
-Snowden confirmations verified the traffic is read by various actors
-without your best interest as their top priority.&lt;/p&gt;
-
-&lt;p&gt;Combining KML files is trivial using a text editor, so I could loop
-over all the hosts behind the urls imported by www.stortinget.no and
-ask for the KML file from GeoTraceroute, and create a combined KML
-file with all the traces (unfortunately only one of the IP addresses
-behind the DNS name is traced this time.  To get them all, one would
-have to request traces using IP number instead of DNS names from
-GeoTraceroute).  That might be the next step in this project.&lt;/p&gt;
-
-&lt;p&gt;Armed with these tools, I find it a lot easier to figure out where
-the IP traffic moves and who control the boxes involved in moving it.
-And every time the link crosses for example the Swedish border, we can
-be sure Swedish Signal Intelligence (FRA) is listening, as GCHQ do in
-Britain and NSA in USA and cables around the globe.  (Hm, what should
-we tell them? :) Keep that in mind if you ever send anything
-unencrypted over the Internet.&lt;/p&gt;
-
-&lt;p&gt;PS: KML files are drawn using
-&lt;a href=&quot;http://ivanrublev.me/kml/&quot;&gt;the KML viewer from Ivan
-Rublev&lt;a/&gt;, as it was less cluttered than the local Linux application
-Marble.  There are heaps of other options too.&lt;/p&gt;
-
-&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
-activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+               <title>Offentlig elektronisk postjournal blokkerer tilgang for utvalgte webklienter</title>
+               <link>http://people.skolelinux.org/pere/blog/Offentlig_elektronisk_postjournal_blokkerer_tilgang_for_utvalgte_webklienter.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Offentlig_elektronisk_postjournal_blokkerer_tilgang_for_utvalgte_webklienter.html</guid>
+                <pubDate>Thu, 20 Apr 2017 13:00:00 +0200</pubDate>
+               <description>&lt;p&gt;Jeg oppdaget i dag at &lt;a href=&quot;https://www.oep.no/&quot;&gt;nettstedet som
+publiserer offentlige postjournaler fra statlige etater&lt;/a&gt;, OEP, har
+begynt å blokkerer enkelte typer webklienter fra å få tilgang.  Vet
+ikke hvor mange det gjelder, men det gjelder i hvert fall libwww-perl
+og curl.  For å teste selv, kjør følgende:&lt;/p&gt;
+
+&lt;blockquote&gt;&lt;pre&gt;
+% curl -v -s https://www.oep.no/pub/report.xhtml?reportId=3 2&gt;&amp;1 |grep &#39;&lt; HTTP&#39;
+&lt; HTTP/1.1 404 Not Found
+% curl -v -s --header &#39;User-Agent:Opera/12.0&#39; https://www.oep.no/pub/report.xhtml?reportId=3 2&gt;&amp;1 |grep &#39;&lt; HTTP&#39;
+&lt; HTTP/1.1 200 OK
+%
+&lt;/pre&gt;&lt;/blockquote&gt;
+
+&lt;p&gt;Her kan en se at tjenesten gir «404 Not Found» for curl i
+standardoppsettet, mens den gir «200 OK» hvis curl hevder å være Opera
+versjon 12.0.  Offentlig elektronisk postjournal startet blokkeringen
+2017-03-02.&lt;/p&gt;
+
+&lt;p&gt;Blokkeringen vil gjøre det litt vanskeligere å maskinelt hente
+informasjon fra oep.no.  Kan blokkeringen være gjort for å hindre
+automatisert innsamling av informasjon fra OEP, slik Pressens
+Offentlighetsutvalg gjorde for å dokumentere hvordan departementene
+hindrer innsyn i
+&lt;a href=&quot;http://presse.no/dette-mener-np/undergraver-offentlighetsloven/&quot;&gt;rapporten
+«Slik hindrer departementer innsyn» som ble publiserte i januar
+2017&lt;/a&gt;.  Det virker usannsynlig, da det jo er trivielt å bytte
+User-Agent til noe nytt.&lt;/p&gt;
+
+&lt;p&gt;Finnes det juridisk grunnlag for det offentlige å diskriminere
+webklienter slik det gjøres her?  Der tilgang gis eller ikke alt etter
+hva klienten sier at den heter?  Da OEP eies av DIFI og driftes av
+Basefarm, finnes det kanskje noen dokumenter sendt mellom disse to
+aktørene man kan be om innsyn i for å forstå hva som har skjedd.  Men
+&lt;a href=&quot;https://www.oep.no/search/result.html?period=dateRange&amp;fromDate=01.01.2016&amp;toDate=01.04.2017&amp;dateType=documentDate&amp;caseDescription=&amp;descType=both&amp;caseNumber=&amp;documentNumber=&amp;sender=basefarm&amp;senderType=both&amp;documentType=all&amp;legalAuthority=&amp;archiveCode=&amp;list2=196&amp;searchType=advanced&amp;Search=Search+in+records&quot;&gt;postjournalen
+til DIFI viser kun to dokumenter&lt;/a&gt; det siste året mellom DIFI og
+Basefarm.
+&lt;a href=&quot;https://www.mimesbronn.no/request/blokkering_av_tilgang_til_oep_fo&quot;&gt;Mimes brønn neste&lt;/a&gt;,
+tenker jeg.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Introducing ical-archiver to split out old iCalendar entries</title>
-               <link>http://people.skolelinux.org/pere/blog/Introducing_ical_archiver_to_split_out_old_iCalendar_entries.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Introducing_ical_archiver_to_split_out_old_iCalendar_entries.html</guid>
-                <pubDate>Wed, 4 Jan 2017 12:20:00 +0100</pubDate>
-               <description>&lt;p&gt;Do you have a large &lt;a href=&quot;https://icalendar.org/&quot;&gt;iCalendar&lt;/a&gt;
-file with lots of old entries, and would like to archive them to save
-space and resources?  At least those of us using KOrganizer know that
-turning on and off an event set become slower and slower the more
-entries are in the set.  While working on migrating our calendars to a
-&lt;a href=&quot;http://radicale.org/&quot;&gt;Radicale CalDAV server&lt;/a&gt; on our
-&lt;a href=&quot;https://freedomboxfoundation.org/&quot;&gt;Freedombox server&lt;/a/&gt;, my
-loved one wondered if I could find a way to split up the calendar file
-she had in KOrganizer, and I set out to write a tool.  I spent a few
-days writing and polishing the system, and it is now ready for general
-consumption.  The
-&lt;a href=&quot;https://github.com/petterreinholdtsen/ical-archiver&quot;&gt;code for
-ical-archiver&lt;/a&gt; is publicly available from a git repository on
-github.  The system is written in Python and depend on
-&lt;a href=&quot;http://eventable.github.io/vobject/&quot;&gt;the vobject Python
-module&lt;/a&gt;.&lt;/p&gt;
-
-&lt;p&gt;To use it, locate the iCalendar file you want to operate on and
-give it as an argument to the ical-archiver script.  This will
-generate a set of new files, one file per component type per year for
-all components expiring more than two years in the past.  The vevent,
-vtodo and vjournal entries are handled by the script.  The remaining
-entries are stored in a &#39;remaining&#39; file.&lt;/p&gt;
-
-&lt;p&gt;This is what a test run can look like:
-
-&lt;p&gt;&lt;pre&gt;
-% ical-archiver t/2004-2016.ics 
-Found 3612 vevents
-Found 6 vtodos
-Found 2 vjournals
-Writing t/2004-2016.ics-subset-vevent-2004.ics
-Writing t/2004-2016.ics-subset-vevent-2005.ics
-Writing t/2004-2016.ics-subset-vevent-2006.ics
-Writing t/2004-2016.ics-subset-vevent-2007.ics
-Writing t/2004-2016.ics-subset-vevent-2008.ics
-Writing t/2004-2016.ics-subset-vevent-2009.ics
-Writing t/2004-2016.ics-subset-vevent-2010.ics
-Writing t/2004-2016.ics-subset-vevent-2011.ics
-Writing t/2004-2016.ics-subset-vevent-2012.ics
-Writing t/2004-2016.ics-subset-vevent-2013.ics
-Writing t/2004-2016.ics-subset-vevent-2014.ics
-Writing t/2004-2016.ics-subset-vjournal-2007.ics
-Writing t/2004-2016.ics-subset-vjournal-2011.ics
-Writing t/2004-2016.ics-subset-vtodo-2012.ics
-Writing t/2004-2016.ics-remaining.ics
-%
-&lt;/pre&gt;&lt;/p&gt;
-
-&lt;p&gt;As you can see, the original file is untouched and new files are
-written with names derived from the original file.  If you are happy
-with their content, the *-remaining.ics file can replace the original
-the the others can be archived or imported as historical calendar
-collections.&lt;/p&gt;
-
-&lt;p&gt;The script should probably be improved a bit.  The error handling
-when discovering broken entries is not good, and I am not sure yet if
-it make sense to split different entry types into separate files or
-not.  The program is thus likely to change.  If you find it
-interesting, please get in touch. :)&lt;/p&gt;
-
-&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
-activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+               <title>Free software archive system Nikita now able to store documents</title>
+               <link>http://people.skolelinux.org/pere/blog/Free_software_archive_system_Nikita_now_able_to_store_documents.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Free_software_archive_system_Nikita_now_able_to_store_documents.html</guid>
+                <pubDate>Sun, 19 Mar 2017 08:00:00 +0100</pubDate>
+               <description>&lt;p&gt;The &lt;a href=&quot;https://github.com/hiOA-ABI/nikita-noark5-core&quot;&gt;Nikita
+Noark 5 core project&lt;/a&gt; is implementing the Norwegian standard for
+keeping an electronic archive of government documents.
+&lt;a href=&quot;http://www.arkivverket.no/arkivverket/Offentlig-forvaltning/Noark/Noark-5/English-version&quot;&gt;The
+Noark 5 standard&lt;/a&gt; document the requirement for data systems used by
+the archives in the Norwegian government, and the Noark 5 web interface
+specification document a REST web service for storing, searching and
+retrieving documents and metadata in such archive.  I&#39;ve been involved
+in the project since a few weeks before Christmas, when the Norwegian
+Unix User Group
+&lt;a href=&quot;https://www.nuug.no/news/NOARK5_kjerne_som_fri_programvare_f_r_epostliste_hos_NUUG.shtml&quot;&gt;announced
+it supported the project&lt;/a&gt;.  I believe this is an important project,
+and hope it can make it possible for the government archives in the
+future to use free software to keep the archives we citizens depend
+on.  But as I do not hold such archive myself, personally my first use
+case is to store and analyse public mail journal metadata published
+from the government.  I find it useful to have a clear use case in
+mind when developing, to make sure the system scratches one of my
+itches.&lt;/p&gt;
+
+&lt;p&gt;If you would like to help make sure there is a free software
+alternatives for the archives, please join our IRC channel
+(&lt;a href=&quot;irc://irc.freenode.net/%23nikita&quot;&quot;&gt;#nikita on
+irc.freenode.net&lt;/a&gt;) and
+&lt;a href=&quot;https://lists.nuug.no/mailman/listinfo/nikita-noark&quot;&gt;the
+project mailing list&lt;/a&gt;.&lt;/p&gt;
+
+&lt;p&gt;When I got involved, the web service could store metadata about
+documents.  But a few weeks ago, a new milestone was reached when it
+became possible to store full text documents too.  Yesterday, I
+completed an implementation of a command line tool
+&lt;tt&gt;archive-pdf&lt;/tt&gt; to upload a PDF file to the archive using this
+API.  The tool is very simple at the moment, and find existing
+&lt;a href=&quot;https://en.wikipedia.org/wiki/Fonds&quot;&gt;fonds&lt;/a&gt;, series and
+files while asking the user to select which one to use if more than
+one exist.  Once a file is identified, the PDF is associated with the
+file and uploaded, using the title extracted from the PDF itself.  The
+process is fairly similar to visiting the archive, opening a cabinet,
+locating a file and storing a piece of paper in the archive.  Here is
+a test run directly after populating the database with test data using
+our API tester:&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;&lt;pre&gt;
+~/src//noark5-tester$ ./archive-pdf mangelmelding/mangler.pdf
+using arkiv: Title of the test fonds created 2017-03-18T23:49:32.103446
+using arkivdel: Title of the test series created 2017-03-18T23:49:32.103446
+
+ 0 - Title of the test case file created 2017-03-18T23:49:32.103446
+ 1 - Title of the test file created 2017-03-18T23:49:32.103446
+Select which mappe you want (or search term): 0
+Uploading mangelmelding/mangler.pdf
+  PDF title: Mangler i spesifikasjonsdokumentet for NOARK 5 Tjenestegrensesnitt
+  File 2017/1: Title of the test case file created 2017-03-18T23:49:32.103446
+~/src//noark5-tester$
+&lt;/pre&gt;&lt;/blockquote&gt;&lt;/p&gt;
+
+&lt;p&gt;You can see here how the fonds (arkiv) and serie (arkivdel) only had
+one option, while the user need to choose which file (mappe) to use
+among the two created by the API tester.  The &lt;tt&gt;archive-pdf&lt;/tt&gt;
+tool can be found in the git repository for the API tester.&lt;/p&gt;
+
+&lt;p&gt;In the project, I have been mostly working on
+&lt;a href=&quot;https://github.com/petterreinholdtsen/noark5-tester&quot;&gt;the API
+tester&lt;/a&gt; so far, while getting to know the code base.  The API
+tester currently use
+&lt;a href=&quot;https://en.wikipedia.org/wiki/HATEOAS&quot;&gt;the HATEOAS links&lt;/a&gt;
+to traverse the entire exposed service API and verify that the exposed
+operations and objects match the specification, as well as trying to
+create objects holding metadata and uploading a simple XML file to
+store.  The tester has proved very useful for finding flaws in our
+implementation, as well as flaws in the reference site and the
+specification.&lt;/p&gt;
+
+&lt;p&gt;The test document I uploaded is a summary of all the specification
+defects we have collected so far while implementing the web service.
+There are several unclear and conflicting parts of the specification,
+and we have
+&lt;a href=&quot;https://github.com/petterreinholdtsen/noark5-tester/tree/master/mangelmelding&quot;&gt;started
+writing down&lt;/a&gt; the questions we get from implementing it.  We use a
+format inspired by how &lt;a href=&quot;http://www.opengroup.org/austin/&quot;&gt;The
+Austin Group&lt;/a&gt; collect defect reports for the POSIX standard with
+&lt;a href=&quot;http://www.opengroup.org/austin/mantis.html&quot;&gt;their
+instructions for the MANTIS defect tracker system&lt;/a&gt;, in lack of an official way to structure defect reports for Noark 5 (our first submitted defect report was a &lt;a href=&quot;https://github.com/petterreinholdtsen/noark5-tester/blob/master/mangelmelding/sendt/2017-03-15-mangel-prosess.md&quot;&gt;request for a procedure for submitting defect reports&lt;/a&gt; :).
+
+&lt;p&gt;The Nikita project is implemented using Java and Spring, and is
+fairly easy to get up and running using Docker containers for those
+that want to test the current code base.  The API tester is
+implemented in Python.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Appstream just learned how to map hardware to packages too!</title>
-               <link>http://people.skolelinux.org/pere/blog/Appstream_just_learned_how_to_map_hardware_to_packages_too_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Appstream_just_learned_how_to_map_hardware_to_packages_too_.html</guid>
-                <pubDate>Fri, 23 Dec 2016 10:30:00 +0100</pubDate>
-               <description>&lt;p&gt;I received a very nice Christmas present today.  As my regular
-readers probably know, I have been working on the
-&lt;a href=&quot;http://packages.qa.debian.org/isenkram&quot;&gt;the Isenkram
-system&lt;/a&gt; for many years.  The goal of the Isenkram system is to make
-it easier for users to figure out what to install to get a given piece
-of hardware to work in Debian, and a key part of this system is a way
-to map hardware to packages.  Isenkram have its own mapping database,
-and also uses data provided by each package using the AppStream
-metadata format.  And today,
-&lt;a href=&quot;https://tracker.debian.org/pkg/appstream&quot;&gt;AppStream&lt;/a&gt; in
-Debian learned to look up hardware the same way Isenkram is doing it,
-ie using fnmatch():&lt;/p&gt;
-
-&lt;p&gt;&lt;pre&gt;
-% appstreamcli what-provides modalias \
-  usb:v1130p0202d0100dc00dsc00dp00ic03isc00ip00in00
-Identifier: pymissile [generic]
-Name: pymissile
-Summary: Control original Striker USB Missile Launcher
-Package: pymissile
-% appstreamcli what-provides modalias usb:v0694p0002d0000
-Identifier: libnxt [generic]
-Name: libnxt
-Summary: utility library for talking to the LEGO Mindstorms NXT brick
-Package: libnxt
----
-Identifier: t2n [generic]
-Name: t2n
-Summary: Simple command-line tool for Lego NXT
-Package: t2n
----
-Identifier: python-nxt [generic]
-Name: python-nxt
-Summary: Python driver/interface/wrapper for the Lego Mindstorms NXT robot
-Package: python-nxt
----
-Identifier: nbc [generic]
-Name: nbc
-Summary: C compiler for LEGO Mindstorms NXT bricks
-Package: nbc
-%
-&lt;/pre&gt;&lt;/p&gt;
-
-&lt;p&gt;A similar query can be done using the combined AppStream and
-Isenkram databases using the isenkram-lookup tool:&lt;/p&gt;
-
-&lt;p&gt;&lt;pre&gt;
-% isenkram-lookup usb:v1130p0202d0100dc00dsc00dp00ic03isc00ip00in00
-pymissile
-% isenkram-lookup usb:v0694p0002d0000
-libnxt
-nbc
-python-nxt
-t2n
-%
-&lt;/pre&gt;&lt;/p&gt;
-
-&lt;p&gt;You can find modalias values relevant for your machine using
-&lt;tt&gt;cat $(find /sys/devices/ -name modalias)&lt;/tt&gt;.
-
-&lt;p&gt;If you want to make this system a success and help Debian users
-make the most of the hardware they have, please
-help&lt;a href=&quot;https://wiki.debian.org/AppStream/Guidelines&quot;&gt;add
-AppStream metadata for your package following the guidelines&lt;/a&gt;
-documented in the wiki.  So far only 11 packages provide such
-information, among the several hundred hardware specific packages in
-Debian. The Isenkram database on the other hand contain 101 packages,
-mostly related to USB dongles.  Most of the packages with hardware
-mapping in AppStream are LEGO Mindstorms related, because I have, as
-part of my involvement in
-&lt;a href=&quot;https://wiki.debian.org/LegoDesigners&quot;&gt;the Debian LEGO
-team&lt;/a&gt; given priority to making sure LEGO users get proposed the
-complete set of packages in Debian for that particular hardware.  The
-team also got a nice Christmas present today.  The
-&lt;a href=&quot;https://tracker.debian.org/pkg/nxt-firmware&quot;&gt;nxt-firmware
-package&lt;/a&gt; made it into Debian.  With this package in place, it is
-now possible to use the LEGO Mindstorms NXT unit with only free
-software, as the nxt-firmware package contain the source and firmware
-binaries for the NXT brick.&lt;/p&gt;
-
-&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
-activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+               <title>Detecting NFS hangs on Linux without hanging yourself...</title>
+               <link>http://people.skolelinux.org/pere/blog/Detecting_NFS_hangs_on_Linux_without_hanging_yourself___.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Detecting_NFS_hangs_on_Linux_without_hanging_yourself___.html</guid>
+                <pubDate>Thu, 9 Mar 2017 15:20:00 +0100</pubDate>
+               <description>&lt;p&gt;Over the years, administrating thousand of NFS mounting linux
+computers at the time, I often needed a way to detect if the machine
+was experiencing NFS hang.  If you try to use &lt;tt&gt;df&lt;/tt&gt; or look at a
+file or directory affected by the hang, the process (and possibly the
+shell) will hang too.  So you want to be able to detect this without
+risking the detection process getting stuck too.  It has not been
+obvious how to do this.  When the hang has lasted a while, it is
+possible to find messages like these in dmesg:&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;
+nfs: server nfsserver not responding, still trying
+&lt;br&gt;nfs: server nfsserver OK
+&lt;/blockquote&gt;&lt;/p&gt;
+  
+&lt;p&gt;It is hard to know if the hang is still going on, and it is hard to
+be sure looking in dmesg is going to work.  If there are lots of other
+messages in dmesg the lines might have rotated out of site before they
+are noticed.&lt;/p&gt;
+
+&lt;p&gt;While reading through the nfs client implementation in linux kernel
+code, I came across some statistics that seem to give a way to detect
+it.  The om_timeouts sunrpc value in the kernel will increase every
+time the above log entry is inserted into dmesg.  And after digging a
+bit further, I discovered that this value show up in
+/proc/self/mountstats on Linux.&lt;/p&gt;
+
+&lt;p&gt;The mountstats content seem to be shared between files using the
+same file system context, so it is enough to check one of the
+mountstats files to get the state of the mount point for the machine.
+I assume this will not show lazy umounted NFS points, nor NFS mount
+points in a different process context (ie with a different filesystem
+view), but that does not worry me.&lt;/p&gt;
+
+&lt;p&gt;The content for a NFS mount point look similar to this:&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;&lt;pre&gt;
+[...]
+device /dev/mapper/Debian-var mounted on /var with fstype ext3
+device nfsserver:/mnt/nfsserver/home0 mounted on /mnt/nfsserver/home0 with fstype nfs statvers=1.1
+        opts:   rw,vers=3,rsize=65536,wsize=65536,namlen=255,acregmin=3,acregmax=60,acdirmin=30,acdirmax=60,soft,nolock,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=129.240.3.145,mountvers=3,mountport=4048,mountproto=udp,local_lock=all
+        age:    7863311
+        caps:   caps=0x3fe7,wtmult=4096,dtsize=8192,bsize=0,namlen=255
+        sec:    flavor=1,pseudoflavor=1
+        events: 61063112 732346265 1028140 35486205 16220064 8162542 761447191 71714012 37189 3891185 45561809 110486139 4850138 420353 15449177 296502 52736725 13523379 0 52182 9016896 1231 0 0 0 0 0 
+        bytes:  166253035039 219519120027 0 0 40783504807 185466229638 11677877 45561809 
+        RPC iostats version: 1.0  p/v: 100003/3 (nfs)
+        xprt:   tcp 925 1 6810 0 0 111505412 111480497 109 2672418560317 0 248 53869103 22481820
+        per-op statistics
+                NULL: 0 0 0 0 0 0 0 0
+             GETATTR: 61063106 61063108 0 9621383060 6839064400 453650 77291321 78926132
+             SETATTR: 463469 463470 0 92005440 66739536 63787 603235 687943
+              LOOKUP: 17021657 17021657 0 3354097764 4013442928 57216 35125459 35566511
+              ACCESS: 14281703 14290009 5 2318400592 1713803640 1709282 4865144 7130140
+            READLINK: 125 125 0 20472 18620 0 1112 1118
+                READ: 4214236 4214237 0 715608524 41328653212 89884 22622768 22806693
+               WRITE: 8479010 8494376 22 187695798568 1356087148 178264904 51506907 231671771
+              CREATE: 171708 171708 0 38084748 46702272 873 1041833 1050398
+               MKDIR: 3680 3680 0 773980 993920 26 23990 24245
+             SYMLINK: 903 903 0 233428 245488 6 5865 5917
+               MKNOD: 80 80 0 20148 21760 0 299 304
+              REMOVE: 429921 429921 0 79796004 61908192 3313 2710416 2741636
+               RMDIR: 3367 3367 0 645112 484848 22 5782 6002
+              RENAME: 466201 466201 0 130026184 121212260 7075 5935207 5961288
+                LINK: 289155 289155 0 72775556 67083960 2199 2565060 2585579
+             READDIR: 2933237 2933237 0 516506204 13973833412 10385 3190199 3297917
+         READDIRPLUS: 1652839 1652839 0 298640972 6895997744 84735 14307895 14448937
+              FSSTAT: 6144 6144 0 1010516 1032192 51 9654 10022
+              FSINFO: 2 2 0 232 328 0 1 1
+            PATHCONF: 1 1 0 116 140 0 0 0
+              COMMIT: 0 0 0 0 0 0 0 0
+
+device binfmt_misc mounted on /proc/sys/fs/binfmt_misc with fstype binfmt_misc
+[...]
+&lt;/pre&gt;&lt;/blockquote&gt;&lt;/p&gt;
+
+&lt;p&gt;The key number to look at is the third number in the per-op list.
+It is the number of NFS timeouts experiences per file system
+operation.  Here 22 write timeouts and 5 access timeouts.  If these
+numbers are increasing, I believe the machine is experiencing NFS
+hang.  Unfortunately the timeout value do not start to increase right
+away.  The NFS operations need to time out first, and this can take a
+while.  The exact timeout value depend on the setup.  For example the
+defaults for TCP and UDP mount points are quite different, and the
+timeout value is affected by the soft, hard, timeo and retrans NFS
+mount options.&lt;/p&gt;
+
+&lt;p&gt;The only way I have been able to get working on Debian and RedHat
+Enterprise Linux for getting the timeout count is to peek in /proc/.
+But according to
+&lt;ahref=&quot;http://docs.oracle.com/cd/E19253-01/816-4555/netmonitor-12/index.html&quot;&gt;Solaris
+10 System Administration Guide: Network Services&lt;/a&gt;, the &#39;nfsstat -c&#39;
+command can be used to get these timeout values.  But this do not work
+on Linux, as far as I can tell.  I
+&lt;ahref=&quot;http://bugs.debian.org/857043&quot;&gt;asked Debian about this&lt;/a&gt;,
+but have not seen any replies yet.&lt;/p&gt;
+
+&lt;p&gt;Is there a better way to figure out if a Linux NFS client is
+experiencing NFS hangs?  Is there a way to detect which processes are
+affected?  Is there a way to get the NFS mount going quickly once the
+network problem causing the NFS hang has been cleared?  I would very
+much welcome some clues, as we regularly run into NFS hangs.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Isenkram updated with a lot more hardware-package mappings</title>
-               <link>http://people.skolelinux.org/pere/blog/Isenkram_updated_with_a_lot_more_hardware_package_mappings.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Isenkram_updated_with_a_lot_more_hardware_package_mappings.html</guid>
-                <pubDate>Tue, 20 Dec 2016 11:55:00 +0100</pubDate>
-               <description>&lt;p&gt;&lt;a href=&quot;http://packages.qa.debian.org/isenkram&quot;&gt;The Isenkram
-system&lt;/a&gt; I wrote two years ago to make it easier in Debian to find
-and install packages to get your hardware dongles to work, is still
-going strong.  It is a system to look up the hardware present on or
-connected to the current system, and map the hardware to Debian
-packages.  It can either be done using the tools in isenkram-cli or
-using the user space daemon in the isenkram package.  The latter will
-notify you, when inserting new hardware, about what packages to
-install to get the dongle working.  It will even provide a button to
-click on to ask packagekit to install the packages.&lt;/p&gt;
-
-&lt;p&gt;Here is an command line example from my Thinkpad laptop:&lt;/p&gt;
-
-&lt;p&gt;&lt;pre&gt;
-% isenkram-lookup  
-bluez
-cheese
-ethtool
-fprintd
-fprintd-demo
-gkrellm-thinkbat
-hdapsd
-libpam-fprintd
-pidgin-blinklight
-thinkfan
-tlp
-tp-smapi-dkms
-tp-smapi-source
-tpb
-%
-&lt;/pre&gt;&lt;/p&gt;
-
-&lt;p&gt;It can also list the firware package providing firmware requested
-by the load kernel modules, which in my case is an empty list because
-I have all the firmware my machine need:
-
-&lt;p&gt;&lt;pre&gt;
-% /usr/sbin/isenkram-autoinstall-firmware -l
-info: did not find any firmware files requested by loaded kernel modules.  exiting
-%
-&lt;/pre&gt;&lt;/p&gt;
-
-&lt;p&gt;The last few days I had a look at several of the around 250
-packages in Debian with udev rules.  These seem like good candidates
-to install when a given hardware dongle is inserted, and I found
-several that should be proposed by isenkram.  I have not had time to
-check all of them, but am happy to report that now there are 97
-packages packages mapped to hardware by Isenkram.  11 of these
-packages provide hardware mapping using AppStream, while the rest are
-listed in the modaliases file provided in isenkram.&lt;/p&gt;
-
-&lt;p&gt;These are the packages with hardware mappings at the moment.  The
-&lt;strong&gt;marked packages&lt;/strong&gt; are also announcing their hardware
-support using AppStream, for everyone to use:&lt;/p&gt;
-
-&lt;p&gt;air-quality-sensor, alsa-firmware-loaders, argyll,
-&lt;strong&gt;array-info&lt;/strong&gt;, avarice, avrdude, b43-fwcutter,
-bit-babbler, bluez, bluez-firmware, &lt;strong&gt;brltty&lt;/strong&gt;,
-&lt;strong&gt;broadcom-sta-dkms&lt;/strong&gt;, calibre, cgminer, cheese, colord,
-&lt;strong&gt;colorhug-client&lt;/strong&gt;, dahdi-firmware-nonfree, dahdi-linux,
-dfu-util, dolphin-emu, ekeyd, ethtool, firmware-ipw2x00, fprintd,
-fprintd-demo, &lt;strong&gt;galileo&lt;/strong&gt;, gkrellm-thinkbat, gphoto2,
-gpsbabel, gpsbabel-gui, gpsman, gpstrans, gqrx-sdr, gr-fcdproplus,
-gr-osmosdr, gtkpod, hackrf, hdapsd, hdmi2usb-udev, hpijs-ppds, hplip,
-ipw3945-source, ipw3945d, kde-config-tablet, kinect-audio-setup,
-&lt;strong&gt;libnxt&lt;/strong&gt;, libpam-fprintd, &lt;strong&gt;lomoco&lt;/strong&gt;,
-madwimax, minidisc-utils, mkgmap, msi-keyboard, mtkbabel,
-&lt;strong&gt;nbc&lt;/strong&gt;, &lt;strong&gt;nqc&lt;/strong&gt;, nut-hal-drivers, ola,
-open-vm-toolbox, open-vm-tools, openambit, pcgminer, pcmciautils,
-pcscd, pidgin-blinklight, printer-driver-splix,
-&lt;strong&gt;pymissile&lt;/strong&gt;, python-nxt, qlandkartegt,
-qlandkartegt-garmin, rosegarden, rt2x00-source, sispmctl,
-soapysdr-module-hackrf, solaar, squeak-plugins-scratch, sunxi-tools,
-&lt;strong&gt;t2n&lt;/strong&gt;, thinkfan, thinkfinger-tools, tlp, tp-smapi-dkms,
-tp-smapi-source, tpb, tucnak, uhd-host, usbmuxd, viking,
-virtualbox-ose-guest-x11, w1retap, xawtv, xserver-xorg-input-vmmouse,
-xserver-xorg-input-wacom, xserver-xorg-video-qxl,
-xserver-xorg-video-vmware, yubikey-personalization and
-zd1211-firmware&lt;/p&gt;
-
-&lt;p&gt;If you know of other packages, please let me know with a wishlist
-bug report against the isenkram-cli package, and ask the package
-maintainer to
-&lt;a href=&quot;https://wiki.debian.org/AppStream/Guidelines&quot;&gt;add AppStream
-metadata according to the guidelines&lt;/a&gt; to provide the information
-for everyone.  In time, I hope to get rid of the isenkram specific
-hardware mapping and depend exclusively on AppStream.&lt;/p&gt;
-
-&lt;p&gt;Note, the AppStream metadata for broadcom-sta-dkms is matching too
-much hardware, and suggest that the package with with any ethernet
-card.  See &lt;a href=&quot;http://bugs.debian.org/838735&quot;&gt;bug #838735&lt;/a&gt; for
-the details.  I hope the maintainer find time to address it soon.  In
-the mean time I provide an override in isenkram.&lt;/p&gt;
+               <title>How does it feel to be wiretapped, when you should be doing the wiretapping...</title>
+               <link>http://people.skolelinux.org/pere/blog/How_does_it_feel_to_be_wiretapped__when_you_should_be_doing_the_wiretapping___.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/How_does_it_feel_to_be_wiretapped__when_you_should_be_doing_the_wiretapping___.html</guid>
+                <pubDate>Wed, 8 Mar 2017 11:50:00 +0100</pubDate>
+               <description>&lt;p&gt;So the new president in the United States of America claim to be
+surprised to discover that he was wiretapped during the election
+before he was elected president.  He even claim this must be illegal.
+Well, doh, if it is one thing the confirmations from Snowden
+documented, it is that the entire population in USA is wiretapped, one
+way or another.  Of course the president candidates were wiretapped,
+alongside the senators, judges and the rest of the people in USA.&lt;/p&gt;
+
+&lt;p&gt;Next, the Federal Bureau of Investigation ask the Department of
+Justice to go public rejecting the claims that Donald Trump was
+wiretapped illegally.  I fail to see the relevance, given that I am
+sure the surveillance industry in USA believe they have all the legal
+backing they need to conduct mass surveillance on the entire
+world.&lt;/p&gt;
+
+&lt;p&gt;There is even the director of the FBI stating that he never saw an
+order requesting wiretapping of Donald Trump.  That is not very
+surprising, given how the FISA court work, with all its activity being
+secret.  Perhaps he only heard about it?&lt;/p&gt;
+
+&lt;p&gt;What I find most sad in this story is how Norwegian journalists
+present it.  In a news reports the other day in the radio from the
+Norwegian National broadcasting Company (NRK), I heard the journalist
+claim that &#39;the FBI denies any wiretapping&#39;, while the reality is that
+&#39;the FBI denies any illegal wiretapping&#39;.  There is a fundamental and
+important difference, and it make me sad that the journalists are
+unable to grasp it.&lt;/p&gt;
+
+&lt;p&gt;&lt;strong&gt;Update 2017-03-13:&lt;/strong&gt; Look like
+&lt;a href=&quot;https://theintercept.com/2017/03/13/rand-paul-is-right-nsa-routinely-monitors-americans-communications-without-warrants/&quot;&gt;The
+Intercept report that US Senator Rand Paul confirm what I state above&lt;/a&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Oolite, a life in space as vagabond and mercenary - nice free software</title>
-               <link>http://people.skolelinux.org/pere/blog/Oolite__a_life_in_space_as_vagabond_and_mercenary___nice_free_software.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Oolite__a_life_in_space_as_vagabond_and_mercenary___nice_free_software.html</guid>
-                <pubDate>Sun, 11 Dec 2016 11:40:00 +0100</pubDate>
-               <description>&lt;p align=&quot;center&quot;&gt;&lt;img width=&quot;70%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2016-12-11-nice-oolite.png&quot;/&gt;&lt;/p&gt;
-
-&lt;p&gt;In my early years, I played
-&lt;a href=&quot;http://wiki.alioth.net/index.php/Classic_Elite&quot;&gt;the epic game
-Elite&lt;/a&gt; on my PC.  I spent many months trading and fighting in
-space, and reached the &#39;elite&#39; fighting status before I moved on.  The
-original Elite game was available on Commodore 64 and the IBM PC
-edition I played had a 64 KB executable.  I am still impressed today
-that the authors managed to squeeze both a 3D engine and details about
-more than 2000 planet systems across 7 galaxies into a binary so
-small.&lt;/p&gt;
-
-&lt;p&gt;I have known about &lt;a href=&quot;http://www.oolite.org/&quot;&gt;the free
-software game Oolite inspired by Elite&lt;/a&gt; for a while, but did not
-really have time to test it properly until a few days ago.  It was
-great to discover that my old knowledge about trading routes were
-still valid.  But my fighting and flying abilities were gone, so I had
-to retrain to be able to dock on a space station.  And I am still not
-able to make much resistance when I am attacked by pirates, so I
-bougth and mounted the most powerful laser in the rear to be able to
-put up at least some resistance while fleeing for my life. :)&lt;/p&gt;
-
-&lt;p&gt;When playing Elite in the late eighties, I had to discover
-everything on my own, and I had long lists of prices seen on different
-planets to be able to decide where to trade what.  This time I had the
-advantages of the
-&lt;a href=&quot;http://wiki.alioth.net/index.php/Main_Page&quot;&gt;Elite wiki&lt;/a&gt;,
-where information about each planet is easily available with common
-price ranges and suggested trading routes.  This improved my ability
-to earn money and I have been able to earn enough to buy a lot of
-useful equipent in a few days.  I believe I originally played for
-months before I could get a docking computer, while now I could get it
-after less then a week.&lt;/p&gt;
-
-&lt;p&gt;If you like science fiction and dreamed of a life as a vagabond in
-space, you should try out Oolite.  It is available for Linux, MacOSX
-and Windows, and is included in Debian and derivatives since 2011.&lt;/p&gt;
-
-&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
-activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+               <title>Norwegian Bokmål translation of The Debian Administrator&#39;s Handbook complete, proofreading in progress</title>
+               <link>http://people.skolelinux.org/pere/blog/Norwegian_Bokm_l_translation_of_The_Debian_Administrator_s_Handbook_complete__proofreading_in_progress.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Norwegian_Bokm_l_translation_of_The_Debian_Administrator_s_Handbook_complete__proofreading_in_progress.html</guid>
+                <pubDate>Fri, 3 Mar 2017 14:50:00 +0100</pubDate>
+               <description>&lt;p&gt;For almost a year now, we have been working on making a Norwegian
+Bokmål edition of &lt;a href=&quot;https://debian-handbook.info/&quot;&gt;The Debian
+Administrator&#39;s Handbook&lt;/a&gt;.  Now, thanks to the tireless effort of
+Ole-Erik, Ingrid and Andreas, the initial translation is complete, and
+we are working on the proof reading to ensure consistent language and
+use of correct computer science terms.  The plan is to make the book
+available on paper, as well as in electronic form.  For that to
+happen, the proof reading must be completed and all the figures need
+to be translated.  If you want to help out, get in touch.&lt;/p&gt;
+
+&lt;p&gt;&lt;a href=&quot;http://people.skolelinux.org/pere/debian-handbook/debian-handbook-nb-NO.pdf&quot;&gt;A
+
+fresh PDF edition&lt;/a&gt; in A4 format (the final book will have smaller
+pages) of the book created every morning is available for
+proofreading.  If you find any errors, please
+&lt;a href=&quot;https://hosted.weblate.org/projects/debian-handbook/&quot;&gt;visit
+Weblate and correct the error&lt;/a&gt;.  The
+&lt;a href=&quot;http://l.github.io/debian-handbook/stat/nb-NO/index.html&quot;&gt;state
+of the translation including figures&lt;/a&gt; is a useful source for those
+provide Norwegian bokmål screen shots and figures.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Er lover brutt når personvernpolicy ikke stemmer med praksis?</title>
-               <link>http://people.skolelinux.org/pere/blog/Er_lover_brutt_n_r_personvernpolicy_ikke_stemmer_med_praksis_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Er_lover_brutt_n_r_personvernpolicy_ikke_stemmer_med_praksis_.html</guid>
-                <pubDate>Fri, 9 Dec 2016 14:20:00 +0100</pubDate>
-               <description>&lt;p&gt;Når jeg bruker &lt;a href=&quot;https://www.ghostery.com/&quot;&gt;Ghostery&lt;/a&gt;,
-&lt;a href=&quot;https://www.ublock.org/&quot;&gt;uBlock&lt;/a&gt;,
-&lt;a href=&quot;https://github.com/gorhill/uMatrix&quot;&gt;uMatrix&lt;/a&gt;,
-&lt;a href=&quot;https://github.com/andryou/scriptsafe&quot;&gt;ScriptSafe&lt;/a&gt; og andre
-nettleserverktøy (de passer på hverandre) for å holde styr på hvordan
-nettsteder sprer informasjon om hvilke nettsider jeg leser blir det
-veldig synlig hvilke nettsteder som er satt opp til å utveksle
-informasjon med utlandet og tredjeparter.  For en stund siden la jeg
-merke til at det virker å være avvik mellom personvernpolicy og
-praksis endel steder, og tok tak i et par konkrete eksempler og sendte
-spørsmål til Datatilsynets kontaktpunkt for veiledning:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;«Jeg har et spørsmål når det gjelder bruken av Google Analytics og
-personvernpolicy.  Er det lovlig for et nettsted å si en ting i
-personvernpolicy og gjøre noe annet i virkeligheten?  Spesifikt lurer
-jeg på hvilket lov som er brutt hvis nettstedet i HTML-koden til
-nettsidene ber lesernes nettleser om å kontakte Google Analytics og
-slik overleverer sitt IP-nummer til Google, samtidig som
-personvernpolicien hevder at Google Analytics kun får anonymiserte
-data.  Google får jo i slike tilfeller alltid overført fullt
-IP-nummer, og nettstedet kan i URL-en som brukes be Google om å ikke
-lagre deler av IP-adressen (omtalt som anonymisering av Google
-Analytics)&lt;/p&gt;
-
-&lt;p&gt;Et eksempel er Nettavisen digi.no.
-&lt;a href=&quot;http://www.digi.no/artikler/personvernpolicy/208772&quot;&gt;Deres
-personvernpolicy&lt;/a&gt; sier følgende:&lt;/p&gt;
-
-&lt;blockquote&gt;
-  «Tredjeparter (som Google Analytics, Cxense, TNS Gallup) får kun
-  anonymiserte data.»
-&lt;/blockquote&gt;
-
-&lt;p&gt;Men når en leser artikler der så blir maskiner i Norge, USA,
-Tyskland, Danmark, Storbritannia, Irland og Nederland varslet om
-besøket og får dermed overlevert full IP-adresse, som datatilsynet har
-uttalt er en personopplysning.  Nettsidene er satt opp til be
-nettleseren å kontakte 29 ulike maskiner rundt om i verden.  Fire av
-dem er er under DNS-domenene digi.no og tek.no som tilhører samme
-eier.  I tillegg ber nettsidene ikke
-&lt;a href=&quot;https://support.google.com/analytics/answer/2763052?hl=no&quot;&gt;Google
-Analytics om å fjerne siste oktett i IP-adressen ved lagring&lt;/a&gt;,
-dvs. flagget «aip=1» er ikke satt i URL-en som brukes for å kontakte
-Google Analytics.&lt;/p&gt;
-
-&lt;p&gt;Tilsvarende er også tilfelle for andre nettsteder, så digi.no er
-ikke spesiell i så måte (dagbladet.no er et annet eksempel, det
-gjelder flere).»&lt;/p&gt;
-
-&lt;/blockquote&gt;
-
-&lt;p&gt;Etter noen dager kunne juridisk rådgiver Elisabeth Krauss Amundsen
-hos Datatilsynet fortelle det følgende:&lt;/p&gt;
-
-&lt;blockquote&gt;
-«Hei, og takk for din e-post.&lt;/p&gt;
-
-&lt;p&gt;Vår svartjeneste gir deg kortfattet rådgivning. Vi vil derfor ikke konkludere
-i saken din, men gi deg råd og veiledning.&lt;/p&gt;
-
-&lt;p&gt;Ut ifra det du skriver er det antakelig flere bestemmelser i
-personopplysingsloven som brytes dersom virksomhetens personvernpolicy
-sier noe annet om behandlingen av personopplysninger enn det som
-faktisk skjer.  Antakelig vil det være et brudd på informasjonsplikten
-i personopplysingsloven §§ 18 og
-19&amp;lt;&lt;a href=&quot;https://lovdata.no/dokument/NL/lov/2000-04-14-31/KAPITTEL_2#§18&quot;&gt;https://lovdata.no/dokument/NL/lov/2000-04-14-31/KAPITTEL_2#§18&lt;/a&gt;&amp;gt;
-dersom det gis feilinformasjon om at opplysningene utleveres. Det kan
-også stilles spørsmål om grunnkravene for behandling av
-personopplysninger vil være oppfylt ved en utlevering av
-personopplysninger til en tredjepart, dersom dette ikke er inkludert
-behandlingsgrunnlaget og formålet med behandlingen, se
-personopplysingsloven § 11, jf.
-8.&amp;lt;&lt;a href=&quot;https://lovdata.no/dokument/NL/lov/2000-04-14-31/KAPITTEL_2#§11&quot;&gt;https://lovdata.no/dokument/NL/lov/2000-04-14-31/KAPITTEL_2#§11&lt;/a&gt;&amp;gt;»
-&lt;/blockquote&gt;
-
-&lt;!-- Her er full URL som digi ba nettleserne bruke for å melde fra til
-Google Analytics:
-https://www.google-analytics.com/r/collect?v=1&amp;_v=j47&amp;a=666919305&amp;t=pageview&amp;_s=1&amp;dl=http%3A%2F%2Fwww.digi.no%2F&amp;ul=nb-no&amp;de=UTF-8&amp;dt=Digi.no%20-%20IT-bransjens%20nettavis&amp;sd=32-bit&amp;sr=1024x768&amp;vp=400x300&amp;je=0&amp;_u=AEAAAMQAK~&amp;jid=592247632&amp;cid=1641512195.1480086725&amp;tid=UA-54426-28&amp;_r=1&amp;z=328520576
---&gt;
-
-&lt;p&gt;Oppdatert med kunnskap om lover og regler tok jeg så kontakt med
-Dagbladet på epostadressen de annonserer på sine
-personvernpolicysider:&lt;p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;«Jeg lurte litt i forbindelse med en bloggpost jeg skriver på, og lurer
-på om dere hjelpe meg med å finne ut av følgende.  Først litt
-bakgrunnsinformasjon.
-&lt;a href=&quot;http://www.dagbladet.no/2009/08/18/nyheter/avtale/brukeravtale/plikter/7706966/&quot;&gt;Dagbladets
-personvernpolicy&lt;/a&gt; forteller følgende:&lt;/p&gt;
-
-&lt;blockquote&gt;
-  &lt;p&gt;«3. Automatisk innhentet informasjon&lt;/p&gt;
-
-  &lt;p&gt;For eksempel IP-adressen din (ikke synlig for andre) samt
-  statistisk, automatisk produsert informasjon, som når du sist var
-  innlogget på tjenesten. Dette er informasjon vi samler for å gjøre
-  tjenesten best mulig.»&lt;/p&gt;
-
-&lt;/blockquote&gt;
-
-
-&lt;p&gt;Men når en besøker nettsidene til Dagbladet,
-f.eks. &lt;a href=&quot;http://dagbladet.no/&quot;&gt;forsiden&lt;/a&gt;, så er nettsidene
-satt opp til å kontakte mange tredjeparter som slik får tilgang til
-både fullt IP-nummer og i de fleste tilfeller nøyaktig hvilken
-artikkel en leser hos Dagbladet ved at Referer-feltet fylles og legges
-ved.  Dette gjelder Google Analytics, Cxense, INS Gallup, Doubleclick
-med flere.  Totalt ber forsiden nettleseren om å koble seg opp til 60
-nettsteder med 149 separate oppkoblinger.  I hver av disse
-oppkoblingene oversendes IP-adressen til leseren, og i følge
-Datatilsynet er
-«&lt;a href=&quot;https://www.datatilsynet.no/Teknologi/Internett/Webanalyse/&quot;&gt;en
-IP-adresse definert som en personopplysning fordi den kan spores
-tilbake til en bestemt maskinvare og dermed til en enkeltperson&lt;/a&gt;».&lt;/p&gt;
-
-&lt;p&gt;Datatilsynet har fortalt meg at i følge personopplysingsloven §§ 18
-og 19 skal informasjonen som gis om bruk og utlevering av
-personopplysninger være korrekt.  De forteller videre at det er endel
-grunnkrav som må være oppfylt ved utlevering av personopplysninger til
-tredjeparter, nærmere forklart i personopplysingsloven § 11 som
-henviser til § 8.&lt;/p&gt;
-
-&lt;p&gt;Mitt spørsmål er dermed som følger:&lt;/p&gt;
-
-  &lt;blockquote&gt;
-
-  &lt;p&gt;Hva mener dere i personpolicyen når dere skriver at IP-adressen ikke
-  er synlig for andre?»&lt;/p&gt;
-  
-  &lt;/blockquote&gt;
-
-&lt;/blockquote&gt;
-
-&lt;p&gt;Etter en uke har jeg fortsatt ikke fått svar fra Dagbladet på mitt
-spørsmål, så neste steg er antagelig å høre om Datatilsynet er
-interessert i å se på saken.&lt;/p&gt;
-
-&lt;p&gt;Men Dagbladet er ikke det eneste nettstedet som forteller at de
-ikke deler personopplysninger med andre mens observerbar praksis
-dokumenterer noe annet.  Jeg sendte derfor også et spørsmål til
-kontaktadressen til nettavisen Digi.no, og der var responsen mye
-bedre:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;«Jeg lurte på en ting i forbindelse med en bloggpost jeg skriver på,
-og lurer på om dere hjelpe meg.  Først litt bakgrunnsinformasjon.
-&lt;a href=&quot;http://www.digi.no/artikler/personvernpolicy/208772&quot;&gt;Digi.nos
-personvernpolicy&lt;/a&gt; forteller følgende:&lt;/p&gt;
-
-&lt;blockquote&gt;
-  «All personlig informasjon blir lagret i våre systemer, disse er ikke
-  tilgjengelig for tredjeparter, og blir ikke lagret i
-  informasjonskapsler.  Tredjeparter (som Google Analytics, Cxense,
-  TNS Gallup) får kun anonymiserte data.»
-&lt;/blockquote&gt;
-
-&lt;p&gt;Men når en besøker nettsidene til nettavisen, f.eks.
-&lt;a href=&quot;http://www.digi.no/&quot;&gt;forsiden&lt;/a&gt;, så er nettsidene satt opp
-til å kontakte mange tredjeparter som slik får tilgang til både fullt
-IP-nummer og i de fleste tilfeller nøyaktig hvilken artikkel en leser
-hos Digi.no ved at Referer-feltet fylles og legges ved.  Dette gjelder
-både Google Analytics, Cxense blant og INS Gallum.  Totalt ber
-forsiden nettleseren om å koble seg opp til 29 nettsteder med 44
-separate oppkoblinger.  I hver av disse oppkoblingene sendes
-IP-adressen til leseren over, og i følge Datatilsynet er
-«&lt;a href=&quot;https://www.datatilsynet.no/Teknologi/Internett/Webanalyse/&quot;&gt;en
-IP-adresse definert som en personopplysning fordi den kan spores
-tilbake til en bestemt maskinvare og dermed til en enkeltperson&lt;/a&gt;».
-Det jeg ser virker ikke å være i tråd med personvernpolicyen.&lt;/p&gt;
-
-&lt;p&gt;Når en besøker Digi.nos nettsider gjøres det to oppkoblinger til
-Google Analytics, en for å hente ned programkoden som samler
-informasjon fra nettleseren og sender over til Google (analytics.js),
-og en for å overføre det som ble samlet inn.  I den siste oppkoblingen
-er det mulig å be Google om å ikke ta vare på hele IP-adressen, men i
-stedet fjerne siste oktett i IP-adressen.  Dette omtales ofte litt
-misvisende for «anonymisert» bruk av Google Analytics, i og med at
-fullt IP-nummer blir sendt til Google og det er opp til Google om de
-vil bry seg om ønsket fra de som har laget nettsiden.  Ut fra det som
-står i personvernpolicyen ville jeg tro at Digi.no ba google om å ikke
-ta vare på hele IP-nummeret, men når en ser på den andre oppkoblingen
-kan en se at flagget «aio=1» ikke er satt, og at Digi.no ikke ber
-Google om å la være å lagre hele IP-adressen.  Dette virker heller
-ikke å være i tråd med personvernpolicyen.&lt;/p&gt;
-
-&lt;p&gt;Datatilsynet har fortalt meg at i følge personopplysingsloven §§ 18
-og 19 skal informasjonen som gis om bruk og utlevering av
-personopplysninger være korrekt.  De forteller videre at det er endel
-grunnkrav som må være oppfylt ved utlevering av personopplysninger til
-tredjeparter, nærmere forklart i personopplysingsloven § 11 som
-henviser til § 8.  Det er uklart for meg om disse kravene er oppfylt
-når IP-adresse og informasjon om hvilke websider som besøkes til
-tredjeparter.&lt;/p&gt;
-
-&lt;p&gt;Mitt spørsmål er dermed som følger:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-  &lt;p&gt;Hva mener dere i personpolicyen når dere skriver at «Tredjeparter
-  får kun anonymiserte data»?»&lt;/p&gt;
-  
-&lt;/blockquote&gt;
-
-&lt;/blockquote&gt;
-
-&lt;p&gt;Redaksjonssjef Kurt Lekanger svarte samme dag og forklarte at han
-måtte komme tilbake til meg når han hadde med utviklingsavdelingen.
-Seks dager senere lurte jeg på hva han fant ut, og etter noen timer
-fikk jeg så følgende svar fra direktøren for teknologi og
-forretningsutvikling Øystein W. Høie i Teknisk Ukeblad Media:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;«Takk for godt tips! Det er helt riktig at IP og referrer-adresse
-potensielt kan leses ut av tredjepart.&lt;/p&gt;
-
-&lt;p&gt;Retningslinjene våre har vært uklare på dette tidspunktet, og vi
-oppdaterer nå disse så dette kommer tydeligere frem. Ny tekst blir som
-følger:&lt;/p&gt;
-
-&lt;hr&gt;
-&lt;p&gt;3. Dette bruker vi ikke informasjonen til Informasjon du oppgir til
-oss blir lagret i våre systemer, er ikke tilgjengelig for
-tredjeparter, og blir ikke lagret i informasjonskapsler.
-Informasjonen vil kun benyttes til å gi deg som bruker mer relevant
-informasjon og bedre tjenester.&lt;/p&gt;
-
-&lt;p&gt;Tredjeparter (som Google Analytics, Cxense, TNS Gallup) vil kunne
-hente ut IP-adresse og data basert på dine surfemønstre. TU Media AS
-er pliktig å påse at disse tredjepartene behandler data i tråd med
-norsk regelverk.&lt;/p&gt;
-&lt;hr&gt;
-
-&lt;p&gt;Ellers har vi nå aktivert anonymisering i Google Analytics
-(aip=1). Kan også nevne at Tek.no-brukere som har kjøpt Tek Ekstra har
-mulighet til å skru av all tracking i kontrollpanelet sitt. Dette er
-noe vi vurderer å rulle ut på alle sidene i vårt nettverk.»&lt;/p&gt;
-
-&lt;/blockquote&gt;
-
-&lt;p&gt;Det var nyttig å vite at vi er enige om at formuleringen i
-personvernpolicyen er misvisende.  Derimot var det nedslående at i
-stedet for å endre praksis for å følge det personvernpolicyen sier om
-å ikke dele personinformasjon med tredjeparter, så velger Digi.no å
-fortsette praksis og i stedet endre personvernpolicyen slik at den å
-dokumentere dagens praksis med spredning av personopplysninger.&lt;/p&gt;
-
-&lt;p&gt;Med bakgrunn i at Digi.no ikke har fulgt sin egen personvernpolicy
-spurte jeg hvordan Digi.no kom til å håndtere endringen:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;«Tusen takk for beskjed om endring av personvernpolicy for digi.no.
-Gjelder endringen også andre nettsteder?&lt;/p&gt;
-
-&lt;p&gt;Vil tidligere håndteringen av IP-adresser og lesemønster i strid
-med dokumentert personvernpolicy bli varslet til Datatilsynet i tråd
-med
-&lt;a href=&quot;https://lovdata.no/forskrift/2000-12-15-1265/§2-6&quot;&gt;personopplysningsforskriften
-§ 2-6&lt;/a&gt;?  Vil leserne bli varslet på en prominent og synlig måte om
-at lesernes IP-adresser og lesemønster har vært utlevert til
-tredjeparter i stid med tidligere formulering om at tredjeparter kun
-får anonymiserte data, og at utleveringen fortsetter etter at
-personvernpolicy er endret for å dokumentere praksis?&lt;/p&gt;
-
-&lt;p&gt;Appropos ekstra tilbud til betalende lesere, tilbyr dere en
-mulighet for å betale for å lese som ikke innebærer at en må gjøre det
-mulig å la sine lesevaner blir registeret av tek.no?  Betaler gjerne
-for å lese nyheter, men ikke med en bit av privatlivet mitt. :)»&lt;/p&gt;
-&lt;/blockquote&gt;
-
-&lt;p&gt;Jeg fikk raskt svar tilbake fra direktøren Høie:&lt;/p&gt;
-
-&lt;blockquote&gt;
-&lt;p&gt;«Tydeliggjøringen i personvernpolicy gjelder alle våre nettsteder.&lt;/p&gt;
-
-&lt;p&gt;Vi kommer til å ta en runde og gå over vår policy i forbindelse med
-dette, og vil i de tilfeller det er påkrevd selvsagt være tydelig
-overfor brukere og tilsyn. Vil samtidig understreke at vår bruk av
-tredjeparts analyseverktøy og annonsetracking er helt på linje med det
-som er normalt for norske kommersielle nettsteder.&lt;/p&gt;
-
-&lt;p&gt;Angående spørsmålet ditt: 
-&lt;br&gt;Du vil fortsatt vises i våre interne systemer om du blir Ekstra-bruker,
-vi skrur bare av tredjeparts tracking.»&lt;/p&gt;
-&lt;/blockquote&gt;
-
-&lt;p&gt;Det høres jo ikke bra ut at det er normalt for norske kommersielle
-nettsteder å utlevere lesernes personopplysninger til utlandet.  Men
-som en kan lese fra &lt;a href=&quot;https://www.nrk.no/norge/kommunen-deler-informasjon-om-deg-med-facebook-og-google-1.13248945&quot;&gt;gårdagens oppslag fra NRK&lt;/a&gt; gjelder
-det også norske kommuner og andre offentlige aktører, og
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/Snurpenot_overv_kning_av_sensitiv_personinformasjon.html&quot;&gt;jeg
-skrev om omfanget av problemet i fjor&lt;/a&gt;.  Det er uansett ikke en
-praksis jeg tror er i tråd med kravene i personopplysningsloven, og
-heller ikke en praksis jeg som leser synes er greit.  Jeg manglet dog
-fortsatt svar på om Digi.no kom til å varsle lesere og Datatilsynet om
-avviket mellom praksis og policy, så jeg forsøkte meg med en ny epost
-i går kveld:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;«Kan du fortelle meg om dere anser det å være påkrevd å varsle
-tilsyn og brukere nå, når dere har oppdaget at praksis ikke har vært i
-tråd med personvernpolicy?»&lt;/p&gt;
-       
-&lt;/blockquote&gt;
-
-&lt;p&gt;Det spørsmålet vet jeg så langt ikke svaret på, men antagelig kan
-Datatilsynet svare på om det er påkrevd å varsle tilsyn og lesere om
-dette.  Jeg planlegger å oppdatere denne bloggposten med svaret når
-det kommer.&lt;/p&gt;
-
-&lt;p&gt;Jeg synes jo det er spesielt ille når barn får sine
-personopplysninger spredt til utlandet, noe jeg
-&lt;a href=&quot;https://www.mimesbronn.no/request/opplysninger_samlet_inn_av_mobil&quot;&gt;tok
-opp med NRK i fjor&lt;/a&gt;.  De to eksemplene jeg nevner er som dere
-forstår ikke unike, men jeg har ikke full oversikt over hvor mange
-nettsteder dette gjelder.  Jeg har ikke kapasitet til eller glede av å
-lese alle personvernpolicyer i landet.  Kanskje mine lesere kan sende
-meg tips på epost om andre nettsteder med avvik mellom policy og
-praksis?  Hvis vi alle går sammen og kontakter de ansvarlige, kanskje
-noen til slutt endrer praksis og slutter å dele lesernes
-personopplysninger med tredjeparter?&lt;/p&gt;
-
-&lt;p&gt;Apropos bruken av Google Analytics kan jeg forresten nevne at
-Universitetet i Oslo også har tatt i bruk Google Analytics, men der
-lagres programkoden som overføres til nettleserne lokalt og deler av
-IP-adressen fjernes lokalt på universitetet via en mellomtjener/proxy
-(&lt;a href=&quot;https://github.com/unioslo/ipproxy&quot;&gt;tilgjengelig via
-github&lt;/a&gt;) før informasjon sendes over til Google Analytics.  Dermed
-er det mulig for ansvarlige for nettstedet å &lt;em&gt;vite&lt;/em&gt; at Google
-ikke har tilgang til komplett IP-adresse.  Årsaken til at denne
-metoden brukes er at juristene ved universitetet har konkludert med at
-det er eneste måten en kunne vurdere å bruke Google Analytics uten å
-bryte loven.  Risikoen for gjenidentifisering og
-&lt;a href=&quot;https://panopticlick.eff.org/&quot;&gt;identifisering ved hjelp av
-nettleserinformasjon&lt;/a&gt; er fortsatt tilstede, så det er ingen optimal
-løsning, men det er bedre enn å håpe at f.eks. Google og alle som
-lytter på veien skal prioritere norsk lov over sin lokale
-lovgivning.&lt;/p&gt;
-
-&lt;p&gt;Oppdatering 2016-12-09: Fikk svar fra direktøren Høie på mitt
-spørsmål litt etter at jeg hadde publisert denne artikkelen:&lt;/p&gt;
-
-&lt;blockquote&gt;
-
-&lt;p&gt;Vi kommer til å annonsere en oppdatert policy, og skal undersøke om
-vi er pliktig å varsle Datatilsynet.&lt;/p&gt;
-
-&lt;p&gt;Det vi uansett ønsker å gjøre først, er å gå gjennom hele policy
-sammen med utviklerne og advokat, så vi er sikre på at vi går frem
-riktig og at det ikke er flere tvetydigheter som skjuler seg i
-teksten.&lt;/p&gt;
+               <title>Unlimited randomness with the ChaosKey?</title>
+               <link>http://people.skolelinux.org/pere/blog/Unlimited_randomness_with_the_ChaosKey_.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Unlimited_randomness_with_the_ChaosKey_.html</guid>
+                <pubDate>Wed, 1 Mar 2017 20:50:00 +0100</pubDate>
+               <description>&lt;p&gt;A few days ago I ordered a small batch of
+&lt;a href=&quot;http://altusmetrum.org/ChaosKey/&quot;&gt;the ChaosKey&lt;/a&gt;, a small
+USB dongle for generating entropy created by Bdale Garbee and Keith
+Packard.  Yesterday it arrived, and I am very happy to report that it
+work great!  According to its designers, to get it to work out of the
+box, you need the Linux kernel version 4.1 or later.  I tested on a
+Debian Stretch machine (kernel version 4.9), and there it worked just
+fine, increasing the available entropy very quickly.  I wrote a small
+test oneliner to test.  It first print the current entropy level,
+drain /dev/random, and then print the entropy level for five seconds.
+Here is the situation without the ChaosKey inserted:&lt;/p&gt;
+
+&lt;blockquote&gt;&lt;pre&gt;
+% cat /proc/sys/kernel/random/entropy_avail; \
+  dd bs=1M if=/dev/random of=/dev/null count=1; \
+  for n in $(seq 1 5); do \
+     cat /proc/sys/kernel/random/entropy_avail; \
+     sleep 1; \
+  done
+300
+0+1 oppføringer inn
+0+1 oppføringer ut
+28 byte kopiert, 0,000264565 s, 106 kB/s
+4
+8
+12
+17
+21
+%
+&lt;/pre&gt;&lt;/blockquote&gt;
+
+&lt;p&gt;The entropy level increases by 3-4 every second.  In such case any
+application requiring random bits (like a HTTPS enabled web server)
+will halt and wait for more entrpy.  And here is the situation with
+the ChaosKey inserted:&lt;/p&gt;
+
+&lt;blockquote&gt;&lt;pre&gt;
+% cat /proc/sys/kernel/random/entropy_avail; \
+  dd bs=1M if=/dev/random of=/dev/null count=1; \
+  for n in $(seq 1 5); do \
+     cat /proc/sys/kernel/random/entropy_avail; \
+     sleep 1; \
+  done
+1079
+0+1 oppføringer inn
+0+1 oppføringer ut
+104 byte kopiert, 0,000487647 s, 213 kB/s
+433
+1028
+1031
+1035
+1038
+%
+&lt;/pre&gt;&lt;/blockquote&gt;
 
-&lt;p&gt;Har du andre idéer eller konkrete innspill til hva som kan gjøre
-policy tydeligere, tar vi gjerne imot det. Dette er et felt vi ønsker
-å være ryddige på.&lt;/p&gt;
-       
-&lt;/blockquote&gt;
+&lt;p&gt;Quite the difference. :) I bought a few more than I need, in case
+someone want to buy one here in Norway. :)&lt;/p&gt;
 
-&lt;p&gt;Vi får se om de liker mine innspill, som i grunnen er å ikke pusse
-på personvernpolicyen men i stedet slutte å spre lesernes
-personopplysninger til eksterne aktører.&lt;/p&gt;
+&lt;p&gt;Update: The dongle was presented at Debconf last year.  You might
+find &lt;a href=&quot;https://debconf16.debconf.org/talks/94/&quot;&gt;the talk
+recording illuminating&lt;/a&gt;.  It explains exactly what the source of
+randomness is, if you are unable to spot it from the schema drawing
+available from the ChaosKey web site linked at the start of this blog
+post.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Fri programvare-tilbakeblikk for 2015 og 2016</title>
-               <link>http://people.skolelinux.org/pere/blog/Fri_programvare_tilbakeblikk_for_2015_og_2016.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Fri_programvare_tilbakeblikk_for_2015_og_2016.html</guid>
-                <pubDate>Thu, 1 Dec 2016 15:30:00 +0100</pubDate>
-               <description>&lt;p&gt;Jeg er mer en gjennomsnittlig interessert i fri programvare og fri
-kultur, og nå når et nytt år nærmer seg slutten tenkte jeg det var på
-tide med et lite tilbakeblikk på årene som var.  Jeg har vært
-involvert i flere prosjekter og løsninger, og her er en liten
-gjennomgang av de jeg kom på i farten.&lt;/p&gt;
-
-&lt;p&gt;Den største nyheten for meg fra 2015 var at jeg endelig, etter 2.5
-år med flekkvis innsats, fikk gitt ut en bokmålsutgave av den
-klassiske boken &lt;a href=&quot;http://free-culture.cc/&quot;&gt;Free Culture&lt;/a&gt; av
-Lawrence Lessig.  Boken forteller om bakgrunnen for fri
-kultur-bevegelsen, beskriver problemer med dagens opphavsrett og
-skisserer hvordan vi kan bøte på problemene både individuelt og som
-samfunn.  Jeg anbefaler alle å lese denne boken, som jeg med god hjelp
-har gitt ut på engelsk, bokmål og fransk.  Papirboken kan bestilles i
-nettbokhandler i USA som Lulu
-(&lt;a href=&quot;http://www.lulu.com/shop/lawrence-lessig/fri-kultur/paperback/product-22406445.html&quot;&gt;Norsk&lt;/a&gt;,
-&lt;a href=&quot;http://www.lulu.com/shop/lawrence-lessig/culture-libre/paperback/product-22645082.html&quot;&gt;Fransk&lt;/a&gt;,
-&lt;a href=&quot;http://www.lulu.com/shop/lawrence-lessig/free-culture/paperback/product-22402863.html&quot;&gt;Engelsk&lt;/a&gt;),
-Amazon og Barnes &amp; Noble takket være selvpubliseringsløsningen
-lulu.com og
-&lt;a href=&quot;https://github.com/petterreinholdtsen/free-culture-lessig&quot;&gt;ebokutgave&lt;/a&gt;
-samt alt som trengs for å oppdatere boken er tilgjengelig fra
-github.&lt;/p&gt;
-
-&lt;p&gt;Et annet prosjekt jeg er veldig fornøyd med å ha deltatt i
-lanseringen av, er &lt;a href=&quot;https://www.mimesbronn.no/&quot;&gt;Mimes
-brønn&lt;/a&gt;, NUUG-tjenesten for å gjøre det enklere å be om innsyn i
-offentlig forvaltning, og spare offentlig forvaltning for å måtte
-besvare de samme innsynshenvendelsene gang på gang.  Etter bare noen
-måneders drift førte
-&lt;a href=&quot;https://www.mimesbronn.no/request/forhandlinger_om_bv&quot;&gt;en
-henvendelse via tjenesten&lt;/a&gt; til
-&lt;a href=&quot;https://www.stortinget.no/no/Saker-og-publikasjoner/Sporsmal/Skriftlige-sporsmal-og-svar/Skriftlig-sporsmal/?qid=65047&quot;&gt;spørsmål
-fra Stortinget til regjeringen&lt;/a&gt;.  I dette og andre tilfeller har
-NUUG finansiert utvidet klagesak for henvendelser som vi som står bak
-tjenesten synes fortjener ekstra oppmerksomhet.  Så langt har en liten
-håndfull slike klagesaker blitt sendt til Sivilombudsmannen, der vi
-fikk medhold i en saken (om .bv omtalt over) og avslag i en annen
-(oppsummering fra møte i Pentagon om Internet-styring og nasjonal
-sikkerhet).&lt;/p&gt;
-
-&lt;p&gt;Etter at jeg i lengre tid har manglet GPG-nøkkel registrert i
-Debian (den opprinnelige ble fjernet på grunn av for kort
-nøkkellengde) fikk jeg endelig fikset ny nøkkel og Debiantilgang i
-slutten av 2015.  Aktiviteten i Debian har ikke vært spesielt
-skadelidende mens jeg manglet nøkkel (kjenner flere som er villig til
-å laste opp på mine vegne), men da nøkkelen var på plass steg
-motivasjonen og jeg har blant anne brukt tiden på å bidra til at
-pakker relatert til lyd- og videokodekene fra
-&lt;a href=&quot;http://www.xiph.org&quot;&gt;Xiph.org-stiftelsen&lt;/a&gt; (dvs. Ogg,
-Vorbis, Theora, Opus, etc) er i bedre stand i Debian, og har bidratt
-til å få liv i gruppen som vedlikeholder Xiph-relaterte slik at dette
-forhåpentligvis skal fungere bedre også i fremtiden.  Jeg har jobbet
-litt mer systemene Isenkram og appstream, som gjør det enklere å
-håndtere ulike dongler i Debian ved at systemet selv vet og foreslår
-hvilke pakker som bør installeres for å få dongler til å fungere.  Har
-også fått inn eller hjulpet til å få inn endel nye programpakker,
-spesielt fornøyd med
-&lt;a href=&quot;https://tracker.debian.org/pkg/sonic-pi&quot;&gt;Sonic Pi&lt;/A&gt;,
-&lt;a href=&quot;https://tracker.debian.org/pkg/openalpr&quot;&gt;OpenALPR&lt;/A&gt; og 
-&lt;a href=&quot;https://tracker.debian.org/pkg/coz-profiler&quot;&gt;Coz&lt;/A&gt;.
-
-
-&lt;p&gt;Et Debian-relatert prosjekt jeg følger er
-&lt;a href=&quot;https://www.freedombox.org/&quot;&gt;FreedomBox&lt;/a&gt;, som tar sikte på
-å tilby en løsning (både programvare og maskinvare) der hvem som helst
-kan beholde sin private informasjon hjemme hos seg selv i stedet for å
-dele den med skytjenesteleverandører som Google, Facebook, Twitter,
-Appear.in med flere.  I tillegg til generell deltagelse i utvikling av
-prosjektet har jeg jobbet med å få alle Debian-pakkene som brukes av
-Freedombox &quot;reproduserbare&quot; i Debian, dvs. gjøre det mulig å sjekke at
-pakken som brukes i Freedombox ikke inneholder annet enn det som
-kommer fra kildekodepakken i Debian og gir et forutsigbart resultat
-ved bygging.  Har også fulgt opp endel feilrapporter relatert til
-Freedombox-spesifikke pakker (som Plinth og freedombox-setup) og
-pakker som utgjør tjenestene i en Freedombox.&lt;/p&gt;
-
-&lt;p&gt;I samarbeid med Skolelinuxprosjektet og foreningen NUUG har jeg
-vært med å arrangere flere utviklersamlinger både i 2015 og 2016.  Der
-har oversettere og utviklere blitt lært opp og arbeidet med blant
-annet dokumentasjon, feilfiksing og utvikling av Skolelinux og
-Frikanalen.  Relatert til dette arbeidet har jeg koordinert norsk
-oversettelse av &lt;a href=&quot;http://debian-handbook.info/&quot;&gt;Håndbok for
-Debian-administratorer&lt;/a&gt; til bokmål, og flyttet
-&lt;a href=&quot;https://hosted.weblate.org/projects/debian-edu-documentation/&quot;&gt;oversetterarbeidet
-av Skolelinux-håndboken&lt;/a&gt; fra Transifex til Weblate.  Begge bøkene
-er snart klare for første gangs korrekturlesing og vi drømmer om å
-gjøre dem tilgjengelig på papir.&lt;/p&gt;
-
-&lt;p&gt;Gjennom hele perioden har jeg holdt et lite øye med NUUG-prosjektet
-FiksGataMi, som stort sett går av seg selv uten manuelt vedlikehold,
-men av og til er det problemer med enkelte mottakere (eposter i
-retur).  NUUG-drift oppgraderte tjenesten i løpet av 2016, og jeg
-bisto Marius Halden litt i forbindelse med dette.  Tjenesten får
-stadig flere brukere, og flere kommuner har tatt kontakt for å lære
-mer om hvordan FiksGataMi fungerer.
-
-&lt;p&gt;Den åpne TV-kanalen
-&lt;a href=&quot;http://www.frikanalen.no/&quot;&gt;Frikanalen&lt;/a&gt; har fått en god del
-av min oppmerksomhet.  Den var i starten av 2015 tilgjengelig på
-RiksTV kanal 50, web.  Kanalen har fått et REST-basert API, og dette
-har jeg tatt i bruk for å fylle sendeplanen med NUUG-, TED- og
-Debian-foredrag samt andre tekniske presentasjoner.  Har lastet opp
-mye nytt der og strømlinjeformet prosessen slik at både nye TED- og
-NUUG-foredrag går veldig greit.  På høsten tok jeg en titt på
-multikast-spredning av kanalen til Uninett, og dette er nå kommet på
-plass, slik at alle TV-er som bruker Uninetts TV-løsning nå kan se på
-Frikanalen.  Det jobbes for tiden med å få distribusjon på Altibox, og
-dette håper vi skal være klart i starten av 2017.&lt;/p&gt;
-
-&lt;p&gt;Relatert til Frikanalen har jeg i lengre tid
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/tags/h264/&quot;&gt;forsøkt å
-få klarhet i hva som er juridisk status for H.264 i Norge&lt;/a&gt;.  Det er
-fortsatt uklart for meg om Frikanalen må betale for retten til å
-kringkaste eller ikke, og om vi risikerer å bryte opphavsrettsvilkår
-ved å kringkaste på web med H.264.  Har spurt ulike aktører for å
-forsøke å finne ut hvordan de har vurdert situasjonen, uten å bli
-klok.&lt;/p&gt;
-
-&lt;p&gt;Et prosjekt som var morsomt å se ta form var Ole Aamots
-&lt;a href=&quot;https://www.youtube.com/watch?v=8ftM5fdKgZk&quot;&gt;dokumentarprosjekt
-om fri programvare i Norge&lt;/a&gt;.  Han fikk intervjuet en god del av de
-mest aktive folkene i Norge, og resultatet ble interessant og
-severdig.  Et nærmere prosjekt er NUUGs samarbeide med Oslo
-dokumentarfilmfestival om visningen av Citizenfour, der NUUG tok opp
-samtalen i forbindelse med visningen og publiserte opptaket på
-Frikanalen.  Jeg er veldig fornøyd med å ha lyktes med å få dette på
-plass, selv om jeg ikke rakk å være med på visningen selv.  Et annet
-NUUG-foredrag jeg er spesielt fornøyd med å ha fått på plass er
-besøket fra Bradley Kuhn fra Software Freedom Conservancy.  Det tok
-mange måneder å organisere i samarbeid med BLUG, men til slutt klarte
-vi å finne et tidspunkt som passet alle, slik at han kunne besøke Oslo
-og Bergen.  Opptaket fra dette er også publisert på Frikanalen.
-Generelt har jeg veldig fornøyd med at Frikanalen nå i praksis er
-Tekno-TV med interessante faktaprogram og presentasjoner nesten hele
-døgnet, hele uka.&lt;/p&gt;
-
-&lt;p&gt;Vi har i lengre tid forsøkt å få opp et Mesh-nett i Oslo, under
-navnet dugnadsnett.no, uten at vi så langt har klart å nå kritisk
-masse.  Tanken er å gjøre det mulig å kommunisere direkte mellom
-likeverdige parter uten sentrale knutepunkt som enkelt kan avlyttes.
-Prosjektet er ikke dødt, men interessen blant oss som er med har ikke
-vært stor nok til å kunne prioritere dette over alt annet.&lt;/p&gt;
-
-&lt;p&gt;En ting som har tatt prioritet for min del er NUUG og EFNs forsøk
-på å få domstolvurdering av om det er greit for politiet å overta et
-DNS-domene uten domstolvurdering.  Bakgrunnen er at Økokrim tok beslag
-i popcorn-time.no i mars 2016, med påstand om at nettstedet bidro til
-opphavsrettsbrudd ved å omtale fri programvareløsningen Popcorn Time
-og lenke til nettsteder der det var lenker til nettsteder der en kunne
-laste ned Popcorn Time.  For det første mener vi at domstolene bør
-involveres før DNS-domener tas fra sine eiere, og for det andre mener
-vi begrunnelsen er så søkt at domenet ikke burde beslaglegges i første
-omgang.  NUUG og EFN forsøkte først å protestere på egne vegne men ble
-avvist av domstolene med at vi ikke hadde rettslig interesse.  Mens
-dette pågikk lyktes vi å få kontakt med registrar og regnskapsfører
-som fikk ble raidet av seks stykker fra Økokrim, og i gjeldende runde
-er det registrar og regnskapsfører som protesterer med støtte fra NUUG
-og EFN.  Advokattimene renner ut og vi håper vi holder ut til saken
-har fått prøvd saken.&lt;/p&gt;
-
-&lt;p&gt;Et annet prosjekt, relatert til fri kultur og åndsverksvern, som
-jeg har brukt endel tid på er å maskinelt kunne identifisere verk som
-er falt i det fri i Norge.  Jeg ønsker å vite hvor mange kunstuttrykk
-som blir røvet fra fellesskapet hver gang vernetiden i åndsverksloven
-blir utvidet, f.eks. nå sist når vernetiden for musikk ble utvidet med
-20 år fra 50 til 70 år med tilbakevirkende kraft, som om de som laget
-musikk for 60 år siden skulle bli mer motivert til å lage musikk av
-utvidet vernetid.  Har sett på å kombinere informasjon fra
-Nasjonalbiblioteket, Deichmanske bibliotek, Wikipedia, Store Norske
-Leksikon og WorldCat, og gleder meg til Nasjonalbibliotekets initiativ
-for autorativ database over verk tar form.&lt;/p&gt;
-
-&lt;p&gt;Dårlig konkurranse på drivstoffmarkedet har irritert meg en stund,
-og jeg laget for flere år siden en skraper som samlet inn prisdata fra
-ulike kilder.  Jeg ble derfor veldig glad da en økonomistudent tok
-kontakt i starten av 2015 og lurte på om jeg kunne bidra med data til
-hans masteroppgave om konkurransevilkårene i drivstoffmarkedet.  Jeg
-bidro med glede, og resultatet er &lt;a
-href=&quot;https://brage.bibsys.no/xmlui//browse?value=Jakobsen%2C+Tor+%C3%98yvind&amp;type=author&quot;&gt;publisert
-i fulltekst som &quot;Hemmeligheten bak bensinprisen : en empirisk analyse
-av pumpeprisens drivkrefter&quot; på BIBSYS Brage&lt;/a&gt;.&lt;/p&gt;
-
-&lt;p&gt;I tilegg til det jeg har gjort her har jeg rapportert og fikset en
-rekke små og store feil i fri programvare, og hjulpet
-Debian-bidragsytere og upstream-utviklerne med å forbedre forskjellig
-fri programvare og få det inn i Debian.&lt;/p&gt;
-
-&lt;p&gt;Mye av det jeg har fått gjort rundt fri programvare og fri kultur
-har vært mulig takket være at jeg får dekket 20% av arbeidstiden min
-på Universitetet i Oslo fra
-&lt;a href=&quot;http://www.nuugfoundation.no/&quot;&gt;NUUG Foundation&lt;/a&gt; for å jobbe
-med og koordinere fri programvareaktiviteter.  Jeg er svært takknemlig
-til dem og min arbeidsgiver USIT for at jeg har fått muligheten.  Uten
-dette hadde jeg ikke rukket over like mye etter hvert som ungene ble
-større.&lt;/p&gt;
+               <title>Detect OOXML files with undefined behaviour?</title>
+               <link>http://people.skolelinux.org/pere/blog/Detect_OOXML_files_with_undefined_behaviour_.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Detect_OOXML_files_with_undefined_behaviour_.html</guid>
+                <pubDate>Tue, 21 Feb 2017 00:20:00 +0100</pubDate>
+               <description>&lt;p&gt;I just noticed
+&lt;a href=&quot;http://www.arkivrad.no/aktuelt/riksarkivarens-forskrift-pa-horing&quot;&gt;the
+new Norwegian proposal for archiving rules in the goverment&lt;/a&gt; list
+&lt;a href=&quot;http://www.ecma-international.org/publications/standards/Ecma-376.htm&quot;&gt;ECMA-376&lt;/a&gt;
+/ ISO/IEC 29500 (aka OOXML) as valid formats to put in long term
+storage.  Luckily such files will only be accepted based on
+pre-approval from the National Archive.  Allowing OOXML files to be
+used for long term storage might seem like a good idea as long as we
+forget that there are plenty of ways for a &quot;valid&quot; OOXML document to
+have content with no defined interpretation in the standard, which
+lead to a question and an idea.&lt;/p&gt;
+
+&lt;p&gt;Is there any tool to detect if a OOXML document depend on such
+undefined behaviour?  It would be useful for the National Archive (and
+anyone else interested in verifying that a document is well defined)
+to have such tool available when considering to approve the use of
+OOXML.  I&#39;m aware of the
+&lt;a href=&quot;https://github.com/arlm/officeotron/&quot;&gt;officeotron OOXML
+validator&lt;/a&gt;, but do not know how complete it is nor if it will
+report use of undefined behaviour.  Are there other similar tools
+available?  Please send me an email if you know of any such tool.&lt;/p&gt;
 </description>
        </item>