]> pere.pagekite.me Git - homepage.git/blobdiff - blog/index.rss
Explain IMDB.
[homepage.git] / blog / index.rss
index d9f699704d28a264136a133bf99b4c1cde6f9b6f..58708d527b95c4dbf014806fb5663edd89ea56fe 100644 (file)
                 <atom:link href="http://people.skolelinux.org/pere/blog/index.rss" rel="self" type="application/rss+xml" />
        
        <item>
-               <title>Norwegian Bokmål translation of The Debian Administrator&#39;s Handbook complete, proofreading in progress</title>
-               <link>http://people.skolelinux.org/pere/blog/Norwegian_Bokm_l_translation_of_The_Debian_Administrator_s_Handbook_complete__proofreading_in_progress.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Norwegian_Bokm_l_translation_of_The_Debian_Administrator_s_Handbook_complete__proofreading_in_progress.html</guid>
-                <pubDate>Fri, 3 Mar 2017 14:50:00 +0100</pubDate>
-               <description>&lt;p&gt;For almost a year now, we have been working on making a Norwegian
-Bokmål edition of &lt;a href=&quot;https://debian-handbook.info/&quot;&gt;The Debian
-Administrator&#39;s Handbook&lt;/a&gt;.  Now, thanks to the tireless effort of
-Ole-Erik, Ingrid and Andreas, the initial translation is complete, and
-we are working on the proof reading to ensure consistent language and
-use of correct computer science terms.  The plan is to make the book
-available on paper, as well as in electronic form.  For that to
-happen, the proof reading must be completed and all the figures need
-to be translated.  If you want to help out, get in touch.&lt;/p&gt;
-
-&lt;p&gt;&lt;a href=&quot;http://people.skolelinux.org/pere/debian-handbook/debian-handbook-nb-NO.pdf&quot;&gt;A
-
-fresh PDF edition&lt;/a&gt; in A4 format (the final book will have smaller
-pages) of the book created every morning is available for
-proofreading.  If you find any errors, please
-&lt;a href=&quot;https://hosted.weblate.org/translate/debian-handbook/&quot;&gt;visit
-Weblate and correct the error&lt;/a&gt;.  The
-&lt;a href=&quot;http://l.github.io/debian-handbook/stat/nb-NO/index.html&quot;&gt;state
-of the translation including figures&lt;/a&gt; is a useful source for those
-provide Norwegian bokmål screen shots and figures.&lt;/p&gt;
+               <title>Legal to share more than 11,000 movies listed on IMDB?</title>
+               <link>http://people.skolelinux.org/pere/blog/Legal_to_share_more_than_11_000_movies_listed_on_IMDB_.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Legal_to_share_more_than_11_000_movies_listed_on_IMDB_.html</guid>
+                <pubDate>Sun, 7 Jan 2018 23:30:00 +0100</pubDate>
+               <description>&lt;p&gt;I&#39;ve continued to track down list of movies that are legal to
+distribute on the Internet, and identified more than 11,000 title IDs
+in The Internet Movie Database so far.  Most of them (57%) are feature
+films from USA published before 1923.  I&#39;ve also tracked down more
+than 24,000 movies I have not yet been able to map to IMDB title ID,
+so the real number could be a lot higher.  According to the front web
+page for &lt;a href=&quot;https://retrofilmvault.com/&quot;&gt;Retro Film Vault&lt;/A&gt;,
+there are 44,000 public domain films, so I guess there are still some
+left to identify.&lt;/p&gt;
+
+&lt;p&gt;The complete data set is available from
+&lt;a href=&quot;https://github.com/petterreinholdtsen/public-domain-free-imdb&quot;&gt;a
+public git repository&lt;/a&gt;, including the scripts used to create it.
+Most of the data is collected using web scraping, for example from the
+&quot;product catalog&quot; of companies selling copies of public domain movies,
+but any source I find believable is used.  I&#39;ve so far had to throw
+out three sources because I did not trust the public domain status of
+the movies listed.&lt;/p&gt;
+
+&lt;p&gt;Anyway, this is the summary of the 28 collected data sources so
+far:&lt;/p&gt;
+
+&lt;p&gt;&lt;pre&gt;
+ 2352 entries (   66 unique) with and 15983 without IMDB title ID in free-movies-archive-org-search.json
+ 2302 entries (  120 unique) with and     0 without IMDB title ID in free-movies-archive-org-wikidata.json
+  195 entries (   63 unique) with and   200 without IMDB title ID in free-movies-cinemovies.json
+   89 entries (   52 unique) with and    38 without IMDB title ID in free-movies-creative-commons.json
+  344 entries (   28 unique) with and   655 without IMDB title ID in free-movies-fesfilm.json
+  668 entries (  209 unique) with and  1064 without IMDB title ID in free-movies-filmchest-com.json
+  830 entries (   21 unique) with and     0 without IMDB title ID in free-movies-icheckmovies-archive-mochard.json
+   19 entries (   19 unique) with and     0 without IMDB title ID in free-movies-imdb-c-expired-gb.json
+ 6822 entries ( 6669 unique) with and     0 without IMDB title ID in free-movies-imdb-c-expired-us.json
+  137 entries (    0 unique) with and     0 without IMDB title ID in free-movies-imdb-externlist.json
+ 1205 entries (   57 unique) with and     0 without IMDB title ID in free-movies-imdb-pd.json
+   84 entries (   20 unique) with and   167 without IMDB title ID in free-movies-infodigi-pd.json
+  158 entries (  135 unique) with and     0 without IMDB title ID in free-movies-letterboxd-looney-tunes.json
+  113 entries (    4 unique) with and     0 without IMDB title ID in free-movies-letterboxd-pd.json
+  182 entries (  100 unique) with and     0 without IMDB title ID in free-movies-letterboxd-silent.json
+  229 entries (   87 unique) with and     1 without IMDB title ID in free-movies-manual.json
+   44 entries (    2 unique) with and    64 without IMDB title ID in free-movies-openflix.json
+  291 entries (   33 unique) with and   474 without IMDB title ID in free-movies-profilms-pd.json
+  211 entries (    7 unique) with and     0 without IMDB title ID in free-movies-publicdomainmovies-info.json
+ 1232 entries (   57 unique) with and  1875 without IMDB title ID in free-movies-publicdomainmovies-net.json
+   46 entries (   13 unique) with and    81 without IMDB title ID in free-movies-publicdomainreview.json
+  698 entries (   64 unique) with and   118 without IMDB title ID in free-movies-publicdomaintorrents.json
+ 1758 entries (  882 unique) with and  3786 without IMDB title ID in free-movies-retrofilmvault.json
+   16 entries (    0 unique) with and     0 without IMDB title ID in free-movies-thehillproductions.json
+   63 entries (   16 unique) with and   141 without IMDB title ID in free-movies-vodo.json
+11583 unique IMDB title IDs in total, 8724 only in one list, 24647 without IMDB title ID
+&lt;/pre&gt;&lt;/p&gt;
+
+&lt;p&gt; I keep finding more data sources.  I found the cinemovies source
+just a few days ago, and as you can see from the summary, it extended
+my list with 63 movies.  Check out the mklist-* scripts in the git
+repository if you are curious how the lists are created.  Many of the
+titles are extracted using searches on IMDB, where I look for the
+title and year, and accept search results with only one movie listed
+if the year matches.  This allow me to automatically use many lists of
+movies without IMDB title ID references at the cost of increasing the
+risk of wrongly identify a IMDB title ID as public domain.  So far my
+random manual checks have indicated that the method is solid, but I
+really wish all lists of public domain movies would include unique
+movie identifier like the IMDB title ID.  It would make the job of
+counting movies in the public domain a lot easier.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Unlimited randomness with the ChaosKey?</title>
-               <link>http://people.skolelinux.org/pere/blog/Unlimited_randomness_with_the_ChaosKey_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Unlimited_randomness_with_the_ChaosKey_.html</guid>
-                <pubDate>Wed, 1 Mar 2017 20:50:00 +0100</pubDate>
-               <description>&lt;p&gt;A few days ago I ordered a small batch of
-&lt;a href=&quot;http://altusmetrum.org/ChaosKey/&quot;&gt;the ChaosKey&lt;/a&gt;, a small
-USB dongle for generating entropy created by Bdale Garbee and Keith
-Packard.  Yesterday it arrived, and I am very happy to report that it
-work great!  According to its designers, to get it to work out of the
-box, you need the Linux kernel version 4.1 or later.  I tested on a
-Debian Stretch machine (kernel version 4.9), and there it worked just
-fine, increasing the available entropy very quickly.  I wrote a small
-test oneliner to test.  It first print the current entropy level,
-drain /dev/random, and then print the entropy level for five seconds.
-Here is the situation without the ChaosKey inserted:&lt;/p&gt;
-
-&lt;blockquote&gt;&lt;pre&gt;
-% cat /proc/sys/kernel/random/entropy_avail; \
-  dd bs=1M if=/dev/random of=/dev/null count=1; \
-  for n in $(seq 1 5); do \
-     cat /proc/sys/kernel/random/entropy_avail; \
-     sleep 1; \
-  done
-300
-0+1 oppføringer inn
-0+1 oppføringer ut
-28 byte kopiert, 0,000264565 s, 106 kB/s
-4
-8
-12
-17
-21
-%
-&lt;/pre&gt;&lt;/blockquote&gt;
-
-&lt;p&gt;The entropy level increases by 3-4 every second.  In such case any
-application requiring random bits (like a HTTPS enabled web server)
-will halt and wait for more entrpy.  And here is the situation with
-the ChaosKey inserted:&lt;/p&gt;
-
-&lt;blockquote&gt;&lt;pre&gt;
-% cat /proc/sys/kernel/random/entropy_avail; \
-  dd bs=1M if=/dev/random of=/dev/null count=1; \
-  for n in $(seq 1 5); do \
-     cat /proc/sys/kernel/random/entropy_avail; \
-     sleep 1; \
-  done
-1079
-0+1 oppføringer inn
-0+1 oppføringer ut
-104 byte kopiert, 0,000487647 s, 213 kB/s
-433
-1028
-1031
-1035
-1038
-%
-&lt;/pre&gt;&lt;/blockquote&gt;
-
-&lt;p&gt;Quite the difference. :) I bought a few more than I need, in case
-someone want to buy one here in Norway. :)&lt;/p&gt;
-
-&lt;p&gt;Update: The dongle was presented at Debconf last year.  You might
-find &lt;a href=&quot;https://debconf16.debconf.org/talks/94/&quot;&gt;the talk
-recording illuminating&lt;/a&gt;.  It explains exactly what the source of
-randomness is, if you are unable to spot it from the schema drawing
-available from the ChaosKey web site linked at the start of this blog
-post.&lt;/p&gt;
+               <title>Kommentarer til «Evaluation of (il)legality» for Popcorn Time</title>
+               <link>http://people.skolelinux.org/pere/blog/Kommentarer_til__Evaluation_of__il_legality__for_Popcorn_Time.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Kommentarer_til__Evaluation_of__il_legality__for_Popcorn_Time.html</guid>
+                <pubDate>Wed, 20 Dec 2017 11:40:00 +0100</pubDate>
+               <description>&lt;p&gt;I går var jeg i Follo tingrett som sakkyndig vitne og presenterte
+  mine undersøkelser rundt
+  &lt;a href=&quot;https://github.com/petterreinholdtsen/public-domain-free-imdb&quot;&gt;telling
+    av filmverk i det fri&lt;/a&gt;, relatert til
+  &lt;a href=&quot;https://www.nuug.no/&quot;&gt;foreningen NUUG&lt;/a&gt;s involvering i
+  &lt;a href=&quot;https://www.nuug.no/news/tags/dns-domenebeslag/&quot;&gt;saken om
+  Økokrims beslag og senere inndragning av DNS-domenet
+  popcorn-time.no&lt;/a&gt;.  Jeg snakket om flere ting, men mest om min
+  vurdering av hvordan filmbransjen har målt hvor ulovlig Popcorn Time
+  er.  Filmbransjens måling er så vidt jeg kan se videreformidlet uten
+  endringer av norsk politi, og domstolene har lagt målingen til grunn
+  når de har vurdert Popcorn Time både i Norge og i utlandet (tallet
+  99% er referert også i utenlandske domsavgjørelser).&lt;/p&gt;
+
+&lt;p&gt;I forkant av mitt vitnemål skrev jeg et notat, mest til meg selv,
+  med de punktene jeg ønsket å få frem.  Her er en kopi av notatet jeg
+  skrev og ga til aktoratet.  Merkelig nok ville ikke dommerene ha
+  notatet, så hvis jeg forsto rettsprosessen riktig ble kun
+  histogram-grafen lagt inn i dokumentasjonen i saken.  Dommerne var
+  visst bare interessert i å forholde seg til det jeg sa i retten,
+  ikke det jeg hadde skrevet i forkant.  Uansett så antar jeg at flere
+  enn meg kan ha glede av teksten, og publiserer den derfor her.
+  Legger ved avskrift av dokument 09,13, som er det sentrale
+  dokumentet jeg kommenterer.&lt;/p&gt;
+
+&lt;p&gt;&lt;strong&gt;Kommentarer til «Evaluation of (il)legality» for Popcorn
+  Time&lt;/strong&gt;&lt;/p&gt;
+
+&lt;p&gt;&lt;strong&gt;Oppsummering&lt;/strong&gt;&lt;/p&gt;           
+
+&lt;p&gt;Målemetoden som Økokrim har lagt til grunn når de påstår at 99% av
+  filmene tilgjengelig fra Popcorn Time deles ulovlig har
+  svakheter.&lt;/p&gt;
+
+&lt;p&gt;De eller den som har vurdert hvorvidt filmer kan lovlig deles har
+  ikke lyktes med å identifisere filmer som kan deles lovlig og har
+  tilsynelatende antatt at kun veldig gamle filmer kan deles lovlig.
+  Økokrim legger til grunn at det bare finnes èn film, Charlie
+  Chaplin-filmen «The Circus» fra 1928, som kan deles fritt blant de
+  som ble observert tilgjengelig via ulike Popcorn Time-varianter.
+  Jeg finner tre flere blant de observerte filmene: «The Brain That
+  Wouldn&#39;t Die» fra 1962, «God’s Little Acre» fra 1958 og «She Wore a
+  Yellow Ribbon» fra 1949.  Det er godt mulig det finnes flere.  Det
+  finnes dermed minst fire ganger så mange filmer som lovlig kan deles
+  på Internett i datasettet Økokrim har lagt til grunn når det påstås
+  at mindre enn 1 % kan deles lovlig.&lt;/p&gt;
+
+&lt;p&gt;Dernest, utplukket som gjøres ved søk på tilfeldige ord hentet fra
+  ordlisten til Dale-Chall avviker fra årsfordelingen til de brukte
+  filmkatalogene som helhet, hvilket påvirker fordelingen mellom
+  filmer som kan lovlig deles og filmer som ikke kan lovlig deles.  I
+  tillegg gir valg av øvre del (de fem første) av søkeresultatene et
+  avvik fra riktig årsfordeling, hvilket påvirker fordelingen av verk
+  i det fri i søkeresultatet.&lt;/p&gt;
+
+&lt;p&gt;Det som måles er ikke (u)lovligheten knyttet til bruken av Popcorn
+  Time, men (u)lovligheten til innholdet i bittorrent-filmkataloger
+  som vedlikeholdes uavhengig av Popcorn Time.&lt;/p&gt;
+
+&lt;p&gt;Omtalte dokumenter: 09,12, &lt;a href=&quot;#dok-09-13&quot;&gt;09,13&lt;/a&gt;, 09,14,
+09,18, 09,19, 09,20.&lt;/p&gt;
+
+&lt;p&gt;&lt;strong&gt;Utfyllende kommentarer&lt;/strong&gt;&lt;/p&gt;
+
+&lt;p&gt;Økokrim har forklart domstolene at minst 99% av alt som er
+  tilgjengelig fra ulike Popcorn Time-varianter deles ulovlig på
+  Internet.  Jeg ble nysgjerrig på hvordan de er kommet frem til dette
+  tallet, og dette notatet er en samling kommentarer rundt målingen
+  Økokrim henviser til.  Litt av bakgrunnen for at jeg valgte å se på
+  saken er at jeg er interessert i å identifisere og telle hvor mange
+  kunstneriske verk som er falt i det fri eller av andre grunner kan
+  lovlig deles på Internett, og dermed var interessert i hvordan en
+  hadde funnet den ene prosenten som kanskje deles lovlig.&lt;/p&gt;
+
+&lt;p&gt;Andelen på 99% kommer fra et ukreditert og udatert notatet som tar
+  mål av seg å dokumentere en metode for å måle hvor (u)lovlig ulike
+  Popcorn Time-varianter er.&lt;/p&gt;
+
+&lt;p&gt;Raskt oppsummert, så forteller metodedokumentet at på grunn av at
+  det ikke er mulig å få tak i komplett liste over alle filmtitler
+  tilgjengelig via Popcorn Time, så lages noe som skal være et
+  representativt utvalg ved å velge 50 søkeord større enn tre tegn fra
+  ordlisten kjent som Dale-Chall.  For hvert søkeord gjøres et søk og
+  de første fem filmene i søkeresultatet samles inn inntil 100 unike
+  filmtitler er funnet.  Hvis 50 søkeord ikke var tilstrekkelig for å
+  nå 100 unike filmtitler ble flere filmer fra hvert søkeresultat lagt
+  til.  Hvis dette heller ikke var tilstrekkelig, så ble det hentet ut
+  og søkt på flere tilfeldig valgte søkeord inntil 100 unike
+  filmtitler var identifisert.&lt;/p&gt;
+
+&lt;p&gt;Deretter ble for hver av filmtitlene «vurdert hvorvidt det var
+  rimelig å forvente om at verket var vernet av copyright, ved å se på
+  om filmen var tilgjengelig i IMDB, samt se på regissør,
+  utgivelsesår, når det var utgitt for bestemte markedsområder samt
+  hvilke produksjons- og distribusjonsselskap som var registrert» (min
+  oversettelse).&lt;/p&gt;
+
+&lt;p&gt;Metoden er gjengitt både i de ukrediterte dokumentene 09,13 og
+  09,19, samt beskrevet fra side 47 i dokument 09,20, lysark datert
+  2017-02-01.  Sistnevnte er kreditert Geerart Bourlon fra Motion
+  Picture Association EMEA.  Metoden virker å ha flere svakheter som
+  gir resultatene en slagside.  Den starter med å slå fast at det ikke
+  er mulig å hente ut en komplett liste over alle filmtitler som er
+  tilgjengelig, og at dette er bakgrunnen for metodevalget.  Denne
+  forutsetningen er ikke i tråd med det som står i dokument 09,12, som
+  ikke heller har oppgitt forfatter og dato.  Dokument 09,12 forteller
+  hvordan hele kataloginnholdet ble lasted ned og talt opp.  Dokument
+  09,12 er muligens samme rapport som ble referert til i dom fra Oslo
+  Tingrett 2017-11-03
+  (&lt;a href=&quot;https://www.domstol.no/no/Enkelt-domstol/Oslo--tingrett/Nyheter/ma-sperre-for-popcorn-time/&quot;&gt;sak
+  17-093347TVI-OTIR/05&lt;/a&gt;) som rapport av 1. juni 2017 av Alexander
+  Kind Petersen, men jeg har ikke sammenlignet dokumentene ord for ord
+  for å kontrollere dette.&lt;/p&gt;
+
+&lt;p&gt;IMDB er en forkortelse for The Internet Movie Database, en
+  anerkjent kommersiell nettjeneste som brukes aktivt av både
+  filmbransjen og andre til å holde rede på hvilke spillefilmer (og
+  endel andre filmer) som finnes eller er under produksjon, og
+  informasjon om disse filmene.  Datakvaliteten er høy, med få feil og
+  få filmer som mangler.  IMDB viser ikke informasjon om
+  opphavsrettslig status for filmene på infosiden for hver film.  Som
+  del av IMDB-tjenesten finnes det lister med filmer laget av
+  frivillige som lister opp det som antas å være verk i det fri.&lt;/p&gt;
+  
+&lt;p&gt;Det finnes flere kilder som kan brukes til å finne filmer som er
+  allemannseie (public domain) eller har bruksvilkår som gjør det
+  lovlig for alleå dele dem på Internett.  Jeg har de siste ukene
+  forsøkt å samle og krysskoble disse listene for å forsøke å telle
+  antall filmer i det fri.  Ved å ta utgangspunkt i slike lister (og
+  publiserte filmer for Internett-arkivets del), har jeg så langt
+  klart å identifisere over 11 000 filmer, hovedsaklig spillefilmer.
+
+&lt;p&gt;De aller fleste oppføringene er hentet fra IMDB selv, basert på det
+  faktum at alle filmer laget i USA før 1923 er falt i det fri.
+  Tilsvarende tidsgrense for Storbritannia er 1912-07-01, men dette
+  utgjør bare veldig liten del av spillefilmene i IMDB (19 totalt).
+  En annen stor andel kommer fra Internett-arkivet, der jeg har
+  identifisert filmer med referanse til IMDB.  Internett-arkivet, som
+  holder til i USA, har som
+  &lt;a href=&quot;https://archive.org/about/terms.php&quot;&gt;policy å kun publisere
+  filmer som det er lovlig å distribuere&lt;/a&gt;.  Jeg har under arbeidet
+  kommet over flere filmer som har blitt fjernet fra
+  Internett-arkivet, hvilket gjør at jeg konkluderer med at folkene
+  som kontrollerer Internett-arkivet har et aktivt forhold til å kun
+  ha lovlig innhold der, selv om det i stor grad er drevet av
+  frivillige.  En annen stor liste med filmer kommer fra det
+  kommersielle selskapet Retro Film Vault, som selger allemannseide
+  filmer til TV- og filmbransjen, Jeg har også benyttet meg av lister
+  over filmer som hevdes å være allemannseie, det være seg Public
+  Domain Review, Public Domain Torrents og Public Domain Movies (.net
+  og .info), samt lister over filmer med Creative Commons-lisensiering
+  fra Wikipedia, VODO og The Hill Productions.  Jeg har gjort endel
+  stikkontroll ved å vurdere filmer som kun omtales på en liste.  Der
+  jeg har funnet feil som har gjort meg i tvil om vurderingen til de
+  som har laget listen har jeg forkastet listen fullstendig (gjelder
+  en liste fra IMDB).&lt;/p&gt;
+  
+&lt;p&gt;Ved å ta utgangspunkt i verk som kan antas å være lovlig delt på
+  Internett (fra blant annet Internett-arkivet, Public Domain
+  Torrents, Public Domain Reivew og Public Domain Movies), og knytte
+  dem til oppføringer i IMDB, så har jeg så langt klart å identifisere
+  over 11 000 filmer (hovedsaklig spillefilmer) det er grunn til å tro
+  kan lovlig distribueres av alle på Internett.  Som ekstra kilder er
+  det brukt lister over filmer som antas/påstås å være allemannseie.
+  Disse kildene kommer fra miljøer som jobber for å gjøre tilgjengelig
+  for almennheten alle verk som er falt i det fri eller har
+  bruksvilkår som tillater deling.
+
+&lt;p&gt;I tillegg til de over 11 000 filmene der tittel-ID i IMDB er
+  identifisert, har jeg funnet mer enn 20 000 oppføringer der jeg ennå
+  ikke har hatt kapasitet til å spore opp tittel-ID i IMDB.  Noen av
+  disse er nok duplikater av de IMDB-oppføringene som er identifisert
+  så langt, men neppe alle.  Retro Film Vault hevder å ha 44 000
+  filmverk i det fri i sin katalog, så det er mulig at det reelle
+  tallet er betydelig høyere enn de jeg har klart å identifisere så
+  langt.  Konklusjonen er at tallet 11 000 er nedre grense for hvor
+  mange filmer i IMDB som kan lovlig deles på Internett.  I følge &lt;a
+  href=&quot;http://www.imdb.com/stats&quot;&gt;statistikk fra IMDB&lt;/a&gt; er det 4.6
+  millioner titler registrert, hvorav 3 millioner er TV-serieepisoder.
+  Jeg har ikke funnet ut hvordan de fordeler seg per år.&lt;/p&gt;
+
+&lt;p&gt;Hvis en fordeler på år alle tittel-IDene i IMDB som hevdes å lovlig
+  kunne deles på Internett, får en følgende histogram:&lt;/p&gt;
+
+&lt;p align=&quot;center&quot;&gt;&lt;img width=&quot;80%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year.png&quot;&gt;&lt;/p&gt;
+
+&lt;p&gt;En kan i histogrammet se at effekten av manglende registrering
+  eller fornying av registrering er at mange filmer gitt ut i USA før
+  1978 er allemannseie i dag.  I tillegg kan en se at det finnes flere
+  filmer gitt ut de siste årene med bruksvilkår som tillater deling,
+  muligens på grunn av fremveksten av
+  &lt;a href=&quot;https://creativecommons.org/&quot;&gt;Creative
+  Commons&lt;/a&gt;-bevegelsen..&lt;/p&gt;
+  
+&lt;p&gt;For maskinell analyse av katalogene har jeg laget et lite program
+  som kobler seg til bittorrent-katalogene som brukes av ulike Popcorn
+  Time-varianter og laster ned komplett liste over filmer i
+  katalogene, noe som bekrefter at det er mulig å hente ned komplett
+  liste med alle filmtitler som er tilgjengelig.  Jeg har sett på fire
+  bittorrent-kataloger.  Den ene brukes av klienten tilgjengelig fra
+  www.popcorntime.sh og er navngitt &#39;sh&#39; i dette dokumentet.  Den
+  andre brukes i følge dokument 09,12 av klienten tilgjengelig fra
+  popcorntime.ag og popcorntime.sh og er navngitt &#39;yts&#39; i dette
+  dokumentet.  Den tredje brukes av websidene tilgjengelig fra
+  popcorntime-online.tv og er navngitt &#39;apidomain&#39; i dette dokumentet.
+  Den fjerde brukes av klienten tilgjenglig fra popcorn-time.to i
+  følge dokument 09,12, og er navngitt &#39;ukrfnlge&#39; i dette
+  dokumentet.&lt;/p&gt;
+
+&lt;p&gt;Metoden Økokrim legger til grunn skriver i sitt punkt fire at
+  skjønn er en egnet metode for å finne ut om en film kan lovlig deles
+  på Internett eller ikke, og sier at det ble «vurdert hvorvidt det
+  var rimelig å forvente om at verket var vernet av copyright».  For
+  det første er det ikke nok å slå fast om en film er «vernet av
+  copyright» for å vite om det er lovlig å dele den på Internett eller
+  ikke, da det finnes flere filmer med opphavsrettslige bruksvilkår
+  som tillater deling på Internett.  Eksempler på dette er Creative
+  Commons-lisensierte filmer som Citizenfour fra 2014 og Sintel fra
+  2010.  I tillegg til slike finnes det flere filmer som nå er
+  allemannseie (public domain) på grunn av manglende registrering
+  eller fornying av registrering selv om både regisør,
+  produksjonsselskap og distributør ønsker seg vern.  Eksempler på
+  dette er Plan 9 from Outer Space fra 1959 og Night of the Living
+  Dead fra 1968.  Alle filmer fra USA som var allemannseie før
+  1989-03-01 forble i det fri da Bern-konvensjonen, som tok effekt i
+  USA på det tidspunktet, ikke ble gitt tilbakevirkende kraft.  Hvis
+  det er noe
+  &lt;a href=&quot;http://www.latimes.com/local/lanow/la-me-ln-happy-birthday-song-lawsuit-decision-20150922-story.html&quot;&gt;historien
+  om sangen «Happy birthday»&lt;/a&gt; forteller oss, der betaling for bruk
+  har vært krevd inn i flere tiår selv om sangen ikke egentlig var
+  vernet av åndsverksloven, så er det at hvert enkelt verk må vurderes
+  nøye og i detalj før en kan slå fast om verket er allemannseie eller
+  ikke, det holder ikke å tro på selverklærte rettighetshavere.  Flere
+  eksempel på verk i det fri som feilklassifiseres som vernet er fra
+  dokument 09,18, som lister opp søkeresultater for klienten omtalt
+  som popcorntime.sh og i følge notatet kun inneholder en film (The
+  Circus fra 1928) som under tvil kan antas å være allemannseie.&lt;/p&gt;
+
+&lt;p&gt;Ved rask gjennomlesning av dokument 09,18, som inneholder
+  skjermbilder fra bruk av en Popcorn Time-variant, fant jeg omtalt
+  både filmen «The Brain That Wouldn&#39;t Die» fra 1962 som er
+  &lt;a href=&quot;https://archive.org/details/brain_that_wouldnt_die&quot;&gt;tilgjengelig
+  fra Internett-arkivet&lt;/a&gt; og som
+  &lt;a href=&quot;https://en.wikipedia.org/wiki/List_of_films_in_the_public_domain_in_the_United_States&quot;&gt;i
+    følge Wikipedia er allemannseie i USA&lt;/a&gt; da den ble gitt ut i
+  1962 uten &#39;copyright&#39;-merking, og filmen «God’s Little Acre» fra
+  1958 &lt;a href=&quot;https://en.wikipedia.org/wiki/God%27s_Little_Acre_%28film%29&quot;&gt;som
+    er lagt ut på Wikipedia&lt;/a&gt;, der det fortelles at
+  sort/hvit-utgaven er allemannseie.  Det fremgår ikke fra dokument
+  09,18 om filmen omtalt der er sort/hvit-utgaven.  Av
+  kapasitetsårsaker og på grunn av at filmoversikten i dokument 09,18
+  ikke er maskinlesbart har jeg ikke forsøkt å sjekke alle filmene som
+  listes opp der om mot liste med filmer som er antatt lovlig kan
+  distribueres på Internet.&lt;/p&gt;
+
+&lt;p&gt;Ved maskinell gjennomgang av listen med IMDB-referanser under
+  regnearkfanen &#39;Unique titles&#39; i dokument 09.14, fant jeg i tillegg
+  filmen «She Wore a Yellow Ribbon» fra 1949) som nok også er
+  feilklassifisert. Filmen «She Wore a Yellow Ribbon» er tilgjengelig
+  fra Internett-arkivet og markert som allemannseie der.  Det virker
+  dermed å være minst fire ganger så mange filmer som kan lovlig deles
+  på Internett enn det som er lagt til grunn når en påstår at minst
+  99% av innholdet er ulovlig.  Jeg ser ikke bort fra at nærmere
+  undersøkelser kan avdekke flere.  Poenget er uansett at metodens
+  punkt om «rimelig å forvente om at verket var vernet av copyright»
+  gjør metoden upålitelig.&lt;/p&gt;
+
+&lt;p&gt;Den omtalte målemetoden velger ut tilfeldige søketermer fra
+  ordlisten Dale-Chall.  Den ordlisten inneholder 3000 enkle engelske
+  som fjerdeklassinger i USA er forventet å forstå.  Det fremgår ikke
+  hvorfor akkurat denne ordlisten er valgt, og det er uklart for meg
+  om den er egnet til å få et representativt utvalg av filmer.  Mange
+  av ordene gir tomt søkeresultat.  Ved å simulerte tilsvarende søk
+  ser jeg store avvik fra fordelingen i katalogen for enkeltmålinger.
+  Dette antyder at enkeltmålinger av 100 filmer slik målemetoden
+  beskriver er gjort, ikke er velegnet til å finne andel ulovlig
+  innhold i bittorrent-katalogene.&lt;/p&gt;
+
+&lt;p&gt;En kan motvirke dette store avviket for enkeltmålinger ved å gjøre
+  mange søk og slå sammen resultatet.  Jeg har testet ved å
+  gjennomføre 100 enkeltmålinger (dvs. måling av (100x100=) 10 000
+  tilfeldig valgte filmer) som gir mindre, men fortsatt betydelig
+  avvik, i forhold til telling av filmer pr år i hele katalogen.&lt;/p&gt;
+  
+&lt;p&gt;Målemetoden henter ut de fem øverste i søkeresultatet.
+  Søkeresultatene er sortert på antall bittorrent-klienter registrert
+  som delere i katalogene, hvilket kan gi en slagside mot hvilke
+  filmer som er populære blant de som bruker bittorrent-katalogene,
+  uten at det forteller noe om hvilket innhold som er tilgjengelig
+  eller hvilket innhold som deles med Popcorn Time-klienter.  Jeg har
+  forsøkt å måle hvor stor en slik slagside eventuelt er ved å
+  sammenligne fordelingen hvis en tar de 5 nederste i søkeresultatet i
+  stedet.  Avviket for disse to metodene for endel kataloger er godt
+  synlig på histogramet.  Her er histogram over filmer funnet i den
+  komplette katalogen (grønn strek), og filmer funnet ved søk etter
+  ord i Dale-Chall.  Grafer merket &#39;top&#39; henter fra de 5 første i
+  søkeresultatet, mens de merket &#39;bottom&#39; henter fra de 5 siste.  En
+  kan her se at resultatene påvirkes betydelig av hvorvidt en ser på
+  de første eller de siste filmene i et søketreff.&lt;/p&gt;
+
+&lt;p align=&quot;center&quot;&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-sh-top.png&quot;/&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-sh-bottom.png&quot;/&gt;
+  &lt;br&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-yts-top.png&quot;/&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-yts-bottom.png&quot;/&gt;
+  &lt;br&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-ukrfnlge-top.png&quot;/&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-ukrfnlge-bottom.png&quot;/&gt;
+  &lt;br&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-apidomain-top.png&quot;/&gt;
+  &lt;img width=&quot;40%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-12-20-histogram-year-apidomain-bottom.png&quot;/&gt;
+&lt;/p&gt;
+  
+&lt;p&gt;Det er verdt å bemerke at de omtalte bittorrent-katalogene ikke er
+  laget for bruk med Popcorn Time.  Eksempelvis tilhører katalogen
+  YTS, som brukes av klientet som ble lastes ned fra popcorntime.sh,
+  et selvstendig fildelings-relatert nettsted YTS.AG med et separat
+  brukermiljø.  Målemetoden foreslått av Økokrim måler dermed ikke
+  (u)lovligheten rundt bruken av Popcorn Time, men (u)lovligheten til
+  innholdet i disse katalogene.&lt;/p&gt;
+
+&lt;hr&gt;
+
+&lt;p id=&quot;dok-09-13&quot;&gt;Metoden fra Økokrims dokument 09,13 i straffesaken
+om DNS-beslag.&lt;/p&gt;
+
+&lt;p&gt;&lt;strong&gt;1. Evaluation of (il)legality&lt;/strong&gt;&lt;/p&gt;
+
+&lt;p&gt;&lt;strong&gt;1.1. Methodology&lt;/strong&gt;
+     
+&lt;p&gt;Due to its technical configuration, Popcorn Time applications don&#39;t
+allow to make a full list of all titles made available. In order to
+evaluate the level of illegal operation of PCT, the following
+methodology was applied:&lt;/p&gt;
+
+&lt;ol&gt;
+
+ &lt;li&gt;A random selection of 50 keywords, greater than 3 letters, was
+    made from the Dale-Chall list that contains 3000 simple English
+    words1. The selection was made by using a Random Number
+    Generator2.&lt;/li&gt;
+         
+ &lt;li&gt;For each keyword, starting with the first randomly selected
+    keyword, a search query was conducted in the movie section of the
+    respective Popcorn Time application. For each keyword, the first
+    five results were added to the title list until the number of 100
+    unique titles was reached (duplicates were removed).&lt;/li&gt;
+         
+ &lt;li&gt;For one fork, .CH, insufficient titles were generated via this
+    approach to reach 100 titles. This was solved by adding any
+    additional query results above five for each of the 50 keywords.
+    Since this still was not enough, another 42 random keywords were
+    selected to finally reach 100 titles.&lt;/li&gt;
+         
+ &lt;li&gt;It was verified whether or not there is a reasonable expectation
+    that the work is copyrighted by checking if they are available on
+    IMDb, also verifying the director, the year when the title was
+    released, the release date for a certain market, the production
+    company/ies of the title and the distribution company/ies.&lt;/li&gt;
+
+&lt;/ol&gt;
+
+&lt;p&gt;&lt;strong&gt;1.2. Results&lt;/strong&gt;&lt;/p&gt;
+     
+&lt;p&gt;Between 6 and 9 June 2016, four forks of Popcorn Time were
+investigated: popcorn-time.to, popcorntime.ag, popcorntime.sh and
+popcorntime.ch. An excel sheet with the results is included in
+Appendix 1. Screenshots were secured in separate Appendixes for each
+respective fork, see Appendix 2-5.&lt;/p&gt;
+
+&lt;p&gt;For each fork, out of 100, de-duplicated titles it was possible to
+retrieve data according to the parameters set out above that indicate
+that the title is commercially available. Per fork, there was 1 title
+that presumably falls within the public domain, i.e. the 1928 movie
+&quot;The Circus&quot; by and with Charles Chaplin.&lt;/p&gt;
+
+&lt;p&gt;Based on the above it is reasonable to assume that 99% of the movie
+content of each fork is copyright protected and is made available
+illegally.&lt;/p&gt;
+
+&lt;p&gt;This exercise was not repeated for TV series, but considering that
+besides production companies and distribution companies also
+broadcasters may have relevant rights, it is reasonable to assume that
+at least a similar level of infringement will be established.&lt;/p&gt;
+
+&lt;p&gt;Based on the above it is reasonable to assume that 99% of all the
+content of each fork is copyright protected and are made available
+illegally.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Detect OOXML files with undefined behaviour?</title>
-               <link>http://people.skolelinux.org/pere/blog/Detect_OOXML_files_with_undefined_behaviour_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Detect_OOXML_files_with_undefined_behaviour_.html</guid>
-                <pubDate>Tue, 21 Feb 2017 00:20:00 +0100</pubDate>
-               <description>&lt;p&gt;I just noticed
-&lt;a href=&quot;http://www.arkivrad.no/aktuelt/riksarkivarens-forskrift-pa-horing&quot;&gt;the
-new Norwegian proposal for archiving rules in the goverment&lt;/a&gt; list
-&lt;a href=&quot;http://www.ecma-international.org/publications/standards/Ecma-376.htm&quot;&gt;ECMA-376&lt;/a&gt;
-/ ISO/IEC 29500 (aka OOXML) as valid formats to put in long term
-storage.  Luckily such files will only be accepted based on
-pre-approval from the National Archive.  Allowing OOXML files to be
-used for long term storage might seem like a good idea as long as we
-forget that there are plenty of ways for a &quot;valid&quot; OOXML document to
-have content with no defined interpretation in the standard, which
-lead to a question and an idea.&lt;/p&gt;
-
-&lt;p&gt;Is there any tool to detect if a OOXML document depend on such
-undefined behaviour?  It would be useful for the National Archive (and
-anyone else interested in verifying that a document is well defined)
-to have such tool available when considering to approve the use of
-OOXML.  I&#39;m aware of the
-&lt;a href=&quot;https://github.com/arlm/officeotron/&quot;&gt;officeotron OOXML
-validator&lt;/a&gt;, but do not know how complete it is nor if it will
-report use of undefined behaviour.  Are there other similar tools
-available?  Please send me an email if you know of any such tool.&lt;/p&gt;
+               <title>Cura, the nice 3D print slicer, is now in Debian Unstable</title>
+               <link>http://people.skolelinux.org/pere/blog/Cura__the_nice_3D_print_slicer__is_now_in_Debian_Unstable.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Cura__the_nice_3D_print_slicer__is_now_in_Debian_Unstable.html</guid>
+                <pubDate>Sun, 17 Dec 2017 07:00:00 +0100</pubDate>
+               <description>&lt;p&gt;After several months of working and waiting, I am happy to report
+that the nice and user friendly 3D printer slicer software Cura just
+entered Debian Unstable.  It consist of five packages,
+&lt;a href=&quot;https://tracker.debian.org/pkg/cura&quot;&gt;cura&lt;/a&gt;,
+&lt;a href=&quot;https://tracker.debian.org/pkg/cura-engine&quot;&gt;cura-engine&lt;/a&gt;,
+&lt;a href=&quot;https://tracker.debian.org/pkg/libarcus&quot;&gt;libarcus&lt;/a&gt;,
+&lt;a href=&quot;https://tracker.debian.org/pkg/fdm-materials&quot;&gt;fdm-materials&lt;/a&gt;,
+&lt;a href=&quot;https://tracker.debian.org/pkg/libsavitar&quot;&gt;libsavitar&lt;/a&gt; and
+&lt;a href=&quot;https://tracker.debian.org/pkg/uranium&quot;&gt;uranium&lt;/a&gt;.  The last
+two, uranium and cura, entered Unstable yesterday.  This should make
+it easier for Debian users to print on at least the Ultimaker class of
+3D printers.  My nearest 3D printer is an Ultimaker 2+, so it will
+make life easier for at least me. :)&lt;/p&gt;
+
+&lt;p&gt;The work to make this happen was done by Gregor Riepl, and I was
+happy to assist him in sponsoring the packages.  With the introduction
+of Cura, Debian is up to three 3D printer slicers at your service,
+Cura, Slic3r and Slic3r Prusa.  If you own or have access to a 3D
+printer, give it a go. :)&lt;/p&gt;
+
+&lt;p&gt;The 3D printer software is maintained by the 3D printer Debian
+team, flocking together on the
+&lt;a href=&quot;http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/3dprinter-general&quot;&gt;3dprinter-general&lt;/a&gt;
+mailing list and the
+&lt;a href=&quot;irc://irc.debian.org/#debian-3dprinting&quot;&gt;#debian-3dprinting&lt;/a&gt;
+IRC channel.&lt;/p&gt;
+
+&lt;p&gt;The next step for Cura in Debian is to update the cura package to
+version 3.0.3 and then update the entire set of packages to version
+3.1.0 which showed up the last few days.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Ruling ignored our objections to the seizure of popcorn-time.no (#domstolkontroll)</title>
-               <link>http://people.skolelinux.org/pere/blog/Ruling_ignored_our_objections_to_the_seizure_of_popcorn_time_no___domstolkontroll_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Ruling_ignored_our_objections_to_the_seizure_of_popcorn_time_no___domstolkontroll_.html</guid>
-                <pubDate>Mon, 13 Feb 2017 21:30:00 +0100</pubDate>
-               <description>&lt;p&gt;A few days ago, we received the ruling from
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/A_day_in_court_challenging_seizure_of_popcorn_time_no_for__domstolkontroll.html&quot;&gt;my
-day in court&lt;/a&gt;.  The case in question is a challenge of the seizure
-of the DNS domain popcorn-time.no.  The ruling simply did not mention
-most of our arguments, and seemed to take everything ØKOKRIM said at
-face value, ignoring our demonstration and explanations.  But it is
-hard to tell for sure, as we still have not seen most of the documents
-in the case and thus were unprepared and unable to contradict several
-of the claims made in court by the opposition.  We are considering an
-appeal, but it is partly a question of funding, as it is costing us
-quite a bit to pay for our lawyer.  If you want to help, please
-&lt;a href=&quot;http://www.nuug.no/dns-beslag-donasjon.shtml&quot;&gt;donate to the
-NUUG defense fund&lt;/a&gt;.&lt;/p&gt;
-
-&lt;p&gt;The details of the case, as far as we know it, is available in
-Norwegian from
-&lt;a href=&quot;https://www.nuug.no/news/tags/dns-domenebeslag/&quot;&gt;the NUUG
-blog&lt;/a&gt;.  This also include
-&lt;a href=&quot;https://www.nuug.no/news/Avslag_etter_rettslig_h_ring_om_DNS_beslaget___vurderer_veien_videre.shtml&quot;&gt;the
-ruling itself&lt;/a&gt;.&lt;/p&gt;
+               <title>Idea for finding all public domain movies in the USA</title>
+               <link>http://people.skolelinux.org/pere/blog/Idea_for_finding_all_public_domain_movies_in_the_USA.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Idea_for_finding_all_public_domain_movies_in_the_USA.html</guid>
+                <pubDate>Wed, 13 Dec 2017 10:15:00 +0100</pubDate>
+               <description>&lt;p&gt;While looking at
+&lt;a href=&quot;http://onlinebooks.library.upenn.edu/cce/&quot;&gt;the scanned copies
+for the copyright renewal entries for movies published in the USA&lt;/a&gt;,
+an idea occurred to me.  The number of renewals are so few per year, it
+should be fairly quick to transcribe them all and add references to
+the corresponding IMDB title ID.  This would give the (presumably)
+complete list of movies published 28 years earlier that did _not_
+enter the public domain for the transcribed year.  By fetching the
+list of USA movies published 28 years earlier and subtract the movies
+with renewals, we should be left with movies registered in IMDB that
+are now in the public domain.  For the year 1955 (which is the one I
+have looked at the most), the total number of pages to transcribe is
+21.  For the 28 years from 1950 to 1978, it should be in the range
+500-600 pages.  It is just a few days of work, and spread among a
+small group of people it should be doable in a few weeks of spare
+time.&lt;/p&gt;
+
+&lt;p&gt;A typical copyright renewal entry look like this (the first one
+listed for 1955):&lt;/p&gt;
+
+&lt;p&gt;&lt;blockquote&gt;
+  ADAM AND EVIL, a photoplay in seven reels by Metro-Goldwyn-Mayer
+  Distribution Corp. (c) 17Aug27; L24293. Loew&#39;s Incorporated (PWH);
+  10Jun55; R151558.
+&lt;/blockquote&gt;&lt;/p&gt;
+
+&lt;p&gt;The movie title as well as registration and renewal dates are easy
+enough to locate by a program (split on first comma and look for
+DDmmmYY).  The rest of the text is not required to find the movie in
+IMDB, but is useful to confirm the correct movie is found.  I am not
+quite sure what the L and R numbers mean, but suspect they are
+reference numbers into the archive of the US Copyright Office.&lt;/p&gt;
+
+&lt;p&gt;Tracking down the equivalent IMDB title ID is probably going to be
+a manual task, but given the year it is fairly easy to search for the
+movie title using for example
+&lt;a href=&quot;http://www.imdb.com/find?q=adam+and+evil+1927&amp;s=all&quot;&gt;http://www.imdb.com/find?q=adam+and+evil+1927&amp;s=all&lt;/a&gt;.
+Using this search, I find that the equivalent IMDB title ID for the
+first renewal entry from 1955 is
+&lt;a href=&quot;http://www.imdb.com/title/tt0017588/&quot;&gt;http://www.imdb.com/title/tt0017588/&lt;/a&gt;.&lt;/p&gt;
+
+&lt;p&gt;I suspect the best way to do this would be to make a specialised
+web service to make it easy for contributors to transcribe and track
+down IMDB title IDs.  In the web service, once a entry is transcribed,
+the title and year could be extracted from the text, a search in IMDB
+conducted for the user to pick the equivalent IMDB title ID right
+away.  By spreading out the work among volunteers, it would also be
+possible to make at least two persons transcribe the same entries to
+be able to discover any typos introduced.  But I will need help to
+make this happen, as I lack the spare time to do all of this on my
+own.  If you would like to help, please get in touch.  Perhaps you can
+draft a web service for crowd sourcing the task?&lt;/p&gt;
+
+&lt;p&gt;Note, Project Gutenberg already have some
+&lt;a href=&quot;http://www.gutenberg.org/ebooks/search/?query=copyright+office+renewals&quot;&gt;transcribed
+copies of the US Copyright Office renewal protocols&lt;/a&gt;, but I have
+not been able to find any film renewals there, so I suspect they only
+have copies of renewal for written works.  I have not been able to find
+any transcribed versions of movie renewals so far.  Perhaps they exist
+somewhere?&lt;/p&gt;
+
+&lt;p&gt;I would love to figure out methods for finding all the public
+domain works in other countries too, but it is a lot harder.  At least
+for Norway and Great Britain, such work involve tracking down the
+people involved in making the movie and figuring out when they died.
+It is hard enough to figure out who was part of making a movie, but I
+do not know how to automate such procedure without a registry of every
+person involved in making movies and their death year.&lt;/p&gt;
+
+&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
+activities, please send Bitcoin donations to my address
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>A day in court challenging seizure of popcorn-time.no for #domstolkontroll</title>
-               <link>http://people.skolelinux.org/pere/blog/A_day_in_court_challenging_seizure_of_popcorn_time_no_for__domstolkontroll.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/A_day_in_court_challenging_seizure_of_popcorn_time_no_for__domstolkontroll.html</guid>
-                <pubDate>Fri, 3 Feb 2017 11:10:00 +0100</pubDate>
-               <description>&lt;p align=&quot;center&quot;&gt;&lt;img width=&quot;70%&quot; src=&quot;http://people.skolelinux.org/pere/blog/images/2017-02-01-popcorn-time-in-court.jpeg&quot;&gt;&lt;/p&gt;
-
-&lt;p&gt;On Wednesday, I spent the entire day in court in Follo Tingrett
-representing &lt;a href=&quot;https://www.nuug.no/&quot;&gt;the member association
-NUUG&lt;/a&gt;, alongside &lt;a href=&quot;https://www.efn.no/&quot;&gt;the member
-association EFN&lt;/a&gt; and &lt;a href=&quot;http://www.imc.no&quot;&gt;the DNS registrar
-IMC&lt;/a&gt;, challenging the seizure of the DNS name popcorn-time.no.  It
-was interesting to sit in a court of law for the first time in my
-life.  Our team can be seen in the picture above: attorney Ola
-Tellesbø, EFN board member Tom Fredrik Blenning, IMC CEO Morten Emil
-Eriksen and NUUG board member Petter Reinholdtsen.&lt;/p&gt;
-
-&lt;p&gt;&lt;a href=&quot;http://www.domstol.no/no/Enkelt-domstol/follo-tingrett/Nar-gar-rettssaken/Beramming/?cid=AAAA1701301512081262234UJFBVEZZZZZEJBAvtale&quot;&gt;The
-case at hand&lt;/a&gt; is that the Norwegian National Authority for
-Investigation and Prosecution of Economic and Environmental Crime (aka
-Økokrim) decided on their own, to seize a DNS domain early last
-year, without following
-&lt;a href=&quot;https://www.norid.no/no/regelverk/navnepolitikk/#link12&quot;&gt;the
-official policy of the Norwegian DNS authority&lt;/a&gt; which require a
-court decision.  The web site in question was a site covering Popcorn
-Time.  And Popcorn Time is the name of a technology with both legal
-and illegal applications.  Popcorn Time is a client combining
-searching a Bittorrent directory available on the Internet with
-downloading/distribute content via Bittorrent and playing the
-downloaded content on screen.  It can be used illegally if it is used
-to distribute content against the will of the right holder, but it can
-also be used legally to play a lot of content, for example the
-millions of movies
-&lt;a href=&quot;https://archive.org/details/movies&quot;&gt;available from the
-Internet Archive&lt;/a&gt; or the collection
-&lt;a href=&quot;http://vodo.net/films/&quot;&gt;available from Vodo&lt;/a&gt;.  We created
-&lt;a href=&quot;magnet:?xt=urn:btih:86c1802af5a667ca56d3918aecb7d3c0f7173084&amp;dn=PresentasjonFolloTingrett.mov&amp;tr=udp%3A%2F%2Fpublic.popcorn-tracker.org%3A6969%2Fannounce&quot;&gt;a
-video demonstrating legally use of Popcorn Time&lt;/a&gt; and played it in
-Court.  It can of course be downloaded using Bittorrent.&lt;/p&gt;
-
-&lt;p&gt;I did not quite know what to expect from a day in court.  The
-government held on to their version of the story and we held on to
-ours, and I hope the judge is able to make sense of it all.  We will
-know in two weeks time.  Unfortunately I do not have high hopes, as
-the Government have the upper hand here with more knowledge about the
-case, better training in handling criminal law and in general higher
-standing in the courts than fairly unknown DNS registrar and member
-associations.  It is expensive to be right also in Norway.  So far the
-case have cost more than NOK 70 000,-.  To help fund the case, NUUG
-and EFN have asked for donations, and managed to collect around NOK 25
-000,- so far.  Given the presentation from the Government, I expect
-the government to appeal if the case go our way.  And if the case do
-not go our way, I hope we have enough funding to appeal.&lt;/p&gt;
-
-&lt;p&gt;From the other side came two people from Økokrim.  On the benches,
-appearing to be part of the group from the government were two people
-from the Simonsen Vogt Wiik lawyer office, and three others I am not
-quite sure who was.  Økokrim had proposed to present two witnesses
-from The Motion Picture Association, but this was rejected because
-they did not speak Norwegian and it was a bit late to bring in a
-translator, but perhaps the two from MPA were present anyway.  All
-seven appeared to know each other.  Good to see the case is take
-seriously.&lt;/p&gt;
-
-&lt;p&gt;If you, like me, believe the courts should be involved before a DNS
-domain is hijacked by the government, or you believe the Popcorn Time
-technology have a lot of useful and legal applications, I suggest you
-too &lt;a href=&quot;http://www.nuug.no/dns-beslag-donasjon.shtml&quot;&gt;donate to
-the NUUG defense fund&lt;/a&gt;.  Both Bitcoin and bank transfer are
-available. If NUUG get more than we need for the legal action (very
-unlikely), the rest will be spend promoting free software, open
-standards and unix-like operating systems in Norway, so no matter what
-happens the money will be put to good use.&lt;/p&gt;
-
-&lt;p&gt;If you want to lean more about the case, I recommend you check out
-&lt;a href=&quot;https://www.nuug.no/news/tags/dns-domenebeslag/&quot;&gt;the blog
-posts from NUUG covering the case&lt;/a&gt;.  They cover the legal arguments
-on both sides.&lt;/p&gt;
+               <title>Is the short movie «Empty Socks» from 1927 in the public domain or not?</title>
+               <link>http://people.skolelinux.org/pere/blog/Is_the_short_movie__Empty_Socks__from_1927_in_the_public_domain_or_not_.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Is_the_short_movie__Empty_Socks__from_1927_in_the_public_domain_or_not_.html</guid>
+                <pubDate>Tue, 5 Dec 2017 12:30:00 +0100</pubDate>
+               <description>&lt;p&gt;Three years ago, a presumed lost animation film,
+&lt;a href=&quot;https://en.wikipedia.org/wiki/Empty_Socks&quot;&gt;Empty Socks from
+1927&lt;/a&gt;, was discovered in the Norwegian National Library.  At the
+time it was discovered, it was generally assumed to be copyrighted by
+The Walt Disney Company, and I blogged about
+&lt;a href=&quot;http://people.skolelinux.org/pere/blog/Opphavsretts_status_for__Empty_Socks__fra_1927_.html&quot;&gt;my
+reasoning to conclude&lt;/a&gt; that it would would enter the Norwegian
+equivalent of the public domain in 2053, based on my understanding of
+Norwegian Copyright Law.  But a few days ago, I came across
+&lt;a href=&quot;http://www.toonzone.net/forums/threads/exposed-disneys-repurchase-of-oswald-the-rabbit-a-sham.4792291/&quot;&gt;a
+blog post claiming the movie was already in the public domain&lt;/a&gt;, at
+least in USA.  The reasoning is as follows: The film was released in
+November or Desember 1927 (sources disagree), and presumably
+registered its copyright that year.  At that time, right holders of
+movies registered by the copyright office received government
+protection for there work for 28 years.  After 28 years, the copyright
+had to be renewed if the wanted the government to protect it further.
+The blog post I found claim such renewal did not happen for this
+movie, and thus it entered the public domain in 1956.  Yet someone
+claim the copyright was renewed and the movie is still copyright
+protected.  Can anyone help me to figure out which claim is correct?
+I have not been able to find Empty Socks in Catalog of copyright
+entries.  Ser.3 pt.12-13 v.9-12 1955-1958 Motion Pictures
+&lt;a href=&quot;http://onlinebooks.library.upenn.edu/cce/1955r.html#film&quot;&gt;available
+from the University of Pennsylvania&lt;/a&gt;, neither in
+&lt;a href=&quot;https://babel.hathitrust.org/cgi/pt?id=mdp.39015084451130;page=root;view=image;size=100;seq=83;num=45&quot;&gt;page
+45 for the first half of 1955&lt;/a&gt;, nor in
+&lt;a href=&quot;https://babel.hathitrust.org/cgi/pt?id=mdp.39015084451130;page=root;view=image;size=100;seq=175;num=119&quot;&gt;page
+119 for the second half of 1955&lt;/a&gt;.  It is of course possible that
+the renewal entry was left out of the printed catalog by mistake.  Is
+there some way to rule out this possibility?  Please help, and update
+the wikipedia page with your findings.
+
+&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
+activities, please send Bitcoin donations to my address
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Nasjonalbiblioteket avslutter sin ulovlige bruk av Google Skjemaer</title>
-               <link>http://people.skolelinux.org/pere/blog/Nasjonalbiblioteket_avslutter_sin_ulovlige_bruk_av_Google_Skjemaer.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Nasjonalbiblioteket_avslutter_sin_ulovlige_bruk_av_Google_Skjemaer.html</guid>
-                <pubDate>Thu, 12 Jan 2017 09:40:00 +0100</pubDate>
-               <description>&lt;p&gt;I dag fikk jeg en skikkelig gladmelding.  Bakgrunnen er at før jul
-arrangerte Nasjonalbiblioteket
-&lt;a href=&quot;http://www.nb.no/Bibliotekutvikling/Kunnskapsorganisering/Nasjonalt-verksregister/Seminar-om-verksregister&quot;&gt;et
-seminar om sitt knakende gode tiltak «verksregister»&lt;/a&gt;.  Eneste
-måten å melde seg på dette seminaret var å sende personopplysninger
-til Google via Google Skjemaer.  Dette syntes jeg var tvilsom praksis,
-da det bør være mulig å delta på seminarer arrangert av det offentlige
-uten å måtte dele sine interesser, posisjon og andre
-personopplysninger med Google.  Jeg ba derfor om innsyn via
-&lt;a href=&quot;https://www.mimesbronn.no/&quot;&gt;Mimes brønn&lt;/a&gt; i
-&lt;a href=&quot;https://www.mimesbronn.no/request/personopplysninger_til_google_sk&quot;&gt;avtaler
-og vurderinger Nasjonalbiblioteket hadde rundt dette&lt;/a&gt;.
-Personopplysningsloven legger klare rammer for hva som må være på
-plass før en kan be tredjeparter, spesielt i utlandet, behandle
-personopplysninger på sine vegne, så det burde eksistere grundig
-dokumentasjon før noe slikt kan bli lovlig.  To jurister hos
-Nasjonalbiblioteket mente først dette var helt i orden, og at Googles
-standardavtale kunne brukes som databehandlingsavtale.  Det syntes jeg
-var merkelig, men har ikke hatt kapasitet til å følge opp saken før
-for to dager siden.&lt;/p&gt;
-
-&lt;p&gt;Gladnyheten i dag, som kom etter at jeg tipset Nasjonalbiblioteket
-om at Datatilsynet underkjente Googles standardavtaler som
-databehandleravtaler i 2011, er at Nasjonalbiblioteket har bestemt seg
-for å avslutte bruken av Googles Skjemaer/Apps og gå i dialog med DIFI
-for å finne bedre måter å håndtere påmeldinger i tråd med
-personopplysningsloven.  Det er fantastisk å se at av og til hjelper
-det å spørre hva i alle dager det offentlige holder på med.&lt;/p&gt;
+               <title>Metadata proposal for movies on the Internet Archive</title>
+               <link>http://people.skolelinux.org/pere/blog/Metadata_proposal_for_movies_on_the_Internet_Archive.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Metadata_proposal_for_movies_on_the_Internet_Archive.html</guid>
+                <pubDate>Tue, 28 Nov 2017 12:00:00 +0100</pubDate>
+               <description>&lt;p&gt;It would be easier to locate the movie you want to watch in
+&lt;a href=&quot;https://www.archive.org/&quot;&gt;the Internet Archive&lt;/a&gt;, if the
+metadata about each movie was more complete and accurate.  In the
+archiving community, a well known saying state that good metadata is a
+love letter to the future.  The metadata in the Internet Archive could
+use a face lift for the future to love us back.  Here is a proposal
+for a small improvement that would make the metadata more useful
+today.  I&#39;ve been unable to find any document describing the various
+standard fields available when uploading videos to the archive, so
+this proposal is based on my best quess and searching through several
+of the existing movies.&lt;/p&gt;
+
+&lt;p&gt;I have a few use cases in mind.  First of all, I would like to be
+able to count the number of distinct movies in the Internet Archive,
+without duplicates.  I would further like to identify the IMDB title
+ID of the movies in the Internet Archive, to be able to look up a IMDB
+title ID and know if I can fetch the video from there and share it
+with my friends.&lt;/p&gt;
+
+&lt;p&gt;Second, I would like the Butter data provider for The Internet
+archive
+(&lt;a href=&quot;https://github.com/butterproviders/butter-provider-archive&quot;&gt;available
+from github&lt;/a&gt;), to list as many of the good movies as possible.  The
+plugin currently do a search in the archive with the following
+parameters:&lt;/p&gt;
+
+&lt;p&gt;&lt;pre&gt;
+collection:moviesandfilms
+AND NOT collection:movie_trailers
+AND -mediatype:collection
+AND format:&quot;Archive BitTorrent&quot;
+AND year
+&lt;/pre&gt;&lt;/p&gt;
+
+&lt;p&gt;Most of the cool movies that fail to show up in Butter do so
+because the &#39;year&#39; field is missing.  The &#39;year&#39; field is populated by
+the year part from the &#39;date&#39; field, and should be when the movie was
+released (date or year).  Two such examples are
+&lt;a href=&quot;https://archive.org/details/SidneyOlcottsBen-hur1905&quot;&gt;Ben Hur
+from 1905&lt;/a&gt; and
+&lt;a href=&quot;https://archive.org/details/Caminandes2GranDillama&quot;&gt;Caminandes
+2: Gran Dillama from 2013&lt;/a&gt;, where the year metadata field is
+missing.&lt;/p&gt;
+
+So, my proposal is simply, for every movie in The Internet Archive
+where an IMDB title ID exist, please fill in these metadata fields
+(note, they can be updated also long after the video was uploaded, but
+as far as I can tell, only by the uploader):
+
+&lt;dl&gt;
+
+&lt;dt&gt;mediatype&lt;/dt&gt;
+&lt;dd&gt;Should be &#39;movie&#39; for movies.&lt;/dd&gt;
+
+&lt;dt&gt;collection&lt;/dt&gt;
+&lt;dd&gt;Should contain &#39;moviesandfilms&#39;.&lt;/dd&gt;
+
+&lt;dt&gt;title&lt;/dt&gt;
+&lt;dd&gt;The title of the movie, without the publication year.&lt;/dd&gt;
+
+&lt;dt&gt;date&lt;/dt&gt;
+&lt;dd&gt;The data or year the movie was released.  This make the movie show
+up in Butter, as well as make it possible to know the age of the
+movie and is useful to figure out copyright status.&lt;/dd&gt;
+
+&lt;dt&gt;director&lt;/dt&gt;
+&lt;dd&gt;The director of the movie.  This make it easier to know if the
+correct movie is found in movie databases.&lt;/dd&gt;
+
+&lt;dt&gt;publisher&lt;/dt&gt;
+&lt;dd&gt;The production company making the movie.  Also useful for
+identifying the correct movie.&lt;/dd&gt;
+
+&lt;dt&gt;links&lt;/dt&gt;
+
+&lt;dd&gt;Add a link to the IMDB title page, for example like this: &amp;lt;a
+href=&quot;http://www.imdb.com/title/tt0028496/&quot;&amp;gt;Movie in
+IMDB&amp;lt;/a&amp;gt;.  This make it easier to find duplicates and allow for
+counting of number of unique movies in the Archive.  Other external
+references, like to TMDB, could be added like this too.&lt;/dd&gt;
+
+&lt;/dl&gt;
+
+&lt;p&gt;I did consider proposing a Custom field for the IMDB title ID (for
+example &#39;imdb_title_url&#39;, &#39;imdb_code&#39; or simply &#39;imdb&#39;, but suspect it
+will be easier to simply place it in the links free text field.&lt;/p&gt;
+
+&lt;p&gt;I created
+&lt;a href=&quot;https://github.com/petterreinholdtsen/public-domain-free-imdb&quot;&gt;a
+list of IMDB title IDs for several thousand movies in the Internet
+Archive&lt;/a&gt;, but I also got a list of several thousand movies without
+such IMDB title ID (and quite a few duplicates).  It would be great if
+this data set could be integrated into the Internet Archive metadata
+to be available for everyone in the future, but with the current
+policy of leaving metadata editing to the uploaders, it will take a
+while before this happen.  If you have uploaded movies into the
+Internet Archive, you can help.  Please consider following my proposal
+above for your movies, to ensure that movie is properly
+counted. :)&lt;/p&gt;
+
+&lt;p&gt;The list is mostly generated using wikidata, which based on
+Wikipedia articles make it possible to link between IMDB and movies in
+the Internet Archive.  But there are lots of movies without a
+Wikipedia article, and some movies where only a collection page exist
+(like for &lt;a href=&quot;https://en.wikipedia.org/wiki/Caminandes&quot;&gt;the
+Caminandes example above&lt;/a&gt;, where there are three movies but only
+one Wikidata entry).&lt;/p&gt;
+
+&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
+activities, please send Bitcoin donations to my address
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Bryter NAV sin egen personvernerklæring?</title>
-               <link>http://people.skolelinux.org/pere/blog/Bryter_NAV_sin_egen_personvernerkl_ring_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Bryter_NAV_sin_egen_personvernerkl_ring_.html</guid>
-                <pubDate>Wed, 11 Jan 2017 06:50:00 +0100</pubDate>
-               <description>&lt;p&gt;Jeg leste med interesse en nyhetssak hos
-&lt;a href=&quot;http://www.digi.no/artikler/nav-avslorer-trygdemisbruk-ved-a-spore-ip-adresser/367394&quot;&gt;digi.no&lt;/a&gt;
-og
-&lt;a href=&quot;https://www.nrk.no/buskerud/trygdesvindlere-avslores-av-utenlandske-ip-adresser-1.13313461&quot;&gt;NRK&lt;/a&gt;
-om at det ikke bare er meg, men at også NAV bedriver geolokalisering
-av IP-adresser, og at det gjøres analyse av IP-adressene til de som
-sendes inn meldekort for å se om meldekortet sendes inn fra
-utenlandske IP-adresser.  Politiadvokat i Drammen, Hans Lyder Haare,
-er sitert i NRK på at «De to er jo blant annet avslørt av
-IP-adresser. At man ser at meldekortet kommer fra utlandet.»&lt;/p&gt;
-
-&lt;p&gt;Jeg synes det er fint at det blir bedre kjent at IP-adresser
-knyttes til enkeltpersoner og at innsamlet informasjon brukes til å
-stedsbestemme personer også av aktører her i Norge.  Jeg ser det som
-nok et argument for å bruke
-&lt;a href=&quot;https://www.torproject.org/&quot;&gt;Tor&lt;/a&gt; så mye som mulig for å
-gjøre gjøre IP-lokalisering vanskeligere, slik at en kan beskytte sin
-privatsfære og unngå å dele sin fysiske plassering med
-uvedkommede.&lt;/p&gt;
-
-&lt;P&gt;Men det er en ting som bekymrer meg rundt denne nyheten.  Jeg ble
-tipset (takk #nuug) om
-&lt;a href=&quot;https://www.nav.no/no/NAV+og+samfunn/Kontakt+NAV/Teknisk+brukerstotte/Snarveier/personvernerkl%C3%A6ring-for-arbeids-og-velferdsetaten&quot;&gt;NAVs
-personvernerklæring&lt;/a&gt;, som under punktet «Personvern og statistikk»
-lyder:&lt;/p&gt;
+               <title>Legal to share more than 3000 movies listed on IMDB?</title>
+               <link>http://people.skolelinux.org/pere/blog/Legal_to_share_more_than_3000_movies_listed_on_IMDB_.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Legal_to_share_more_than_3000_movies_listed_on_IMDB_.html</guid>
+                <pubDate>Sat, 18 Nov 2017 21:20:00 +0100</pubDate>
+               <description>&lt;p&gt;A month ago, I blogged about my work to
+&lt;a href=&quot;http://people.skolelinux.org/pere/blog/Locating_IMDB_IDs_of_movies_in_the_Internet_Archive_using_Wikidata.html&quot;&gt;automatically
+check the copyright status of IMDB entries&lt;/a&gt;, and try to count the
+number of movies listed in IMDB that is legal to distribute on the
+Internet.  I have continued to look for good data sources, and
+identified a few more.  The code used to extract information from
+various data sources is available in
+&lt;a href=&quot;https://github.com/petterreinholdtsen/public-domain-free-imdb&quot;&gt;a
+git repository&lt;/a&gt;, currently available from github.&lt;/p&gt;
 
-&lt;p&gt;&lt;blockquote&gt;
+&lt;p&gt;So far I have identified 3186 unique IMDB title IDs.  To gain
+better understanding of the structure of the data set, I created a
+histogram of the year associated with each movie (typically release
+year).  It is interesting to notice where the peaks and dips in the
+graph are located.  I wonder why they are placed there.  I suspect
+World War II caused the dip around 1940, but what caused the peak
+around 2010?&lt;/p&gt;
 
-&lt;p&gt;«Når du besøker nav.no, etterlater du deg elektroniske spor. Sporene
-dannes fordi din nettleser automatisk sender en rekke opplysninger til
-NAVs tjener (server-maskin) hver gang du ber om å få vist en side. Det
-er eksempelvis opplysninger om hvilken nettleser og -versjon du
-bruker, og din internettadresse (ip-adresse). For hver side som vises,
-lagres følgende opplysninger:&lt;/p&gt;
+&lt;p align=&quot;center&quot;&gt;&lt;img src=&quot;http://people.skolelinux.org/pere/blog/images/2017-11-18-verk-i-det-fri-filmer.png&quot; /&gt;&lt;/p&gt;
 
-&lt;ul&gt;
-&lt;li&gt;hvilken side du ser på&lt;/li&gt;
-&lt;li&gt;dato og tid&lt;/li&gt;
-&lt;li&gt;hvilken nettleser du bruker&lt;/li&gt;
-&lt;li&gt;din ip-adresse&lt;/li&gt;
-&lt;/ul&gt;
+&lt;p&gt;I&#39;ve so far identified ten sources for IMDB title IDs for movies in
+the public domain or with a free license.  This is the statistics
+reported when running &#39;make stats&#39; in the git repository:&lt;/p&gt;
 
-&lt;p&gt;Ingen av opplysningene vil bli brukt til å identifisere
-enkeltpersoner. NAV bruker disse opplysningene til å generere en
-samlet statistikk som blant annet viser hvilke sider som er mest
-populære. Statistikken er et redskap til å forbedre våre
-tjenester.»&lt;/p&gt;
+&lt;pre&gt;
+  249 entries (    6 unique) with and   288 without IMDB title ID in free-movies-archive-org-butter.json
+ 2301 entries (  540 unique) with and     0 without IMDB title ID in free-movies-archive-org-wikidata.json
+  830 entries (   29 unique) with and     0 without IMDB title ID in free-movies-icheckmovies-archive-mochard.json
+ 2109 entries (  377 unique) with and     0 without IMDB title ID in free-movies-imdb-pd.json
+  291 entries (  122 unique) with and     0 without IMDB title ID in free-movies-letterboxd-pd.json
+  144 entries (  135 unique) with and     0 without IMDB title ID in free-movies-manual.json
+  350 entries (    1 unique) with and   801 without IMDB title ID in free-movies-publicdomainmovies.json
+    4 entries (    0 unique) with and   124 without IMDB title ID in free-movies-publicdomainreview.json
+  698 entries (  119 unique) with and   118 without IMDB title ID in free-movies-publicdomaintorrents.json
+    8 entries (    8 unique) with and   196 without IMDB title ID in free-movies-vodo.json
+ 3186 unique IMDB title IDs in total
+&lt;/pre&gt;
 
-&lt;/blockquote&gt;&lt;/p&gt;
+&lt;p&gt;The entries without IMDB title ID are candidates to increase the
+data set, but might equally well be duplicates of entries already
+listed with IMDB title ID in one of the other sources, or represent
+movies that lack a IMDB title ID.  I&#39;ve seen examples of all these
+situations when peeking at the entries without IMDB title ID.  Based
+on these data sources, the lower bound for movies listed in IMDB that
+are legal to distribute on the Internet is between 3186 and 4713.
+
+&lt;p&gt;It would be great for improving the accuracy of this measurement,
+if the various sources added IMDB title ID to their metadata.  I have
+tried to reach the people behind the various sources to ask if they
+are interested in doing this, without any replies so far.  Perhaps you
+can help me get in touch with the people behind VODO, Public Domain
+Torrents, Public Domain Movies and Public Domain Review to try to
+convince them to add more metadata to their movie entries?&lt;/p&gt;
 
-&lt;p&gt;Jeg klarer ikke helt å se hvordan analyse av de besøkendes
-IP-adresser for å se hvem som sender inn meldekort via web fra en
-IP-adresse i utlandet kan gjøres uten å komme i strid med påstanden om
-at «ingen av opplysningene vil bli brukt til å identifisere
-enkeltpersoner».  Det virker dermed for meg som at NAV bryter sine
-egen personvernerklæring, hvilket
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/Er_lover_brutt_n_r_personvernpolicy_ikke_stemmer_med_praksis_.html&quot;&gt;Datatilsynet
-fortalte meg i starten av desember antagelig er brudd på
-personopplysningsloven&lt;/a&gt;.
-
-&lt;p&gt;I tillegg er personvernerklæringen ganske misvisende i og med at
-NAVs nettsider ikke bare forsyner NAV med personopplysninger, men i
-tillegg ber brukernes nettleser kontakte fem andre nettjenere
-(script.hotjar.com, static.hotjar.com, vars.hotjar.com,
-www.google-analytics.com og www.googletagmanager.com), slik at
-personopplysninger blir gjort tilgjengelig for selskapene Hotjar og
-Google , og alle som kan lytte på trafikken på veien (som FRA, GCHQ og
-NSA).  Jeg klarer heller ikke se hvordan slikt spredning av
-personopplysninger kan være i tråd med kravene i
-personopplysningloven, eller i tråd med NAVs personvernerklæring.&lt;/p&gt;
-
-&lt;p&gt;Kanskje NAV bør ta en nøye titt på sin personvernerklæring?  Eller
-kanskje Datatilsynet bør gjøre det?&lt;/p&gt;
+&lt;p&gt;Another way you could help is by adding pages to Wikipedia about
+movies that are legal to distribute on the Internet.  If such page
+exist and include a link to both IMDB and The Internet Archive, the
+script used to generate free-movies-archive-org-wikidata.json should
+pick up the mapping as soon as wikidata is updates.&lt;/p&gt;
+
+&lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
+activities, please send Bitcoin donations to my address
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Where did that package go? &amp;mdash; geolocated IP traceroute</title>
-               <link>http://people.skolelinux.org/pere/blog/Where_did_that_package_go___mdash__geolocated_IP_traceroute.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Where_did_that_package_go___mdash__geolocated_IP_traceroute.html</guid>
-                <pubDate>Mon, 9 Jan 2017 12:20:00 +0100</pubDate>
-               <description>&lt;p&gt;Did you ever wonder where the web trafic really flow to reach the
-web servers, and who own the network equipment it is flowing through?
-It is possible to get a glimpse of this from using traceroute, but it
-is hard to find all the details.  Many years ago, I wrote a system to
-map the Norwegian Internet (trying to figure out if our plans for a
-network game service would get low enough latency, and who we needed
-to talk to about setting up game servers close to the users.  Back
-then I used traceroute output from many locations (I asked my friends
-to run a script and send me their traceroute output) to create the
-graph and the map.  The output from traceroute typically look like
-this:
+               <title>Some notes on fault tolerant storage systems</title>
+               <link>http://people.skolelinux.org/pere/blog/Some_notes_on_fault_tolerant_storage_systems.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Some_notes_on_fault_tolerant_storage_systems.html</guid>
+                <pubDate>Wed, 1 Nov 2017 15:35:00 +0100</pubDate>
+               <description>&lt;p&gt;If you care about how fault tolerant your storage is, you might
+find these articles and papers interesting.  They have formed how I
+think of when designing a storage system.&lt;/p&gt;
 
-&lt;p&gt;&lt;pre&gt;
-traceroute to www.stortinget.no (85.88.67.10), 30 hops max, 60 byte packets
- 1  uio-gw10.uio.no (129.240.202.1)  0.447 ms  0.486 ms  0.621 ms
- 2  uio-gw8.uio.no (129.240.24.229)  0.467 ms  0.578 ms  0.675 ms
- 3  oslo-gw1.uninett.no (128.39.65.17)  0.385 ms  0.373 ms  0.358 ms
- 4  te3-1-2.br1.fn3.as2116.net (193.156.90.3)  1.174 ms  1.172 ms  1.153 ms
- 5  he16-1-1.cr1.san110.as2116.net (195.0.244.234)  2.627 ms he16-1-1.cr2.oslosda310.as2116.net (195.0.244.48)  3.172 ms he16-1-1.cr1.san110.as2116.net (195.0.244.234)  2.857 ms
- 6  ae1.ar8.oslosda310.as2116.net (195.0.242.39)  0.662 ms  0.637 ms ae0.ar8.oslosda310.as2116.net (195.0.242.23)  0.622 ms
- 7  89.191.10.146 (89.191.10.146)  0.931 ms  0.917 ms  0.955 ms
- 8  * * *
- 9  * * *
-[...]
-&lt;/pre&gt;&lt;/p&gt;
+&lt;ul&gt;
+
+&lt;li&gt;USENIX :login; &lt;a
+href=&quot;https://www.usenix.org/publications/login/summer2017/ganesan&quot;&gt;Redundancy
+Does Not Imply Fault Tolerance.  Analysis of Distributed Storage
+Reactions to Single Errors and Corruptions&lt;/a&gt; by Aishwarya Ganesan,
+Ramnatthan Alagappan, Andrea C. Arpaci-Dusseau, and Remzi
+H. Arpaci-Dusseau&lt;/li&gt;
+
+&lt;li&gt;ZDNet
+&lt;a href=&quot;http://www.zdnet.com/article/why-raid-5-stops-working-in-2009/&quot;&gt;Why
+RAID 5 stops working in 2009&lt;/a&gt; by Robin Harris&lt;/li&gt;
+
+&lt;li&gt;ZDNet
+&lt;a href=&quot;http://www.zdnet.com/article/why-raid-6-stops-working-in-2019/&quot;&gt;Why
+RAID 6 stops working in 2019&lt;/a&gt; by Robin Harris&lt;/li&gt;
+
+&lt;li&gt;USENIX FAST&#39;07
+&lt;a href=&quot;http://research.google.com/archive/disk_failures.pdf&quot;&gt;Failure
+Trends in a Large Disk Drive Population&lt;/a&gt; by Eduardo Pinheiro,
+Wolf-Dietrich Weber and Luiz André Barroso&lt;/li&gt;
+
+&lt;li&gt;USENIX ;login: &lt;a
+href=&quot;https://www.usenix.org/system/files/login/articles/hughes12-04.pdf&quot;&gt;Data
+Integrity.  Finding Truth in a World of Guesses and Lies&lt;/a&gt; by Doug
+Hughes&lt;/li&gt;
+
+&lt;li&gt;USENIX FAST&#39;08
+&lt;a href=&quot;https://www.usenix.org/events/fast08/tech/full_papers/bairavasundaram/bairavasundaram_html/&quot;&gt;An
+Analysis of Data Corruption in the Storage Stack&lt;/a&gt; by
+L. N. Bairavasundaram, G. R. Goodson, B. Schroeder, A. C.
+Arpaci-Dusseau, and R. H. Arpaci-Dusseau&lt;/li&gt;
+
+&lt;li&gt;USENIX FAST&#39;07 &lt;a
+href=&quot;https://www.usenix.org/legacy/events/fast07/tech/schroeder/schroeder_html/&quot;&gt;Disk
+failures in the real world: what does an MTTF of 1,000,000 hours mean
+to you?&lt;/a&gt; by B. Schroeder and G. A. Gibson.&lt;/li&gt;
+
+&lt;li&gt;USENIX ;login: &lt;a
+href=&quot;https://www.usenix.org/events/fast08/tech/full_papers/jiang/jiang_html/&quot;&gt;Are
+Disks the Dominant Contributor for Storage Failures?  A Comprehensive
+Study of Storage Subsystem Failure Characteristics&lt;/a&gt; by Weihang
+Jiang, Chongfeng Hu, Yuanyuan Zhou, and Arkady Kanevsky&lt;/li&gt;
+
+&lt;li&gt;SIGMETRICS 2007
+&lt;a href=&quot;http://research.cs.wisc.edu/adsl/Publications/latent-sigmetrics07.pdf&quot;&gt;An
+analysis of latent sector errors in disk drives&lt;/a&gt; by
+L. N. Bairavasundaram, G. R. Goodson, S. Pasupathy, and J. Schindler&lt;/li&gt;
 
-&lt;p&gt;This show the DNS names and IP addresses of (at least some of the)
-network equipment involved in getting the data traffic from me to the
-www.stortinget.no server, and how long it took in milliseconds for a
-package to reach the equipment and return to me.  Three packages are
-sent, and some times the packages do not follow the same path.  This
-is shown for hop 5, where three different IP addresses replied to the
-traceroute request.&lt;/p&gt;
-
-&lt;p&gt;There are many ways to measure trace routes.  Other good traceroute
-implementations I use are traceroute (using ICMP packages) mtr (can do
-both ICMP, UDP and TCP) and scapy (python library with ICMP, UDP, TCP
-traceroute and a lot of other capabilities).  All of them are easily
-available in &lt;a href=&quot;https://www.debian.org/&quot;&gt;Debian&lt;/a&gt;.&lt;/p&gt;
-
-&lt;p&gt;This time around, I wanted to know the geographic location of
-different route points, to visualize how visiting a web page spread
-information about the visit to a lot of servers around the globe.  The
-background is that a web site today often will ask the browser to get
-from many servers the parts (for example HTML, JSON, fonts,
-JavaScript, CSS, video) required to display the content.  This will
-leak information about the visit to those controlling these servers
-and anyone able to peek at the data traffic passing by (like your ISP,
-the ISPs backbone provider, FRA, GCHQ, NSA and others).&lt;/p&gt;
-
-&lt;p&gt;Lets pick an example, the Norwegian parliament web site
-www.stortinget.no.  It is read daily by all members of parliament and
-their staff, as well as political journalists, activits and many other
-citizens of Norway.  A visit to the www.stortinget.no web site will
-ask your browser to contact 8 other servers: ajax.googleapis.com,
-insights.hotjar.com, script.hotjar.com, static.hotjar.com,
-stats.g.doubleclick.net, www.google-analytics.com,
-www.googletagmanager.com and www.netigate.se.  I extracted this by
-asking &lt;a href=&quot;http://phantomjs.org/&quot;&gt;PhantomJS&lt;/a&gt; to visit the
-Stortinget web page and tell me all the URLs PhantomJS downloaded to
-render the page (in HAR format using
-&lt;a href=&quot;https://github.com/ariya/phantomjs/blob/master/examples/netsniff.js&quot;&gt;their
-netsniff example&lt;/a&gt;.  I am very grateful to Gorm for showing me how
-to do this).  My goal is to visualize network traces to all IP
-addresses behind these DNS names, do show where visitors personal
-information is spread when visiting the page.&lt;/p&gt;
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;www.stortinget.no-geoip.kml&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geoip-small.png&quot; alt=&quot;map of combined traces for URLs used by www.stortinget.no using GeoIP&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;When I had a look around for options, I could not find any good
-free software tools to do this, and decided I needed my own traceroute
-wrapper outputting KML based on locations looked up using GeoIP.  KML
-is easy to work with and easy to generate, and understood by several
-of the GIS tools I have available.  I got good help from by NUUG
-colleague Anders Einar with this, and the result can be seen in
-&lt;a href=&quot;https://github.com/petterreinholdtsen/kmltraceroute&quot;&gt;my
-kmltraceroute git repository&lt;/a&gt;.  Unfortunately, the quality of the
-free GeoIP databases I could find (and the for-pay databases my
-friends had access to) is not up to the task.  The IP addresses of
-central Internet infrastructure would typically be placed near the
-controlling companies main office, and not where the router is really
-located, as you can see from &lt;a href=&quot;www.stortinget.no-geoip.kml&quot;&gt;the
-KML file I created&lt;/a&gt; using the GeoLite City dataset from MaxMind.
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-scapy.svg&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-scapy-small.png&quot; alt=&quot;scapy traceroute graph for URLs used by www.stortinget.no&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;I also had a look at the visual traceroute graph created by
-&lt;a href=&quot;http://www.secdev.org/projects/scapy/&quot;&gt;the scrapy project&lt;/a&gt;,
-showing IP network ownership (aka AS owner) for the IP address in
-question.
-&lt;a href=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-scapy.svg&quot;&gt;The
-graph display a lot of useful information about the traceroute in SVG
-format&lt;/a&gt;, and give a good indication on who control the network
-equipment involved, but it do not include geolocation.  This graph
-make it possible to see the information is made available at least for
-UNINETT, Catchcom, Stortinget, Nordunet, Google, Amazon, Telia, Level
-3 Communications and NetDNA.&lt;/p&gt;
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;https://geotraceroute.com/index.php?node=4&amp;host=www.stortinget.no&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geotraceroute-small.png&quot; alt=&quot;example geotraceroute view for www.stortinget.no&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;In the process, I came across the
-&lt;a href=&quot;https://geotraceroute.com/&quot;&gt;web service GeoTraceroute&lt;/a&gt; by
-Salim Gasmi.  Its methology of combining guesses based on DNS names,
-various location databases and finally use latecy times to rule out
-candidate locations seemed to do a very good job of guessing correct
-geolocation.  But it could only do one trace at the time, did not have
-a sensor in Norway and did not make the geolocations easily available
-for postprocessing.  So I contacted the developer and asked if he
-would be willing to share the code (he refused until he had time to
-clean it up), but he was interested in providing the geolocations in a
-machine readable format, and willing to set up a sensor in Norway.  So
-since yesterday, it is possible to run traces from Norway in this
-service thanks to a sensor node set up by
-&lt;a href=&quot;https://www.nuug.no/&quot;&gt;the NUUG assosiation&lt;/a&gt;, and get the
-trace in KML format for further processing.&lt;/p&gt;
-
-&lt;p align=&quot;center&quot;&gt;&lt;a href=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geotraceroute-kml-join.kml&quot;&gt;&lt;img
-src=&quot;http://people.skolelinux.org/pere/blog/images/2017-01-09-www.stortinget.no-geotraceroute-kml-join.png&quot; alt=&quot;map of combined traces for URLs used by www.stortinget.no using geotraceroute&quot;/&gt;&lt;/a&gt;&lt;/p&gt;
-
-&lt;p&gt;Here we can see a lot of trafic passes Sweden on its way to
-Denmark, Germany, Holland and Ireland.  Plenty of places where the
-Snowden confirmations verified the traffic is read by various actors
-without your best interest as their top priority.&lt;/p&gt;
-
-&lt;p&gt;Combining KML files is trivial using a text editor, so I could loop
-over all the hosts behind the urls imported by www.stortinget.no and
-ask for the KML file from GeoTraceroute, and create a combined KML
-file with all the traces (unfortunately only one of the IP addresses
-behind the DNS name is traced this time.  To get them all, one would
-have to request traces using IP number instead of DNS names from
-GeoTraceroute).  That might be the next step in this project.&lt;/p&gt;
-
-&lt;p&gt;Armed with these tools, I find it a lot easier to figure out where
-the IP traffic moves and who control the boxes involved in moving it.
-And every time the link crosses for example the Swedish border, we can
-be sure Swedish Signal Intelligence (FRA) is listening, as GCHQ do in
-Britain and NSA in USA and cables around the globe.  (Hm, what should
-we tell them? :) Keep that in mind if you ever send anything
-unencrypted over the Internet.&lt;/p&gt;
-
-&lt;p&gt;PS: KML files are drawn using
-&lt;a href=&quot;http://ivanrublev.me/kml/&quot;&gt;the KML viewer from Ivan
-Rublev&lt;a/&gt;, as it was less cluttered than the local Linux application
-Marble.  There are heaps of other options too.&lt;/p&gt;
+&lt;/ul&gt;
+
+&lt;p&gt;Several of these research papers are based on data collected from
+hundred thousands or millions of disk, and their findings are eye
+opening.  The short story is simply do not implicitly trust RAID or
+redundant storage systems.  Details matter.  And unfortunately there
+are few options on Linux addressing all the identified issues.  Both
+ZFS and Btrfs are doing a fairly good job, but have legal and
+practical issues on their own.  I wonder how cluster file systems like
+Ceph do in this regard.  After all, there is an old saying, you know
+you have a distributed system when the crash of a computer you have
+never heard of stops you from getting any work done.  The same holds
+true if fault tolerance do not work.&lt;/p&gt;
+
+&lt;p&gt;Just remember, in the end, it do not matter how redundant, or how
+fault tolerant your storage is, if you do not continuously monitor its
+status to detect and replace failed disks.&lt;/p&gt;
 
 &lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
 activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Introducing ical-archiver to split out old iCalendar entries</title>
-               <link>http://people.skolelinux.org/pere/blog/Introducing_ical_archiver_to_split_out_old_iCalendar_entries.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Introducing_ical_archiver_to_split_out_old_iCalendar_entries.html</guid>
-                <pubDate>Wed, 4 Jan 2017 12:20:00 +0100</pubDate>
-               <description>&lt;p&gt;Do you have a large &lt;a href=&quot;https://icalendar.org/&quot;&gt;iCalendar&lt;/a&gt;
-file with lots of old entries, and would like to archive them to save
-space and resources?  At least those of us using KOrganizer know that
-turning on and off an event set become slower and slower the more
-entries are in the set.  While working on migrating our calendars to a
-&lt;a href=&quot;http://radicale.org/&quot;&gt;Radicale CalDAV server&lt;/a&gt; on our
-&lt;a href=&quot;https://freedomboxfoundation.org/&quot;&gt;Freedombox server&lt;/a/&gt;, my
-loved one wondered if I could find a way to split up the calendar file
-she had in KOrganizer, and I set out to write a tool.  I spent a few
-days writing and polishing the system, and it is now ready for general
-consumption.  The
-&lt;a href=&quot;https://github.com/petterreinholdtsen/ical-archiver&quot;&gt;code for
-ical-archiver&lt;/a&gt; is publicly available from a git repository on
-github.  The system is written in Python and depend on
-&lt;a href=&quot;http://eventable.github.io/vobject/&quot;&gt;the vobject Python
-module&lt;/a&gt;.&lt;/p&gt;
-
-&lt;p&gt;To use it, locate the iCalendar file you want to operate on and
-give it as an argument to the ical-archiver script.  This will
-generate a set of new files, one file per component type per year for
-all components expiring more than two years in the past.  The vevent,
-vtodo and vjournal entries are handled by the script.  The remaining
-entries are stored in a &#39;remaining&#39; file.&lt;/p&gt;
-
-&lt;p&gt;This is what a test run can look like:
+               <title>Web services for writing academic LaTeX papers as a team</title>
+               <link>http://people.skolelinux.org/pere/blog/Web_services_for_writing_academic_LaTeX_papers_as_a_team.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Web_services_for_writing_academic_LaTeX_papers_as_a_team.html</guid>
+                <pubDate>Tue, 31 Oct 2017 21:00:00 +0100</pubDate>
+               <description>&lt;p&gt;I was surprised today to learn that a friend in academia did not
+know there are easily available web services available for writing
+LaTeX documents as a team.  I thought it was common knowledge, but to
+make sure at least my readers are aware of it, I would like to mention
+these useful services for writing LaTeX documents.  Some of them even
+provide a WYSIWYG editor to ease writing even further.&lt;/p&gt;
 
-&lt;p&gt;&lt;pre&gt;
-% ical-archiver t/2004-2016.ics 
-Found 3612 vevents
-Found 6 vtodos
-Found 2 vjournals
-Writing t/2004-2016.ics-subset-vevent-2004.ics
-Writing t/2004-2016.ics-subset-vevent-2005.ics
-Writing t/2004-2016.ics-subset-vevent-2006.ics
-Writing t/2004-2016.ics-subset-vevent-2007.ics
-Writing t/2004-2016.ics-subset-vevent-2008.ics
-Writing t/2004-2016.ics-subset-vevent-2009.ics
-Writing t/2004-2016.ics-subset-vevent-2010.ics
-Writing t/2004-2016.ics-subset-vevent-2011.ics
-Writing t/2004-2016.ics-subset-vevent-2012.ics
-Writing t/2004-2016.ics-subset-vevent-2013.ics
-Writing t/2004-2016.ics-subset-vevent-2014.ics
-Writing t/2004-2016.ics-subset-vjournal-2007.ics
-Writing t/2004-2016.ics-subset-vjournal-2011.ics
-Writing t/2004-2016.ics-subset-vtodo-2012.ics
-Writing t/2004-2016.ics-remaining.ics
-%
-&lt;/pre&gt;&lt;/p&gt;
+&lt;p&gt;There are two commercial services available,
+&lt;a href=&quot;https://sharelatex.com&quot;&gt;ShareLaTeX&lt;/a&gt; and
+&lt;a href=&quot;https://overleaf.com&quot;&gt;Overleaf&lt;/a&gt;.  They are very easy to
+use.  Just start a new document, select which publisher to write for
+(ie which LaTeX style to use), and start writing.  Note, these two
+have announced their intention to join forces, so soon it will only be
+one joint service.  I&#39;ve used both for different documents, and they
+work just fine.  While
+&lt;a href=&quot;https://github.com/sharelatex/sharelatex&quot;&gt;ShareLaTeX is free
+software&lt;/a&gt;, while the latter is not.  According to &lt;a
+href=&quot;https://www.overleaf.com/help/17-is-overleaf-open-source&quot;&gt;a
+announcement from Overleaf&lt;/a&gt;, they plan to keep the ShareLaTeX code
+base maintained as free software.&lt;/p&gt;
 
-&lt;p&gt;As you can see, the original file is untouched and new files are
-written with names derived from the original file.  If you are happy
-with their content, the *-remaining.ics file can replace the original
-the the others can be archived or imported as historical calendar
-collections.&lt;/p&gt;
+But these two are not the only alternatives.
+&lt;a href=&quot;https://app.fiduswriter.org/&quot;&gt;Fidus Writer&lt;/a&gt; is another free
+software solution with &lt;a href=&quot;https://github.com/fiduswriter&quot;&gt;the
+source available on github&lt;/a&gt;.  I have not used it myself.  Several
+others can be found on the nice
+&lt;a href=&quot;https://alternativeto.net/software/sharelatex/&quot;&gt;alterntiveTo
+web service&lt;/a&gt;.
 
-&lt;p&gt;The script should probably be improved a bit.  The error handling
-when discovering broken entries is not good, and I am not sure yet if
-it make sense to split different entry types into separate files or
-not.  The program is thus likely to change.  If you find it
-interesting, please get in touch. :)&lt;/p&gt;
+&lt;p&gt;If you like Google Docs or Etherpad, but would like to write
+documents in LaTeX, you should check out these services.  You can even
+host your own, if you want to. :)&lt;/p&gt;
 
 &lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
 activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>
        
        <item>
-               <title>Appstream just learned how to map hardware to packages too!</title>
-               <link>http://people.skolelinux.org/pere/blog/Appstream_just_learned_how_to_map_hardware_to_packages_too_.html</link>
-               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Appstream_just_learned_how_to_map_hardware_to_packages_too_.html</guid>
-                <pubDate>Fri, 23 Dec 2016 10:30:00 +0100</pubDate>
-               <description>&lt;p&gt;I received a very nice Christmas present today.  As my regular
-readers probably know, I have been working on the
-&lt;a href=&quot;http://packages.qa.debian.org/isenkram&quot;&gt;the Isenkram
-system&lt;/a&gt; for many years.  The goal of the Isenkram system is to make
-it easier for users to figure out what to install to get a given piece
-of hardware to work in Debian, and a key part of this system is a way
-to map hardware to packages.  Isenkram have its own mapping database,
-and also uses data provided by each package using the AppStream
-metadata format.  And today,
-&lt;a href=&quot;https://tracker.debian.org/pkg/appstream&quot;&gt;AppStream&lt;/a&gt; in
-Debian learned to look up hardware the same way Isenkram is doing it,
-ie using fnmatch():&lt;/p&gt;
+               <title>Locating IMDB IDs of movies in the Internet Archive using Wikidata</title>
+               <link>http://people.skolelinux.org/pere/blog/Locating_IMDB_IDs_of_movies_in_the_Internet_Archive_using_Wikidata.html</link>
+               <guid isPermaLink="true">http://people.skolelinux.org/pere/blog/Locating_IMDB_IDs_of_movies_in_the_Internet_Archive_using_Wikidata.html</guid>
+                <pubDate>Wed, 25 Oct 2017 12:20:00 +0200</pubDate>
+               <description>&lt;p&gt;Recently, I needed to automatically check the copyright status of a
+set of &lt;a href=&quot;http://www.imdb.com/&quot;&gt;The Internet Movie database
+(IMDB)&lt;/a&gt; entries, to figure out which one of the movies they refer
+to can be freely distributed on the Internet.  This proved to be
+harder than it sounds.  IMDB for sure list movies without any
+copyright protection, where the copyright protection has expired or
+where the movie is lisenced using a permissive license like one from
+Creative Commons.  These are mixed with copyright protected movies,
+and there seem to be no way to separate these classes of movies using
+the information in IMDB.&lt;/p&gt;
+
+&lt;p&gt;First I tried to look up entries manually in IMDB,
+&lt;a href=&quot;https://www.wikipedia.org/&quot;&gt;Wikipedia&lt;/a&gt; and
+&lt;a href=&quot;https://www.archive.org/&quot;&gt;The Internet Archive&lt;/a&gt;, to get a
+feel how to do this.  It is hard to know for sure using these sources,
+but it should be possible to be reasonable confident a movie is &quot;out
+of copyright&quot; with a few hours work per movie.  As I needed to check
+almost 20,000 entries, this approach was not sustainable.  I simply
+can not work around the clock for about 6 years to check this data
+set.&lt;/p&gt;
+
+&lt;p&gt;I asked the people behind The Internet Archive if they could
+introduce a new metadata field in their metadata XML for IMDB ID, but
+was told that they leave it completely to the uploaders to update the
+metadata.  Some of the metadata entries had IMDB links in the
+description, but I found no way to download all metadata files in bulk
+to locate those ones and put that approach aside.&lt;/p&gt;
+
+&lt;p&gt;In the process I noticed several Wikipedia articles about movies
+had links to both IMDB and The Internet Archive, and it occured to me
+that I could use the Wikipedia RDF data set to locate entries with
+both, to at least get a lower bound on the number of movies on The
+Internet Archive with a IMDB ID.  This is useful based on the
+assumption that movies distributed by The Internet Archive can be
+legally distributed on the Internet.  With some help from the RDF
+community (thank you DanC), I was able to come up with this query to
+pass to &lt;a href=&quot;https://query.wikidata.org/&quot;&gt;the SPARQL interface on
+Wikidata&lt;/a&gt;:
 
 &lt;p&gt;&lt;pre&gt;
-% appstreamcli what-provides modalias \
-  usb:v1130p0202d0100dc00dsc00dp00ic03isc00ip00in00
-Identifier: pymissile [generic]
-Name: pymissile
-Summary: Control original Striker USB Missile Launcher
-Package: pymissile
-% appstreamcli what-provides modalias usb:v0694p0002d0000
-Identifier: libnxt [generic]
-Name: libnxt
-Summary: utility library for talking to the LEGO Mindstorms NXT brick
-Package: libnxt
----
-Identifier: t2n [generic]
-Name: t2n
-Summary: Simple command-line tool for Lego NXT
-Package: t2n
----
-Identifier: python-nxt [generic]
-Name: python-nxt
-Summary: Python driver/interface/wrapper for the Lego Mindstorms NXT robot
-Package: python-nxt
----
-Identifier: nbc [generic]
-Name: nbc
-Summary: C compiler for LEGO Mindstorms NXT bricks
-Package: nbc
-%
+SELECT ?work ?imdb ?ia ?when ?label
+WHERE
+{
+  ?work wdt:P31/wdt:P279* wd:Q11424.
+  ?work wdt:P345 ?imdb.
+  ?work wdt:P724 ?ia.
+  OPTIONAL {
+        ?work wdt:P577 ?when.
+        ?work rdfs:label ?label.
+        FILTER(LANG(?label) = &quot;en&quot;).
+  }
+}
 &lt;/pre&gt;&lt;/p&gt;
 
-&lt;p&gt;A similar query can be done using the combined AppStream and
-Isenkram databases using the isenkram-lookup tool:&lt;/p&gt;
+&lt;p&gt;If I understand the query right, for every film entry anywhere in
+Wikpedia, it will return the IMDB ID and The Internet Archive ID, and
+when the movie was released and its English title, if either or both
+of the latter two are available.  At the moment the result set contain
+2338 entries.  Of course, it depend on volunteers including both
+correct IMDB and The Internet Archive IDs in the wikipedia articles
+for the movie.  It should be noted that the result will include
+duplicates if the movie have entries in several languages.  There are
+some bogus entries, either because The Internet Archive ID contain a
+typo or because the movie is not available from The Internet Archive.
+I did not verify the IMDB IDs, as I am unsure how to do that
+automatically.&lt;/p&gt;
+
+&lt;p&gt;I wrote a small python script to extract the data set from Wikidata
+and check if the XML metadata for the movie is available from The
+Internet Archive, and after around 1.5 hour it produced a list of 2097
+free movies and their IMDB ID.  In total, 171 entries in Wikidata lack
+the refered Internet Archive entry.  I assume the 70 &quot;disappearing&quot;
+entries (ie 2338-2097-171) are duplicate entries.&lt;/p&gt;
+
+&lt;p&gt;This is not too bad, given that The Internet Archive report to
+contain &lt;a href=&quot;https://archive.org/details/feature_films&quot;&gt;5331
+feature films&lt;/a&gt; at the moment, but it also mean more than 3000
+movies are missing on Wikipedia or are missing the pair of references
+on Wikipedia.&lt;/p&gt;
+
+&lt;p&gt;I was curious about the distribution by release year, and made a
+little graph to show how the amount of free movies is spread over the
+years:&lt;p&gt;
+
+&lt;p&gt;&lt;img src=&quot;http://people.skolelinux.org/pere/blog/images/2017-10-25-verk-i-det-fri-filmer.png&quot;&gt;&lt;/p&gt;
+
+&lt;p&gt;I expect the relative distribution of the remaining 3000 movies to
+be similar.&lt;/p&gt;
+
+&lt;p&gt;If you want to help, and want to ensure Wikipedia can be used to
+cross reference The Internet Archive and The Internet Movie Database,
+please make sure entries like this are listed under the &quot;External
+links&quot; heading on the Wikipedia article for the movie:&lt;/p&gt;
 
 &lt;p&gt;&lt;pre&gt;
-% isenkram-lookup usb:v1130p0202d0100dc00dsc00dp00ic03isc00ip00in00
-pymissile
-% isenkram-lookup usb:v0694p0002d0000
-libnxt
-nbc
-python-nxt
-t2n
-%
+* {{Internet Archive film|id=FightingLady}}
+* {{IMDb title|id=0036823|title=The Fighting Lady}}
 &lt;/pre&gt;&lt;/p&gt;
 
-&lt;p&gt;You can find modalias values relevant for your machine using
-&lt;tt&gt;cat $(find /sys/devices/ -name modalias)&lt;/tt&gt;.
-
-&lt;p&gt;If you want to make this system a success and help Debian users
-make the most of the hardware they have, please
-help&lt;a href=&quot;https://wiki.debian.org/AppStream/Guidelines&quot;&gt;add
-AppStream metadata for your package following the guidelines&lt;/a&gt;
-documented in the wiki.  So far only 11 packages provide such
-information, among the several hundred hardware specific packages in
-Debian. The Isenkram database on the other hand contain 101 packages,
-mostly related to USB dongles.  Most of the packages with hardware
-mapping in AppStream are LEGO Mindstorms related, because I have, as
-part of my involvement in
-&lt;a href=&quot;https://wiki.debian.org/LegoDesigners&quot;&gt;the Debian LEGO
-team&lt;/a&gt; given priority to making sure LEGO users get proposed the
-complete set of packages in Debian for that particular hardware.  The
-team also got a nice Christmas present today.  The
-&lt;a href=&quot;https://tracker.debian.org/pkg/nxt-firmware&quot;&gt;nxt-firmware
-package&lt;/a&gt; made it into Debian.  With this package in place, it is
-now possible to use the LEGO Mindstorms NXT unit with only free
-software, as the nxt-firmware package contain the source and firmware
-binaries for the NXT brick.&lt;/p&gt;
+&lt;p&gt;Please verify the links on the final page, to make sure you did not
+introduce a typo.&lt;/p&gt;
+
+&lt;p&gt;Here is the complete list, if you want to correct the 171
+identified Wikipedia entries with broken links to The Internet
+Archive: &lt;a href=&quot;http://www.wikidata.org/entity/Q1140317&quot;&gt;Q1140317&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q458656&quot;&gt;Q458656&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q458656&quot;&gt;Q458656&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q470560&quot;&gt;Q470560&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q743340&quot;&gt;Q743340&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q822580&quot;&gt;Q822580&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q480696&quot;&gt;Q480696&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q128761&quot;&gt;Q128761&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1307059&quot;&gt;Q1307059&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1335091&quot;&gt;Q1335091&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1537166&quot;&gt;Q1537166&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1438334&quot;&gt;Q1438334&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1479751&quot;&gt;Q1479751&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1497200&quot;&gt;Q1497200&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1498122&quot;&gt;Q1498122&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q865973&quot;&gt;Q865973&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q834269&quot;&gt;Q834269&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q841781&quot;&gt;Q841781&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q841781&quot;&gt;Q841781&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1548193&quot;&gt;Q1548193&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q499031&quot;&gt;Q499031&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1564769&quot;&gt;Q1564769&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1585239&quot;&gt;Q1585239&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1585569&quot;&gt;Q1585569&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1624236&quot;&gt;Q1624236&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4796595&quot;&gt;Q4796595&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4853469&quot;&gt;Q4853469&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4873046&quot;&gt;Q4873046&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q915016&quot;&gt;Q915016&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4660396&quot;&gt;Q4660396&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4677708&quot;&gt;Q4677708&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4738449&quot;&gt;Q4738449&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4756096&quot;&gt;Q4756096&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4766785&quot;&gt;Q4766785&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q880357&quot;&gt;Q880357&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q882066&quot;&gt;Q882066&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q882066&quot;&gt;Q882066&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q204191&quot;&gt;Q204191&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q204191&quot;&gt;Q204191&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1194170&quot;&gt;Q1194170&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q940014&quot;&gt;Q940014&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q946863&quot;&gt;Q946863&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q172837&quot;&gt;Q172837&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q573077&quot;&gt;Q573077&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1219005&quot;&gt;Q1219005&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1219599&quot;&gt;Q1219599&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1643798&quot;&gt;Q1643798&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1656352&quot;&gt;Q1656352&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1659549&quot;&gt;Q1659549&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1660007&quot;&gt;Q1660007&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1698154&quot;&gt;Q1698154&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1737980&quot;&gt;Q1737980&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1877284&quot;&gt;Q1877284&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1199354&quot;&gt;Q1199354&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1199354&quot;&gt;Q1199354&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1199451&quot;&gt;Q1199451&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1211871&quot;&gt;Q1211871&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1212179&quot;&gt;Q1212179&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1238382&quot;&gt;Q1238382&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4906454&quot;&gt;Q4906454&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q320219&quot;&gt;Q320219&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1148649&quot;&gt;Q1148649&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q645094&quot;&gt;Q645094&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5050350&quot;&gt;Q5050350&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5166548&quot;&gt;Q5166548&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2677926&quot;&gt;Q2677926&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2698139&quot;&gt;Q2698139&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2707305&quot;&gt;Q2707305&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2740725&quot;&gt;Q2740725&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2024780&quot;&gt;Q2024780&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2117418&quot;&gt;Q2117418&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2138984&quot;&gt;Q2138984&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1127992&quot;&gt;Q1127992&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1058087&quot;&gt;Q1058087&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1070484&quot;&gt;Q1070484&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1080080&quot;&gt;Q1080080&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1090813&quot;&gt;Q1090813&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1251918&quot;&gt;Q1251918&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1254110&quot;&gt;Q1254110&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1257070&quot;&gt;Q1257070&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1257079&quot;&gt;Q1257079&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1197410&quot;&gt;Q1197410&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1198423&quot;&gt;Q1198423&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q706951&quot;&gt;Q706951&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q723239&quot;&gt;Q723239&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2079261&quot;&gt;Q2079261&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1171364&quot;&gt;Q1171364&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q617858&quot;&gt;Q617858&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5166611&quot;&gt;Q5166611&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5166611&quot;&gt;Q5166611&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q324513&quot;&gt;Q324513&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q374172&quot;&gt;Q374172&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7533269&quot;&gt;Q7533269&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q970386&quot;&gt;Q970386&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q976849&quot;&gt;Q976849&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7458614&quot;&gt;Q7458614&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5347416&quot;&gt;Q5347416&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5460005&quot;&gt;Q5460005&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5463392&quot;&gt;Q5463392&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3038555&quot;&gt;Q3038555&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5288458&quot;&gt;Q5288458&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2346516&quot;&gt;Q2346516&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5183645&quot;&gt;Q5183645&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5185497&quot;&gt;Q5185497&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5216127&quot;&gt;Q5216127&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5223127&quot;&gt;Q5223127&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5261159&quot;&gt;Q5261159&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q1300759&quot;&gt;Q1300759&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q5521241&quot;&gt;Q5521241&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7733434&quot;&gt;Q7733434&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7736264&quot;&gt;Q7736264&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7737032&quot;&gt;Q7737032&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7882671&quot;&gt;Q7882671&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7719427&quot;&gt;Q7719427&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7719444&quot;&gt;Q7719444&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7722575&quot;&gt;Q7722575&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2629763&quot;&gt;Q2629763&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2640346&quot;&gt;Q2640346&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2649671&quot;&gt;Q2649671&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7703851&quot;&gt;Q7703851&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7747041&quot;&gt;Q7747041&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q6544949&quot;&gt;Q6544949&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q6672759&quot;&gt;Q6672759&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2445896&quot;&gt;Q2445896&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q12124891&quot;&gt;Q12124891&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3127044&quot;&gt;Q3127044&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2511262&quot;&gt;Q2511262&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2517672&quot;&gt;Q2517672&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2543165&quot;&gt;Q2543165&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q426628&quot;&gt;Q426628&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q426628&quot;&gt;Q426628&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q12126890&quot;&gt;Q12126890&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q13359969&quot;&gt;Q13359969&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q13359969&quot;&gt;Q13359969&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2294295&quot;&gt;Q2294295&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2294295&quot;&gt;Q2294295&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2559509&quot;&gt;Q2559509&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2559912&quot;&gt;Q2559912&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7760469&quot;&gt;Q7760469&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q6703974&quot;&gt;Q6703974&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q4744&quot;&gt;Q4744&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7766962&quot;&gt;Q7766962&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7768516&quot;&gt;Q7768516&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7769205&quot;&gt;Q7769205&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7769988&quot;&gt;Q7769988&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q2946945&quot;&gt;Q2946945&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3212086&quot;&gt;Q3212086&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3212086&quot;&gt;Q3212086&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q18218448&quot;&gt;Q18218448&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q18218448&quot;&gt;Q18218448&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q18218448&quot;&gt;Q18218448&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q6909175&quot;&gt;Q6909175&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7405709&quot;&gt;Q7405709&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7416149&quot;&gt;Q7416149&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7239952&quot;&gt;Q7239952&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7317332&quot;&gt;Q7317332&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7783674&quot;&gt;Q7783674&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7783704&quot;&gt;Q7783704&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7857590&quot;&gt;Q7857590&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3372526&quot;&gt;Q3372526&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3372642&quot;&gt;Q3372642&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3372816&quot;&gt;Q3372816&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3372909&quot;&gt;Q3372909&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7959649&quot;&gt;Q7959649&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7977485&quot;&gt;Q7977485&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q7992684&quot;&gt;Q7992684&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3817966&quot;&gt;Q3817966&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3821852&quot;&gt;Q3821852&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3420907&quot;&gt;Q3420907&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q3429733&quot;&gt;Q3429733&lt;/a&gt;, 
+&lt;a href=&quot;http://www.wikidata.org/entity/Q774474&quot;&gt;Q774474&lt;/a&gt;&lt;/p&gt;
 
 &lt;p&gt;As usual, if you use Bitcoin and want to show your support of my
 activities, please send Bitcoin donations to my address
-&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&amp;label=PetterReinholdtsenBlog&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
+&lt;b&gt;&lt;a href=&quot;bitcoin:15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&quot;&gt;15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b&lt;/a&gt;&lt;/b&gt;.&lt;/p&gt;
 </description>
        </item>