A few days ago, we received the ruling from -my -day in court. The case in question is a challenge of the seizure -of the DNS domain popcorn-time.no. The ruling simply did not mention -most of our arguments, and seemed to take everything ÃKOKRIM said at -face value, ignoring our demonstration and explanations. But it is -hard to tell for sure, as we still have not seen most of the documents -in the case and thus were unprepared and unable to contradict several -of the claims made in court by the opposition. We are considering an -appeal, but it is partly a question of funding, as it is costing us -quite a bit to pay for our lawyer. If you want to help, please -donate to the -NUUG defense fund.
- -The details of the case, as far as we know it, is available in -Norwegian from -the NUUG -blog. This also include -the -ruling itself.
+ +A while back, I was asked by a friend how to stream the desktop to +my projector connected to Kodi. I sadly had to admit that I had no +idea, as it was a task I never had tried. Since then, I have been +looking for a way to do so, preferable without much extra software to +install on either side. Today I found a way that seem to kind of +work. Not great, but it is a start.
+ +I had a look at several approaches, for example +using uPnP +DLNA as described in 2011, but it required a uPnP server, fuse and +local storage enough to store the stream locally. This is not going +to work well for me, lacking enough free space, and it would +impossible for my friend to get working.
+ +Next, it occurred to me that perhaps I could use VLC to create a +video stream that Kodi could play. Preferably using +broadcast/multicast, to avoid having to change any setup on the Kodi +side when starting such stream. Unfortunately, the only recipe I +could find using multicast used the rtp protocol, and this protocol +seem to not be supported by Kodi.
+ +On the other hand, the rtsp protocol is working! Unfortunately I +have to specify the IP address of the streaming machine in both the +sending command and the file on the Kodi server. But it is showing my +desktop, and thus allow us to have a shared look on the big screen at +the programs I work on.
+ +I did not spend much time investigating codeces. I combined the +rtp and rtsp recipes from +the +VLC Streaming HowTo/Command Line Examples, and was able to get +this working on the desktop/streaming end.
+ ++ ++vlc screen:// --sout \ + '#transcode{vcodec=mp4v,acodec=mpga,vb=800,ab=128}:rtp{dst=projector.local,port=1234,sdp=rtsp://192.168.11.4:8080/test.sdp}' +
I ssh-ed into my Kodi box and created a file like this with the +same IP address:
+ ++ ++echo rtsp://192.168.11.4:8080/test.sdp \ + > /storage/videos/screenstream.m3u +
Note the 192.168.11.4 IP address is my desktops IP address. As far +as I can tell the IP must be hardcoded for this to work. In other +words, if someone elses machine is going to do the steaming, you have +to update screenstream.m3u on the Kodi machine and adjust the vlc +recipe. To get started, locate the file in Kodi and select the m3u +file while the VLC stream is running. The desktop then show up in my +big screen. :)
+ +When using the same technique to stream a video file with audio, +the audio quality is really bad. No idea if the problem is package +loss or bad parameters for the transcode. I do not know VLC nor Kodi +enough to tell.
+ +Update 2018-07-12: Johannes Schauer send me a few +succestions and reminded me about an important step. The "screen:" +input source is only available once the vlc-plugin-access-extra +package is installed on Debian. Without it, you will see this error +message: "VLC is unable to open the MRL 'screen://'. Check the log +for details." He further found that it is possible to drop some parts +of the VLC command line to reduce the amount of hardcoded information. +It is also useful to consider using cvlc to avoid having the VLC +window in the desktop view. In sum, this give us this command line on +the source end + +
+ ++cvlc screen:// --sout \ + '#transcode{vcodec=mp4v,acodec=mpga,vb=800,ab=128}:rtp{sdp=rtsp://:8080/}' +
and this on the Kodi end
+ +
+ ++echo rtsp://192.168.11.4:8080/ \ + > /storage/videos/screenstream.m3u +
Still bad image quality, though. But I did discover that streaming +a DVD using dvdsimple:///dev/dvd as the source had excellent video and +audio quality, so I guess the issue is in the input or transcoding +parts, not the rtsp part. I've tried to change the vb and ab +parameters to use more bandwidth, but it did not make a +difference.
+ +I further received a suggestion from Einar Haraldseid to try using +gstreamer instead of VLC, and this proved to work great! He also +provided me with the trick to get Kodi to use a multicast stream as +its source. By using this monstrous oneliner, I can stream my desktop +with good video quality in reasonable framerate to the 239.255.0.1 +multicast address on port 1234: + +
+ ++gst-launch-1.0 ximagesrc use-damage=0 ! video/x-raw,framerate=30/1 ! \ + videoconvert ! queue2 ! \ + x264enc bitrate=8000 speed-preset=superfast tune=zerolatency qp-min=30 \ + key-int-max=15 bframes=2 ! video/x-h264,profile=high ! queue2 ! \ + mpegtsmux alignment=7 name=mux ! rndbuffersize max=1316 min=1316 ! \ + udpsink host=239.255.0.1 port=1234 ttl-mc=1 auto-multicast=1 sync=0 \ + pulsesrc device=$(pactl list | grep -A2 'Source #' | \ + grep 'Name: .*\.monitor$' | cut -d" " -f2|head -1) ! \ + audioconvert ! queue2 ! avenc_aac ! queue2 ! mux. +
and this on the Kodi end
+ +
+ ++echo udp://@239.255.0.1:1234 \ + > /storage/videos/screenstream.m3u +
Note the trick to pick a valid pulseaudio source. It might not +pick the one you need. This approach will of course lead to trouble +if more than one source uses the same multicast port and address. +Note the ttl-mc=1 setting, which limit the multicast packages to the +local network. If the value is increased, your screen will be +broadcasted further, one network "hop" for each increase (read up on +multicast to learn more. :)!
+ +Having cracked how to get Kodi to receive multicast streams, I +could use this VLC command to stream to the same multicast address. +The image quality is way better than the rtsp approach, but gstreamer +seem to be doing a better job.
+ ++ ++cvlc screen:// --sout '#transcode{vcodec=mp4v,acodec=mpga,vb=800,ab=128}:rtp{mux=ts,dst=239.255.0.1,port=1234,sdp=sap}' +
As usual, if you use Bitcoin and want to show your support of my +activities, please send Bitcoin donations to my address +15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
On Wednesday, I spent the entire day in court in Follo Tingrett -representing the member association -NUUG, alongside the member -association EFN and the DNS registrar -IMC, challenging the seizure of the DNS name popcorn-time.no. It -was interesting to sit in a court of law for the first time in my -life. Our team can be seen in the picture above: attorney Ola -Tellesbø, EFN board member Tom Fredrik Blenning, IMC CEO Morten Emil -Eriksen and NUUG board member Petter Reinholdtsen.
- -The -case at hand is that the Norwegian National Authority for -Investigation and Prosecution of Economic and Environmental Crime (aka -Ãkokrim) decided on their own, to seize a DNS domain early last -year, without following -the -official policy of the Norwegian DNS authority which require a -court decision. The web site in question was a site covering Popcorn -Time. And Popcorn Time is the name of a technology with both legal -and illegal applications. Popcorn Time is a client combining -searching a Bittorrent directory available on the Internet with -downloading/distribute content via Bittorrent and playing the -downloaded content on screen. It can be used illegally if it is used -to distribute content against the will of the right holder, but it can -also be used legally to play a lot of content, for example the -millions of movies -available from the -Internet Archive or the collection -available from Vodo. We created -a -video demonstrating legally use of Popcorn Time and played it in -Court. It can of course be downloaded using Bittorrent.
- -I did not quite know what to expect from a day in court. The -government held on to their version of the story and we held on to -ours, and I hope the judge is able to make sense of it all. We will -know in two weeks time. Unfortunately I do not have high hopes, as -the Government have the upper hand here with more knowledge about the -case, better training in handling criminal law and in general higher -standing in the courts than fairly unknown DNS registrar and member -associations. It is expensive to be right also in Norway. So far the -case have cost more than NOK 70 000,-. To help fund the case, NUUG -and EFN have asked for donations, and managed to collect around NOK 25 -000,- so far. Given the presentation from the Government, I expect -the government to appeal if the case go our way. And if the case do -not go our way, I hope we have enough funding to appeal.
- -From the other side came two people from Ãkokrim. On the benches, -appearing to be part of the group from the government were two people -from the Simonsen Vogt Wiik lawyer office, and three others I am not -quite sure who was. Ãkokrim had proposed to present two witnesses -from The Motion Picture Association, but this was rejected because -they did not speak Norwegian and it was a bit late to bring in a -translator, but perhaps the two from MPA were present anyway. All -seven appeared to know each other. Good to see the case is take -seriously.
- -If you, like me, believe the courts should be involved before a DNS -domain is hijacked by the government, or you believe the Popcorn Time -technology have a lot of useful and legal applications, I suggest you -too donate to -the NUUG defense fund. Both Bitcoin and bank transfer are -available. If NUUG get more than we need for the legal action (very -unlikely), the rest will be spend promoting free software, open -standards and unix-like operating systems in Norway, so no matter what -happens the money will be put to good use.
- -If you want to lean more about the case, I recommend you check out -the blog -posts from NUUG covering the case. They cover the legal arguments -on both sides.
+ +Five years ago, +I +measured what the most supported MIME type in Debian was, by +analysing the desktop files in all packages in the archive. Since +then, the DEP-11 AppStream system has been put into production, making +the task a lot easier. This made me want to repeat the measurement, +to see how much things changed. Here are the new numbers, for +unstable only this time: + +
Debian Unstable:
+ ++ count MIME type + ----- ----------------------- + 56 image/jpeg + 55 image/png + 49 image/tiff + 48 image/gif + 39 image/bmp + 38 text/plain + 37 audio/mpeg + 34 application/ogg + 33 audio/x-flac + 32 audio/x-mp3 + 30 audio/x-wav + 30 audio/x-vorbis+ogg + 29 image/x-portable-pixmap + 27 inode/directory + 27 image/x-portable-bitmap + 27 audio/x-mpeg + 26 application/x-ogg + 25 audio/x-mpegurl + 25 audio/ogg + 24 text/html ++ +
The list was created like this using a sid chroot: "cat +/var/lib/apt/lists/*sid*_dep11_Components-amd64.yml.gz| zcat | awk '/^ +- \S+\/\S+$/ {print $2 }' | sort | uniq -c | sort -nr | head -20"
+ +It is interesting to see how image formats have passed text/plain +as the most announced supported MIME type. These days, thanks to the +AppStream system, if you run into a file format you do not know, and +want to figure out which packages support the format, you can find the +MIME type of the file using "file --mime <filename>", and then +look up all packages announcing support for this format in their +AppStream metadata (XML or .desktop file) using "appstreamcli +what-provides mimetype <mime-type>. For example if you, like +me, want to know which packages support inode/directory, you can get a +list like this:
+ ++ ++% appstreamcli what-provides mimetype inode/directory | grep Package: | sort +Package: anjuta +Package: audacious +Package: baobab +Package: cervisia +Package: chirp +Package: dolphin +Package: doublecmd-common +Package: easytag +Package: enlightenment +Package: ephoto +Package: filelight +Package: gwenview +Package: k4dirstat +Package: kaffeine +Package: kdesvn +Package: kid3 +Package: kid3-qt +Package: nautilus +Package: nemo +Package: pcmanfm +Package: pcmanfm-qt +Package: qweborf +Package: ranger +Package: sirikali +Package: spacefm +Package: spacefm +Package: vifm +% +
Using the same method, I can quickly discover that the Sketchup file +format is not yet supported by any package in Debian:
+ ++ ++% appstreamcli what-provides mimetype application/vnd.sketchup.skp +Could not find component providing 'mimetype::application/vnd.sketchup.skp'. +% +
Yesterday I used it to figure out which packages support the STL 3D +format:
+ ++ ++% appstreamcli what-provides mimetype application/sla|grep Package +Package: cura +Package: meshlab +Package: printrun +% +
PS: A new version of Cura was uploaded to Debian yesterday.
+ +As usual, if you use Bitcoin and want to show your support of my +activities, please send Bitcoin donations to my address +15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
I dag fikk jeg en skikkelig gladmelding. Bakgrunnen er at før jul -arrangerte Nasjonalbiblioteket -et -seminar om sitt knakende gode tiltak «verksregister». Eneste -måten å melde seg på dette seminaret var å sende personopplysninger -til Google via Google Skjemaer. Dette syntes jeg var tvilsom praksis, -da det bør være mulig å delta på seminarer arrangert av det offentlige -uten å måtte dele sine interesser, posisjon og andre -personopplysninger med Google. Jeg ba derfor om innsyn via -Mimes brønn i -avtaler -og vurderinger Nasjonalbiblioteket hadde rundt dette. -Personopplysningsloven legger klare rammer for hva som må være på -plass før en kan be tredjeparter, spesielt i utlandet, behandle -personopplysninger på sine vegne, så det burde eksistere grundig -dokumentasjon før noe slikt kan bli lovlig. To jurister hos -Nasjonalbiblioteket mente først dette var helt i orden, og at Googles -standardavtale kunne brukes som databehandlingsavtale. Det syntes jeg -var merkelig, men har ikke hatt kapasitet til å følge opp saken før -for to dager siden.
- -Gladnyheten i dag, som kom etter at jeg tipset Nasjonalbiblioteket -om at Datatilsynet underkjente Googles standardavtaler som -databehandleravtaler i 2011, er at Nasjonalbiblioteket har bestemt seg -for å avslutte bruken av Googles Skjemaer/Apps og gå i dialog med DIFI -for å finne bedre måter å håndtere påmeldinger i tråd med -personopplysningsloven. Det er fantastisk å se at av og til hjelper -det å spørre hva i alle dager det offentlige holder på med.
+ +Quite regularly, I let my Debian Sid/Unstable chroot stay untouch +for a while, and when I need to update it there is not enough free +space on the disk for apt to do a normal 'apt upgrade'. I normally +would resolve the issue by doing 'apt install <somepackages>' to +upgrade only some of the packages in one batch, until the amount of +packages to download fall below the amount of free space available. +Today, I had about 500 packages to upgrade, and after a while I got +tired of trying to install chunks of packages manually. I concluded +that I did not have the spare hours required to complete the task, and +decided to see if I could automate it. I came up with this small +script which I call 'apt-in-chunks':
+ ++ ++#!/bin/sh +# +# Upgrade packages when the disk is too full to upgrade every +# upgradable package in one lump. Fetching packages to upgrade using +# apt, and then installing using dpkg, to avoid changing the package +# flag for manual/automatic. + +set -e + +ignore() { + if [ "$1" ]; then + grep -v "$1" + else + cat + fi +} + +for p in $(apt list --upgradable | ignore "$@" |cut -d/ -f1 | grep -v '^Listing...'); do + echo "Upgrading $p" + apt clean + apt install --download-only -y $p + for f in /var/cache/apt/archives/*.deb; do + if [ -e "$f" ]; then + dpkg -i /var/cache/apt/archives/*.deb + break + fi + done +done +
The script will extract the list of packages to upgrade, try to +download the packages needed to upgrade one package, install the +downloaded packages using dpkg. The idea is to upgrade packages +without changing the APT mark for the package (ie the one recording of +the package was manually requested or pulled in as a dependency). To +use it, simply run it as root from the command line. If it fail, try +'apt install -f' to clean up the mess and run the script again. This +might happen if the new packages conflict with one of the old +packages. dpkg is unable to remove, while apt can do this.
+ +It take one option, a package to ignore in the list of packages to +upgrade. The option to ignore a package is there to be able to skip +the packages that are simply too large to unpack. Today this was +'ghc', but I have run into other large packages causing similar +problems earlier (like TeX).
+ +Update 2018-07-08: Thanks to Paul Wise, I am aware of two +alternative ways to handle this. The "unattended-upgrades +--minimal-upgrade-steps" option will try to calculate upgrade sets for +each package to upgrade, and then upgrade them in order, smallest set +first. It might be a better option than my above mentioned script. +Also, "aptutude upgrade" can upgrade single packages, thus avoiding +the need for using "dpkg -i" in the script above.
+ +As usual, if you use Bitcoin and want to show your support of my +activities, please send Bitcoin donations to my address +15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
Jeg leste med interesse en nyhetssak hos -digi.no -og -NRK -om at det ikke bare er meg, men at også NAV bedriver geolokalisering -av IP-adresser, og at det gjøres analyse av IP-adressene til de som -sendes inn meldekort for å se om meldekortet sendes inn fra -utenlandske IP-adresser. Politiadvokat i Drammen, Hans Lyder Haare, -er sitert i NRK på at «De to er jo blant annet avslørt av -IP-adresser. At man ser at meldekortet kommer fra utlandet.»
- -Jeg synes det er fint at det blir bedre kjent at IP-adresser -knyttes til enkeltpersoner og at innsamlet informasjon brukes til å -stedsbestemme personer også av aktører her i Norge. Jeg ser det som -nok et argument for å bruke -Tor så mye som mulig for å -gjøre gjøre IP-lokalisering vanskeligere, slik at en kan beskytte sin -privatsfære og unngå å dele sin fysiske plassering med -uvedkommede.
- -Men det er en ting som bekymrer meg rundt denne nyheten. Jeg ble -tipset (takk #nuug) om -NAVs -personvernerklæring, som under punktet «Personvern og statistikk» -lyder:
- -- -+ +«Når du besøker nav.no, etterlater du deg elektroniske spor. Sporene -dannes fordi din nettleser automatisk sender en rekke opplysninger til -NAVs tjener (server-maskin) hver gang du ber om å få vist en side. Det -er eksempelvis opplysninger om hvilken nettleser og -versjon du -bruker, og din internettadresse (ip-adresse). For hver side som vises, -lagres følgende opplysninger:
- --
- -- hvilken side du ser på
-- dato og tid
-- hvilken nettleser du bruker
-- din ip-adresse
-Ingen av opplysningene vil bli brukt til å identifisere -enkeltpersoner. NAV bruker disse opplysningene til å generere en -samlet statistikk som blant annet viser hvilke sider som er mest -populære. Statistikken er et redskap til å forbedre våre -tjenester.»
- -
So far, at least hydro-electric power, coal power, wind power, +solar power, and wood power are well known. Until a few days ago, I +had never heard of stone power. Then I learn about a quarry in a +mountain in +Bremanger i +Norway, where +the +Bremanger Quarry company is extracting stone and dumping the stone +into a shaft leading to its shipping harbour. This downward movement +in this shaft is used to produce electricity. In short, it is using +falling rocks instead of falling water to produce electricity, and +according to its own statements it is producing more power than it is +using, and selling the surplus electricity to the Norwegian power +grid. I find the concept truly amazing. Is this the worlds only +stone power plant?
-Jeg klarer ikke helt å se hvordan analyse av de besøkendes -IP-adresser for å se hvem som sender inn meldekort via web fra en -IP-adresse i utlandet kan gjøres uten å komme i strid med påstanden om -at «ingen av opplysningene vil bli brukt til å identifisere -enkeltpersoner». Det virker dermed for meg som at NAV bryter sine -egen personvernerklæring, hvilket -Datatilsynet -fortalte meg i starten av desember antagelig er brudd på -personopplysningsloven. - -
I tillegg er personvernerklæringen ganske misvisende i og med at -NAVs nettsider ikke bare forsyner NAV med personopplysninger, men i -tillegg ber brukernes nettleser kontakte fem andre nettjenere -(script.hotjar.com, static.hotjar.com, vars.hotjar.com, -www.google-analytics.com og www.googletagmanager.com), slik at -personopplysninger blir gjort tilgjengelig for selskapene Hotjar og -Google , og alle som kan lytte på trafikken på veien (som FRA, GCHQ og -NSA). Jeg klarer heller ikke se hvordan slikt spredning av -personopplysninger kan være i tråd med kravene i -personopplysningloven, eller i tråd med NAVs personvernerklæring.
- -Kanskje NAV bør ta en nøye titt på sin personvernerklæring? Eller -kanskje Datatilsynet bør gjøre det?
+As usual, if you use Bitcoin and want to show your support of my +activities, please send Bitcoin donations to my address +15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
Did you ever wonder where the web trafic really flow to reach the -web servers, and who own the network equipment it is flowing through? -It is possible to get a glimpse of this from using traceroute, but it -is hard to find all the details. Many years ago, I wrote a system to -map the Norwegian Internet (trying to figure out if our plans for a -network game service would get low enough latency, and who we needed -to talk to about setting up game servers close to the users. Back -then I used traceroute output from many locations (I asked my friends -to run a script and send me their traceroute output) to create the -graph and the map. The output from traceroute typically look like -this: - -
-traceroute to www.stortinget.no (85.88.67.10), 30 hops max, 60 byte packets - 1 uio-gw10.uio.no (129.240.202.1) 0.447 ms 0.486 ms 0.621 ms - 2 uio-gw8.uio.no (129.240.24.229) 0.467 ms 0.578 ms 0.675 ms - 3 oslo-gw1.uninett.no (128.39.65.17) 0.385 ms 0.373 ms 0.358 ms - 4 te3-1-2.br1.fn3.as2116.net (193.156.90.3) 1.174 ms 1.172 ms 1.153 ms - 5 he16-1-1.cr1.san110.as2116.net (195.0.244.234) 2.627 ms he16-1-1.cr2.oslosda310.as2116.net (195.0.244.48) 3.172 ms he16-1-1.cr1.san110.as2116.net (195.0.244.234) 2.857 ms - 6 ae1.ar8.oslosda310.as2116.net (195.0.242.39) 0.662 ms 0.637 ms ae0.ar8.oslosda310.as2116.net (195.0.242.23) 0.622 ms - 7 89.191.10.146 (89.191.10.146) 0.931 ms 0.917 ms 0.955 ms - 8 * * * - 9 * * * -[...] -- -
This show the DNS names and IP addresses of (at least some of the) -network equipment involved in getting the data traffic from me to the -www.stortinget.no server, and how long it took in milliseconds for a -package to reach the equipment and return to me. Three packages are -sent, and some times the packages do not follow the same path. This -is shown for hop 5, where three different IP addresses replied to the -traceroute request.
- -There are many ways to measure trace routes. Other good traceroute -implementations I use are traceroute (using ICMP packages) mtr (can do -both ICMP, UDP and TCP) and scapy (python library with ICMP, UDP, TCP -traceroute and a lot of other capabilities). All of them are easily -available in Debian.
- -This time around, I wanted to know the geographic location of -different route points, to visualize how visiting a web page spread -information about the visit to a lot of servers around the globe. The -background is that a web site today often will ask the browser to get -from many servers the parts (for example HTML, JSON, fonts, -JavaScript, CSS, video) required to display the content. This will -leak information about the visit to those controlling these servers -and anyone able to peek at the data traffic passing by (like your ISP, -the ISPs backbone provider, FRA, GCHQ, NSA and others).
- -Lets pick an example, the Norwegian parliament web site -www.stortinget.no. It is read daily by all members of parliament and -their staff, as well as political journalists, activits and many other -citizens of Norway. A visit to the www.stortinget.no web site will -ask your browser to contact 8 other servers: ajax.googleapis.com, -insights.hotjar.com, script.hotjar.com, static.hotjar.com, -stats.g.doubleclick.net, www.google-analytics.com, -www.googletagmanager.com and www.netigate.se. I extracted this by -asking PhantomJS to visit the -Stortinget web page and tell me all the URLs PhantomJS downloaded to -render the page (in HAR format using -their -netsniff example. I am very grateful to Gorm for showing me how -to do this). My goal is to visualize network traces to all IP -addresses behind these DNS names, do show where visitors personal -information is spread when visiting the page.
- - - -When I had a look around for options, I could not find any good -free software tools to do this, and decided I needed my own traceroute -wrapper outputting KML based on locations looked up using GeoIP. KML -is easy to work with and easy to generate, and understood by several -of the GIS tools I have available. I got good help from by NUUG -colleague Anders Einar with this, and the result can be seen in -my -kmltraceroute git repository. Unfortunately, the quality of the -free GeoIP databases I could find (and the for-pay databases my -friends had access to) is not up to the task. The IP addresses of -central Internet infrastructure would typically be placed near the -controlling companies main office, and not where the router is really -located, as you can see from the -KML file I created using the GeoLite City dataset from MaxMind. - -
- -I also had a look at the visual traceroute graph created by -the scrapy project, -showing IP network ownership (aka AS owner) for the IP address in -question. -The -graph display a lot of useful information about the traceroute in SVG -format, and give a good indication on who control the network -equipment involved, but it do not include geolocation. This graph -make it possible to see the information is made available at least for -UNINETT, Catchcom, Stortinget, Nordunet, Google, Amazon, Telia, Level -3 Communications and NetDNA.
- - - -In the process, I came across the -web service GeoTraceroute by -Salim Gasmi. Its methology of combining guesses based on DNS names, -various location databases and finally use latecy times to rule out -candidate locations seemed to do a very good job of guessing correct -geolocation. But it could only do one trace at the time, did not have -a sensor in Norway and did not make the geolocations easily available -for postprocessing. So I contacted the developer and asked if he -would be willing to share the code (he refused until he had time to -clean it up), but he was interested in providing the geolocations in a -machine readable format, and willing to set up a sensor in Norway. So -since yesterday, it is possible to run traces from Norway in this -service thanks to a sensor node set up by -the NUUG assosiation, and get the -trace in KML format for further processing.
- - - -Here we can see a lot of trafic passes Sweden on its way to -Denmark, Germany, Holland and Ireland. Plenty of places where the -Snowden confirmations verified the traffic is read by various actors -without your best interest as their top priority.
- -Combining KML files is trivial using a text editor, so I could loop -over all the hosts behind the urls imported by www.stortinget.no and -ask for the KML file from GeoTraceroute, and create a combined KML -file with all the traces (unfortunately only one of the IP addresses -behind the DNS name is traced this time. To get them all, one would -have to request traces using IP number instead of DNS names from -GeoTraceroute). That might be the next step in this project.
- -Armed with these tools, I find it a lot easier to figure out where -the IP traffic moves and who control the boxes involved in moving it. -And every time the link crosses for example the Swedish border, we can -be sure Swedish Signal Intelligence (FRA) is listening, as GCHQ do in -Britain and NSA in USA and cables around the globe. (Hm, what should -we tell them? :) Keep that in mind if you ever send anything -unencrypted over the Internet.
- -PS: KML files are drawn using -the KML viewer from Ivan -Rublev, as it was less cluttered than the local Linux application -Marble. There are heaps of other options too.
+ +My movie playing setup involve Kodi, +OpenELEC (probably soon to be +replaced with LibreELEC) and an +Infocus IN76 video projector. My projector can be controlled via both +a infrared remote controller, and a RS-232 serial line. The vendor of +my projector, InFocus, had been +sensible enough to document the serial protocol in its user manual, so +it is easily available, and I used it some years ago to write +a +small script to control the projector. For a while now, I longed +for a setup where the projector was controlled by Kodi, for example in +such a way that when the screen saver went on, the projector was +turned off, and when the screen saver exited, the projector was turned +on again.
+ +A few days ago, with very good help from parts of my family, I +managed to find a Kodi Add-on for controlling a Epson projector, and +got in touch with its author to see if we could join forces and make a +Add-on with support for several projectors. To my pleasure, he was +positive to the idea, and we set out to add InFocus support to his +add-on, and make the add-on suitable for the official Kodi add-on +repository.
+ +The Add-on is now working (for me, at least), with a few minor +adjustments. The most important change I do relative to the master +branch in the github repository is embedding the +pyserial module in +the add-on. The long term solution is to make a "script" type +pyserial module for Kodi, that can be pulled in as a dependency in +Kodi. But until that in place, I embed it.
+ +The add-on can be configured to turn on the projector when Kodi +starts, off when Kodi stops as well as turn the projector off when the +screensaver start and on when the screesaver stops. It can also be +told to set the projector source when turning on the projector. + +
If this sound interesting to you, check out +the +project github repository. Perhaps you can send patches to +support your projector too? As soon as we find time to wrap up the +latest changes, it should be available for easy installation using any +Kodi instance.
+ +For future improvements, I would like to add projector model +detection and the ability to adjust the brightness level of the +projector from within Kodi. We also need to figure out how to handle +the cooling period of the projector. My projector refuses to turn on +for 60 seconds after it was turned off. This is not handled well by +the add-on at the moment.
As usual, if you use Bitcoin and want to show your support of my activities, please send Bitcoin donations to my address -15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
+15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.Do you have a large iCalendar -file with lots of old entries, and would like to archive them to save -space and resources? At least those of us using KOrganizer know that -turning on and off an event set become slower and slower the more -entries are in the set. While working on migrating our calendars to a -Radicale CalDAV server on our -Freedombox server, my -loved one wondered if I could find a way to split up the calendar file -she had in KOrganizer, and I set out to write a tool. I spent a few -days writing and polishing the system, and it is now ready for general -consumption. The -code for -ical-archiver is publicly available from a git repository on -github. The system is written in Python and depend on -the vobject Python -module.
- -To use it, locate the iCalendar file you want to operate on and -give it as an argument to the ical-archiver script. This will -generate a set of new files, one file per component type per year for -all components expiring more than two years in the past. The vevent, -vtodo and vjournal entries are handled by the script. The remaining -entries are stored in a 'remaining' file.
- -This is what a test run can look like: +
+I VHS-kassettenes +tid var det rett frem å ta vare på et TV-program en ønsket å kunne se +senere, uten å være avhengig av at programmet ble sendt på nytt. +Kanskje ønsket en å se programmet på hytten der det ikke var +TV-signal, eller av andre grunner ha det tilgjengelig for fremtidig +fornøyelse. Dette er blitt vanskeligere med introduksjon av +digital-TV og webstreaming, der opptak til harddisk er utenfor de +flestes kontroll hvis de bruker ufri programvare og bokser kontrollert +av andre. Men for NRK her i Norge, finnes det heldigvis flere fri +programvare-alternativer, som jeg har +skrevet +om +før. +Så lenge kilden for nedlastingen er lovlig lagt ut på nett (hvilket +jeg antar NRK gjør), så er slik lagring til privat bruk også lovlig i +Norge.
+ +Sist jeg så på saken, i 2016, nevnte jeg at +youtube-dl ikke kunne +bake undertekster fra NRK inn i videofilene, og at jeg derfor +foretrakk andre alternativer. Nylig oppdaget jeg at dette har endret +seg. Fordelen med youtube-dl er at den er tilgjengelig direkte fra +Linux-distribusjoner som Debian +og Ubuntu, slik at en slipper å +finne ut selv hvordan en skal få dem til å virke.
+ +For å laste ned et NRK-innslag med undertekster, og få den norske +underteksten pakket inn i videofilen, så kan følgende kommando +brukes:
-% ical-archiver t/2004-2016.ics -Found 3612 vevents -Found 6 vtodos -Found 2 vjournals -Writing t/2004-2016.ics-subset-vevent-2004.ics -Writing t/2004-2016.ics-subset-vevent-2005.ics -Writing t/2004-2016.ics-subset-vevent-2006.ics -Writing t/2004-2016.ics-subset-vevent-2007.ics -Writing t/2004-2016.ics-subset-vevent-2008.ics -Writing t/2004-2016.ics-subset-vevent-2009.ics -Writing t/2004-2016.ics-subset-vevent-2010.ics -Writing t/2004-2016.ics-subset-vevent-2011.ics -Writing t/2004-2016.ics-subset-vevent-2012.ics -Writing t/2004-2016.ics-subset-vevent-2013.ics -Writing t/2004-2016.ics-subset-vevent-2014.ics -Writing t/2004-2016.ics-subset-vjournal-2007.ics -Writing t/2004-2016.ics-subset-vjournal-2011.ics -Writing t/2004-2016.ics-subset-vtodo-2012.ics -Writing t/2004-2016.ics-remaining.ics -% +youtube-dl --write-sub --sub-format ttml \ + --convert-subtitles srt --embed-subs \ + https://tv.nrk.no/serie/ramm-ferdig-gaa/MUHU11000316/27-04-2018-
As you can see, the original file is untouched and new files are -written with names derived from the original file. If you are happy -with their content, the *-remaining.ics file can replace the original -the the others can be archived or imported as historical calendar -collections.
- -The script should probably be improved a bit. The error handling -when discovering broken entries is not good, and I am not sure yet if -it make sense to split different entry types into separate files or -not. The program is thus likely to change. If you find it -interesting, please get in touch. :)
- -As usual, if you use Bitcoin and want to show your support of my -activities, please send Bitcoin donations to my address -15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
+URL-eksemplet er dagens toppsak på tv.nrk.no. Resultatet er en +MP4-fil med filmen og undertekster som kan spilles av med VLC. Merk +at VLC ikke viser frem undertekster før du aktiverer dem. For å gjøre +det, høyreklikk med musa i fremviservinduet, velg menyvalget for +undertekst og så norsk språk. Jeg testet også '--write-auto-sub', +men det kommandolinjeargumentet ser ikke ut til å fungere, så jeg +endte opp med settet med argumentlisten over, som jeg fant i en +feilrapport i youtube-dl-prosjektets samling over feilrapporter.
+ +Denne støtten i youtube-dl gjør det svært enkelt å lagre +NRK-innslag, det være seg nyheter, filmer, serier eller dokumentater, +for å ha dem tilgjengelig for fremtidig referanse og bruk, uavhengig +av hvor lenge innslagene ligger tilgjengelig hos NRK. Så får det ikke +hjelpe at NRKs jurister mener at det er +vesensforskjellig +å legge tilgjengelig for nedlasting og for streaming, når det rent +teknisk er samme sak.
+ +Programmet youtube-dl støtter også en rekke andre nettsteder, se +prosjektoversikten for +en +komplett liste.
I received a very nice Christmas present today. As my regular -readers probably know, I have been working on the -the Isenkram -system for many years. The goal of the Isenkram system is to make -it easier for users to figure out what to install to get a given piece -of hardware to work in Debian, and a key part of this system is a way -to map hardware to packages. Isenkram have its own mapping database, -and also uses data provided by each package using the AppStream -metadata format. And today, -AppStream in -Debian learned to look up hardware the same way Isenkram is doing it, -ie using fnmatch():
- --% appstreamcli what-provides modalias \ - usb:v1130p0202d0100dc00dsc00dp00ic03isc00ip00in00 -Identifier: pymissile [generic] -Name: pymissile -Summary: Control original Striker USB Missile Launcher -Package: pymissile -% appstreamcli what-provides modalias usb:v0694p0002d0000 -Identifier: libnxt [generic] -Name: libnxt -Summary: utility library for talking to the LEGO Mindstorms NXT brick -Package: libnxt ---- -Identifier: t2n [generic] -Name: t2n -Summary: Simple command-line tool for Lego NXT -Package: t2n ---- -Identifier: python-nxt [generic] -Name: python-nxt -Summary: Python driver/interface/wrapper for the Lego Mindstorms NXT robot -Package: python-nxt ---- -Identifier: nbc [generic] -Name: nbc -Summary: C compiler for LEGO Mindstorms NXT bricks -Package: nbc -% -- -
A similar query can be done using the combined AppStream and -Isenkram databases using the isenkram-lookup tool:
- --% isenkram-lookup usb:v1130p0202d0100dc00dsc00dp00ic03isc00ip00in00 -pymissile -% isenkram-lookup usb:v0694p0002d0000 -libnxt -nbc -python-nxt -t2n -% -- -
You can find modalias values relevant for your machine using -cat $(find /sys/devices/ -name modalias). - -
If you want to make this system a success and help Debian users -make the most of the hardware they have, please -helpadd -AppStream metadata for your package following the guidelines -documented in the wiki. So far only 11 packages provide such -information, among the several hundred hardware specific packages in -Debian. The Isenkram database on the other hand contain 101 packages, -mostly related to USB dongles. Most of the packages with hardware -mapping in AppStream are LEGO Mindstorms related, because I have, as -part of my involvement in -the Debian LEGO -team given priority to making sure LEGO users get proposed the -complete set of packages in Debian for that particular hardware. The -team also got a nice Christmas present today. The -nxt-firmware -package made it into Debian. With this package in place, it is -now possible to use the LEGO Mindstorms NXT unit with only free -software, as the nxt-firmware package contain the source and firmware -binaries for the NXT brick.
- -As usual, if you use Bitcoin and want to show your support of my -activities, please send Bitcoin donations to my address -15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
+ +VG, +Dagbladet +og +NRK +melder i dag at flertallet i Familie- og kulturkomiteen på Stortinget +har bestemt seg for å introdusere en ny sensurinfrastruktur i Norge. +Fra før har Norge en «frivillig» sensurinfrastruktur basert på +DNS-navn, der de største ISP-ene basert på en liste med DNS-navn +forgifter DNS-svar og omdirigerer til et annet IP-nummer enn det som +ligger i DNS. Nå kommer altså IP-basert omdirigering i tillegg. Når +infrastrukturen er på plass, er sensur av IP-adresser redusert et +spørsmål om hvilke IP-nummer som skal blokkeres. Listen over +IP-adresser vil naturligvis endre seg etter hvert som myndighetene +endrer seg. Det er ingen betryggende tanke.
The Isenkram -system I wrote two years ago to make it easier in Debian to find -and install packages to get your hardware dongles to work, is still -going strong. It is a system to look up the hardware present on or -connected to the current system, and map the hardware to Debian -packages. It can either be done using the tools in isenkram-cli or -using the user space daemon in the isenkram package. The latter will -notify you, when inserting new hardware, about what packages to -install to get the dongle working. It will even provide a button to -click on to ask packagekit to install the packages.
- -Here is an command line example from my Thinkpad laptop:
- --% isenkram-lookup -bluez -cheese -ethtool -fprintd -fprintd-demo -gkrellm-thinkbat -hdapsd -libpam-fprintd -pidgin-blinklight -thinkfan -tlp -tp-smapi-dkms -tp-smapi-source -tpb -% -- -
It can also list the firware package providing firmware requested -by the load kernel modules, which in my case is an empty list because -I have all the firmware my machine need: - -
-% /usr/sbin/isenkram-autoinstall-firmware -l -info: did not find any firmware files requested by loaded kernel modules. exiting -% -- -
The last few days I had a look at several of the around 250 -packages in Debian with udev rules. These seem like good candidates -to install when a given hardware dongle is inserted, and I found -several that should be proposed by isenkram. I have not had time to -check all of them, but am happy to report that now there are 97 -packages packages mapped to hardware by Isenkram. 11 of these -packages provide hardware mapping using AppStream, while the rest are -listed in the modaliases file provided in isenkram.
- -These are the packages with hardware mappings at the moment. The -marked packages are also announcing their hardware -support using AppStream, for everyone to use:
- -air-quality-sensor, alsa-firmware-loaders, argyll, -array-info, avarice, avrdude, b43-fwcutter, -bit-babbler, bluez, bluez-firmware, brltty, -broadcom-sta-dkms, calibre, cgminer, cheese, colord, -colorhug-client, dahdi-firmware-nonfree, dahdi-linux, -dfu-util, dolphin-emu, ekeyd, ethtool, firmware-ipw2x00, fprintd, -fprintd-demo, galileo, gkrellm-thinkbat, gphoto2, -gpsbabel, gpsbabel-gui, gpsman, gpstrans, gqrx-sdr, gr-fcdproplus, -gr-osmosdr, gtkpod, hackrf, hdapsd, hdmi2usb-udev, hpijs-ppds, hplip, -ipw3945-source, ipw3945d, kde-config-tablet, kinect-audio-setup, -libnxt, libpam-fprintd, lomoco, -madwimax, minidisc-utils, mkgmap, msi-keyboard, mtkbabel, -nbc, nqc, nut-hal-drivers, ola, -open-vm-toolbox, open-vm-tools, openambit, pcgminer, pcmciautils, -pcscd, pidgin-blinklight, printer-driver-splix, -pymissile, python-nxt, qlandkartegt, -qlandkartegt-garmin, rosegarden, rt2x00-source, sispmctl, -soapysdr-module-hackrf, solaar, squeak-plugins-scratch, sunxi-tools, -t2n, thinkfan, thinkfinger-tools, tlp, tp-smapi-dkms, -tp-smapi-source, tpb, tucnak, uhd-host, usbmuxd, viking, -virtualbox-ose-guest-x11, w1retap, xawtv, xserver-xorg-input-vmmouse, -xserver-xorg-input-wacom, xserver-xorg-video-qxl, -xserver-xorg-video-vmware, yubikey-personalization and -zd1211-firmware
- -If you know of other packages, please let me know with a wishlist -bug report against the isenkram-cli package, and ask the package -maintainer to -add AppStream -metadata according to the guidelines to provide the information -for everyone. In time, I hope to get rid of the isenkram specific -hardware mapping and depend exclusively on AppStream.
- -Note, the AppStream metadata for broadcom-sta-dkms is matching too -much hardware, and suggest that the package with with any ethernet -card. See bug #838735 for -the details. I hope the maintainer find time to address it soon. In -the mean time I provide an override in isenkram.
+ +Brevpost er beskyttet av straffelovens bestemmelse som gjør det +kriminelt å åpne andres brev. Dette følger av (ny) straffelovs +§ 205 +(Krenkelse av retten til privat kommunikasjon), som sier at «Med +bot eller fengsel inntil 2 år straffes den som uberettiget ... c) +åpner brev eller annen lukket skriftlig meddelelse som er adressert +til en annen, eller på annen måte skaffer seg uberettiget tilgang til +innholdet.» Dette gjelder såvel postbud som alle andre som har +befatning med brevet etter at avsender har befatning med et lukket +brev. Tilsvarende står også tidligere utgaver av den norske +straffeloven.
+ +Når en registrerer seg på usikre digitale postkasseløsningene, som +f.eks. Digipost og e-Boks, og slik tar disse i bruk, så gir en de som +står bak løsningene tillatelse til å åpne sine brev. Dette er +nødvendig for at innholdet i digital post skal kunne vises frem til +mottaker via tjenestens websider. Dermed gjelder ikke straffelovens +paragraf om forbud mot å åpne brev, da tilgangen ikke lenger er +uberettiget. En gir altså fremmede tilgang til å lese sin +korrespondanse. I tillegg vil bruk av slike usikre digitale +postbokser føre til at det blir registrert når du leser brevene, hvor +du befinner deg (vha. tilkoblingens IP-adresse), hvilket utstyr du +bruker og en rekke annen personlig informasjon som ikke er +tilgjengelig når papirpost brukes. Jeg foretrekker at det er +lovmessig beskyttelse av min korrespondanse, som jo inneholder privat +og personlig informasjon. Det bidrar til litt bedre vern av personlig +integritet i dagens norske samfunn.
In my early years, I played -the epic game -Elite on my PC. I spent many months trading and fighting in -space, and reached the 'elite' fighting status before I moved on. The -original Elite game was available on Commodore 64 and the IBM PC -edition I played had a 64 KB executable. I am still impressed today -that the authors managed to squeeze both a 3D engine and details about -more than 2000 planet systems across 7 galaxies into a binary so -small.
- -I have known about the free -software game Oolite inspired by Elite for a while, but did not -really have time to test it properly until a few days ago. It was -great to discover that my old knowledge about trading routes were -still valid. But my fighting and flying abilities were gone, so I had -to retrain to be able to dock on a space station. And I am still not -able to make much resistance when I am attacked by pirates, so I -bougth and mounted the most powerful laser in the rear to be able to -put up at least some resistance while fleeing for my life. :)
- -When playing Elite in the late eighties, I had to discover -everything on my own, and I had long lists of prices seen on different -planets to be able to decide where to trade what. This time I had the -advantages of the -Elite wiki, -where information about each planet is easily available with common -price ranges and suggested trading routes. This improved my ability -to earn money and I have been able to earn enough to buy a lot of -useful equipent in a few days. I believe I originally played for -months before I could get a docking computer, while now I could get it -after less then a week.
- -If you like science fiction and dreamed of a life as a vagabond in -space, you should try out Oolite. It is available for Linux, MacOSX -and Windows, and is included in Debian and derivatives since 2011.
+ +The leaders of the worlds have started to congratulate the +re-elected Russian head of state, and this causes some criticism. I +am though a little fascinated by a comment from USA senator John McCain, +sited +by The Hill and others: -
As usual, if you use Bitcoin and want to show your support of my -activities, please send Bitcoin donations to my address -15oWEoG9dUPovwmUL9KWAnYRtNJEkP1u1b.
+++ +"An American president does not lead the Free World by +congratulating dictators on winning sham elections."
+
While I totally agree with the senator here, the way the quote is +phrased make me suspect that he is unaware of the simple fact that USA +have not lead the Free World since at least before its government +kidnapped a +completely innocent Canadian citizen in transit on his way home to +Canada via John F. Kennedy International Airport in September 2002 and +sent him to be tortured in Syria for a year.
+ +USA might be running ahead, but the path they are taking is not the +one taken by any Free World.
Når jeg bruker Ghostery, -uBlock, -uMatrix, -ScriptSafe og andre -nettleserverktøy (de passer på hverandre) for å holde styr på hvordan -nettsteder sprer informasjon om hvilke nettsider jeg leser blir det -veldig synlig hvilke nettsteder som er satt opp til å utveksle -informasjon med utlandet og tredjeparter. For en stund siden la jeg -merke til at det virker å være avvik mellom personvernpolicy og -praksis endel steder, og tok tak i et par konkrete eksempler og sendte -spørsmål til Datatilsynets kontaktpunkt for veiledning:
- -- -- -«Jeg har et spørsmål når det gjelder bruken av Google Analytics og -personvernpolicy. Er det lovlig for et nettsted å si en ting i -personvernpolicy og gjøre noe annet i virkeligheten? Spesifikt lurer -jeg på hvilket lov som er brutt hvis nettstedet i HTML-koden til -nettsidene ber lesernes nettleser om å kontakte Google Analytics og -slik overleverer sitt IP-nummer til Google, samtidig som -personvernpolicien hevder at Google Analytics kun får anonymiserte -data. Google får jo i slike tilfeller alltid overført fullt -IP-nummer, og nettstedet kan i URL-en som brukes be Google om å ikke -lagre deler av IP-adressen (omtalt som anonymisering av Google -Analytics)
- -Et eksempel er Nettavisen digi.no. -Deres -personvernpolicy sier følgende:
- -- «Tredjeparter (som Google Analytics, Cxense, TNS Gallup) får kun - anonymiserte data.» -- -Men når en leser artikler der så blir maskiner i Norge, USA, -Tyskland, Danmark, Storbritannia, Irland og Nederland varslet om -besøket og får dermed overlevert full IP-adresse, som datatilsynet har -uttalt er en personopplysning. Nettsidene er satt opp til be -nettleseren å kontakte 29 ulike maskiner rundt om i verden. Fire av -dem er er under DNS-domenene digi.no og tek.no som tilhører samme -eier. I tillegg ber nettsidene ikke -Google -Analytics om å fjerne siste oktett i IP-adressen ved lagring, -dvs. flagget «aip=1» er ikke satt i URL-en som brukes for å kontakte -Google Analytics.
- -Tilsvarende er også tilfelle for andre nettsteder, så digi.no er -ikke spesiell i så måte (dagbladet.no er et annet eksempel, det -gjelder flere).»
- -
Etter noen dager kunne juridisk rådgiver Elisabeth Krauss Amundsen -hos Datatilsynet fortelle det følgende:
- --«Hei, og takk for din e-post. - -- - - -Vår svartjeneste gir deg kortfattet rådgivning. Vi vil derfor ikke konkludere -i saken din, men gi deg råd og veiledning.
- -Ut ifra det du skriver er det antakelig flere bestemmelser i -personopplysingsloven som brytes dersom virksomhetens personvernpolicy -sier noe annet om behandlingen av personopplysninger enn det som -faktisk skjer. Antakelig vil det være et brudd på informasjonsplikten -i personopplysingsloven §§ 18 og -19<https://lovdata.no/dokument/NL/lov/2000-04-14-31/KAPITTEL_2#§18> -dersom det gis feilinformasjon om at opplysningene utleveres. Det kan -også stilles spørsmål om grunnkravene for behandling av -personopplysninger vil være oppfylt ved en utlevering av -personopplysninger til en tredjepart, dersom dette ikke er inkludert -behandlingsgrunnlaget og formålet med behandlingen, se -personopplysingsloven § 11, jf. -8.<https://lovdata.no/dokument/NL/lov/2000-04-14-31/KAPITTEL_2#§11>» -
Oppdatert med kunnskap om lover og regler tok jeg så kontakt med -Dagbladet på epostadressen de annonserer på sine -personvernpolicysider:
- -
- -- -«Jeg lurte litt i forbindelse med en bloggpost jeg skriver på, og lurer -på om dere hjelpe meg med å finne ut av følgende. Først litt -bakgrunnsinformasjon. -Dagbladets -personvernpolicy forteller følgende:
- --- - -«3. Automatisk innhentet informasjon
- -For eksempel IP-adressen din (ikke synlig for andre) samt - statistisk, automatisk produsert informasjon, som når du sist var - innlogget på tjenesten. Dette er informasjon vi samler for å gjøre - tjenesten best mulig.»
- -Men når en besøker nettsidene til Dagbladet, -f.eks. forsiden, så er nettsidene -satt opp til å kontakte mange tredjeparter som slik får tilgang til -både fullt IP-nummer og i de fleste tilfeller nøyaktig hvilken -artikkel en leser hos Dagbladet ved at Referer-feltet fylles og legges -ved. Dette gjelder Google Analytics, Cxense, INS Gallup, Doubleclick -med flere. Totalt ber forsiden nettleseren om å koble seg opp til 60 -nettsteder med 149 separate oppkoblinger. I hver av disse -oppkoblingene oversendes IP-adressen til leseren, og i følge -Datatilsynet er -«en -IP-adresse definert som en personopplysning fordi den kan spores -tilbake til en bestemt maskinvare og dermed til en enkeltperson».
- -Datatilsynet har fortalt meg at i følge personopplysingsloven §§ 18 -og 19 skal informasjonen som gis om bruk og utlevering av -personopplysninger være korrekt. De forteller videre at det er endel -grunnkrav som må være oppfylt ved utlevering av personopplysninger til -tredjeparter, nærmere forklart i personopplysingsloven § 11 som -henviser til § 8.
- -Mitt spørsmål er dermed som følger:
- -- -- -Hva mener dere i personpolicyen når dere skriver at IP-adressen ikke - er synlig for andre?»
- -
Etter en uke har jeg fortsatt ikke fått svar fra Dagbladet på mitt -spørsmål, så neste steg er antagelig å høre om Datatilsynet er -interessert i å se på saken.
- -Men Dagbladet er ikke det eneste nettstedet som forteller at de -ikke deler personopplysninger med andre mens observerbar praksis -dokumenterer noe annet. Jeg sendte derfor også et spørsmål til -kontaktadressen til nettavisen Digi.no, og der var responsen mye -bedre:
- -- -- -«Jeg lurte på en ting i forbindelse med en bloggpost jeg skriver på, -og lurer på om dere hjelpe meg. Først litt bakgrunnsinformasjon. -Digi.nos -personvernpolicy forteller følgende:
- -- «All personlig informasjon blir lagret i våre systemer, disse er ikke - tilgjengelig for tredjeparter, og blir ikke lagret i - informasjonskapsler. Tredjeparter (som Google Analytics, Cxense, - TNS Gallup) får kun anonymiserte data.» -- -Men når en besøker nettsidene til nettavisen, f.eks. -forsiden, så er nettsidene satt opp -til å kontakte mange tredjeparter som slik får tilgang til både fullt -IP-nummer og i de fleste tilfeller nøyaktig hvilken artikkel en leser -hos Digi.no ved at Referer-feltet fylles og legges ved. Dette gjelder -både Google Analytics, Cxense blant og INS Gallum. Totalt ber -forsiden nettleseren om å koble seg opp til 29 nettsteder med 44 -separate oppkoblinger. I hver av disse oppkoblingene sendes -IP-adressen til leseren over, og i følge Datatilsynet er -«en -IP-adresse definert som en personopplysning fordi den kan spores -tilbake til en bestemt maskinvare og dermed til en enkeltperson». -Det jeg ser virker ikke å være i tråd med personvernpolicyen.
- -Når en besøker Digi.nos nettsider gjøres det to oppkoblinger til -Google Analytics, en for å hente ned programkoden som samler -informasjon fra nettleseren og sender over til Google (analytics.js), -og en for å overføre det som ble samlet inn. I den siste oppkoblingen -er det mulig å be Google om å ikke ta vare på hele IP-adressen, men i -stedet fjerne siste oktett i IP-adressen. Dette omtales ofte litt -misvisende for «anonymisert» bruk av Google Analytics, i og med at -fullt IP-nummer blir sendt til Google og det er opp til Google om de -vil bry seg om ønsket fra de som har laget nettsiden. Ut fra det som -står i personvernpolicyen ville jeg tro at Digi.no ba google om å ikke -ta vare på hele IP-nummeret, men når en ser på den andre oppkoblingen -kan en se at flagget «aio=1» ikke er satt, og at Digi.no ikke ber -Google om å la være å lagre hele IP-adressen. Dette virker heller -ikke å være i tråd med personvernpolicyen.
- -Datatilsynet har fortalt meg at i følge personopplysingsloven §§ 18 -og 19 skal informasjonen som gis om bruk og utlevering av -personopplysninger være korrekt. De forteller videre at det er endel -grunnkrav som må være oppfylt ved utlevering av personopplysninger til -tredjeparter, nærmere forklart i personopplysingsloven § 11 som -henviser til § 8. Det er uklart for meg om disse kravene er oppfylt -når IP-adresse og informasjon om hvilke websider som besøkes til -tredjeparter.
- -Mitt spørsmål er dermed som følger:
- -- -- -Hva mener dere i personpolicyen når dere skriver at «Tredjeparter - får kun anonymiserte data»?»
- -
Redaksjonssjef Kurt Lekanger svarte samme dag og forklarte at han -mÃ¥tte komme tilbake til meg nÃ¥r han hadde med utviklingsavdelingen. -Seks dager senere lurte jeg pÃ¥ hva han fant ut, og etter noen timer -fikk jeg sÃ¥ følgende svar fra direktøren for teknologi og -forretningsutvikling Ãystein W. Høie i Teknisk Ukeblad Media:
- -- -- -«Takk for godt tips! Det er helt riktig at IP og referrer-adresse -potensielt kan leses ut av tredjepart.
- -Retningslinjene våre har vært uklare på dette tidspunktet, og vi -oppdaterer nå disse så dette kommer tydeligere frem. Ny tekst blir som -følger:
- -
-3. Dette bruker vi ikke informasjonen til Informasjon du oppgir til -oss blir lagret i våre systemer, er ikke tilgjengelig for -tredjeparter, og blir ikke lagret i informasjonskapsler. -Informasjonen vil kun benyttes til å gi deg som bruker mer relevant -informasjon og bedre tjenester.
- -Tredjeparter (som Google Analytics, Cxense, TNS Gallup) vil kunne -hente ut IP-adresse og data basert på dine surfemønstre. TU Media AS -er pliktig å påse at disse tredjepartene behandler data i tråd med -norsk regelverk.
-
- -Ellers har vi nå aktivert anonymisering i Google Analytics -(aip=1). Kan også nevne at Tek.no-brukere som har kjøpt Tek Ekstra har -mulighet til å skru av all tracking i kontrollpanelet sitt. Dette er -noe vi vurderer å rulle ut på alle sidene i vårt nettverk.»
- -
Det var nyttig å vite at vi er enige om at formuleringen i -personvernpolicyen er misvisende. Derimot var det nedslående at i -stedet for å endre praksis for å følge det personvernpolicyen sier om -å ikke dele personinformasjon med tredjeparter, så velger Digi.no å -fortsette praksis og i stedet endre personvernpolicyen slik at den å -dokumentere dagens praksis med spredning av personopplysninger.
- -Med bakgrunn i at Digi.no ikke har fulgt sin egen personvernpolicy -spurte jeg hvordan Digi.no kom til å håndtere endringen:
- -- -- -«Tusen takk for beskjed om endring av personvernpolicy for digi.no. -Gjelder endringen også andre nettsteder?
- -Vil tidligere håndteringen av IP-adresser og lesemønster i strid -med dokumentert personvernpolicy bli varslet til Datatilsynet i tråd -med -personopplysningsforskriften -§ 2-6? Vil leserne bli varslet på en prominent og synlig måte om -at lesernes IP-adresser og lesemønster har vært utlevert til -tredjeparter i stid med tidligere formulering om at tredjeparter kun -får anonymiserte data, og at utleveringen fortsetter etter at -personvernpolicy er endret for å dokumentere praksis?
- -Appropos ekstra tilbud til betalende lesere, tilbyr dere en -mulighet for å betale for å lese som ikke innebærer at en må gjøre det -mulig å la sine lesevaner blir registeret av tek.no? Betaler gjerne -for å lese nyheter, men ikke med en bit av privatlivet mitt. :)»
-
Jeg fikk raskt svar tilbake fra direktøren Høie:
- --- -«Tydeliggjøringen i personvernpolicy gjelder alle våre nettsteder.
- -Vi kommer til å ta en runde og gå over vår policy i forbindelse med -dette, og vil i de tilfeller det er påkrevd selvsagt være tydelig -overfor brukere og tilsyn. Vil samtidig understreke at vår bruk av -tredjeparts analyseverktøy og annonsetracking er helt på linje med det -som er normalt for norske kommersielle nettsteder.
- -Angående spørsmålet ditt: -
-
Du vil fortsatt vises i våre interne systemer om du blir Ekstra-bruker, -vi skrur bare av tredjeparts tracking.»
Det høres jo ikke bra ut at det er normalt for norske kommersielle -nettsteder å utlevere lesernes personopplysninger til utlandet. Men -som en kan lese fra gårdagens oppslag fra NRK gjelder -det også norske kommuner og andre offentlige aktører, og -jeg -skrev om omfanget av problemet i fjor. Det er uansett ikke en -praksis jeg tror er i tråd med kravene i personopplysningsloven, og -heller ikke en praksis jeg som leser synes er greit. Jeg manglet dog -fortsatt svar på om Digi.no kom til å varsle lesere og Datatilsynet om -avviket mellom praksis og policy, så jeg forsøkte meg med en ny epost -i går kveld:
- -- -- -«Kan du fortelle meg om dere anser det å være påkrevd å varsle -tilsyn og brukere nå, når dere har oppdaget at praksis ikke har vært i -tråd med personvernpolicy?»
- -
Det spørsmålet vet jeg så langt ikke svaret på, men antagelig kan -Datatilsynet svare på om det er påkrevd å varsle tilsyn og lesere om -dette. Jeg planlegger å oppdatere denne bloggposten med svaret når -det kommer.
- -Jeg synes jo det er spesielt ille når barn får sine -personopplysninger spredt til utlandet, noe jeg -tok -opp med NRK i fjor. De to eksemplene jeg nevner er som dere -forstår ikke unike, men jeg har ikke full oversikt over hvor mange -nettsteder dette gjelder. Jeg har ikke kapasitet til eller glede av å -lese alle personvernpolicyer i landet. Kanskje mine lesere kan sende -meg tips på epost om andre nettsteder med avvik mellom policy og -praksis? Hvis vi alle går sammen og kontakter de ansvarlige, kanskje -noen til slutt endrer praksis og slutter å dele lesernes -personopplysninger med tredjeparter?
- -Apropos bruken av Google Analytics kan jeg forresten nevne at -Universitetet i Oslo også har tatt i bruk Google Analytics, men der -lagres programkoden som overføres til nettleserne lokalt og deler av -IP-adressen fjernes lokalt på universitetet via en mellomtjener/proxy -(tilgjengelig via -github) før informasjon sendes over til Google Analytics. Dermed -er det mulig for ansvarlige for nettstedet å vite at Google -ikke har tilgang til komplett IP-adresse. à rsaken til at denne -metoden brukes er at juristene ved universitetet har konkludert med at -det er eneste måten en kunne vurdere å bruke Google Analytics uten å -bryte loven. Risikoen for gjenidentifisering og -identifisering ved hjelp av -nettleserinformasjon er fortsatt tilstede, så det er ingen optimal -løsning, men det er bedre enn å håpe at f.eks. Google og alle som -lytter på veien skal prioritere norsk lov over sin lokale -lovgivning.
- -Oppdatering 2016-12-09: Fikk svar fra direktøren Høie på mitt -spørsmål litt etter at jeg hadde publisert denne artikkelen:
- -- -- -Vi kommer til å annonsere en oppdatert policy, og skal undersøke om -vi er pliktig å varsle Datatilsynet.
- -Det vi uansett ønsker å gjøre først, er å gå gjennom hele policy -sammen med utviklerne og advokat, så vi er sikre på at vi går frem -riktig og at det ikke er flere tvetydigheter som skjuler seg i -teksten.
- -Har du andre idéer eller konkrete innspill til hva som kan gjøre -policy tydeligere, tar vi gjerne imot det. Dette er et felt vi ønsker -å være ryddige på.
- -
Vi får se om de liker mine innspill, som i grunnen er å ikke pusse -på personvernpolicyen men i stedet slutte å spre lesernes -personopplysninger til eksterne aktører.
+ +So, Cambridge Analytica is getting some well deserved criticism for +(mis)using information it got from Facebook about 50 million people, +mostly in the USA. What I find a bit surprising, is how little +criticism Facebook is getting for handing the information over to +Cambridge Analytica and others in the first place. And what about the +people handing their private and personal information to Facebook? +And last, but not least, what about the government offices who are +handing information about the visitors of their web pages to Facebook? +No-one who looked at the terms of use of Facebook should be surprised +that information about peoples interests, political views, personal +lifes and whereabouts would be sold by Facebook.
+ +What I find to be the real scandal is the fact that Facebook is +selling your personal information, not that one of the buyers used it +in a way Facebook did not approve when exposed. It is well known that +Facebook is selling out their users privacy, but a scandal +nevertheless. Of course the information provided to them by Facebook +would be misused by one of the parties given access to personal +information about the millions of Facebook users. Collected +information will be misused sooner or later. The only way to avoid +such misuse, is to not collect the information in the first place. If +you do not want Facebook to hand out information about yourself for +the use and misuse of its customers, do not give Facebook the +information.
+ +Personally, I would recommend to completely remove your Facebook +account, and take back some control of your personal information. +According +to The Guardian, it is a bit hard to find out how to request +account removal (and not just 'disabling'). You need to +visit +a specific Facebook page and click on 'let us know' on that page +to get to the +real account deletion screen. Perhaps something to consider? I +would not trust the information to really be deleted (who knows, +perhaps NSA, GCHQ and FRA already got a copy), but it might reduce the +exposure a bit.
+ +If you want to learn more about the capabilities of Cambridge +Analytica, I recommend to see the video recording of the one hour talk +Paul-Olivier Dehaye gave to NUUG last april about + +Data collection, psychometric profiling and their impact on +politics.
+ +And if you want to communicate with your friends and loved ones, +use some end-to-end encrypted method like +Signal or +Ring, and stop sharing your private +messages with strangers like Facebook and Google.
Archive
-
+
- 2018
+
-
+
+
- January (1) + +
- February (5) + +
- March (5) + +
- April (3) + +
- June (2) + +
- July (3) + +
+
- 2017
- January (4) -
- February (2) +
- February (3) + +
- March (5) + +
- April (2) + +
- June (5) + +
- July (1) + +
- August (1) + +
- September (3) + +
- October (5) + +
- November (3) + +
- December (4)
@@ -1418,7 +1014,7 @@ personopplysninger til eksterne aktører.
- 3d-printer (13) +
- 3d-printer (16)
- amiga (1) @@ -1428,31 +1024,33 @@ personopplysninger til eksterne aktører.
- bitcoin (9) -
- bootsystem (16) +
- bootsystem (17)
- bsa (2)
- chrpath (2) -
- debian (145) +
- debian (159)
- debian edu (158) +
- debian-handbook (4) +
- digistan (10) -
- dld (16) +
- dld (17) -
- docbook (23) +
- docbook (25)
- drivstoffpriser (4) -
- english (340) +
- english (377)
- fiksgatami (23) -
- fildeling (12) +
- fildeling (13) -
- freeculture (29) +
- freeculture (32)
- freedombox (9) @@ -1462,12 +1060,14 @@ personopplysninger til eksterne aktører.
- intervju (42) -
- isenkram (15) +
- isenkram (16)
- kart (20)
- ldap (9) +
- lego (4) +
- lenker (8)
- lsdvd (2) @@ -1476,23 +1076,23 @@ personopplysninger til eksterne aktører.
- mesh network (8) -
- multimedia (39) +
- multimedia (41) -
- nice free software (9) +
- nice free software (10) -
- norsk (287) +
- norsk (299) -
- nuug (186) +
- nuug (190) -
- offentlig innsyn (28) +
- offentlig innsyn (33)
- open311 (2) -
- opphavsrett (64) +
- opphavsrett (71) -
- personvern (99) +
- personvern (107) -
- raid (1) +
- raid (2)
- reactos (1) @@ -1504,35 +1104,37 @@ personopplysninger til eksterne aktører.
- rss (1) -
- ruter (5) +
- ruter (6)
- scraperwiki (2) -
- sikkerhet (52) +
- sikkerhet (54)
- sitesummary (4)
- skepsis (5) -
- standard (50) +
- standard (55) -
- stavekontroll (5) +
- stavekontroll (6) -
- stortinget (11) +
- stortinget (12) -
- surveillance (47) +
- surveillance (55) -
- sysadmin (2) +
- sysadmin (4)
- usenix (2) -
- valg (8) +
- valg (9) + +
- verkidetfri (11) -
- video (59) +
- video (65)
- vitenskap (4) -
- web (40) +
- web (41)
Tags
-
-