]> pere.pagekite.me Git - homepage.git/blobdiff - blog/index.rss
Generated.
[homepage.git] / blog / index.rss
index ceee023a61db2c51747045c138773e92233f4c0c..642488cccf973dcdd7c8bd44ea9b8fe337910387 100644 (file)
@@ -11,7 +11,7 @@
                <link>https://people.skolelinux.org/pere/blog/Speech_to_text__she_APTly_whispered__how_hard_can_it_be_.html</link>
                <guid isPermaLink="true">https://people.skolelinux.org/pere/blog/Speech_to_text__she_APTly_whispered__how_hard_can_it_be_.html</guid>
                 <pubDate>Sun, 23 Apr 2023 09:40:00 +0200</pubDate>
-               <description>&lt;p&gt;While visiting a convention during Eastern, it occurred to me that
+               <description>&lt;p&gt;While visiting a convention during Easter, it occurred to me that
 it would be great if I could have a digital Dictaphone with
 transcribing capabilities, providing me with texts to cut-n-paste into
 stuff I need to write.  The background is that long drives often bring
@@ -24,11 +24,11 @@ audio files and provide text representation of the speech in that
 audio recording.  It handle multiple languages and according to its
 creators even can translate into a different language than the spoken
 one.  I have not tested the latter feature.  It can either use the CPU
-or a GPU with CODA support.  As far as I can tell, CODA in practice
+or a GPU with CUDA support.  As far as I can tell, CUDA in practice
 limit that feature to NVidia graphics cards.  I have few of those, as
 they do not work great with free software drivers, and have not tested
 the GPU option.  While looking into the matter, I did discover some
-work to provide CODA support on non-NVidia GPUs, and some work with
+work to provide CUDA support on non-NVidia GPUs, and some work with
 the library used by Whisper to port it to other GPUs, but have not
 spent much time looking into GPU support yet.  I&#39;ve so far used an old
 X220 laptop as my test machine, and only transcribed using its