]> pere.pagekite.me Git - homepage.git/blobdiff - blog/index.html
Generated.
[homepage.git] / blog / index.html
index 4b226301dd28b0f10da78ebbb081e6873c85b2ca..298df8d13bd913436ff45a27f7c9371f0515bc7c 100644 (file)
@@ -22,7 +22,7 @@
     <div class="entry">
       <div class="title"><a href="https://people.skolelinux.org/pere/blog/Speech_to_text__she_APTly_whispered__how_hard_can_it_be_.html">Speech to text, she APTly whispered, how hard can it be?</a></div>
       <div class="date">23rd April 2023</div>
-      <div class="body"><p>While visiting a convention during Eastern, it occurred to me that
+      <div class="body"><p>While visiting a convention during Easter, it occurred to me that
 it would be great if I could have a digital Dictaphone with
 transcribing capabilities, providing me with texts to cut-n-paste into
 stuff I need to write.  The background is that long drives often bring
@@ -35,11 +35,11 @@ audio files and provide text representation of the speech in that
 audio recording.  It handle multiple languages and according to its
 creators even can translate into a different language than the spoken
 one.  I have not tested the latter feature.  It can either use the CPU
-or a GPU with CODA support.  As far as I can tell, CODA in practice
+or a GPU with CUDA support.  As far as I can tell, CUDA in practice
 limit that feature to NVidia graphics cards.  I have few of those, as
 they do not work great with free software drivers, and have not tested
 the GPU option.  While looking into the matter, I did discover some
-work to provide CODA support on non-NVidia GPUs, and some work with
+work to provide CUDA support on non-NVidia GPUs, and some work with
 the library used by Whisper to port it to other GPUs, but have not
 spent much time looking into GPU support yet.  I've so far used an old
 X220 laptop as my test machine, and only transcribed using its