Ich dachte zuerst, dass da wieder mal ein BioTech-StartUp Bock auf Venture Capital hatte, aber das klingt ja nicht völlig abwegig.
“Die derzeitigen Hauttransplantationen und wiederholten Operationen”, meint Jorgensen bezogen auf den Einsatz in den USA. “Einer der Vorteile des Bioprinting besteht darin, dass die Gewebeproduktion skaliert werden kann, so dass die Kosten überschaubar sein dürften.”
Ein richtiger Müllartikel. Die gleiche Aussage kann man treffen, wenn die Beschränkungen nicht vorgenommen wurden, aber die medizinische Versorgung von Verunfallten verbessert hätte.
Es gibt nach dem Artikel keinerlei faktische Verbindung zwischen den Unfalltoten und den Geschwindigkeitsbeschränkungen.
Hat man aber nicht gemacht, sondern hat sich für die Beschränkung entschieden. Die Zahl Toten ist runtergegangen. Das ist Fakt. Deine Aussage ist lediglich mutmaßend, wertend und damit unnötig.
Die wichtigste Sicherheitsmaßnahme war, dass ab den Siebzigern die Geschwindigkeitsbegrenzungen schrittweise gesenkt wurden. 2018 haben wir als letzten Schritt die Senkung von 50 auf 40 km/h auf alle Hauptstraßen ausgeweitet und in den übrigen Straßen von 40 auf 30 km/h.
Und deswegen sollten solche Geschäftspraktiken nur möglich sein, wenn die Betroffenen sich explizit zur Verwendung ihrer Daten erklärem, die Verwendung mitbestimmen können und ihre Einwilligung jederzeit widerrufen.
Unsere Daten sind Ausprägung unserer Person und damit dürfen nur wir darüber verfügen.
Im Ergebnis gäbe es dann Firmen wie die im Artikel bezeichneten nicht mehr. Das wäre nur ein Mehrgewnn für die Menschheit.
Tim Berners Lee, der “Erfinder des Internet”, hat sich vor ein paar Jahren aus dem W3C zurückgezogen, um eine technische Lösung zu entwickeln, die das möglich machen könnte: Solid.
Wo trainiere ich dann bitte meine speech to text modelle? Also nicht ich sondern openai bspw…
Wenn man Stille in einer Aufnahme hat und whisper rüber jagt hat man oft copyright Angaben von öffis, die Existenz dieser Artefakte weißt darauf hin das ein größerer teil der Daten aus diesen Quellen stammt.
Ironisch wie der Einsatz von “ki” trainingsdaten vergiftet. Das fühlt sich ein wenig an wie der stahl aus schiffen vor den Atombombentest: pre-AI-Data .
Oder kurzum, besser als jetzt werden die Trainingsdaten nie gewesen sein
Gute Idee. Kenne ein Toll, wo das schon erstaunlich gut funktioniert. Kann mir vorstellen, dass es einigen Fremdsprachlern beim Deutschlernen helfen kann.
KI-Untertitel sind nach wie vor blanke Scheiße. An den entscheidenden Stellen, wo sie mal Value bringen könnten, versagen sie in aller Regel. Aber gut, mein Bild ist natürlich sehr von diesen unsäglichen Untertiteln geprägt, die einem in den meisten Kurzvideos aufgezwungen werden und mehr irritieren als nützen.
Wie wäre es denn mit einem Kompromiss, Automatik bei Live-Sendungen, Automatik mit Editor der das noch mal Probe liest bei allem was nicht live ist? Sollte immer noch reichlich Zeit und Kosten sparen.
Da wird es bestimmt einige witzige Vergebärdensprecher geben 😄 Ich finde das allerdings nicht so dramatisch, wenn es meistens gut funktioniert und wir somit alle wichtigen (oder mehr) Sendungen übersetzen.
Ich sehe es tatsächlich auch erstmal positiv, aber bei dem aktuellen Stand der KI, wird es leider unvermeidlich zu solchen Patzern kommen. Wobei natürlich auch der beste menschliche Dolmetscher sich mal verspricht.
Text to Sign language oder beides auf einmal. Allerdings bezweifle ich, dass es dafür gute Modelle gibt.
Klar, für ersteres muss eine gute KI genommen werden. Open Source kenne ich da nichts gutes. Und nein, KALI ist nicht gut, es ist scheiße im Vergleich zum Stand der Technik. OpenAI Whisper finde ich extrem gut, allerdings datenschutztechnisch schlecht. Wenn die da etwas gutes finden, was auch mit Deutsch funktioniert, dann… Aber ja, daran wird es haken.
Zweiteres, Text to Handsprache, da sehe ich überhaupt kein Problem. Das können, ich kenne mich mit Handsprache nicht sonderlich gut aus, Bilder seien, die aneinander gereiht sind und zwischen denen interpoliert wird.
Gebärdensprache ist mehr als die Aneinanderreihung von Gesten, die 1:1 dem Satz entsprechen. Denn einerseits hat Gebärdensprache einen anderen Satzbau und Grammatik, andererseits können Gebärden auch eine “Betonung” haben.
Das wär alles sicher machbar, bräuchte aber sicher viel Training für die KI.
Das können, ich kenne mich mit Handsprache nicht sonderlich gut aus, Bilder seien, die aneinander gereiht sind und zwischen denen interpoliert wird.
Ich glaube das ist um einiges komplizierter. So weit ich weiß: Zum Beispiel werden Richtungen einfach durch eine Handbewegung in die entsprechende Richtung gezeigt. Was start one Ziel dieser Bewegung ist hängt dann vom Kontext ab. Klar, LLMs verstehen inzwischen worauf sich ein “es” im Satz bezieht, aber nichtsdestotrotz ist das ein richtig richtig schweres Problem für Computer.
Die Gebärden werden phonologisch in vier Parameter zerlegt, die phonemisch weiter analysiert werden: in Handkonfiguration, Handorientierung, Bewegungsausführung und Ort der Bewegung. Viele Gebärden sind stark flektiert. Informationen können pronominal (durch verschiedene sichtbare Formen) in einer einzigen Gebärde eingebaut werden, z. B. in DGS die Verbgebärde, glossiert mit ICH-BUCH-GEBEN-DIR-SCHNELL[5] schließt die Bewegungsrichtung von „ich“ nach „du“, und zwar schnell, ein und die Handkonfiguration zeigt das Halten eines imaginären Buches an. Wenn abgewandelt in der Bewegung von „du“ nach „ich“, ergibt DU-BUCH-GEBEN-MIR-SCHNELL. Die Gebärde kann mit anderen Handformen modifiziert werden, um anzuzeigen, was gegeben wird, z. B. ein dickes oder dünnes Buch, eine Flasche, ein Fuß- oder Golfball, ein Stück Papier, einen Stapel Bücher usw. Dazu kommt noch die unterschiedliche Orientierung der Hand bzw. Hände, ob das Objekt horizontal oder vertikal übergeben wird. Insgesamt sieben Bedeutungsteile können in dieser einzigen Gebärde erkannt werden: Subjekt, Empfänger (Einzahl oder Mehrzahl), dessen Lokalität (links, rechts, nahe oder fern), Objekt, Größe bzw. Menge des Objekts, verbiales Adverb, einmal oder wiederholt.
Schön, dass das Thema endlich kurz nach der drohenden Eskalation die ihm gebührende Aufmerksamkeit bekommt. Ich verfolge wie einige hier sicher das ganze seit einer Weile und es ist wirklich wir ein schlechter Film, was dort lief und läuft.
Ich hoffe, dieses Thema bekommt nun durch die negative mediale Berichterstattung den stinkenden Anstrich, den es verdient.
Eine Frage aber, die sich mir dennoch stellt: wie genau soll das mit der Überwachung von Abonnenten eines bestimmten Kanals denn in der Realität aussehen? Nehmen wir jetzt mal den klassischen Verschwörungsdulli-Kanal auf Telegram, da hat es dann ein paar Admins, die Nazihetze verbreiten und etliche Hans-Werners, die deren Schwachsinn glauben, schön und gut. Die Daten liegen auf proprietären Servern irgendwo auf Malta,in Indien oder Russland, der Datentransfer ist verschlüsselt und diese Verschlüsselung darf (zum Glück) nicht gebrochen werden.
Wie genau findet die EU jetzt alle Hans-Werners, ohne die Admins selbst zu überführen?
heise.de
Newest