Techunternehmen sagen Kennzeichnung von KI-generierten Inhalten zu

Zu den Selbstverpflichtungen neben den digitalen Wasserzeichen für KI-generierte Inhalte gehören nach Angaben der Nachrichtenagentur AP:

<pre style="background-color:#ffffff;">
<span style="color:#323232;">(teilweise) externe Sicherheits-Audits kommerzieller KI-Systeme,
</span><span style="color:#323232;">
</span><span style="color:#323232;">die Einrichtung von Meldewegen für Sicherheitsforscher, die Schwachstellen in den Systemen entdecken,
</span><span style="color:#323232;">
</span><span style="color:#323232;">die Veröffentlichung von Berichten über technische Schwachstellen und gesellschaftliche Risiken.
</span>

Damit kommen die Unternehmen einer gesetzlichen Regelung zuvor, über die sich der Kongress erst noch einigen muss.

Frisbeedude,

Selbstverpflichtung gewinnorientierter Unternehmen. Das hat schon immer hervorragend funktioniert. Haben die alle Lack gesoffen? Das muss sofort reguliert werden, lieber früher als später.

nottheengineer,

Und wie stellst du dir das vor? Muss man sich im Internet dann überall mit dem Ausweis registrieren und haftet man dann persönlich, wenn man KI-Inhalte nicht kennzeichnet?

c64, (edited )
@c64@feddit.de avatar
letmesleep,

Naja, immerhin ist das Hype-Zentrum OpenAI tatsächlich nicht gewinnorientiert, sondern eine gemeinnützige Stiftung. Und eine Selbstverpflichtung eines Oligopols hat auch schon eine gewisse Wirkung. Dass die kein Chaos wollen, glaube ich ihnen. Chaos ist nämlich schlecht für den Cashflow.

Aber natürlich hast du Recht, dass eine Regulierung notwendig ist. Nur geht das halt nicht so schnell wie eine Selbstverpflichtung und deshalb ist diese als Quick-fix schon eine gute Sache.

Frisbeedude,

Techunternehmen, die für die Entwicklung künstlicher Intelligenz (KI) wichtig sind, haben sich nach Angaben der US-Regierung dazu verpflichtet, KI-generierte Inhalte zu kennzeichnen. Diese Zusicherung sei ein »entscheidender Schritt zur Entwicklung verantwortungsvoller KI«, erklärte das Weiße Haus am Freitag. Vertreter der Unternehmen Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI sollten demnach später am Tag Präsident Joe Biden treffen, um die Details zu verkünden.

Spätestens mit dem Erfolg des von OpenAI entwickelten Chatbots ChatGPT hat die Sorge zugenommen, dass durch KI erzeugte Texte, Bild- oder Tonaufnahmen für Betrug und Desinformationen genutzt werden könnten. In den USA wird auch mit Blick auf die Präsidentschaftswahl 2024 nach Möglichkeiten gesucht, zu erkennen, ob Audio- oder Bildmaterial künstlich erzeugt wurde, um Täuschungen und Fälschungen zu verhindern. Im Wahlkampf kommt es bereits jetzt zum Einsatz solcher nicht gekennzeichneten Inhalte.

Die Konzerne »verpflichten sich, eine umfassendere Regelung zu schaffen, die es den Verbrauchern erleichtert, zu erkennen, ob ein Inhalt künstlich erzeugt wurde oder nicht«, sagte ein Vertreter des Weißen Hauses. »Es ist noch technische Arbeit zu leisten, aber der Punkt ist, dass es für Audio- und visuelle Inhalte gilt und Teil eines umfassenderen Systems sein wird.«

Zu den Selbstverpflichtungen neben den digitalen Wasserzeichen für KI-generierte Inhalte gehören nach Angaben der Nachrichtenagentur AP:

<pre style="background-color:#ffffff;">
<span style="color:#323232;">(teilweise) externe Sicherheits-Audits kommerzieller KI-Systeme,
</span><span style="color:#323232;">
</span><span style="color:#323232;">die Einrichtung von Meldewegen für Sicherheitsforscher, die Schwachstellen in den Systemen entdecken,
</span><span style="color:#323232;">
</span><span style="color:#323232;">die Veröffentlichung von Berichten über technische Schwachstellen und gesellschaftliche Risiken.
</span>

Damit kommen die Unternehmen einer gesetzlichen Regelung zuvor, über die sich der Kongress erst noch einigen muss.

Auf EU-Ebene wird derzeit eine weitgehende Kennzeichnungspflicht für KI-generierte Inhalte im Rahmen des umfassenden »AI Act« diskutiert. Bundesdigitalminister Volker Wissing (FDP) forderte neben einer Kennzeichnung von Bild- und Tonaufnahmen auch die Einführung eines KI-Siegels für Texte. Es sei ein Unterschied, ob ein Text von Menschen verfasst worden sei, die man kenne und einordnen könne, oder von einer Maschine, sagte er den Zeitungen der Mediengruppe Bayern.

tryptaminev,

KI Siegel für Texte ist ja noch geiler als Wasserzeichen. Das man das beim Kopieren einfach weglässt, scheint denen nicht als Möglichkeit in den Sinn zu kommen. Genauso sind Wasserzeichen auch nur sehr halbherzig, da man die genauso wieder wegretuschieren kann. Stellt sich auch die Frage, wie das bei “KI” Tools zur Bildbearbeitung laufen soll, die komplexe Bearbeitungsvorgänge automatisieren. Muss dann auf das Urlaubsbild, was man sich gerne Einrahmen möchte auch ein fettes Wasserzeichen drauf?

Es muss klare Regeln für den Einsatz geben und entsprechende Sanktionen, wenn diese Regeln nicht befolgt werden. Im Minimum sollten Texte, die ganz oder teilweise von LLM Tools verfasst wurden nicht unter den Schutz der Pressefreiheit fallen und nicht als intellektuelles Eigentum schützbar sein.

letmesleep,

KI Siegel für Texte ist ja noch geiler als Wasserzeichen. Das man das beim Kopieren einfach weglässt, scheint denen nicht als Möglichkeit in den Sinn zu kommen.

Ich könnte mir vorstellen, dass es aus Sicht der Unternehmen schon das wichtigiste Ziel erreicht, wenn großer Teil der Quellen gekennzeichnet wird. Dann kann man die nämlich beim Training der KI vermeiden und verhindert so eine “Rückkopplung” (da gibt es doch einen echten Fachbegriff, oder?).

Für unsere Demokratie however…

  • All
  • Subscribed
  • Moderated
  • Favorites
  • random
  • uselessserver093
  • Food
  • aaaaaaacccccccce
  • [email protected]
  • test
  • CafeMeta
  • testmag
  • MUD
  • RhythmGameZone
  • RSS
  • dabs
  • Socialism
  • TheResearchGuardian
  • Ask_kbincafe
  • KbinCafe
  • oklahoma
  • feritale
  • SuperSentai
  • KamenRider
  • All magazines