Experten warnen vor Mängeln in Joe Bidens Dekret zur Künstlichen Intelligenz

Manoj enjoy

Follow us on

Experten warnen vor Mängeln in Joe Bidens Dekret zur Künstlichen Intelligenz

Das Herkunftswasserzeichen, eine der in der Verordnung enthaltenen Maßnahmen, könnte laut Experten und Universitätsforschern „gefährliche Einschränkungen“ haben.

Der Das „Ursprungswasserzeichen“ wurde von der Biden-Regierung als Verifizierungsmethode für KI-generierte Inhalte vorgeschlagen (Doug Mills/The New York Times)

Präsident Biden hat kürzlich eine Durchführungsverordnung mit dem Ziel unterzeichnet, die Entwicklung von Sicherheitssystemen zu kontrollieren künstliche Intelligenz (KI) und seine Anwendung in allen Bereichen der Gesellschaft angesichts der damit verbundenen Risiken Technologie Posen Nach früheren Aussagen des US-Präsidenten ist der KI “ist der Technologie „am transzendentesten“ in der jüngeren Geschichte, mit Auswirkungen auf alle Bereiche der Wissenschaft, Wirtschaft und Gesellschaft.

(Illustrative Bildinfobae)Das könnte Sie interessieren: Einem Bericht zufolge werden von KI erstellte Deepfakes bis 2024 nicht mehr von der Realität zu unterscheiden sein

„Da die Herausforderungen und Chancen der KI global sind, werden wir den Fortschritt der amerikanischen Führung weltweit aufrechterhalten“, erklärte Biden vor der Unterzeichnung der Anordnung am vergangenen Montag, dem 30. Oktober 2023, und nannte sie die „bedeutendste Maßnahme“. „, das jede Regierung auf der Welt in Bezug auf KI ergriffen hat. Reality Defender, ein führendes Unternehmen bei der Erkennung von Deep Fakes oder KI-manipulierten Medien, stellte jedoch fest, dass diese Maßnahme „gefährliche Grenzen“ hat.

In einem Interview mit FOX News sagte der Mitbegründer und CEO von RealitätsverteidigerBen Colman äußerte mehrere Bedenken hinsichtlich oberster Befehlvor allem im Hinblick auf die Wasserzeichen von Herkunft.

Am vergangenen Montag, dem 30. Oktober 2023, unterzeichnete Präsident Biden die historische Durchführungsverordnung zur Kontrolle der Entwicklung von KI in den Vereinigten Staaten (AP Photo/Evan Vucci)Am vergangenen Montag, dem 30. Oktober 2023, unterzeichnete Präsident Biden die historische Durchführungsverordnung zur Kontrolle der Entwicklung von KI in den Vereinigten Staaten (AP Photo/Evan Vucci)

See also  Nachruf auf Florin Mark: Ehemaliger Präsident und Philanthrop von Weight Watchers stirbt im Alter von 90 Jahren

Das Wasserzeichen der künstlichen Intelligenz ist eine eindeutige Kennung, die in die von der KI erzeugten Daten wie Texte oder Bilder eingebettet ist und nützlich ist, um festzustellen, ob die Daten von einer bestimmten KI generiert wurden, und hilft dabei, diese Inhalte von denen zu unterscheiden, die von Menschen erstellt wurden. . Es ähnelt einer Signatur, die die Herkunft der Informationen bescheinigt.

Ein ineffizienter Vorschlag

„Das Handelsministerium wird Leitlinien zur Inhaltsauthentifizierung und Wasserzeichen entwickeln, um KI-generierte Inhalte eindeutig zu kennzeichnen“, kündigte das Weiße Haus an. „Bundesbehörden werden diese Tools nutzen, um den Amerikanern die Gewissheit zu geben, dass die Mitteilungen, die sie von ihrer Regierung erhalten, authentisch sind und ein Vorbild für den Privatsektor und Regierungen auf der ganzen Welt sein werden.“

Sie könnten interessiert sein: Künstliche Intelligenz hat zum ersten Mal einen Vertrag autonom ausgehandelt

Eigentlich das markiert Quellwasser Das im Dekret vorgeschlagene Verfahren wurde von einigen der wichtigsten Technologieunternehmen entwickelt und gefördert, darunter Microsoft, Adobe, Arm Und Intel. Colman äußerte sich besorgt über das, was er den „Walled-Garden-Ansatz“ nennt Firmenweil es scheinbar das Vertrauen der Benutzer einfordert und die Notwendigkeit ignoriert Vorschriften extern.

Forscher haben gezeigt, wie aktuelle Wasserzeichensysteme (FBI) manipuliert werden könnenForscher haben gezeigt, wie aktuelle Wasserzeichensysteme (FBI) manipuliert werden können

Colman warnte vor der Möglichkeit, dass Hacker und böswillige Akteure, die für einen erheblichen Teil des schädlichen Einsatzes von KI verantwortlich sind, sich nicht an die von der Regierung und großen Unternehmen festgelegten Regeln halten.

Das könnte Sie interessieren: Microsoft steckt wegen der Veröffentlichung falscher Informationen auf seinem Nachrichtenportal in Schwierigkeiten

„Aus unserer Sicht handelt es sich um eine Art Pflaster“, sagte Colman gegenüber Fox News. „Es geht davon aus, dass das Wasserzeichen perfekt ist und dass sich jeder, auch Hacker, an die Regeln hält. Das ist so, als würde man sagen, dass wir große Schlösser für Häuser bauen, die nur einen bestimmten Schlüsseltyp akzeptieren, und dass alle potenziellen Kriminellen unsere Protokolle befolgen werden.“

See also  6 Sätze von Jorge Almirón nach Bocas Einzug ins Finale der Copa Libertadores: der Chiquito Romero-Effekt und die Lupe auf seine Veränderungen

Soheil Feizi, Professor an der Universität von Maryland, stimmt Colman zu. Der Wissenschaftler sagte gegenüber der Zeitschrift Wired, dass die Forscher seiner Gruppe festgestellt hätten, dass es derzeit keine zuverlässigen Methoden dafür gebe Wasserzeichen Darüber hinaus stellten sie fest, dass es leicht war, das zu vermeiden bestehende Systeme und hinzufügen gefälschte Briefmarken auf Inhalte, die nicht von uns erstellt wurden KI. Diese Feststellung wird durch eine gemeinsame Studie der University of California in Santa Barbara und der Carnegie Mellon University gestützt, in der festgestellt wurde, dass Logos leicht entfernt werden können simulierte Angriffe.

Wahrscheinliche Wertung ist der Vorschlag von Reality Defender als Alternative dazu Wahrscheinlichkeitsbewertung ist der Vorschlag von Reality Defender als Alternative zu Bidens „Wasserzeichen“ (Freepik)

Wahrscheinliches Tor

Ben Colman hebt einen Ansatz des Unternehmens Reality Defender hervor: das probabilistische Scoring. Die Technik besteht darin, den Inhalt auf einer Skala von 0–99 % Sicherheit zu bewerten, nachdem die Pixelschicht, das Spektrogramm, die Klangwellenformen und die Satzkonstruktion im Text analysiert wurden.

Auf diese Weise kann ein Deep-Fake-Erkennungsunternehmen einem Interessenten anhand dieser probabilistischen Sichtweise mitteilen, ob der Inhalt legitim ist. Darüber hinaus wies Colman auf das Risiko hin, Marken zu vertrauen, die für sich selbst werben und versuchen, zum Standard zu werden, da sie letztendlich „hackbar“ sind.

Der Experte forderte gewählte Beamte auf, ein schnelles Tool einzuführen, um mehr Informationen bereitzustellen, bevor potenziell manipulierte Inhalte viral werden. Dies kann ein Wahrscheinlichkeitswert, ein Rot-Grün-Kontrollkästchen, die Ergebnisse eines Deepfake-Erkennungsunternehmens oder eine andere Art von Bericht sein.

Auf diese Weise wäre der Endbenutzer vor der Entscheidung zur Veröffentlichung über die Authentizität des Bildes oder der Informationen, auf die er Zugriff hat, informiert.

See also  Von den Vorlagen von Di María bis zu den guten Definitionen von Enzo Fernández, Tagliafico und Nico González: die Tore der Nationalmannschaft in Bolivien

Künstliche IntelligenzWasserzeichenDeepfakeJoe BidenUS-Nachrichten Aktuelle Nachrichten Amerika

Categories: Trending
Source: javiko.edu.vn

Madhuri Shetty
Manoj Gadtaula

Manoj Gadtaula is a young Indian man from Mangalore who is constantly on the lookout for new things and loves to explore. Madhuri has a great passion for helping others and motivating people. She researched the careers, biographies, lifestyles, and net worths of celebrities..

Leave a comment

Demo
Demo 2