简体中文
繁體中文
English
Pусский
日本語
ภาษาไทย
Tiếng Việt
Bahasa Indonesia
Español
हिन्दी
Filippiiniläinen
Français
Deutsch
Português
Türkçe
한국어
العربية
Zusammenfassung:Enwickelnde des KI-Riesen OpenAI wissen, dass ihr neues Sprach-Tool Gefahren birgt und haben Vorschl
Enwickelnde des KI-Riesen OpenAI wissen, dass ihr neues Sprach-Tool Gefahren birgt und haben Vorschläge, die Technologie sicherer zu machen.
OpenAI ist sich der Gefahren bewusst, die mit der Verwendung von KI-generierten Sprachtools verbunden sind.
Die KI-Firma enthüllte Details über ihr Voice EngineTool, das noch nicht vollständig auf den Markt gekommen ist.
Das Unternehmen nannte seine Sicherheitsmaßnahmen – und wollte nicht bestätigen, ob das Modell überhaupt auf breiter Basis veröffentlicht wird.
Dies ist eine maschinelle Übersetzung eines Artikels unserer US-Kollegen von Business Insider. Er wurde automatisiert übersetzt und von einem echten Redakteur überprüft.
Mithilfe künstlicher Intelligenz (KI) entwickelte Sprachtools sind eine heikle Angelegenheit – insbesondere im Angesicht von Fake News im US-Wahljahr. Das weiß auch OpenAI. Jetzt stellte das Unternehmen in einem Blogbeitrag die ersten Ergebnisse der Testphase seines neuen Tools für synthetische Stimmen vor. Gleichzeitig ging die KI-Pionierfirma auf Bedenken hinsichtlich des Einsatzes von KI zur Nachbildung menschlicher Stimmen ein.
Das Voice Engine-Tool von OpenAI entwickelte OpenAI eigenen Angaben zufolge des Unternehmens Ende 2022. Es benötigt nicht mehr als einen 15-sekündigen Audioclip der Stimme einer realen Person, um eine unheimlich realistische, menschlich klingende Nachbildung dieser Stimme zu erzeugen. Und die Nutzenden können diese Stimme alles Mögliche sagen lassen – sogar in anderen Sprachen.
Noch ist das Tool nicht für die Öffentlichkeit verfügbar. Außerdem sagt OpenAI, es stehe noch nicht fest, ob und wie diese Technologie in großem Maßstab eingesetzt werden kann. „Wir sind uns bewusst, dass die Erzeugung von Sprache, die der Stimme von Menschen ähnelt, ernsthafte Risiken birgt, die in einem Wahljahr besonders wichtig sind“, schreibt OpenAI in seinem Blogpost. „Wir arbeiten mit amerikanischen und internationalen Partnern aus den Bereichen Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und darüber hinaus zusammen, um ihr Feedback in unsere Entwicklung einzubeziehen.”
OpenAI nutzt das Tool derzeit für die Vorlesefunktionen von ChatGPT sowie für die Text-to-Speech-API des Unternehmens.
Ende vergangenen Jahres hat OpenAI begonnen, das Tool extern zu erweitern und „mit einer kleinen Gruppe von vertrauenswürdigen Partnern zusammenzuarbeiten. Der Entwickler will mit ihnen Voice Engine für Kinder-Bildungsmaterial, Sprachübersetzung und medizinische Sprachwiederherstellung testen, so das Unternehmen in seinem Beitrag.
Riskante Technologie, aber Chance für einen Dialog über verantwortungsvollen Einsatz?
OpenAI betonte, seine Partnerorganisationen müssten strenge Richtlinien einhalten, um Voice Engine zu nutzen. Sie müssen zum Beispiel das Einverständnis jeder verkörperten Person einholen. Darüber hinaus müssen Zuhörende informiert werden, dass die Stimme von KI generiert wurde.
„Wir verfolgen einen vorsichtigen und informierten Ansatz für eine breitere Freigabe aufgrund des Potenzials für den Missbrauch von synthetischer Stimme“, schrieb das Unternehmen. „Wir hoffen, einen Dialog über den verantwortungsvollen Einsatz von synthetischen Stimmen und die Anpassung der Gesellschaft an diese neuen Möglichkeiten zu eröffnen.”
Lest auch
Die Nachfrage nach einer neuen KI-Rolle, dem Prompt Engineer, schießt in die Höhe – aber wird der Hype anhalten?
Noch gibt das Unternehmen sein Tool nach eigenen Angaben nicht für die Allgemeinheit frei. Doch es drängte politische Entscheidungstragende und Entwickelnde dazu, Maßnahmen zu ergreifen, um einen gefährlichen Missbrauch der von ihm entwickelten Technologie zu verhindern.
OpenAI schlug beispielsweise vor, eine „No-Go-Voice-Liste zu erstellen, um die unbefugte Replikation prominenter Stimmen, wie zum Beispiel von Politikerinnen und Politikern oder Berühmtheiten, zu verhindern.
Das Unternehmen empfahl auch, Banken sollten keine stimmbasierte Sicherheitsauthentifizierung mehr verwenden und Forschende Techniken entwickeln, um festzustellen, ob eine Stimme echt oder gefälscht ist.
Haftungsausschluss:
Die Ansichten in diesem Artikel stellen nur die persönlichen Ansichten des Autors dar und stellen keine Anlageberatung der Plattform dar. Diese Plattform übernimmt keine Garantie für die Richtigkeit, Vollständigkeit und Aktualität der Artikelinformationen und haftet auch nicht für Verluste, die durch die Nutzung oder das Vertrauen der Artikelinformationen verursacht werden.