OpenAI startet neue KI-Sicherheitsinitiative

OpenAI hat eine neue Online-Ressource, dem „Safety Evaluations Hub“, mit dem Ziel, öffentlich Daten und Erkenntnisse teilen über Sicherheitsleistung seiner Intelligenzmodelle künstlich. Ziel dieser Initiative ist es, Transparenz zu schaffen über entscheidende Aspekte wie die Halluzinationsraten der Modelle, die ihre Tendenz, schädliche Inhalte zu generieren, die Genauigkeit mit denen Anweisungen folgen, und ihre Widerstandsfähigkeit gegenüber Versuchen, Verstoß. Das Unternehmen betont, dass dieser neue Hub stellt einen Schritt hin zu größerer Offenheit dar, in einer zu einem Zeitpunkt, da es mit zahlreichen rechtlichen Herausforderungen konfrontiert ist, einschließlich solcher wegen angeblicher unerlaubter Verwendung von Material urheberrechtlich geschützt, um Ihre eigenen Modelle zu trainieren. Der „Safety Evaluations Hub“ soll die Informationen, die bereits in den Systemblättern von OpenAI verfügbar sind. Diese bieten zwar eine Momentaufnahme der Sicherheitsmaßnahmen von Der Hub ist zum Start ein Modell und soll Folgendes bieten: kontinuierliche Updates. In einer offiziellen Mitteilung hat OpenAI erklärte, er wolle „die Fortschritte bei der Entwicklung für Messen Sie die Kapazität und Sicherheit der Modelle. Die Absicht ist zweifacher Natur: Einerseits, um das Verständnis der Aufführung zu erleichtern der Systeme und andererseits die gemeinsamen Anstrengungen zu verstärken, die Transparenz in der Branche zu erhöhen. Das Unternehmen verfügt außerdem über äußerte die Absicht, auf eine wirksamere Kommunikation hinzuarbeiten Wir sind in diesem Bereich auf allen Ebenen proaktiv. Innerhalb des Hubs können interessierte Nutzer verschiedene spezielle Abschnitte, in denen Sie relevante Informationen zu verschiedenen Modelle, von Gpt-4.1 bis zu den neuesten Versionen, beispielsweise 4.5.
ansa