OpenAI API: Mehr Kontrolle und Sicherheit für Unternehmenskunden

Kunden, die OpenAIs API-Zugriff nutzen, bekommen neue Funktionen zur Hand: vor allem eine Kostenkontrolle.

In Pocket speichern vorlesen Druckansicht
Ein stilisierter Kopf, der von Linien, Verknüpfungen und leuchtenden Punkten als Symbol für KI umgeben ist

Neue Funktionen für Enterprise-Kunden sollen bei OpenAI für mehr Sicherheit, Compliance und Kontrolle sorgen.

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 2 Min.

OpenAI führt neue Funktionen für Enterprise-Kunden ein. Diese sollen der Sicherheit, Compliance und Kontrolle dienen. Zu den Updates gehört ein Projekt-Tool, aber etwa auch die verbesserte Kontrolle, wie Mitarbeiter die Dienste nutzen. Das soll nicht zuletzt der Kostenkontrolle dienen, denn die Nutzung von KI-Tools ist bekanntlich teuer.

Zu den neuen Sicherheitsfunktionen gehören eine native Multi-Faktor-Authentifizierung und "Private Link" – für eine direkte Kommunikation zwischen Azure und OpenAI, die dadurch die "Exposition gegenüber dem offenen Internet minimieren" soll. Für Unternehmenskunden gibt es freilich bereits eine Vielzahl an Sicherheitsfunktionen zur Datenverschlüsselung, Zugriffskontrolle und mehr.

Projekte können nun einzeln angelegt und bearbeitet werden. Dazu gehört die Möglichkeit, Rollen und API-Schlüssel bestimmten Projekten und Personen zuzuordnen. Außerdem können nutzungs- und ratenbasierte Limits festgelegt werden. Man kann einzelnen Nutzern oder einem Projekt etwa den Zugang zu einem bestimmten oder mehreren ausgewählten Modellen geben und ein Budget festlegen, das diese Person oder Gruppe aufbrauchen darf. Danach ist Schluss. Das soll unerwünscht hohe Rechnungen am Ende des Monats verhindern.

Es gibt zudem zwei neue Wege der Kostensenkung: Bei einem festgelegten Durchsatz gibt es Rabatte von 10 bis 50 Prozent, je nach Umfang der Verpflichtung, also der festgelegten Abnahme. Und dann gibt es eine neue Batch-API, bei der nicht dringende Arbeitslasten asynchron ausgeführt werden können. Diese Anfragen kosten 50 Prozent weniger als bisherige gemeinsame Anfragen. Ergebnisse werden binnen 24 Stunden geliefert. Laut OpenAIs Blogbeitrag ist das ideal für "Anwendungsfälle wie Modellbewertungen, Offline-Klassifizierung, Zusammenfassung und Generierung synthetischer Daten".

Auch die Assistant API hat Erweiterungen erfahren. Mit ihr können Entwickler OpenAIs Dienste in eigene einbinden. Auch hier gibt es unter anderem eine verbesserte Kostenkontrolle durch Token-Limits, neue "Tool Choice"-Parameter für beispielsweise file_search, code_interpreter oder function, und Support für fine-tuned GPT-3.5-Turbo-Modelle.

(emw)