Intuiface's Unterstützung für OpenAI's GPT, DALL-E und Whisper Large Language Models
Wir haben gerade native Unterstützung für die großen Sprachmodelle GPT, DALL-E und Whisper von OpenAI eingeführt. Werfen wir einen Blick darauf, wie das funktioniert und welche Auswirkungen es hat.
Übersicht
Es gibt unendlich viele Beispiele für "bahnbrechende" Technologien, die letztlich nicht die Spielregeln verändert haben. Der Segway, Google Glass, Napster, Crypto.... Ok, die letzte hat immer noch eine Chance, mehr als nur ein Glücksspiel zu sein, und diese anderen Misserfolge haben sicherlich die Schaffung erfolgreicher Alternativen beeinflusst. Dennoch hat sich der Hype überschlagen.
Der Hype um die generative KI ist nicht übertrieben. Sie hat bereits begonnen, das Spiel zu verändern. In diesem Artikel geht es darum, wie Sie die Vorteile der generativen KI in Intuiface nutzen können.
Was ist neu in Intuiface
Composer enthält jetzt drei neue Interface Assets (IAs): ChatGPT, DALL-E, und Whisper
Hier ist, was sie ermöglichen:
- ChatGPT
Unter der Haube ist dies das GPT Large Language Model (LLM) - hier ist ein Artikel über GPT-4 - was bedeutet, dass das, was Sie in Intuiface tun können, genauso funktioniert wie ChatGPT. Senden Sie eine Eingabeaufforderung, erhalten Sie eine Antwort, und wiederholen Sie sie, falls gewünscht. Sie können jede beliebige Frage stellen, das System anleiten und dann die Ergebnisse analysieren, um das Gewünschte zu extrahieren. - DALL-E
Unter der Haube, das ist das große Sprachmodell von DALL-E. Erstellen Sie ein Bild nach einer beliebigen Aufforderung. - Whisper
Unter der Haube verbirgt sich das große Sprachmodell Whisper. Es verwendet das Standardmikrofon, um das gesprochene Wort aufzunehmen und in Text umzuwandeln. Dieser Text kann als Ergänzung zu einer Eingabeaufforderung verwendet werden, die an die ChatGPT- oder DALL-E-Schnittstelle gesendet wird - aber Sie können ihn nach Belieben verwenden.
Sie werden feststellen, dass wir für ChatGPT und Whisper zwei Versionen des Schnittstellen-Assets haben. Unsere neue Technologie Player - auf allen Plattformen außer Windows - unterstützt TypeScript-basierte IAs. Diese Art von Schnittstellen-Asset wird auf Windows noch nicht unterstützt; wir verwenden .NET, um IAs für Windows zu erstellen. Funktional sind diese beiden IA-Varianten identisch, aber wir mussten sie kodieren, um eine gewisse API-Komplexität zu berücksichtigen. Bei DALL-E konnten wir direkt mit der Web-API arbeiten und verwendeten daher API Explorer. (Ja, das hätten Sie auch selbst tun können.) IAs für Web-APIs sind universell für alle Player Plattformen.
Wie haben wir diese neuen Schnittstellen-Assets erstellt?
Alle großen Sprachmodelle von OpenAI sind über eine API zugänglich. Unsere Schnittstellen-Assets wurden für die Nutzung dieser APIs entwickelt:
- ChatGPT IA verwendet die OpenAI Chat Completion API, um mit dem zugrunde liegenden GPT LLM zu kommunizieren.
- DALL-E verwendet die OpenAI Images API zur Kommunikation mit dem zugrunde liegenden DALL-E-Modell.
- Whisper verwendet die OpenAI Audio API, um mit dem zugrunde liegenden Whisper LLM zu kommunizieren.
Wie alle Schnittstellen-Assets verbergen wir die zugrunde liegende API-Komplexität. Alles, was Sie auf Composer sehen, sind Eigenschaften, Auslöser und Aktionen.
Benötige ich ein OpenAI-Konto, um diese Schnittstellen-Assets zu nutzen?
Ja, Sie benötigen ein OpenAI-Konto. Insbesondere müssen Sie jede IA mit Ihrem OpenAI-API-Schlüssel versorgen.
Einen API-Schlüssel erhalten Sie, indem Sie ein OpenAI-Konto einrichten und dann Token kaufen. (Jede Eingabeaufforderung und LLM-Antwort verbraucht Token, und diese Token haben ihren Preis). Sobald Sie ein Konto haben und Token gekauft haben, gehen Sie auf die Seite OpenAI API Key, um Ihren Schlüssel zu finden.
Hier gibt es eine Besonderheit, die Sie beachten müssen: OpenAI zeigt Ihnen Ihren API-Schlüssel nur einmal an, nämlich dann, wenn er ursprünglich erstellt wurde. Sie können diesen Schlüssel NIE wieder sehen. Kopieren Sie Ihren API-Schlüssel unbedingt an einen sicheren Ort, damit Sie ihn für alle Ihre Erfahrungen wiederverwenden können.
Was ist ein supercooles Beispiel für die Verwendung dieser Schnittstellen-Assets?
Sehen Sie sich dieses fantastische Beispiel an, einen KI-gesteuerten Wegweiser, der von Tosolini Productions für das Museum of Flight in Seattle, Washington, entwickelt wurde. Er ermöglicht es Museumsbesuchern, mit Hilfe natürlichsprachlicher Abfragen Ausstellungsbereiche zu finden, die ihren Interessen entsprechen. Es zeigt, wie Intuiface dies erreichen kann, indem es Whisper als Eingabemechanismus und spezielle Eingabeaufforderungen verwendet, um GPT zu instruieren, personalisierte Empfehlungen zu geben.
Besonders bemerkenswert ist die Genialität der Aufforderung. Sie "lehren" GPT, wie man ein Wegweiser für das Museum ist. Das Ziel des Wegfinders ist definiert, die Einschränkungen sind geklärt, und die Ergebnisse sind strukturiert. Das ist ein perfektes Beispiel für "natürliches Sprachprogrammieren", das zu der ganzen No-Code-Ästhetik von Intuiface passt.
Möchten Sie etwas auf Composer ausprobieren?