GPT-3-Statistiken 2023: Nutzung, Parameter, Anwendungsfälle und mehr

GPT-3, eine OpenAI-Initiative, ist die dritte Variante in der Reihe der GPT-n-Reihe und gilt als das bisher leistungsstärkste Sprachmodell.

Diese neue KI-Technologie kann für eine Vielzahl von Aufgaben eingesetzt werden und ist jetzt der Öffentlichkeit zugänglich.

Wir haben die neuesten GPT-3-Statistiken recherchiert und zusammengestellt. Sie erfahren, wie diese neue Technologie die Landschaft der künstlichen Intelligenz verändert.

GPT-3-Statistiken
Inhaltsverzeichnis

Top-GPT-3-Statistiken

Einige der interessanten Statistiken von GPT-3 sind unten aufgeführt:

  • GPT-3 ist bestehenden Modellen mit 175B trainierbaren Parametern weit voraus [1].
  • GPT-3 hat die größten Trainingsdaten, satte 45 TB [2].
  • GPT-3 wird von über 300 Anwendungen verwendet [3].
  • Ab März 2021 werden durchschnittlich 4.5 Milliarden Wörter pro Tag generiert [3].
  • Algolia hat GPT-3 mit 2.1 Millionen Nachrichtenartikeln getestet und eine Genauigkeit von 91 % erzielt [3].
  • GPT-3 ist 117x komplexer als GPT-2 [10].

 

GPT-3-Modelle und -Parameter

Verschiedenes Verarbeitung natürlicher Sprache Modelle sind verfügbar und werden ständig weiterentwickelt. Prominente GPT-3-Ranking-Statistiken in Bezug auf verschiedene Modelle sind wie folgt:

  • Die Trainingsressourcen des Deep-Learning-Modells haben sich im letzten Jahrzehnt alle 3.4 Monate verdoppelt [4].
  • Zwischen 300 und 2012 wird eine 2018-fache Zunahme der Rechenressourcen beobachtet [4].
  • Derzeit verfügt GPT-3 über den größten Datenkorpus von 45 TB, der mit 499 Milliarden Token trainiert wurde [2].
  • Ein früheres T5-Modell wurde nur mit einem 7-TB-Datensatz trainiert [6].
  • GPT-3 hat 175B trainierbare Parameter [1].
  • Die disruptive Technologie von GPT-3 zeigt, dass ~70 % der Softwareentwicklung automatisiert werden kann [7].
  • Frühere NLP-Modelle, ELMo, hatten 94 M Parameter, BERT hatte 340 M, GPT-2 hatte 1.5 B und Turing NLG hatte 17 B [8].
  • BERT von Google hat 470x weniger Parameter als GPT-3 [9].
  • GPT-3 enthält 100x mehr Parameter als sein Vorgänger GPT-2 [1].
  • GPT-3 hat 10x mehr Parameter als das Turing-NLG-Modell von Microsoft [1].
  • Die Kapazität von GPT-n-Modellen wird mit GPT-3 um 3 Größenordnungen erhöht.
  • GPT-3 ist 117-mal komplexer als GPT-2 [10].
  • GPT-3 übertraf SOTA für den LAMBDA-Datensatz mit einer Effizienzsteigerung von 8 % [2].
  • Im Vergleich zu SOTA, das eine Genauigkeit von 60 % für zweistellige Addition und Subtraktion bietet, zeigt das GPT-3-Feinabstimmungsmodell 100 % [11].
  • GPT-3-basiertes Algolia beantwortet komplexe Fragen in natürlicher Sprache viermal besser als BERT [4].
  • Ab November 2021 hat Microsoft ein größeres Modell Megatron-Turing NLG mit 530B-Parametern angekündigt [8].

 

GPT-n-Zeitleiste

Im Jahr 2018 wurde die GPT-n-Serie von OpenAI initiiert, um die NLP-Modelle zu verbessern, dh menschenähnliche Sprache, Text und Codierung. Ein statistischer Vergleich von GPT-n ist unten angegeben: [1]

  • GPT-1 hat 12 Schichten mit 12 Aufmerksamkeitsköpfen und einen 768-dimensionalen Zustand.
  • Die Trainingsdaten von GPT-1, BooksCorpus, enthielten fast 7000 unveröffentlichte Bücher mit einer Textmenge von etwa 5 GB.
  • GPT-1 schnitt bei 9 von 12 Aufgaben im Vergleich zu überwachten SOTA-Modellen gut ab, zusammen mit einer anständigen Zero-Shot-Leistung bei verschiedenen Aufgaben.
  • GPT-2, ein Nachfolger von GPT-1, der 2019 eingeführt wurde, wird mit 10-mal so vielen Parametern und Datenmengen wie GPT-1 trainiert.
  • GPT-2 hat 1.5 B Parameter und 40 GB Datensatz, WebText, einschließlich 8 Millionen Webseiten.
  • GPT-2 lieferte verbesserte Ergebnisse für 7 von 8 bestehenden SOTA-Modellen und schnitt auch in der Zero-Shot-Einstellung gut ab.
  • GPT-3 übertrifft frühere Sprachmodelle mit 100x Parametern als GPT-2.
  • GPT-3 hat 175B trainierbare Parameter und 12288-Wort-Einbettung (Dimensionen).

 

Modell

Jahr der Markteinführung

Trainingsdaten

Trainingsparameter

Achtung Schichten

Word-Einbettung

Aufmerksamkeitsköpfe

GPT-1

2018

7000 Bücher ~5 GB

117M

12

768

12

GPT-2

2019

8 Millionen Dokumente ~40 GB

1.5 Mrd

48

1600

48

GPT-3

2020

Mehrere Quellen ~45 TB

175 Mrd

96

12288

96

 

Statistiken des GPT-3-Trainingsmodells

Die Statistiken mehrerer Datensätze, die zum Trainieren des Modells verwendet werden, lauten wie folgt:

  • GPT-3 wird mit insgesamt 499 B-Token oder 700 GB trainiert [2].
  • Allgemeines Crawlen 60% gewichtet, enthält diverse Daten aus Webcrawling über Jahre [2].
  • WebText2 über 22 %, enthält den Datensatz von ausgehenden Reddit-Links [2].
  • Bücher1 und Bücher2 mit einem kombinierten Anteil von 16 % enthalten internetbasierte Buchkorpora [2].
  • Wikipedia gewichtet mit 3 %, enthält Daten von Wikipedia-Seiten in englischer Sprache [2].

 

Datensatz

Tokens

Datensatzgewichtung im Training

Allgemeines Crawling (gefiltert)

410 Milliarden

60%

WebText2

19 Milliarden

22%

Bücher1

12 Milliarden

8%

Bücher2

55 Milliarden

8%

Wikipedia

3 Milliarden

3%

Quelle: (https://arxiv.org/pdf/2005.14165.pdf)

GPT-3 Geschäftsmodellstatistik

GPT-3 ist nicht als Open Source verfügbar, sondern über eine kommerzielle API. Einige der erstaunlichen Statistiken über den Status des Unternehmens und die laufenden Kosten von GPT-3 lauten wie folgt:

  • Im Jahr 2015 begann OpenAI als gemeinnütziges Forschungslabor.
  • Im Jahr 2019 wechselte OpenAI von einer gemeinnützigen Organisation zu einem gewinnorientierten Unternehmen [5].
  • Microsoft ging eine Partnerschaft mit OpenAI mit einer Investition von 1 Milliarde US-Dollar ein [12].
  • Das GPT-3-Training erfordert 3.114 × 1023 FLOPS (Gleitkommaoperationen), was 4.6 Millionen US-Dollar kostet, wenn eine Tesla V100-Cloud-Instanz für 1.5 US-Dollar/Stunde verwendet wird und 355 GPU-Jahre dauert [13].
  • GPT-3 kann nicht auf einer einzelnen GPU trainiert werden, sondern erfordert ein verteiltes System, was die Kosten für das Training des endgültigen Modells um das 1.5- bis 5-fache erhöht [14].
  • Die F&E-Kosten von GPT-3 reichen von 11.5 bis 27.6 Millionen US-Dollar, ohne den Overhead für parallele GPUs, Gehälter und Submodellkosten [14].
  • Parallel dazu erfordert GPT-3 mindestens 11 Tesla V100-GPUs mit jeweils 32 GB Speicher zu einem Preis von 9,000 US-Dollar/Stück, was sich auf 99,000 US-Dollar für GPU-Cluster ohne RAM, CPU, SSD-Laufwerke und Stromversorgung summiert [13].
  • Das GPT-3-Modell kostet 12.6 Millionen US-Dollar mit mindestens 350 GB VRAM (FLOP mit halber Genauigkeit bei 16 Bit/Parameter), nur um das Modell zu laden und die Inferenz auszuführen, wodurch der VRAM über 400 GB liegt [15].
  • Die Hardwarekosten für den Betrieb würden 100,000 bis 150,000 US-Dollar betragen, wenn man die Kosten für Stromversorgung, Kühlung und Backup vernachlässigt [14].
  • Ein grundlegender DGX-1-Server von Nvidia, VRAM (8 × 16 GB), kostet rund 130,000 US-Dollar einschließlich aller anderen Komponenten für eine solide Leistung auf GPT-3 [16].
  • Wenn GPT-3 in der Cloud ausgeführt wird, erfordert es mindestens p3dn.24xlarge von Amazon, vollgepackt mit 8 x Tesla V100 (32 GB), 768 GB RAM und 96 CPU-Kernen, und kostet 10-30 $/Stunde und mindestens 87,000 $ jährlich [14] .
  • OpenAI kann in Zusammenarbeit mit Microsoft an spezialisierter Hardware wie dem Supercomputer arbeiten, was zu kosteneffizienten Lösungen führt [14].
  • GPT-3 verfügt über einen Supercomputer, der in Microsofts Azure-Cloud gehostet wird und aus 285 CPU-Kernen und 10 High-End-GPUs besteht [17].
  • Der vorläufige Preisplan bietet OpenAI eine Gewinnspanne von fast 6,000 Prozent und bietet Raum für viele Anpassungen, wenn der aktuelle Geschäftsplan keine Kunden bringt [18].

 

GPT-3-Preise

OpenAI bietet verschiedene Preispläne für seine API. Einige der Preisstatistiken sind hier definiert,

  • GPT-3 hat einen kostenlosen Plan, Start for free, für ein kostenloses Guthaben von 18 $ für die ersten 3 Monate [19].
  • Zwei weitere kostenpflichtige Pläne beinhalten ein flexibles „Pay as you go“ und ein komplexes „Choose your model“ [19].
  • Die Abrechnung erfolgt pro 1000 Token, dh ca. 750 Wörter [19]
  • Ein Token entspricht 4 Zeichen oder 0.75 Wörtern für englischen Text [19].
  • Jedes Modell hat eine vordefinierte maximale Kontextlänge, die von 1500 bis 2048 Token reicht [20].
  • Basierend auf dem Spektrum an Möglichkeiten und Auswahlmöglichkeiten bietet GPT-3 4 Preismodelle [21].
  • Ada mit einem Preis von 0.0008 $/1 Token ist am schnellsten auf Kosten geringerer Fähigkeiten [21].
  • Babbage kostet $0.0012/1 Token, ist gut für einfache Aufgaben [21].
  • Curie berechnete $0.0060/1 Token, hat die Fähigkeit für nuancierte Aufgaben und ist gut als allgemeiner Chatbot [21].
  • Davinci-Token mit einem Preis von 0.0600 $/1 liefern die besten Ergebnisse für komplexe Absichten [21].
  • GPT-3 bietet ein anpassbares, fein abgestimmtes Modell, das mit 50 % des Grundpreises berechnet wird, und ein teures Embedding-Modell, um eine erweiterte Suche aufzubauen [22,23].

 

Modell

Abmessungen

Preise / 1 Token

Training / 1 Token

Anwendungsbereich
(Fein abgestimmte Modelle) / 1K-Token

Anwendungsbereich
(Einbettungsmodelle) / 1K-Token

Ada

1024

$0.0008

$0.0004

$0.0016

$0.0080

Babbage

2048

$0.0012

$0.0006

$0.0024

$0.0120

Curie

4096

$0.0060

$0.0030

$0.0120

$0.0600

Davinci

12288

$0.0600

$0.0300

$0.1200

$0.0600

Quelle: (https://openai.com/api/pricing/)

Die Kommerzialisierung von GPT-3 führt dazu, dass mehrere Dienste nutzende Plattformen in den kostenpflichtigen Modus wechseln:

  • PhilosopherAI gab Servicekosten von mindestens 4,000 $/Monat an [24].
  • AI Dungeon hat ein Premium-Dragon-Modell für die GPT-3-basierte Version eingeführt, das monatlich 10 US-Dollar kostet [25].

 

GPT-3 Maßgeschneiderte Modellstatistik

Kunden passen GPT-3-Modelle an ihre Anforderungen an und erzielen beeindruckende Ergebnisse. Hier sind einige Statistiken:

  • Die Feinabstimmung verbessert die Genauigkeit gegenüber dem Datensatz mit mathematischen Problemen der Grundschule um das 2- bis 4-fache [26].
  • Die korrekten Outputs eines Kunden werden von 83 % auf 95 % erhöht [26].
  • Die Fehlerquote eines anderen Kunden wurde mit einem maßgeschneiderten Modell um 50 % reduziert [26].
  • Die Häufigkeit unzuverlässiger Ausgänge wird für einen Kunden von 17 % auf 5 % reduziert [26].
  • Die Vorteile der Feinabstimmung von GPT-3 zeigen sich in weniger als 100 Beispielen [26].

 

Die Statistiken der Apps, die mit angepasstem GPT-3 betrieben werden, zeigen vielversprechende Ergebnisse:

  • Die Leistung von Keeper Tax steigt von 85 % auf 93 %, mit 500 neuen Trainingsbeispielen einmal pro Woche [27].
  • Durchführbare Berichte verbesserten die Genauigkeit bei der Zusammenfassung von Kundenfeedback von 66 % auf 90 % [28].
  • Die Frage- und Inhaltsgenerierung von Sana Lab führte zu einer 60 %igen Verbesserung von allgemein grammatikalisch korrekten Antworten zu hochpräzisen Antworten [2].
  • Elicit beobachtet eine Verbesserung von 24 % bei der Verständlichkeit der Ergebnisse, 17 % bei der Genauigkeit und 33 % insgesamt [26].

 

GPT-3-Modellarchitektur

Das transformatorbasierte Modell hat eine massive Architektur, die in Teilmodelle unterteilt ist.

  • GPT-3 hat 8 Modelle basierend auf Parametergrößen von 125M bis 175B [2].
  • Aufmerksamkeitsbasierte Architektur hat Aufmerksamkeitsschichten, die von 12 im kleinsten Modell bis zu 96 im größten reichen [2].
  • Die Transformatorschichten reichen von 12 bis 96 [2].
  • Die Lernrate ändert sich von 6.0 × 10-4 bis 0.6 × 10-4 [2].

Modell

Trainierbare Parameter

Transformatorschichten

Flaschenhals-Layer-Einheiten

Achtung Schichten

Achtung Kopfmaß

Batch-Größe

Lernrate

GRT-3 Klein

125M

12

768

12

64

0.5M

6.0 × 10-4

GRT-3 Mittel

350M

24

1024

24

64

0.5M

3.0 × 10-4

GRT-3 groß

760M

24

1536

24

96

0.5M

2.5 × 10-4

GRT-3XL

1.3 Mrd

24

2048

24

128

1M

2.0 × 10-4

GRT-3 2.7B

2.7 Mrd

32

2560

32

80

1M

1.6 × 10-4

GRT-3 6.7B

6.7 Mrd

32

4096

32

128

2M

1.2 × 10-4

GRT-3 13B

13.0 Mrd

40

5140

40

128

2M

1.0 × 10-4

GRT-3 175B

175.0 Mrd

96

12288

96

128

2M

0.6 × 10-4

Quelle: https://arxiv.org/pdf/2005.14165.pdf

GPT-3 Leistung und Genauigkeit

Die Leistung und Genauigkeit von GPT-3 werden anhand verschiedener vorhandener Datensätze untersucht. Die interessanten Leistungsstatistiken sind wie folgt:

  • Eine signifikante Leistungsverbesserung wird gegenüber LAMBADA und PhysicalQA (PIQA) dargestellt [2].
  • Ein deutlicher Gewinn von 8 % wird in der Zero-Shot-Einstellung von LAMBADA durch GPT-3 im Vergleich zu SOTA erreicht [2].
  • Eine um 4 % verbesserte Genauigkeit wird für PIQA im Vergleich zum vorherigen SOTA – einem fein abgestimmten RoBERTa [2] – dargestellt.
  • HellaSwag und StoryCloze zeigten eine respektable Leistung, aber immer noch niedriger als SOTA [2].
  • HellaSwag-Ergebnisse sind niedriger im Vergleich zum fein abgestimmten Multitask-Modell ALUM [29].
  • StoryCloze liegt 4.1 % hinter dem SOTA, das das fein abgestimmte BERT-Modell verwendet [29].
  • Winograd zeigt 88.3 %, 89.7 % und 88.6 % in den Zero-Shot-, One-Shot- bzw. Fear-Shot-Einstellungen und zeigt starke Ergebnisse, aber unter SOTA [13].
  • GPT-3 Feinabgestimmtes Modell zeigt 100 % Genauigkeit für zweistellige Addition und Subtraktion [11].
  • Kurze Artikel (ca. 200 Wörter), die von GPT-3 175B geschrieben wurden, sind bei ca. 52 % [13] für Menschen erkennbare Veränderungen.
  • Die von GPT-3 125M geschriebenen Artikel sind zu 76 % für Menschen nachweisbar. ([13])

 

Datensatz

Zero-Shot-Einstellung

One-Shot-Einstellung

Paar-Schuss-Einstellung

SOTA

LAMBADA

76.2%

72.5%

86.4%

68%

HellaSwag

78.9%

78.1%

79.3%

85.6%

StoryCloze

82.2%

84.7%

87.7%

91.8%

Körperliche QA (PIQA)

81.0%

80.5%

82.8%

79.4%

Quelle: https://www.springboard.com/blog/data-science/machine-learning-gpt-3-open-ai/

GPT-3-betriebene Plattformen

Einige der Unternehmen und Anwendungen, die GPT-3 verwenden, sind in Tailored Model Statistics und Pricing Statistics erwähnt. Die Statistiken einiger weiterer Plattformen und Apps, die von GPT-3 unterstützt werden, sind unten aufgeführt:

  • GPT-3 wird von über 300 Anwendungen verwendet [30]
  • Die Plattform hat Zehntausende von Entwicklern auf der ganzen Welt [11].
  • Ab März 2021 werden durchschnittlich 4.5 Mrd. Wörter pro Tag generiert [30].
  • Algolia hat GPT-3 mit 2.1 Millionen Nachrichtenartikeln getestet und eine Genauigkeit von 91 % erzielt [30].
  • Duolingo, das GPT-3 verwendet, beobachtete eine 12%ige Verbesserung der Vorhersagegenauigkeit und des Benutzerengagements [31].
  • DALL·E 2 auf Basis von 12B GPT-3 wird von 71.7 % der Benutzer für den Untertitelabgleich und von 88.8 % für Fotorealismus bevorzugt [32].

 

GPT-3-Anwendungsfälle

GPT-3 ist ein neues künstliches Intelligenzsystem, das als das leistungsstärkste KI-System der Welt gilt. GPT-3 hat viele Einsatzmöglichkeiten, darunter die Unterstützung von Menschen bei ihrer Arbeit, die Bereitstellung eines besseren Kundenservice und sogar die Möglichkeit, ein persönlicher Assistent zu werden. Hier sind einige der häufigsten GPT-3-Anwendungsfälle:

Geschäft

GPT-3, das weltweit größte Modell für künstliche Intelligenz, ist jetzt der Öffentlichkeit zugänglich. Und die Unternehmen werden aufmerksam. Unternehmen nutzen KI bereits, um den Kundenservice zu verbessern, neue Produkte zu entwickeln und sich wiederholende Aufgaben zu automatisieren.

Marketing

GPT-3 ist ein leistungsstarkes Marketing-Tool. KI-Marketing-Tools kann Ihnen dabei helfen, bessere Inhalte zu erstellen, Ihre Zielgruppe effektiver anzusprechen und Ihre Ergebnisse zu verfolgen. Darüber hinaus kann GPT-3 Ihnen helfen, Ihren Fortschritt zu verfolgen und Ihre Ergebnisse zu analysieren, damit Sie Ihre Marketingstrategien optimieren können.

Kundenservice

KI im Kundenservice revolutioniert die Art und Weise, wie Unternehmen mit ihren Kunden interagieren. Durch die Automatisierung von Routineaufgaben und die Bereitstellung sofortiger Antworten auf häufig gestellte Fragen hilft KI Unternehmen dabei, ihr Kundenserviceerlebnis zu verbessern. Darüber hinaus können GPT-3-basierte Chatbots komplexe Kundenanfragen bearbeiten, wodurch menschliche Agenten entlastet werden, um einen personalisierteren Service zu bieten.

Datenanalyse

KI kann helfen, Muster und Korrelationen zu identifizieren, die Menschen möglicherweise übersehen. Es kann auch dazu beitragen, den Analyseprozess zu automatisieren, wodurch er schneller und einfacher wird. Darüber hinaus kann KI Erkenntnisse liefern, die ohne ihre Hilfe nicht möglich wären. Aus diesen Gründen wird KI zu einem unverzichtbaren Werkzeug für Datenanalysten.

Content Creation

GPT-3-basiert KI-Tools zur Erstellung von Inhalten werden verwendet, um Artikel zu schreiben, Videos zu erstellen und sogar Social-Media-Beiträge zu generieren.

Design

KI-Design-Tools powered by GPT-3 haben das Potenzial, die Effizienz und Qualität des Designprozesses zu verbessern, indem sie sich wiederholende Aufgaben automatisieren, personalisierte Empfehlungen geben und bei der Erkundung von Designoptionen helfen.

Schlussworte der GPT-3-Statistik

Der Artikel liefert die GPT-3-Wachstumsgeschichte basierend auf prominenten Statistiken. Die GPT-n-Modelle nehmen erheblich zu und die Forschungsgemeinschaft ist neugierig auf GPT-4. Laut einem Rezensenten von Hacker News,

„Ein typisches menschliches Gehirn hat über 100 Billionen Synapsen, was noch einmal drei Größenordnungen größer ist als das Modell GPT-3 175B. Angesichts der Tatsache, dass OpenAI nur etwa eineinhalb Jahre braucht, um seine GPT-Modellkapazität um zwei Größenordnungen von 1.5 Mrd. auf 175 Mrd. zu erhöhen, sieht es plötzlich vielversprechend aus, Modelle mit Billionen Gewicht zu haben.“

Bibliographie

  1. https://medium.com/walmartglobaltech/the-journey-of-open-ai-gpt-models-32d95b7b7fb2
  2. https://arxiv.org/pdf/2005.14165.pdf
  3. https://openai.com/blog/gpt-3-apps/
  4. https://towardsdatascience.com/gpt-3-a-complete-overview-190232eb25fd
  5. (https://futurism.com/ai-elon-musk-openai-profit)
  6. https://www.toptal.com/deep-learning/exploring-pre-trained-models
  7. https://www.gartner.com/en/documents/3994660
  8. (https://www.i-programmer.info/news/105-artificial-intelligence/14987-the-third-age-of-ai-megatron-turing-nlg.html)
  9. (https://360digitmg.com/gpt-vs-bert
  10. https://www.datacamp.com/blog/gpt-3-and-the-next-generation-of-ai-powered-services
  11. (https://singularityhub.com/2021/04/04/openais-gpt-3-algorithm-is-now-producing-billions-of-words-a-day/)
  12. (https://www.theverge.com/2019/7/22/20703578/microsoft-openai-investment-partnership-1-billion-azure-artificial-general-intelligence-agi)
  13. https://lambdalabs.com/blog/demystifying-gpt-3/
  14. https://bdtechtalks.com/2020/09/21/gpt-3-economy-business-model/
  15. https://cloudxlab.com/blog/what-is-gpt3-and-will-it-take-over-the-world/
  16. https://medium.com/@messisahil7/gpt-3-a-new-step-towards-general-artificial-intelligence-66879e1c4a44
  17. https://www.endila.com/post/is-gpt-3-really-the-future-of-nlp
  18. https://pakodas.substack.com/p/estimating-gpt3-api-cost?s=r
  19. https://openai.com/api/pricing/
  20. https://beta.openai.com/docs/introduction/key-concepts
  21. https://beta.openai.com/docs/models
  22. https://beta.openai.com/docs/guides/fine-tuning,
  23. https://beta.openai.com/docs/guides/embeddings/what-are-embeddings
  24. https://philosopherai.com/
  25. (https://aidungeon.medium.com/ai-dungeon-dragon-model-upgrade-7e8ea579abfe
  26. https://openai.com/blog/customized-gpt-3/
  27. ((https://www.keepertax.com/
  28. https://www.askviable.com/
  29. https://www.springboard.com/blog/data-science/machine-learning-gpt-3-open-ai/
  30. https://openai.com/blog/gpt-3-apps
  31. https://www.wired.com/brandlab/2018/12/ai-helps-duolingo-personalize-language-learning/
  32. https://openai.com/dall-e-2/
Verkaufstrichter

Starten Sie profitable Verkaufstrichter

Jedes Online-Unternehmen braucht einen wiederholbaren und konsistenten Verkaufsprozess, der seine Besucher in Leads, Kunden und Fürsprecher umwandelt.