I SERVIZI DI GENERATIVE AI

Il nostro slogan è “I migliori motori di GenAI in un unico Tool”… ma quali sono i modelli integrati in AIDeskPro? Che differenze ci sono tra uno e l’altro? Vi forniamo qualche utile strumento, per decidere quale motore utilizzare e quando.

Premettiamo subito che dire quale sia il migliore motore presente in AIDeskPro è impossibile. Noi li abbiamo testati tutti, ovviamente, e possiamo dirvi come hanno reagito in determinate circostanze e darvi i link alla documentazione di chi li ha realizzati.  Inoltre, abbiamo già fatto una nostra personale scelta, mettendo i Primi della Classe in una short list privilegiata e separata, che si trova in cima all’elenco di selezione del motore.

Aggiungeremo, molto spesso, nuovi motori, perché testiamo costantemente ciò che il mercato propone e portiamo a bordo tutte le migliori novità: man mano testeremo anche loro.

In questa pagina vi forniremo qualche utile informazione sui motori selezionabili all’interno di AIDeskPro, una serie di informazioni su contesto, privacy…, per aiutarvi a scegliere il modello più adatto alle vostre esigenze ed anche una classifica dei loro costi (utile per gli utenti della licenza API, che comporta un pagamento dei consumi dei motori di generative AI).

I motori disponibili oggi in AIDeskPro

I primi della classe

  • Google – Gemini 2.0 Flash

  • Google – Gemini 2.0 Flash Lite

  • OpenAI – GPT 4 Omni Latest

  • Anthropic’s Claude – Sonnet 3.5 v2

  • Anthropic’s Claude – Sonnet 3.7

  • Anthropic’s Claude – Haiku 3.5

Gli altri motori disponibili

  • Google – Gemini 1.5 Pro e Flash latest stable

  • Google – Gemini 2.0 Flash Thinking

  • OpenAI – GPT 4 Omni e Mini

  • Anthropic Claude – Haiku

  • Anthropic Claude – Sonnet 3.5

  • Llama 3.1 405B e 3.2 90B

Stiamo testando per voi: xAI – Grok e DeepSeek

OpenAI – Chat GPT 

Chat GPT è, probabilmente, il più famoso strumento di generative AI ed anche i primo ad essere utilizzato massivamente in versione consumer. La versione che proponiamo come Primo della Classe è sempre l’ultima (latest) e più performante, con un contesto in input, ad oggi, di 128k Token (più è ampio il contesto, più testo viene passato al modello, per generare la risposta).

  • Nozioni (Knowledge cutoff): fino a ottobre 2023 (GPT 4o)
  • Permanenza del dato in UE: garantita, in virtù di con OpenAI
  • Utilizzo delle tue chat/documenti per trainare i modelli: No

Sia la permanenza nel dato in UE (European Data Residency) sia la garanzia di non utilizzo dei dati dell’utente (Zero Data Retention) sono garantiti in virtù di accordi stipulati con OpenAI, mediante un Enterprise agreement per le OpenAI API. Ciò significa che le medesime garanzie non vengono date alle utenze non-API di OpenAI, quali, ad esempio, ChatGPT or DALL·E Labs.

Ulteriori informazioni: How we use your data, Data residency

Google Vertex AI Gemini

Rendiamo disponibili diverse versioni di Gemini, sia Pro che Flash, sia latest stable che preview e, non appena è reso disponibile da Google un nuovo modello, lo testiamo e lo integriamo, garantendo sempre ottimi risultati. Gemini 2.0 Flash e Gemini 1.5 Flash sono dotati di una finestra contestuale da 1 milione di token, mentre Gemini 1.5 Pro è dotato di una finestra contestuale da 2 milioni di token, indispensabile per processare grandi porzioni di testo (anche in output, per la generazione di documenti)

  • Knowledge Cutoff: fino a Giugno 2024
  • Permanenza del dato in UE: garantita e puoi anche decidere di tenere i tuoi dati a Milano!
  • Utilizzo delle tue chat/documenti per trainare il modello: no

Google non è solo Gemini! Grazie al Model garden di VertexAI è possibile accedere ad altri LLM che hanno stretto accordi di rivendita tramite Google (Modelli di Terze parti) ed anche a modelli Open Source usati su macchine Google (Modelli aperti).

Google Cloud non utilizza i dati dei clienti per addestrare i suoi modelli di base, se vuoi saperne di più

Ulteriori informazioni: Ogni necessità ha il suo modello, il Model Garden di Google, Dove si trova il mio dato, DPA di Google Cloud,

Anthropic Claude – Sonnet

Claude di Anthropic arriva in AIDeskPro tramite il Model Garden di Google Vertex AI, in virtù di un accordo tra Anthropic e Google. Il suo modello di punta è Sonnet, che rendiamo disponibile sia come 3.5 V2, sia come 3.7, ma consigliamo vivamente di provare anche il fratellino Haiku 3.5, che performa benissimo e costa molto meno! La finestra di contesto standard è da 200k Token.

  • Knowledge cutoff: fino ad Aprile 2024 / Novembre 2024 a seconda del modello
  • Permanenza del dato in UE: sì
  • Utilizzo delle tue chat/documenti per trainare il modello: no

Per avere informazioni relative a dove si trova il dato e le policy di gestione del dato stesso, si fa riferimento a ciò che riferisce Google in materia di LLM utilizzati tramite Model Garden.

Ulteriori informazioni: Sito di Anthropic, Il tuo dato dove si trova, panoramica sui modelli, Anthropic Trust center

Riepilogo costo modelli GenAI

Ve li presentiamo dal più caro al meno caro (aggiornati a Febbraio 2025):

  • Anthropic – Opus
  • Anthropic – Sonnet 3.5 e 3.5 v2
  • OpenAI – GPT -4 Omni Latest
  • Google – Gemini 1.5 Pro >128k
  • Google – Gemini 1.5 Pro <=128k
  • Anthropic – Haiku 3.5
  • Google – Gemini 1.0 Pro
  • Anthropic – Haiku 3
  • OpenAI – GPT -4 Omni Mini
  • Gemini 1.5 Flash >128k €
  • Gemini 1.5 Flash <=128k €

Un po’ di glossario per capire meglio!

Token: in estrema sintesi 1 token è circa pari a 3.5 caratteri. Quindi una parola media costituita da 7 caratteri, corrisponderà a circa 2 token. Quindi quando leggerete “128k” nel nome di un modello di generative AI, significa che quel modello ha una finestra di contesto pari a 128.000 token ovvero circa 64.000 parole o 448.000 caratteri!

Finestra di contesto: più è ampia la finestra, più numeroso sarà il numero di caratteri che potremo passare al motore di gen AI per elaborare la sua risposta. I modelli sono ormai dotati di contesti molto grandi… 128k, 200k e ora addirittura 1 Milione. Google ha scelto di proporre 2 diversi flavour di Pro e Flash: >128k oppure <= 128k. Chi utilizzerà contesti inferiori o uguali a 128k pagherà le API significativamente di meno!

Modelli di Embedding: AIDeskPro consente, in fase di creazione di un indice, di selezionare il modello di embedding. Questo servizio è diverso da quelli di generative AI presentati fino ad ora. Questo modello si occupa di convertire il testo di un indice o di una domanda utente in vettori.
Le domanda dell’utente è tradotta in vettori ed AIDeskPro, grazie al concetto di “vicinanza” tra i vettori domanda e testo indice, passa ai motori di generative AI la domanda e solo le porzioni di testo pertinenti. Questa operazione di scelta della porzione di testo da passare è importantissima e necessaria, perché la finestra di contesto limitata non consente di passare tutto il documento o n documenti per ottenere la risposta.