ChatGPT è un modello di linguaggio basato su GPT-3 sviluppato da OpenAI che sta facendo parlare molto di sé in questo periodo. E' stato progettato per generare risposte coerenti e realistiche in una conversazione e consente agli sviluppatori di integrare facilmente il modello per creare una conversazione secondo le indicazioni e i dati forniti.
Oltre a ChatGPT, OpenAI fornisce altri modelli che si possono utilizzare attraverso un profilo sviluppatore, ma in questo articolo vogliamo invece presentare come possiamo utilizzare OpenAI sulla piattaforma Microsoft Azure. Il vantaggio che ne traiamo, oltre a quelli amministrativi e di pagamento, è quello di sfruttare un ambiente che già conosciamo, fatto di documentazione, strumenti ed esempi, il tutto integrato nell'ecosistema Azure. Questo significa poter più facilmente integrare il modello con gli altri servizi, il supporto alle reti private, l'integrazione con il managed identity e la scelta di differenti regioni.
Per poter utilizzare ChatGPT dobbiamo prima di tutto compilare un questionario https://aka.ms/oaiapply che nel giro di qualche giorno ci permetterà di creare il servizio su Azure. Sempre dal portale possiamo creare una nuovo account OpenAI, come mostrato nella figura. Attenzione a scegliere per ora East US perché ChatGPT è disponibile per il momento solo in quella regione.

Creato l'account si presenta la solita maschera che principalmente presenta il pulsante Go to Azure OpenAI Studio, il quale apre un nuovo sito che presenta una serie di guide e documenti, e direttamente il Chat playground, cioè la possibilità di provare la conversazione.
Prima di procedere, però, dobbiamo prima di tutto effettuare il deploy di un modello, accedendo alla sezione Deployments. Creiamo un nuovo deployment di tipo gpt-35-turbo con il nome che vogliamo, per poterlo identificare.

Premiamo finalmente su Chat per aprire una pagina dove possiamo da una parte dare indicazioni al motore, su come deve comportarsi e come deve interagire. Troviamo anche degli esempi per capire come approcciare. Sul lato destro troviamo, invece, la possibilità di conversare.

Lo scopo ultimo è quello di poter vedere il codice, usando la libreria Python oppure con delle semplici chiamate HTTP che ci permetta poi di utilizzarlo nei nostri applicativi.
Per maggiori approfondimenti rimandiamo alla pagina documentazione ufficiale https://learn.microsoft.com/en-us/azure/cognitive-services/openai/
Commenti
Per inserire un commento, devi avere un account.
Fai il login e torna a questa pagina, oppure registrati alla nostra community.
Approfondimenti
Esporre un server MCP esistente con Azure API Management
Pubblicare un MCP Server in GitHub MCP Registry
Disabilitare le run concorrenti di una pipeline di Azure DevOps
Testare il failover sulle region in Azure Storage
Controllare la velocità di spostamento su una pagina HTML
Esporre tool MCP con Azure Functions
Ospitare n8n su Azure App Service
Gestire il routing HTTP in Azure Container App
Utilizzare DeepSeek R1 con Azure AI
Ottimizzare le performance usando Span<T> e il metodo Split
I più letti di oggi
- Effettuare il multi-checkout in linea nelle pipeline di Azure DevOps
- Le DirectInk API nella Universal Windows Platform
- Sfruttare una CDN con i bundle di ASP.NET
- Esaminare documenti XML con namespace utilizzando LINQ to XML
- Alleggerire le applicazioni WPF sfruttando gli oggetti Freezable
- Effetto turnstile su tutte le pagine con il Windows Phone Toolkit
- Gli oggetti CallOut di Expression Blend 4.0
- Inserire le news di Punto Informatico nel proprio sito


