{"id":30577,"date":"2023-04-13T10:15:20","date_gmt":"2023-04-13T10:15:20","guid":{"rendered":"https:\/\/oct8ne.com\/?p=30577"},"modified":"2023-04-13T10:30:34","modified_gmt":"2023-04-13T10:30:34","slug":"integra-gpt4-nel-tuo-chatbot-di-oct8ne","status":"publish","type":"post","link":"https:\/\/oct8ne.com\/it\/blog\/integra-gpt4-nel-tuo-chatbot-di-oct8ne","title":{"rendered":"Integra GPT-4 nel tuo chatbot di Oct8ne"},"content":{"rendered":"<p><span style=\"font-weight: 400;\">La velocit\u00e0 con cui OpenAI aggiorna le versioni di Chat GPT \u00e8 cos\u00ec rapida che obbliga gli utenti a comprendere il funzionamento durante il percorso.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Da Oct8ne, seguiamo questo ritmo di lanci per continuare a offrire una vasta gamma di integrazioni.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Usi GPT3.5 turbo o GPT4? Ci sono buone notizie, perch\u00e9 in precedenza l&#8217;<a href=\"https:\/\/oct8ne.com\/it\/blog\/integra-gpt-con-oct8ne\">integrazione<\/a> veniva effettuata attraverso l&#8217;azione HTTP generica, ma ora abbiamo creato una progettata specificamente per ChatGPT. Questo modulo nasconde tutta la complessit\u00e0 inherente all&#8217;uso di API esterne, offrendo una superficie di configurazione semplificata in cui dovrai solo concentrarti sulla creazione del prompt appropriato per il tuo bot.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In questo modo potrai godere di una sinergia esplosiva: la potenza del nostro chat, unico sul mercato con supporto visivo, insieme all&#8217;intelligenza artificiale di OpenAI.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Grazie al nostro covisore potrai condividere immagini e video in tempo reale con i tuoi clienti, il che ti permetter\u00e0 di generare un contatto diretto molto simile a quello di un negozio fisico.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ma prima di tutto, ripassiamo dettagliatamente i passi necessari per effettuare l&#8217;integrazione, poich\u00e9, in primo luogo, devi avere un account su OpenAI, che non \u00e8 direttamente associato a Oct8ne. Segui i passi!<\/span><\/p>\n<p><b>Crea un account su Open AI e accedi alla API Key<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Per avere accesso alle API di OpenAI \u00e8 sufficiente visitare il loro sito web all&#8217;indirizzo <a href=\"https:\/\/openai.com\/api\/\" target=\"_blank\" rel=\"noopener\">https:\/\/openai.com\/api\/<\/a> e registrarsi come utente. La registrazione \u00e8 gratuita, anche se potremo utilizzare la piattaforma per un numero limitato di volte; da l\u00ec, per continuare, sar\u00e0 necessario noleggiare un <a href=\"https:\/\/openai.com\/pricing\" target=\"_blank\" rel=\"noopener\">account a pagamento<\/a>, separato dal proprio account su Oct8ne. Dopo la registrazione, dobbiamo accedere al menu delle chiavi API, dove utilizzeremo il pulsante &#8220;Crea una nuova chiave segreta&#8221; per generare una nuova chiave di accesso all&#8217;API.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dobbiamo annotare questa chiave perch\u00e9 la utilizzeremo in seguito.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-29871 size-full\" src=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/unnamed-3.png\" alt=\"\" width=\"1385\" height=\"792\" title=\"\"><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">\u00c8 importante notare che, ad oggi, non \u00e8 ancora possibile utilizzare direttamente GPT4. Essendo un modello completamente nuovo, OpenAI sta aprendo gradualmente l&#8217;accesso, quindi se volete utilizzarlo, dovrete iscrivervi a una lista d&#8217;attesa attraverso l&#8217;indirizzo <\/span><a href=\"https:\/\/openai.com\/waitlist\/gpt-4-api\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">https:\/\/openai.com\/waitlist\/gpt-4-api<\/span><\/a><span style=\"font-weight: 400;\">. Se tutto va bene, tra qualche giorno riceverete un&#8217;e-mail che vi informer\u00e0 della sua disponibilit\u00e0 e potrete iniziare a usarlo. Tuttavia, il modello GPT3.5-turbo, utilizzato da ChatGPT, \u00e8 disponibile fin dall&#8217;inizio.<\/span><\/p>\n<p><b>Modella la conversazione<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Il configuratore del bot di Oct8ne \u00e8 progettato in modo che i profili non tecnici possano creare facilmente conversazioni grazie al nostro sistema di moduli drag &amp; drop. Grazie a questo, \u00e8 possibile creare un flusso di domande e risposte multiple sia per fornire assistenza 24\/7 ai clienti con le FAQ sia per <a href=\"https:\/\/oct8ne.com\/it\/casos-di-successo-drim\">consigliare prodotti<\/a> con le parole chiave.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Per iniziare, creeremo una semplice conversazione in cui ci limiteremo a chiedere all&#8217;utente la domanda da fare al modello OpenAI GPT e a mostrare la risposta, terminando la conversazione in quel momento. Per fare ci\u00f2, utilizzeremo l&#8217;azione &#8220;Request data&#8221; del bot designer per richiedere il testo all&#8217;utente. Salveremo questo testo nella variabile &#8220;query&#8221;:<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-29906 size-full\" src=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/bloggpt4it-1.png\" alt=\"\" width=\"979\" height=\"782\" title=\"\"><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Successivamente, collegheremo il nuovo modulo ChatGPT, progettato specificamente per semplificare l&#8217;integrazione con le API OpenAI, alla richiesta di dati:<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-29924 size-full\" src=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/bloggpt4it-2.png\" alt=\"\" width=\"937\" height=\"785\" title=\"\"><\/p>\n<p><span style=\"font-weight: 400;\">Come accennato in precedenza, questo modulo semplifica radicalmente il consumo delle API ChatGPT di OpenAI. Concettualmente, si comporta come una &#8220;scatola nera&#8221; che riceve il messaggio o la domanda inviata dall&#8217;utente e da cui, in una nuova variabile, viene restituita la risposta GPT.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I parametri che dobbiamo stabilire nel modulo ChatGPT sono i seguenti:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Token OpenAI: \u00c8 la chiave API ottenuta nel primo passo.<\/span><\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Prompt: \u00e8 l&#8217;informazione contestuale che indica a GPT come comportarsi. Ad esempio, nella schermata precedente, si pu\u00f2 notare che abbiamo scelto un prompt semplice: &#8220;Sei un assistente personale. Ti piace parlare con l&#8217;utente e rispondere alle sue domande&#8221;. Tuttavia, avremmo potuto utilizzare qualsiasi altra richiesta per far s\u00ec che le risposte del bot si adattassero alle nostre esigenze.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Una cosa molto importante da tenere a mente \u00e8 che OpenAI ci fa pagare in base al numero di token che consumiamo (si possono vedere le tariffe su <a href=\"https:\/\/openai.com\/pricing\" target=\"_blank\" rel=\"noopener\">https:\/\/openai.com\/pricing<\/a>. Per questo motivo, quando si definisce il prompt, si vedr\u00e0 il numero di gettoni che il prompt specificato consumer\u00e0 proprio sotto di esso.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Variabile del messaggio dell&#8217;utente: qui si deve selezionare la variabile che contiene la domanda o il messaggio dell&#8217;utente. Nel nostro caso, si pu\u00f2 notare che abbiamo utilizzato &#8220;query&#8221; perch\u00e9 \u00e8 la variabile in cui abbiamo salvato il messaggio dell&#8217;utente ottenuto tramite il modulo &#8220;Ask Data&#8221; subito prima del modulo ChatGPT che stiamo configurando.<\/span><\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Variabile di output: deve contenere il nome della variabile in cui verr\u00e0 memorizzata la risposta di GPT. In genere, si utilizzer\u00e0 questa variabile per visualizzare la risposta all&#8217;utente o per elaborarla per prendere decisioni, come ad esempio portare l&#8217;utente all&#8217;inizio del processo di restituzione di un prodotto.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Il resto delle possibilit\u00e0 di configurazione del modulo ChatGPT sono nascoste per impostazione predefinita e riguardano parametri avanzati dell&#8217;API e del comportamento del modulo. I loro valori predefiniti sono stati scelti in modo che di solito non sia necessario modificarli.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, per impostazione predefinita, il modulo ChatGPT \u00e8 configurato per utilizzare il modello GPT3.5-turbo, in quanto offre una qualit\u00e0 di risposta ragionevolmente buona ed \u00e8 il meno costoso da utilizzare. Tuttavia, se si preferisce utilizzare il GPT4, \u00e8 sufficiente espandere la sezione &#8220;Parametri API avanzati&#8221; per mostrare il parametro &#8220;Modello&#8221; e digitare il nome del modello &#8220;gpt-4&#8221; o quello che si desidera utilizzare.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nella stessa sezione si possono configurare anche altri aspetti, come la temperatura o il grado di &#8220;creativit\u00e0&#8221; delle risposte o il limite di token consentito per le risposte.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Una volta regolati i parametri del modulo ChatGPT, possiamo continuare a definire il comportamento del bot, che, come gi\u00e0 detto, sar\u00e0 piuttosto semplice: tutto ci\u00f2 che vogliamo fare con la risposta ottenuta da GPT \u00e8 mostrarla all&#8217;utente e poi terminare la sessione.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-29912 size-full\" src=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/bloggpt4it-3.png\" alt=\"\" width=\"395\" height=\"783\" title=\"\"><\/p>\n<p><span style=\"font-weight: 400;\">Per fare questo, dobbiamo solo aggiungere un paio di azioni supplementari al designer del bot e collegarle in modo appropriato alle precedenti.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-29918 size-full\" src=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/bloggpt4it-4.png\" alt=\"\" width=\"865\" height=\"714\" title=\"\"><\/p>\n<p><span style=\"font-weight: 400;\">Avete gi\u00e0 provato la Chat GPT? Beh, aspettate di integrarlo nel nostro <a href=\"https:\/\/oct8ne.com\/it\/chatbot\">chatbot<\/a> e godetevi la potenza di Open AI integrata negli assistenti virtuali di Oct8ne.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se non avete ancora provato Oct8ne, o se siete gi\u00e0 clienti e volete saperne di pi\u00f9 su questa nuova integrazione, potete richiedere una demo per capire di cosa stiamo parlando.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ecco un video che mostra alcune delle caratteristiche di Oct8ne e ChatGPT in azione:<\/span><\/p>\n<div style=\"width: 974px;\" class=\"wp-video\"><!--[if lt IE 9]><script>document.createElement('video');<\/script><![endif]-->\n<video class=\"wp-video-shortcode\" id=\"video-30577-1\" width=\"974\" height=\"618\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/oct8ne-gpt-it.mp4?_=1\" \/><a href=\"https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/oct8ne-gpt-it.mp4\">https:\/\/develop.oct8ne.com\/wp-content\/uploads\/2023\/04\/oct8ne-gpt-it.mp4<\/a><\/video><\/div>\n","protected":false},"excerpt":{"rendered":"<p>La velocit\u00e0 con cui OpenAI aggiorna le versioni di Chat GPT \u00e8 cos\u00ec rapida che obbliga gli utenti a comprendere il funzionamento durante il percorso. Da Oct8ne, seguiamo questo ritmo di lanci per continuare a offrire una vasta gamma di integrazioni. Usi GPT3.5 turbo o GPT4? Ci sono buone notizie, perch\u00e9 in precedenza l&#8217;integrazione veniva [&hellip;]<\/p>\n","protected":false},"author":14,"featured_media":30586,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[10],"tags":[],"class_list":["post-30577","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-non-categorizzato"],"_links":{"self":[{"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/posts\/30577","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/users\/14"}],"replies":[{"embeddable":true,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/comments?post=30577"}],"version-history":[{"count":4,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/posts\/30577\/revisions"}],"predecessor-version":[{"id":30606,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/posts\/30577\/revisions\/30606"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/media\/30586"}],"wp:attachment":[{"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/media?parent=30577"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/categories?post=30577"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/oct8ne.com\/it\/wp-json\/wp\/v2\/tags?post=30577"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}