Intervista a Federico Evrard: il caso Stikets
Come funziona il chatbot di Stikets?
Il chatbot di Stikets è progettato per rispondere a qualsiasi domanda legata al processo di vendita o post-vendita e a tutti i prodotti di Stikets. Ad esempio, nei processi post-vendita: quali sono le politiche di reso, qual è la politica di cancellazione, le garanzie, i prodotti, ovvero tutto ciò che è correlato alle domande che un utente potrebbe fare dopo l’acquisto e anche domande legate al processo pre-vendita: quanto costerà la spedizione, ecc.
Quindi, tutte le fasi di pre-acquisto, acquisto e post-acquisto sono configurate in modo che il chatbot possa soddisfare le esigenze dei clienti.
Corretto. Fondamentalmente è progettato per poter rispondere a tutti i tipi di domande che gli utenti potrebbero avere.
Come è stato configurato questo chatbot?
La configurazione di GPT con Oct8ne è piuttosto semplice. In primo luogo, c’è stato un processo di raccolta di tutte le informazioni, ovvero le possibili risposte a domande legate alla pre-vendita, post-vendita, prodotti, ecc. Tutte le risposte che risolvono questi problemi devono essere raccolte e condensate. Una volta ottenute queste informazioni, si tratta fondamentalmente di lavorare sul robot. Nel caso di Stikets, se lo provate, vedrete che è al 100% IA. Quando diciamo questo, ci riferiamo al fatto che il 100% degli utenti parlerà con intelligenza artificiale.
Abbiamo anche altri chatbot in cui non è al 100% intelligenza artificiale, ma l’intelligenza artificiale si applica solo a piccole parti. Nel caso di Stikets, insisto, è completamente IA.
Tutte le conversazioni vengono gestite dall’intelligenza artificiale, quindi, in base a questo, è necessario fare una configurazione aggiuntiva in Oct8ne. Se si lavora solo con l’intelligenza artificiale, il vantaggio è che tutta la configurazione sarà basata sulla comprensione del linguaggio di GPT e la configurazione, come ho detto, è piuttosto semplice. Poi è necessario disporre di uno strumento come Oct8ne, che facilita l’implementazione di questo in una chat con una serie di strumenti e funzionalità pensate per integrare GPT, e che risponda bene, che non inventi mai cose. ChatGPT infatti puó inventare cose, questi casi Open AI, li chiama allucinazioni. Per noi evitare le allucinazioni è fondamentale, ed è stata la cosa piú importante per noi fin dall’inizio, che questo non accada mai. Che non sbagli mai, che non confermi nulla che non sia vero. Tutto questo si fa configurando.
Da parte del cliente, cosa è stato necessario per effettuare la configurazione?
In realtà, la configurazione è molto semplice, tecnicamente parlando. Non è necessaria nessuna competenza di sviluppo. Semplicemente una persona con competenze di base nei prompt, con molta voglia di provare e con entusiasmo. Quindi, come abbiamo fatto tutto questo? Beh, come ho detto. In primo luogo, abbiamo chiesto tutte le informazioni a Stikets e, insieme a loro – perché è stato un processo che abbiamo fatto insieme -, abbiamo continuato a nutrire queste informazioni e a fare prompt, che alla fine non è altro che fornire informazioni e indicazioni a GPT.
Fondamentalmente è dirgli come deve agire, come deve rispondere, che tono di comunicazione deve usare, se deve usare emoticon o non deve usare emoticon, quali sono le gestioni che richiedono l’intervento di un agente. Abbiamo parlato di molte cose, ma i pilastri di una configurazione GPT sono: linee guida comportamentali – chi sei, cosa fai, come lo fai, ad esempio -, e qui includiamo che sei il chatbot di Stikets, che assisti i clienti con un tono amichevole, che in caso di questo o quello o quello, lo trasferisci a un agente. Per darvi un’idea, se rileva che un utente vuole annullare un ordine, è un processo che a Stikets viene gestito con l’intervento di una persona, quindi, usiamo l’IA per dire “Ehi, Oct8ne, devi passare questa conversazione a una persona”. Non è che prepariamo sempre l’intelligenza artificiale per rispondere o no, la prepariamo per rispondere e, se necessario, per trasferire a un agente.
Qual è il principale beneficio che questa nuova tecnologia ha portato al bot di Stikets?
In particolare, Stikets prima di lavorare con GPT e con noi, lavorava con un’altra soluzione con un modello di intelligenza artificiale non basato su intelligenza artificiale generativa. Erano modelli di intelligenza artificiale più datati, quindi non conosco come fosse prima il loro robot né i risultati che dava, ma dal feedback che ricevo a livello di configurazione, quello attuale è molto più efficace. Il modello precedente lavorava con una serie di intenti e risposte che non sono altro che template, quindi, questi modelli per chi non li conosce, sono essenzialmente modelli in cui crei una serie di intenti, una griglia di un sacco di domande, e crei una risposta specifica che è un template che è sempre lo stesso per ogni categoria di domanda.
Fondamentalmente, quello che fai è alimentarlo facendo la stessa domanda in venti modi diversi e associando a queste venti domande la risposta. Quello che fai è continuare a nutrirlo con variazioni di ogni tipo di domanda. Posso farti una domanda in cinque modi diversi, quindi è un processo in cui fondamentalmente inserisci una cosa e dici “ehi, questa categoria di domanda – e inserisci un sacco di domande – equivale a questa risposta”. Quindi, qual è la differenza che ci dà Open AI? La risposta non è mai la stessa. Nel caso dell’intelligenza artificiale precedente, ci sono risposte che sono template, è sempre la stessa risposta. Open AI personalizza e non c’è mai una risposta uguale. Infatti, una cosa divertente in Open AI è che se gli fai una domanda ora e gliela fai di nuovo tra due minuti, è possibile che risponda in modo diverso. Risponderà la stessa cosa, in sostanza, ma in modo diverso. Cioè, costruirà la frase in un altro modo, magari ti avrà cambiato un emoticon, perché è generativo, non lavora con template.
Dati di conversione o qualche dato interessante da condividere?
Piuttosto che la conversione, – perché la conversione è qualcosa che piace a tutti noi sapere, ma dipende molto dal settore, dipende dal marchio, dipende dal momento in cui lo analizziamo, dipende da molte cose -, mi piacerebbe analizzare qualcosa che mi ha sorpreso molto ed è il grado di automazione. Questo è un KPI che ci piace molto in Oct8ne, che è quale percentuale di conversazioni è assorbita dal robot e quale percentuale di conversazioni ha richiesto l’intervento di una persona.
Nel caso di Stikets – globalmente -, senza entrare a segmentare il tipo di conversazione, il robot al momento ha un grado di automazione del 70%. Tra il 70% e il 75% in realtà. Cosa significa questo? Di 100 conversazioni, 70/75 sono autogestite e non richiedono l’intervento di nessuno, perché nessuno ha avuto bisogno di ulteriore assistenza. Bene, ora, se analizziamo questo e analizziamo le domande sui prodotti, GPT come vi ho detto, è addestrato per rispondere su tutti i suoi prodotti. Abbiamo rilevato che solo il 7% richiede l’intervento di un agente. Stiamo parlando del 93% delle conversazioni sui prodotti che sono automatizzate, e la cosa divertente è che cercare una persona che conosca i prodotti molto meglio del bot di Stikets, sarebbe complesso perché in realtà l’addestramento che gli è stato dato è eccellente.
È stata data molta importanza e sono state fornite informazioni molto dettagliate sui prodotti, in modo che le risposte siano esaustive. E se torniamo indietro, quel 70% di assorbimento a livello globale non significa che il bot non possa rispondere di piú ma che a Stikets interessa che determinate situazioni di determinati utenti vadano sempre a un agente: gli utenti insoddisfatti, gli utenti che stanno avendo un problema con l’ordine che il robot non può risolvere. Il robot non può generare un processo, non può contattare il corriere e chiedergli di riprogrammare la consegna.
Il robot ci aiuta a individuare tutti quegli utenti e a sapere che hanno bisogno di un processo, quindi, dire che il robot non è stato efficace lì credo che non sia giusto, ma alla fine quello che è eccezionale è che il robot aiuta in tutto ciò che vogliamo. In effetti, per aggiungere un piccolo dettaglio che è molto divertente, è stato molto divertente lavorare al trasferimento all’agente – che è quando il robot trasferisce la conversazione – e GPT dà molta libertà lì. Quello che è stato fatto, e vi invito a provarlo, è che se dico che voglio parlare con un agente, il robot mi chiederà prima di cosa ho bisogno, quale dubbio ho, e finché non gli dico il dubbio, il robot non mi trasferirà. Inoltre, GPT cercherà di risolverlo se lo sa. Analizzerà il mio dubbio e cercherà di rispondermi, anche se non gli ho detto che voglio parlare con un agente, cercherà di rispondermi per evitare il trasferimento e dare all’utente una risposta molto più veloce.
Questo si configura in modo molto semplice, all’interno di Oct8ne dici a GPT “se rilevi che l’utente vuole parlare con un agente, prima, chiedigli qual è il suo dubbio. Una volta che sai il suo dubbio, cerca di risolverlo con le informazioni che hai. Se non hai informazioni per rispondere, trasferiscilo a un agente”. Quindi, puoi plasmarlo come vuoi.
In sintesi, il robot di Stikets risponde a quasi il 100% delle richieste del chatbot, perché quelle che non risponde sono quelle configurate da Stikets per essere trasferite.
Come vedi il mondo dei chatbot con l’avvento della tecnologia dell’intelligenza artificiale?
Credo che il cambiamento sia evidente. È oggi, non domani. È vero che vedremo gradualmente come il suo utilizzo aumenterà sempre di più. È chiaro che i chatbot con intelligenza generativa cambiano molte cose. In realtà, non si tratta solo di intelligenza generativa ma, grazie a Oct8ne, è possibile integrare l’IA in un database di ordini, ad esempio. Non ne abbiamo parlato ma lo abbiamo fatto anche in Stikets, e se volete sapere lo stato del vostro ordine, passiamo le variabili dell’ordine all’AI, poi l’AI vi risponderà qual è lo stato del vostro acquisto: “risulta che il corriere è passato e non era in casa”.
Come fa l’IA a rispondere, perché conosce tutte le politiche di consegna. Sa perfettamente qual è la politica di consegna di Stikets e sa che vengono fatti tre tentativi di consegna, e che se il primo non va a buon fine, verrà fatto un secondo tentativo, e così via fino al terzo. Ciò significa che risponderà anche alle domande su un cliente e, se si vuole che memorizzi delle variabili, le memorizzerà. Se passo a GPT le variabili del nome, gli dico “il cliente si chiama variabile NOME e la sua email è variabile EMAIL”, e così via con le variabili che vogliamo. Questo aiuta a personalizzare ancora di più l’esperienza.
Quindi, tutto questo per dire che mi sembra ovvio che il futuro dei chatbot è lì, e quello che cambia con quello che abbiamo oggi, cambia molto nell’esperienza utente, e soprattutto nelle capacità e nello spettro di conversazioni che si possono gestire con l’intelligenza artificiale. E soprattutto nella facilità di configurare tutto questo.
È vero che l’intelligenza artificiale ha suscitato molto clamore e ora è difficile pensare a un chatbot senza AI, ma questo lo abbiamo visto prima dell’intelligenza artificiale. Ci sono momenti in cui è meglio guidare l’utente e dargli delle opzioni, perché altrimenti gli diamo troppa libertà. Ci sono processi in cui il multiopzione é sempre interessante e con questo mi ricollego un po’ a quello che dicevo prima: si può avere un robot 100% AI o un robot misto. Potete avere un robot con intelligenza artificiale che, a seconda della domanda che volete fare, vi passerà un albero di opzioni. Ci sono molti casi in cui è meglio guidare l’utente con delle opzioni, ad esempio un processo di lead generation o un problema di assistenza molto operativo.
Tutto dipende dalle esigenze del cliente. Bisogna tenere conto del valore che si intende generare e prendere una decisione in tal senso.
Alessio ci dice che “ogni giorno controlliamo le risposte che da, il modo in cui interagisce con i clienti, ecc. e leggiamo le domande e le risposte e in base a ciò che leggiamo apportiamo modifiche al prompt, perché a volte i clienti fanno domande a cui non avevamo pensato.
Ma ci sono casi molto divertenti in cui il cliente iper-personalizza la domanda e dice ad esempio “Ciao, mia figlia Valeria inizia la scuola domani e ho bisogno di adesivi per i suoi vestiti, ma non ho un’idea chiara, puoi consigliarmi?” e il bot risponde “Sono così felice che tua figlia inizi la scuola!”, e queste frasi non sono nel prompt, e questi casi mi affascinano molto”.