Synology verbetert efficiëntie klantenservice dankzij AI met factor 20
Dankzij de inzet van AI heeft Synology de efficiëntie van zijn klantenservice met een factor 20 verbeterd. Op jaarbasis verwerkt de leverancier van gegevensbeheeroplossingen ruim 280.000 support tickets, waarvan er ongeveer 50.000 geautomatiseerd opgelost kunnen worden. Synology gebruikt hiervoor Retrieval-Augmented Generation (RAG).
Bestaande Large Language Models (LLM’s) zijn op zichzelf niet de oplossing voor een betere klantondersteuning. Zo bestaan de trainingsgegevens voor deze LLM’s uit een mix van bronnen, zoals forumartikelen van derden, verouderde artikelen en door gebruikers gegenereerde content die niet altijd de meest nauwkeurige en actuele informatie bevatten.
Daarnaast hebben LLM’s moeite om specifieke, technische oplossingen te bieden bij ondersteuningsaanvragen die om begrip van de context vragen. Bij elke supportaanvraag die Synology binnenkrijgt, moet bepaald worden of er meer details nodig zijn om tot een adequaat antwoord te komen. Hiervoor is niet alle de bredere context van het probleem nodig, maar ook begrip van de supportmogelijkheden en -beperkingen van Synology.
Retrieval-Augmented Generation
RAG kan hierbij helpen. Deze techniek wordt veel gebruikt om de uitvoernauwkeurigheid van een LLM te optimaliseren. Het haalt gegevens op uit externe gezaghebbende databases om nauwkeurige contextuele informatie te bieden, die de AI-oplossing vervolgens gebruikt om geschikte antwoorden te genereren. Deze aanpak helpt het resultaat nauwkeurig en relevant te houden en ervoor te zorgen dat antwoorden voldoen aan interne beleidsregels.
Synology heeft een RAG-database gebouwd met de historische technische servicegegevens van een jaar. De persoonsgegevens van klanten zijn daarbij geanonimiseerd. Daarna is op de gegevens chunking en indexering toegepast, inclusief semantische inbedding van de chunks. Daardoor zijn semantische gelijkeniszoekopdrachten mogelijk door contextueel relevante inhoud te identificeren en op te halen. Zoekresultaten sluiten op die manier beter aan bij de vraag van een klant.
Support tickets
In de volgende fase is er gekeken naar de verwerking van support tickets, waarbij is geanalyseerd of een AI-reactie geschikt is bij individuele gevallen. Wanneer een klant bijvoorbeeld vraagt om diagnose op afstand van een probleem, dan is AI-support niet nodig maar moet er juist een reactie van een expert komen. Bij andere klantvragen is het wel mogelijk om op basis van de informatie uit de RAG-database een antwoord te formuleren. Daar ontlast AI de servicedesk.
Zodra de AI-oplossing de context beter begrijpt, omvat de derde stap het opzetten van een robuust zoekmechanisme. De vraag van de klant wordt herschreven om deze te optimaliseren voor het extraheren van informatie uit de RAG-database. Hiervoor gebruikt Synology ook een semantische zoekmethode waarmee eerdere tickets van relevante typen kunnen worden geëxtraheerd en een rijke context wordt geboden voor het genereren van reacties.
Menselijke check
Vervolgens wordt er op basis van de opgehaalde informatie een antwoord geformuleerd. Hierbij wordt nog een extra controle uitgevoerd om te voorkomen dat er gevoelige informatie wordt verstrekt, zoals details voor externe toegang, of dat er iets contextueel weliswaar correct is maar niet van toepassing binnen bepaalde scenario’s.
Daarnaast maakt het systeem de afweging of een antwoord geautomatiseerd kan worden verzonden, of dat de tussenkomst van een supportmedewerker vereist is. Wanneer het systeem dat laatste vermoedt, wordt het door AI gegenereerde antwoord aan een Synology-medewerker voorgelegd ter beoordeling.
Steven Liang, Manager Generative AI Application bij Synology: “De architectuur stelt ons in staat om generatieve AI te integreren en tegelijkertijd de hoge standaarden ten aanzien van nauwkeurigheid en beveiliging te behouden die onze klanten van Synology-support verwachten. Door de kracht van LLM en RAG te benutten en tegelijkertijd reacties op routinematige vragen te automatiseren, hebben we tot 20 keer snellere responstijden bereikt dan voorheen.”