Lloyds Banking Group (LBG), de Britse bankgroep waaronder Lloyds, Royal Bank of Scotland en Halifax vallen, telt ongeveer 28 miljoen klanten. Ondanks de druk om mee te gaan in de opkomst van artificiële intelligentie, stelt LBG veiligheid boven snelheid. Michelle Conway, hoofd data & AI bij LBG, liet recent weten dat de bescherming van klantdata “als Fort Knox” wordt behandeld.
Beperkte toegang tot AI-platformen
Niet alle AI-platformen zijn welkom binnen de bank. LBG heeft bijvoorbeeld de toegang tot repositories zoals Hugging Face tijdelijk geblokkeerd, uit vrees voor risico’s zoals schadelijke of frauduleuze modellen die via zulke kanalen verspreid kunnen worden. Conway zegt dat dit geen definitief verbod is, maar dat het “door security heen moet komen”.
|
Brit banking group insists security priority in AI rollout: Lloyds Data and AI lead doesn't want devs downloading models from the likes of Hugging Face – too risky |
Al ruim honderd AI-toepassingen in gebruik
Ondanks de voorzichtigheid gebruikt LBG al actief meer dan honderd use-cases van AI binnen de organisatie. Voorbeelden zijn chatbots voor klantenservice en personeel, documentverwerking, en andere tools voor digitale transformatie. De bank maakt gebruik van onder meer Microsoft Co-Pilot en Google Gemini voor zowel customer-facing als back-office taken.
Strenge regels, duidelijk beleid
Conway benadrukt dat toestemming en goedkeuring altijd onderdeel zijn van de procedure: alle datagebruiken en AI-toepassingen worden kritisch bekeken voordat ze ingezet worden. Klantdata wordt niet zomaar gedeeld met derde partijen, en er wordt gewerkt met gecontroleerde frameworks.
Wat betekent dit voor de sector?
- Vertrouwen bij klanten: Door te kiezen voor een gedegen veiligheidsbeleid wil LBG het vertrouwen van haar klanten waarborgen, zeker in tijden waarin datalekken en AI-risico’s in het oog springen.
- Innovatie + verantwoord ondernemen: LBG laat zien dat je niet hoeft te kiezen tussen innovatie en veiligheid; de kunst is om beide in balans te brengen.
- Regelgeving en toezicht: De aanpak van LBG sluit aan bij toenemende eisen van toezichthouders, die steeds scherper letten op wie er toegang heeft tot data, hoe het wordt gebruikt, en hoe AI-modellen getest worden.









