‘De wereld heeft dringend behoefte aan een veilig alternatief voor Microsoft Teams dat de privacy van gebruikers respecteert’, vindt Jos Poortvliet. De medeoprichter van Nextcloud vat ermee de boodschap van het Nextcloud Enterprise-event in Parijs samen. Daar stond de introductie van de nieuwe versie van Nextcloud Talk centraal. Het platform biedt een opensource-oplossing voor bedrijven en organisaties die controle willen over hun data, zonder concessies te doen aan privacy.
Met Nextcloud Talk wil het bedrijf een antwoord bieden op de groeiende vraag naar veilige communicatieplatforms. De nieuwe versie biedt verbeterde end-to-end encryptie, integratie met andere Nextcloud-tools en uitgebreide beheeropties. Ook gebruikt het platform ai om bijvoorbeeld veel chatberichten samen te vatten en conceptantwoorden op emails op te stellen. ‘Wij geloven dat technologie gebruikers in staat moet stellen om controle te houden over hun eigen gegevens, in plaats van afhankelijk te zijn van de voorwaarden van grote techbedrijven’, vertelt Poortvliet in Parijs.
Opensource ai: transparantie en controle
Naast Nextcloud Talk speelt ook de integratie van opensource ai-modellen een belangrijke rol in de visie van het bedrijf. Deze modellen bieden een alternatief voor de gesloten systemen van grote technologiebedrijven, waarbij vaak onduidelijk is hoe data worden verwerkt en gebruikt, en op welke data de modellen zijn getraind.
‘Met opensource ai kunnen gebruikers precies zien hoe een model werkt en zelfs aanpassen hoe het met hun gegevens omgaat’, legt Poortvliet uit. Deze transparantie sluit aan bij de waarden van Nextcloud en heeft geleid tot de ontwikkeling van de Ethical AI-rating. Dit beoordelingssysteem biedt inzicht in de mate waarin ai-modellen voldoen aan eisen ten aanzien van privacy en transparantie. Computable schreef eerder over het belang van een systematiek voor het beoordelen van ai-modellen.
De Ethical AI-rating beoordeelt modellen op basis van drie criteria:
- Beschikbaarheid van trainingsdata: Zijn de data toegankelijk en vrij te gebruiken?
- Openheid van software: Is de software voor zowel training als inferentie opensource?
- Zelfhosting: Kan het model lokaal worden gehost zonder afhankelijkheid van derden?
Op basis van deze criteria ontvangen modellen een kleurcodering, van groen (volledig open en transparant) tot rood (minimale controle en inzicht).
Voorbeelden van opensource ai-modellen
Tijdens het event gaf Poortvliet voorbeelden van modellen die prima scoren binnen de Ethical AI-rating en passen bij organisaties die meer controle willen over hun ai-toepassingen:
- GPT-Neo en GPT-J via LocalAI (Groen): Modellen die lokaal draaien en volledig aanpasbaar zijn, wat gebruikers maximale controle biedt.
- OpenNMT (Groen): Een vertaalframework dat via de LibreTranslate-app in Nextcloud kan worden gebruikt, zonder gegevens naar externe servers te sturen.
- Opus (Groen): Een vertaaltool ontwikkeld door de universiteit van Helsinki, die volledig lokaal opereert en geen privégegevens deelt.
Volgens Poortvliet zijn dit goede voorbeelden van hoe ai kan worden ingezet zonder dat privacy in het geding komt. ‘Organisaties hoeven niet te kiezen tussen functionaliteit en veiligheid. Met de juiste tools kunnen ze beide hebben.’
Complexiteit van opensource ai
Niet alle opensource ai-modellen voldoen echter volledig aan de hoogste standaarden. Zo krijgen modellen zoals Stable Diffusion en Whisper krijgen een gele beoordeling door de beperkte beschikbaarheid van trainingsdata. Toch kunnen deze modellen, afhankelijk van de context, waardevol zijn. Poortvliet benadrukt dat het belangrijk is om te begrijpen wat de beperkingen en voordelen van een model zijn, voordat het wordt ingezet. ‘Het gaat erom dat gebruikers bewuste keuzes maken en weten wat ze van een model kunnen verwachten.’
Binnen Nextcloud worden ai-functionaliteiten geïntegreerd in diverse toepassingen, zoals de Nextcloud Assistant. Deze toepassing is ontworpen om gebruikers te ondersteunen met taken, zoals spraak-naar-tekst-conversies en geautomatiseerde document- en email-creatie. Wat de tool interessant maakt, is dat deze volledig lokaal draait en verschillende ai-modellen kan gebruiken, afhankelijk van de privacy-behoeften van de gebruiker.
‘De Nextcloud Assistant is een voorbeeld van hoe ai en privacy hand in hand kunnen gaan’, zegt Poortvliet. ‘Gebruikers kunnen zelf kiezen welke modellen ze gebruiken, waardoor ze hun eigen ai-omgeving kunnen samenstellen zonder concessies te doen aan privacy of veiligheid.’
De toekomst van opensource ai
De introductie van Nextcloud Talk en de focus op opensource ai-modellen markeren een bredere verschuiving in de ict-wereld. Organisaties en ict-managers zoeken – zeker in Europa – steeds vaker naar oplossingen die niet alleen geavanceerde functionaliteit bieden, maar ook privacy en veiligheid respecteren. Poortvliet is dan ook optimistisch over de toekomst: ‘Met opensource ai kunnen we een nieuw tijdperk van vertrouwen en controle inluiden. Het gaat niet alleen om technologie, maar ook om de ethische verantwoordelijkheid die daarbij hoort. Transparantie is de sleutel tot vertrouwen, en dat is wat wij willen bieden.’