DeepSeek onder vuur
De opkomst van DeepSeek heeft voor opschudding gezorgd in de AI-sector. Het open-source model biedt sterke concurrentie aan bestaande taalmodellen, maar de herkomst van de technologie roept vragen op. DeepSeek is eigendom van een hedgefonds uit Hangzhou, China, en dat heeft geleid tot bezorgdheid bij Amerikaanse techbedrijven en overheidsinstanties. Door de lage kosten en brede toegankelijkheid was het model snel populair, wat de dreiging voor andere AI-bedrijven versterkte. Toch blijft er discussie over de impact van open-source AI op innovatie en veiligheid.
Verbod door de Amerikaanse marine
De Amerikaanse marine heeft een expliciet verbod ingesteld op het gebruik van DeepSeek in welke vorm dan ook. Dit besluit komt van de Chief Information Officer van de marine en wordt gemotiveerd door mogelijke veiligheids- en ethische risico’s. Medewerkers kregen de instructie om de chatbot niet te downloaden, installeren of gebruiken. Dit verbod maakt deel uit van bredere maatregelen tegen Chinese AI-technologieën binnen Amerikaanse overheidsinstanties. Het toont hoe overheden steeds strenger worden in hun beleid rondom generatieve AI.
Privacyzorgen rond DeepSeek
De privacy van gebruikers is een belangrijk punt van zorg bij DeepSeek. Het AI-model verzamelt persoonlijke gegevens die worden opgeslagen op Chinese servers. Dit heeft geleid tot onrust bij privacybewuste gebruikers en beleidsmakers. Hoewel veel AI-modellen gegevens verzamelen, worden servers in China als extra risicovol beschouwd door westerse landen. Hierdoor is er een groeiende vraag naar strengere regelgeving voor AI en databescherming.
Cyberaanvallen en beveiligingsrisico’s
DeepSeek heeft daarnaast te maken gehad met grootschalige cyberaanvallen, vermoedelijk een DDoS-aanval, waardoor het tijdelijk geen nieuwe gebruikers kon toelaten. Dit benadrukt de kwetsbaarheid van open-source AI-modellen. Beveiligingsexperts waarschuwen dat kwaadwillenden misbruik kunnen maken van open-source AI door bijvoorbeeld schadelijke code of achterdeurtjes in modellen te plaatsen. Dit kan de betrouwbaarheid van AI-platformen ernstig ondermijnen. De incidenten rondom DeepSeek laten zien hoe AI-platformen kwetsbaar blijven voor grootschalige cyberdreigingen.
Reactie op open-source AI
De zorgen rondom DeepSeek passen in een bredere discussie over open-source AI. Hoewel open-source modellen innovatie stimuleren en toegankelijkheid vergroten, zijn ze ook kwetsbaar voor cyberaanvallen en manipulatie. Overheden en bedrijven worden steeds voorzichtiger met het gebruik van AI-technologieën die buiten hun invloedssfeer ontwikkeld worden. Dit leidt tot een groeiende scheiding tussen AI-ontwikkeling in het Westen en China. De toekomst van open-source AI zal waarschijnlijk afhangen van hoe landen deze technologie reguleren.
Europese alternatieven voor DeepSeek
Nu het gebruik van DeepSeek steeds meer ter discussie staat, kijken bedrijven en overheden naar alternatieve AI-oplossingen. In Europa wordt gewerkt aan veilige en transparante AI-modellen die beter aansluiten bij de strenge privacywetgeving. Een voorbeeld hiervan is ChatGPT Nederlandse versie, die ontwikkeld wordt met een focus op gegevensbescherming en naleving van de AVG-wetgeving. Dit soort initiatieven kunnen een rol spelen in het terugdringen van de afhankelijkheid van AI-technologie uit China en de VS.