Anthropic, het bedrijf dat verantwoordelijk is voor het AI-model Claude, is officieel op de zwarte lijst van het Pentagon geplaatst. Deze beslissing houdt in dat de modellen van Anthropic niet mogen worden ingezet binnen Amerikaanse defensiecontracten.
Het besluit van het Pentagon om Anthropic op de zwarte lijst te zetten, heeft grote gevolgen voor het bedrijf. Het verbiedt het gebruik van hun AI-modellen in projecten die verband houden met de nationale veiligheid van de Verenigde Staten.
In reactie op deze maatregel heeft Anthropic aangekondigd juridische stappen te ondernemen. Het bedrijf is van plan naar de rechtbank te stappen om de beslissing van het Pentagon aan te vechten.
Lees het volledige artikel Dutch IT Channel:
Anthropic op Amerikaanse zwarte lijst gezet.