
Die KI -Rasse ist in letzter Zeit sehr intensiv. Die letzte Episode ist von Anthropic, die den Zugang zu Openai gesetzt haben, damit sie nicht auf ihre Familie von Claude -Modellen zugreifen können. Das Unternehmen behauptet, Chatgpt -Ingenieure mit den Programmierwerkzeugen von Claude zu erwischen, was nicht sehr gut gefallen ist. Das, Laut einem Sprecher Von der Firma bis zum mittelgroßen Kabel sind „ein Verstoß gegen seine Nutzungsbedingungen“, sodass sie einen eingeschränkten Zugang zur API haben.
Was ist genau passiert. Openai verband Claude mit seinen internen Werkzeugen über seine API anstelle der herkömmlichen Chat -Schnittstelle. Dies ermöglichte es dem Unternehmen, vergleichende Beweise zwischen Claude und seinen eigenen Modellen in Bereichen wie Programmierung, kreativem Schreiben und Sicherheitsantworten vorzunehmen. Die Ergebnisse halfen, das Verhalten ihrer Modelle zu bewerten und die erforderlichen Anpassungen vorzunehmen.
Ein endloser Krieg. Diese Entscheidung geht über einen einfachen vertraglichen Streit hinaus: markiert einen Wendepunkt in der Beziehung zwischen zwei der Hauptbefugnisse der generativen KI. Anthropic wurde 2021 genau aus einer OpenAI -Spaltung geboren, als mehrere Schlüsselforscher, darunter die Brüder Dario und Daniela Amodei, Altmans Unternehmen aufgrund von Unterschieden in Bezug auf die Richtung und Sicherheit der KI verließen. Seitdem war die Spannung spürbar, obwohl sie im Hintergrund geblieben war.
Die Rechtfertigung von Anthropic. «Claude -Code Es ist die bevorzugte Option von Programmierern überall geworden, daher waren wir nicht überrascht zu wissen, dass OpenAIs technische Mitarbeiter unsere Programmierwerkzeuge vor dem Start von GPT-5 auch verwendeten, sagte Christopher Nulty, anthropische Sprecher. Das Unternehmen berücksichtigt, dass dies eine direkte Verstöße gegen die kommerziellen Begriffe ausmacht, die exprimiert die Verstöße gegen den Dienst errichten.
Openais Antwort. Sam Altmans Unternehmen Er hat verteidigt Seine Praktiken als «Standard in der Branche», um andere KI -Systeme zu bewerten und die Sicherheit zu verbessern. «Obwohl wir Anthropics Entscheidung respektieren, unseren Zugang zur API zu senken, ist es enttäuschend, wenn man bedenkt, dass unsere API für sie noch verfügbar ist», sagte Hannah Wong, Direktorin für Kommunikation von OpenAI.
Zwischen den Zeilen. Was wir jetzt sehen, ist die Materialisierung eines Kalten Krieges, der seit Jahren genommen wird. Anthropic hat Claude als «sicherere und ethische» Alternative gegen ChatGPT positioniert, während Openai seine Führung für Massenadoption und allgemeine Fähigkeiten beibehalten hat. Diese Rivalität ist nicht nur Geschäft: Sie ist auch philosophisch, mit sehr unterschiedlichen Ansätzen zur Entwicklung und Vermarktung der KI. Darüber hinaus ist die Blockade der API im technologischen Sektor kein isolierter Fall. Als Sie erwähnen In verdrahtet, Facebook blockierte auch Rebe Zu seiner Zeit und Salesforce Er hat kürzlich einen begrenzten Zugang zu Wettbewerbern. Es ist klar, dass dies widerspiegelt, wie der Wettbewerb in der KI aggressiver und territorialer wird.
Wichtige Nuancen. Trotz der Blockade anthropisch hat geklärt Dadurch wird OpenAI -Zugang «für Benchmarking -Zwecke und Sicherheitsbewertungen» beibehalten, eine Praxis in der Branche. Das Unternehmen hat jedoch nicht angegeben, wie sich diese aktuelle Einschränkung auf diese Aktivitäten auswirkt.
Und jetzt was. Dieser Aufstieg kommt zum schlechtesten Zeitpunkt für OpenAI ein, insbesondere wenn man bedenkt, dass wir GPT-5 offiziell kennen würden, was erhebliche Programmierverbesserungen verspricht. Daher zeigt alles an, dass Anthropic bereit ist, alle ihnen zur Verfügung stehenden Tools zu verwenden, um den Fortschritt seiner Konkurrenten zu stoppen. Das Besorgniserregendes ist, dass dies nur der Beginn eines offeneren Kriegs zwischen der großen Technologie und der Verwendung von KI sein kann.
In | Die Investition in KI macht bereits 2% des US -BIP aus. Das Problem ist, dass es nicht einmal gut funktioniert