$GRASS grast überhaupt nicht.. Das Daten-Scraping im Grass Network, das buchstäblich die Lebensader ihres gesamten Modells ist, hat gerade ein Allzeittief erreicht. - Juni: ~1.000–1.200 TB pro Tag gescraped - aber jetzt sind es kaum 100 TB/Tag Was bedeutet das tatsächlich für den Preis? Kurze Auffrischung: Daten-Scraping = Sammeln von öffentlichen Webdaten unter Verwendung der ungenutzten Bandbreite der Nutzer, die Grass dann an KI-Unternehmen verkauft (Gerüchte besagen, ~$1 pro GB — wenn man es glaubt). Weniger gescrapete Daten = weniger Daten zum Verkaufen = weniger Einnahmen. Einfache Mathematik. Grass stellt es so dar: „Wir optimieren für wertvollere, gezielte Daten, daher brauchen wir kein Bulk-Scraping mehr.“ Klingt süß, aber die Zahlen sind nicht nur gefallen.. sie sind vernichtet. Ein Rückgang auf 1/10 ist keine Optimierung, das ist ein direkter Zusammenbruch. Und ehrlich gesagt, in diesem Markt möchte man sehen, dass Projekte die Aktivität steigern, nicht die Nutzungsstatistiken bluten. Wenn deine Datenleitungen austrocknen, während alles andere skaliert, ist das kein bullisches Zeichen. Vielleicht ist es „Optimierung.“ Oder vielleicht scrapen die Nutzer jetzt einfach woanders. 👀 So oder so, ich kaufe den Copium nicht. Würde das nicht anfassen, bis diese Scraping-Zahlen tatsächlich wieder steigen.
40,95K