Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
<이제 모델이 아니라, 데이터가 경쟁력이야>
AI 산업의 핵심은 더 이상 컴퓨팅도, 모델도 아닌 '양질의 데이터'야. 과거 인류 문명이 석유를 통해 한 단계 고도화됐듯, AI도 더 나아가기 위해선 새로운 ‘연료’가 필요해. 2차 세계대전 전후에 석유가 에너지원이자 소재로 쓰이면서 공업화가 빠르게 진전된 것처럼 말이야. 이제는 누가, 어떻게 데이터를 확보하고 가공하느냐가 AI 시대의 주도권을 결정하게 될 거야.
일론 머스크도 올해 이런 얘길 했어. “우리는 인공지능 학습에서 인간 지식의 누적 합을 모두 소진했다.” GPT 같은 모델들이 웹사이트, 책, 코드, 이미지 같은 공개 데이터를 긁어모으면서 빠르게 성장해온 건 사실이야. 하지만 이제는 저작권이 걸려 있거나, 아예 존재하지 않는 새로운 형태의 데이터가 필요해졌어.
예를 들어 자율주행차, 로봇공학 같은 분야에서는 단순한 텍스트를 넘어, 카메라·레이더·라이다 등이 결합된 멀티센서 기반의 복합 데이터, 그리고 실제 환경에서 수집된 사례 데이터가 필요한데, 이런 데이터는 웹에 존재하지 않습니다.
더 큰 문제는 기술보다 ‘어떻게 잘 조합할 것이냐’야. 수천 명이 흩어진 채 데이터를 수집하고 라벨링하고 업데이트해야 하는데, 지금까지의 중앙집중형 방식으로는 이 다양성과 스케일을 감당하기 어려워. 그래서 요즘 AI 업계는 점점 분산형 방식이 해답이라는 데 의견이 모이고 있어.
바로 이 지점에서 등장하는 게 '포세이돈(@psdnai)'이야. 포세이돈은 그냥 데이터 창고가 아니라, 현실 데이터를 공급받아 검증하고 정제해서 저작권 걱정 없이 쓸 수 있는 학습용 데이터셋으로 만들어주는 인프라야.
비유하자면 포세이돈은 '석유 정제소'야. 날것의 데이터를 받아서, AI가 학습에 바로 쓸 수 있는 연료로 정제해주는 역할을 해. 이 모든 과정은 @StoryProtocol 위에서 돌아가. 누가 데이터를 제공했고, 어떤 조건으로 누가 썼는지를 온체인에 투명하게 기록하지. 데이터를 제공한 사람은 정당한 보상을 받고, AI 개발자는 안심하고 쓸 수 있는 구조야.
GPU나 모델이 아니라, 데이터 레이어에서의 혁신을 이뤄낼 포세이돈은 웹3 기술을 웹2 산업에 가장 잘 적용한 사례가 될 수도 있다고 생각해.


23.7. klo 00.18
Excited to announce we’re leading a $15M seed round in Poseidon, which was incubated by @StoryProtocol and is building a decentralized data layer to coordinate supply and demand for AI training data.
The first generation of AI foundation models were trained on data that seemed to be an effectively unlimited resource. Today, the most accessible resources such as books and websites have mostly been exhausted, and data has become a limiting factor in AI progress.
Much of the data that remains now is either lower quality or off-limits due to IP protections. For some of the most promising AI applications — across robotics, autonomous vehicles, and spatial intelligence — the data doesn’t even exist yet. Now these systems need entirely new types of information: multi-sensory, rich in edge cases, captured in the wild. Where will all this physical-world data come from?
The challenge isn't just technical — it’s a problem of coordination. Thousands of contributors must work together in a distributed way to source, label, and maintain the physical data that next-gen AI needs. We believe no centralized approach can efficiently orchestrate the data creation and curation that’s needed at the required level of scale and diversity. A decentralized approach can solve this.
@psdnai allows suppliers to collect the data AI companies need, while ensuring IP safety via Story’s programmable IP license. This seeks to establish a new economic foundation for the internet, where data creators get fairly compensated for helping AI companies power the next generation of intelligent systems.
Poseidon’s team, led by Chief Scientist and Cofounder @SPChinchali, brings deep expertise in AI infrastructure. Sandeep is a professor at UT Austin specializing in AI, robotics, and distributed systems, with a PhD from Stanford in AI and distributed systems. Head of Product and Cofounder @sarickshah spent a decade as a machine learning engineer, scaling AI products for large enterprises across financial services, telecom, and healthcare.
We are excited to support Poseidon in its work to solve one of the most critical bottlenecks in AI development.

2,27K
Johtavat
Rankkaus
Suosikit