This is an automated email from the ASF dual-hosted git repository.

wusheng pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/skywalking-website.git


The following commit(s) were added to refs/heads/master by this push:
     new 8cab346ee88 Push CN blogs
8cab346ee88 is described below

commit 8cab346ee884653d6a13761a8bbff3b83fad7ec5
Author: Wu Sheng <[email protected]>
AuthorDate: Sun Mar 15 22:33:54 2026 +0800

    Push CN blogs
---
 .../index.md                                       |   2 +-
 .../index.md                                       |  91 +++++++++
 .../index.md                                       | 221 +++++++++++++++++++++
 3 files changed, 313 insertions(+), 1 deletion(-)

diff --git 
a/content/blog/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md 
b/content/blog/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md
index ffc235159e6..3014846770d 100644
--- 
a/content/blog/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md
+++ 
b/content/blog/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md
@@ -82,7 +82,7 @@ The most important outcome of this project is not a benchmark 
table. The benchma
 
 Instead of treating architecture as a mostly document-driven activity followed 
by a long and expensive implementation phase, we were able to move much faster 
between idea, prototype, comparison, and redesign. That made it realistic to 
pursue higher-abstraction solutions, preserve cleaner boundaries, and build the 
automation needed to keep the migration maintainable over time.
 
-The technical evidence for that work is the SkyWalking GraalVM Distro itself: 
not only a runnable system, but a migration pipeline expressed as precompilers, 
generated reflection metadata, controlled replacement boundaries, and drift 
checks. The benchmark data matter because they prove the system works in 
practice, but the architectural result is that the migration became a 
repeatable system rather than a one-time port. For detailed benchmark 
methodology, per-pod data, and the full techn [...]
+The technical evidence for that work is the SkyWalking GraalVM Distro itself: 
not only a runnable system, but a migration pipeline expressed as precompilers, 
generated reflection metadata, controlled replacement boundaries, and drift 
checks. The benchmark data matter because they prove the system works in 
practice, but the architectural result is that the migration became a 
repeatable system rather than a one-time port. For detailed benchmark 
methodology, per-pod data, and the full techn [...]
 
 The project is hosted at 
[apache/skywalking-graalvm-distro](https://github.com/apache/skywalking-graalvm-distro).
 We invite the community to test it, report issues, and help move it toward 
production readiness.
 
diff --git 
a/content/zh/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md 
b/content/zh/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md
new file mode 100644
index 00000000000..eb6f8ea31bf
--- /dev/null
+++ 
b/content/zh/2026-03-13-how-ai-changed-the-economics-of-architecture/index.md
@@ -0,0 +1,91 @@
+---
+title: "AI Coding 如何重塑软件架构师的工作方式"
+date: 2026-03-15
+author: 吴晟
+description: "以 SkyWalking GraalVM Distro 为例,聊聊 AI Coding 
如何让更好的架构方案更容易被验证、打磨并真正落地。"
+tags:
+- GraalVM
+- Native Image
+- Performance
+- Cloud Native
+- Serverless
+- AI
+- Claude
+---
+
+*以 SkyWalking GraalVM Distro 为例,看 AI Coding 如何把一批探索性 PoC 打磨成一条可重复的迁移流水线。*
+
+这个项目给我最大的启发,不是 AI 能写多少代码,而是 AI Coding 改变了架构设计的试错成本。当一个想法可以很快做成 
PoC、跑起来验证、不行就推翻重来时,架构师就更有机会逼近自己真正想要的设计,而不是过早停在“团队现在做得出来”的折中方案上。
+
+这种变化在成熟开源系统里尤其重要。Apache SkyWalking OAP 长期以来一直是一个功能强大且经过生产验证的可观测性后端,但大型 Java 
平台该有的问题它一个不少:运行时字节码生成、重反射初始化、classpath 扫描、基于 SPI 的模块装配,以及动态 DSL 执行——这些机制方便扩展,但做 
GraalVM Native Image 时全是障碍。
+
+**SkyWalking GraalVM Distro** 的出现,源于我们把这个挑战当成一个架构设计问题来处理,而不是一次性的移植工程。目标不仅是让 
OAP 能以原生二进制运行,更是把 GraalVM 迁移本身做成一条可重复执行、能够持续跟上上游演进的自动化流水线。
+
+如果你想看完整的技术设计、基准数据和上手方式,请阅读配套文章:[SkyWalking GraalVM 
Distro:设计与基准测试](/zh/2026-03-13-skywalking-graalvm-distro-design-and-benchmarks/)。
+
+## 从停滞的想法到可运行的系统
+
+这件事其实很多年前就开始了。在这个仓库创建不久之后,[yswdqz](https://github.com/yswdqz) 
曾花了数个月探索迁移方案。真正做下来才发现,这个项目远比 GraalVM 文档里列出的那些单点限制复杂得多,这项工作最终也因此搁置了很多年。
+
+这段停滞很重要。缺少的并不是想法。成熟维护者通常从来不缺想法,真正稀缺的,是把这些想法真正做出来的时间、人力和精力。即使架构师已经看到了几条很有前景的路线,有限的开发资源也会迫使大家更早做出权衡:优先选择实现成本最低的方案,而不是那个更干净、更可复用、更经得起未来变化的方案。
+
+这种情况非常普遍,并不特殊。在开源社区里,很多工作依赖志愿者或有限的企业赞助;在商业产品里,约束的形式不同,但本质仍然一样:路线图承诺、团队规模和交付压力都会让工程资源始终紧张。在这两种环境里,很多好想法被放弃,并不是因为它们错了,而是因为要把它们真正验证清楚、实现完整,成本太高。
+
+还有一个同样重要的约束:架构师通常同时也是非常资深的工程师,而不是一个可以全职扑在实现细节上的人。问题在于个人编码精力有限、时间高度碎片化,同时还要在代码尚未出现之前,不断向其他资深工程师解释自己的设计意图。传统上,这种解释主要通过图、文档和沟通完成。它很慢、信息损失大,而且充满不确定性。我们都体验过“传话游戏”:哪怕是很简单的意思,也很容易被误解,而等误解真正暴露出来时,时间已经过去很多了。
+
+到了 2025 年末,AI Coding 
让”同时尝试多条路线”这件事终于变得现实。我们不必再因为实现能力稀缺而过早接受折中,而是可以在多个设计之间来回切换,用代码验证,快速淘汰弱方案,持续迭代,直到架构本身变得足够稳固、足够实用、足够高效。
+
+这种设计自由度至关重要。GraalVM 文档对单个限制讲得很清楚,但成熟 OSS 平台遇到的是一整套彼此牵连的系统性问题。只修补一个动态机制远远不够。要让 
native image 真正落地,我们必须把整类运行时行为改造成构建期产物和自动生成的元数据。
+
+在这条路的早期历史中,还有一座非常具体的大山。那时上游 SkyWalking 仍然大量依赖 Groovy 来处理 LAL、MAL 和 Hierarchy 
脚本。理论上,这只不过是另一个“不支持运行时动态行为”的例子;但在实践中,Groovy 是整条路径上最大的障碍。它不仅意味着脚本执行,还意味着一整套在 JVM 
里极其便利、在 native image 里却极其不友好的动态模型。
+
+为了跨过这道坎,我们围绕 AOT-first 模式重新设计了 OAP 的核心引擎。早期实验必须直接面对 Groovy 
时代的运行时行为,并尝试不同的脚本编译方案来绕过去。最终方案走得更远:对齐上游编译器流水线,把动态生成前移到构建期,并引入自动化机制,让这条迁移路径在上游持续演进时依然保持可控。具体来说,就是把
 OAL、MAL、LAL 和 Hierarchy 的生成过程变成构建期预编译器的输出,而不是继续保留为启动期的动态行为。
+
+## AI Coding 如何改写架构迭代
+
+这次转变的关键,并不只是“写代码更快了”。AI 真正改变的,是想法、原型、验证和重设计之间来回迭代的速度。围绕同一个问题,我们可以很快做出几个可运行的 
PoC,迅速淘汰不成立的方向,再把值得保留的抽象慢慢沉淀成一套连贯的迁移系统。
+
+这并不会削弱人的架构价值,反而会放大它。哪些行为应该前移到构建期,哪些地方应该保留可配置性,哪里应该引入 same-FQCN 
替换,如何让上游同步保持可控,以及哪些抽象值得不惜代价保留下来,这些判断仍然只能由人来做。不同的是,AI 
的速度让我们终于有机会把这些更好的设计真正做出来,而不是过早退回到更简单、也更差的折中方案。
+
+这才是软件架构师工作方式真正发生变化的地方。过去,架构师往往已经知道更干净的方向在哪里,但有限的工程产能会逼着那个愿景退回到一个更便宜的妥协方案。现在,架构师在某种意义上又重新变回了“能快速动手的人”:可以直接用代码把思路搭出来,把高层抽象落成接口,再用真实运行的实现去证明设计。
+
+这不仅改变了实现,也改变了沟通方式。在开源里,我们常说:`talk is cheap, show me the code`。在 AI Coding 
时代,“把代码拿出来”这件事变得容易多了。设计不再那么依赖一个缓慢的、自上而下的翻译过程:从想法到文档,再到解释,再到实现。代码可以更早出现,也可以更早跑起来。
+
+这也让其他资深工程师受益。他们不必只靠图、会议或长篇解释来还原整个设计,而是可以直接审查抽象、阅读真实代码、运行它、质疑它,并在具体实现上一起打磨。这让架构协作更快、更清晰,也少了很多沟通误差。
+
+也正因为如此,我总觉得今天很多 AI 讨论有点跑偏。很多项目确实很有趣、也很好玩,拿来体验当然没问题,但高级工程工作并不会因为“给代码库接了个 
agent”就自然变好。真正重要的,不是哪个 demo 看起来最炫,而是哪些工程能力真的被放大了,同时软件开发本身的纪律有没有被保留下来。
+
+对于架构师和资深工程师来说,这里真正重要的能力包括:
+- **快速做对比式原型验证**:不是只用 slides 和文档去论证某个想法,而是直接把多个方案做成可运行代码来比较。
+- **大规模代码理解能力**:能在大量模块之间快速阅读,同时保持对整个系统的全局认识。
+- **系统性的重构能力**:把基于反射、依赖运行时动态行为的路径,系统性地改造成适配 AOT 约束的设计。
+- **搭建自动化的能力**:当一个迁移步骤在每次上游同步时都必须重做一次,靠手工处理本身就很费时费力,而且越往后只会越累。AI 
让我们真正有条件去投资生成器、清单、一致性检查和漂移检测,把重复的人力劳动变成可重复的自动化流程。
+- **大范围审查能力**:在很大的代码面上检查边界条件、兼容性约束,以及方案是否经得起反复执行。
+
+这些能力也都体现在最终的设计结果里。same-FQCN 替换为 GraalVM 
特定行为建立了清晰、受控的边界;反射元数据不再依赖手工维护的猜测清单,而是直接从构建产物中生成;各种清单机制和漂移检测,则把原本模糊的“上游同步风险”变成了显式的工程工作流。
+
+对于初级工程师,我觉得这里的启发同样重要。AI 
不会让架构设计、系统约束、接口设计、测试和可维护性这些基本功变得不重要。恰恰相反,这些能力只会变得更重要,因为它们决定了“被加速的实现”最终产出的是一个可持续演进的系统,还是只是更快地制造出更多代码。真正的杠杆来自工程判断力,而不是新鲜感。
+
+**Claude Code** 和 **Gemini AI** 在整个过程中都扮演了工程加速器的角色。在 GraalVM Distro 
这个项目里,它们具体帮我们做了几件事:
+- **把迁移思路直接做成可运行代码**:不是争论哪个方向可能行得通,而是把多个真实原型做出来、跑起来、比较掉,把不成立的方向淘汰掉。
+- **重构重反射、重动态的代码路径**:把不适合运行时的模式系统性替换成 AOT 友好的实现方式。
+- **让上游同步真正可持续**:每次 distro 从上游 SkyWalking 拉取变更后,元数据扫描、配置再生成和重新编译都必须再来一次。AI 
帮助我们把这些过程做成流水线,使每次同步都变成一个可控、且大部分自动化的过程,而不是一次比一次更长的手工重复劳动。
+- **在大范围内审查逻辑和边界情况**:特别是在功能对等性比纯实现速度更重要的地方。
+
+最终产出的,不只是一次大重写,而是一套可重复的系统:预编译器、manifest 
驱动的加载、反射配置生成、替换边界,以及让上游迁移可审查、可自动化的漂移检测机制。
+
+如果你想看这种开发方法背后的更广泛背景,可以读这篇文章:[在成熟开源大型项目中实践 Agentic Vibe 
Coding:软件工程与工程控制论还在延续](/zh/2026-03-08-agentic-vibe-coding/)。这篇文章则是这个故事的下一步:不仅是在一个成熟代码库里增强功能,而是重新激活一项曾经停滞的工作,并把它真正做成可运行系统。
+
+## 真正改变的到底是什么
+
+这个项目最重要的结果,并不是一张 benchmark 表。基准数据当然属于 distro 
本身,而且它们很重要,因为它们证明这套系统是真实可运行的。但对这篇文章来说,更深层的变化发生在方法论层面:AI Coding 
改变了我们探索、验证和打磨架构方案的方式。
+
+过去,架构往往更像一项以文档为主、后面拖着漫长而昂贵实现过程的活动。现在,我们可以更快地在想法、原型、比较和重设计之间切换。这让我们真正有机会去追求更高抽象层次的方案,保留更干净的边界,并建设那些让迁移过程可持续维护的自动化机制。
+
+这项工作的技术证据,就是 SkyWalking GraalVM Distro 
本身:它不仅是一个可运行的系统,更是一条由预编译器、自动生成的反射元数据、受控替换边界和漂移检查组成的迁移流水线。基准数据之所以重要,是因为它们证明这套系统在实践里是成立的;但从架构角度看,真正的结果是:这次迁移不再是一场一次性的移植,而是变成了一套可重复执行的系统工程。关于完整测试方法、原始数据和技术设计,请阅读配套文章:[SkyWalking
 GraalVM 
Distro:设计与基准测试](/zh/2026-03-13-skywalking-graalvm-distro-design-and-benchmarks/)。
+
+项目仓库位于 
[apache/skywalking-graalvm-distro](https://github.com/apache/skywalking-graalvm-distro)。我们欢迎社区成员测试这个新发行版、提交
 issue,并帮助它逐步走向生产可用。
+
+对我来说,更深层的启发并不止于这个发行版。AI Coding 
不会让架构变得不重要,反而会让架构更值得被认真追求。当实现速度提升到一定程度时,我们终于有机会在真实代码里验证更多想法,保留那些真正好的抽象,并把那些过去常常因为投入太大而半途妥协的系统真正做出来。
+
+对于资深工程师来说,瓶颈正在从单纯的代码实现速度,转向品味、系统判断力,以及定义稳定边界的能力。对于初级工程师来说,真正该走的路不是追逐每一种看上去都很刺激的
 AI 工作流,而是把基础能力练得更扎实,让加速真正产生复利:理解需求、阅读陌生系统、质疑假设,并识别出在系统快速变化时仍然必须保持正确的那些部分。AI 
Coding 降低了验证好设计的代价,但并没有降低工程判断本身的门槛。
diff --git 
a/content/zh/2026-03-13-skywalking-graalvm-distro-design-and-benchmarks/index.md
 
b/content/zh/2026-03-13-skywalking-graalvm-distro-design-and-benchmarks/index.md
new file mode 100644
index 00000000000..66ad065991c
--- /dev/null
+++ 
b/content/zh/2026-03-13-skywalking-graalvm-distro-design-and-benchmarks/index.md
@@ -0,0 +1,221 @@
+---
+title: "SkyWalking GraalVM Distro:设计与基准测试"
+date: 2026-03-15
+author: 吴晟
+description: "从设计到测试,详解 SkyWalking GraalVM Distro 如何把一个成熟、运行时动态特性很多的 Java 
可观测性后端做成原生二进制,并沉淀出可重复的迁移流程。"
+tags:
+- GraalVM
+- Native Image
+- Performance
+- Cloud Native
+- Serverless
+- BanyanDB
+---
+
+*这篇文章会完整介绍我们如何把 Apache SkyWalking OAP 迁移到 GraalVM Native 
Image。目标不是做一次性移植,而是把这件事做成一套能持续跟上上游演进的流程。*
+
+如果你想看这项工作的更大背景,以及 AI Coding 如何让这个项目真正做得出来,请阅读:[AI Coding 
如何重塑软件架构师的工作方式](/zh/2026-03-13-how-ai-changed-the-economics-of-architecture/)。
+
+## 为什么 GraalVM 在这里是刚需
+
+GraalVM Native Image 可以把 Java 应用做 Ahead-of-Time(AOT)编译,生成独立可执行文件。对于像 
SkyWalking OAP 这样的可观测性后端来说,这不是“锦上添花”的性能优化,而是明确的工程刚需。
+
+可观测性平台必须是基础设施中最可靠的部分。它必须在自己要观测的那些故障发生时依然存活。在云原生环境里,工作负载会不断扩缩容、迁移和重启,负责观测一切的后端本身不能还是那个启动慢、空闲占用大、恢复缓慢的重型进程。
+
+我们的基准测试结果让这个结论变得非常具体:
+
+- **启动时间:**约 5 ms 对比约 635 ms。在 Kubernetes 集群里,当 OAP Pod 被驱逐或重新调度时,635 ms 
的差距意味着这段时间里的遥测数据可能会丢失。5 ms 的情况下,新 Pod 往往在大部分客户端还没感知到中断之前就已经重新开始接收数据了。
+- **空闲内存:**约 41 MiB 对比约 1.2 GiB。可观测性后端是 24/7 常驻运行的。在多租户或边缘部署场景里,基础 RSS 降了 
97%,可以放进更小的节点,而不再必须占用一台专用机器。
+- **负载下内存:**在 20 RPS 下约 629 MiB 对比约 2.0 GiB。生产级负载下内存降了 
70%,直接对应更少的节点、更低的云账单,以及在后端本身成为扩容瓶颈之前更多的余量。
+- **没有预热惩罚:**峰值吞吐可以更早发挥出来。JVM 的 JIT 
编译器往往需要数分钟流量才能完成热点优化,在这段时间里,尾延迟更差,数据处理也会滞后。原生二进制没有同样的阶段。
+- **更小的攻击面:**不再需要完整 JDK 运行时,需要跟踪和修补的 CVE 也就少了很多。对于一个会接收整个集群所有服务数据的组件来说,这一点很重要。
+
+这些都不是“小修小补”。它们直接改变了哪些部署形态开始变得可行:无服务器形态的可观测性后端、边车式采集模型、内存预算极其紧张的边缘节点。只有当后端足够轻、足够快时,这些方案才真正有落地空间。
+
+## 挑战:一个成熟、动态特性很多的 Java 平台
+
+SkyWalking OAP 身上有大型 Java 平台的所有典型问题:运行时字节码生成、重反射初始化、classpath 扫描、基于 SPI 
的模块装配,以及动态 DSL 执行。这些机制方便扩展,但做 GraalVM native image 时全是障碍。
+
+GraalVM 文档中列出的限制,只是问题的开始。在一个成熟的 OSS 平台里,这些限制会深深缠绕在多年积累下来的运行时设计决策中。常规的 GraalVM 
native image 很难处理运行时类生成、反射、动态发现和脚本执行,而这些在 SkyWalking OAP 
中都不是零散存在的,它们本来就是系统设计的一部分。
+
+在这个发行版的早期历史里,还有一座非常具体的大山。那时上游 SkyWalking 仍然高度依赖 Groovy 来处理 LAL、MAL 和 Hierarchy 
脚本。理论上,它只是另一个“不支持运行时动态”的组件;但在实践里,Groovy 是整条路径上最大的障碍。它不仅仅是脚本执行问题,而是代表着一整套在 JVM 
世界里极其便利、在 native image 世界里极其不友好的动态模型。
+
+## 设计目标:让迁移这件事可以重复做
+
+设计目标不是”把 native-image 跑通一次就完”,而是做出一套能反复用、能长期维护的迁移系统:
+
+1. **把运行时生成的产物前移到构建期。** OAL、MAL、LAL、Hierarchy 规则,以及 meter 
相关的生成类,都在构建期完成编译并打包,而不是等到启动时才动态生成。
+2. **用确定性的加载机制替代动态发现。** classpath 扫描和运行时注册路径被转换为基于 manifest 的加载方式。
+3. **减少运行时反射,并在构建期生成 native 元数据。** 反射配置不再依赖人工维护的猜测清单,而是根据真实 manifest 和扫描结果生成。
+4. **让上游同步边界保持清晰。** same-FQCN replacements 会被显式打包、列清单,并通过陈旧性检查守住边界。
+5. **让变化第一时间暴露出来。** 一旦上游 provider、规则文件或被替换的源文件发生变化,测试就会失败,迫使我们做显式审查。
+
+这才是最关键的架构转变。好的抽象和前瞻性,在 AI 时代并没有变得不重要,反而变得更重要了,因为它们决定了 AI 
带来的速度,最终产出的是一个可维护的系统,还是一堆膨胀得更快的代码。
+
+## 把运行时动态行为变成构建期产物
+
+SkyWalking OAP 里有多个在 JVM 世界里很自然、但在 native image 里很棘手的动态子系统:
+
+- OAL 会在运行时生成类。
+- LAL、MAL 和 Hierarchy 在历史上与大量基于 Groovy 的运行时行为绑定在一起,这也是早期 distro 工作中最难处理的阻碍之一。
+- MAL、LAL 和 Hierarchy 规则依赖运行时编译行为。
+- 基于 Guava 的 classpath 扫描会发现注解、dispatcher、decorator 和 meter function。
+- 基于 SPI 的模块和 provider 发现依赖更动态的运行时环境。
+- YAML/config 初始化和框架集成依赖反射访问。
+
+在 SkyWalking GraalVM Distro 里,这些问题不是靠零散补丁一个个修掉的,而是被统一收敛到一条构建期流水线里。
+
+预编译器会在构建过程中运行 DSL 引擎、导出生成类、写入 manifest、序列化配置数据,并生成 native-image 
元数据。这样一来,启动时只需要做类加载和注册,不再需要运行时代码生成。运行期之所以能变得更简单,是因为原本的复杂性被前移到了构建期。
+
+这也是为什么这个项目不只是一次性能优化。我们的设计目标,是把复杂性前移到一个更容易验证、更容易自动化、也更便于反复执行的位置。
+
+## same-FQCN 替换:一条可控的边界
+
+这个发行版里最实用的设计选择之一,就是使用 same-FQCN 替换类。我们没有依赖模糊的启动技巧,也没有依赖未文档化的加载顺序假设。相反,我们会重新打包 
GraalVM 特定 jar,排除原本的上游类,再让替换类占据完全相同的 fully-qualified class name。
+
+这对可维护性非常关键,因为它建立了一条非常清晰的边界:
+
+- 上游类仍然定义行为契约;
+- GraalVM 侧的替换类提供兼容的实现策略;
+- 打包过程则让这次替换变得显式可见。
+
+例如,OAL 的加载过程从运行时编译变成了基于 manifest 的预编译类加载。类似的替换也处理了 MAL 和 LAL DSL 
加载、模块装配、配置初始化,以及多个对反射敏感的路径。目标不是把一切都 fork 出去,而是只替换那些运行时模型从根本上不适合 native image 
的部分。
+
+随后,这条边界还会通过测试来守护:测试会对照与 replacement 
对应的上游源文件做哈希。当上游改动了这些文件中的任何一个,构建就会失败,并明确告诉我们哪个 replacement 
需要重新审查。这样一来,“如何跟上上游”就不再是一个充满焦虑的抽象问题,而变成一项明确、可落地的工程工作。
+
+## 反射配置不是猜出来的,而是生成出来的
+
+在很多 GraalVM 迁移项目里,`reflect-config.json` 
最终会变成一个靠经验不断累积的工件。它会越来越大,越来越陈旧,最后没有人真正清楚它是不是完整,也不清楚每一项配置为什么存在。这种模式在一个持续演化的大型 
OSS 平台里是无法扩展的。
+
+在这个发行版里,反射元数据直接从构建产物和扫描结果中生成,包括:
+
+- OAL、MAL、LAL、Hierarchy 以及 meter 生成类的 manifest;
+- 注解扫描得到的类;
+- Armeria HTTP handler;
+- GraphQL resolver 和 schema 映射类型;
+- 被接受的 `ModuleConfig` 类。
+
+这是一种健康得多的模式。我们不再依赖人去记住所有可能触发反射访问的路径,而是让系统根据真实迁移流水线推导出反射元数据。构建过程本身,成为了事实来源。
+
+## 让上游同步变得现实可行
+
+如果这个发行版只是一次性的工程冲刺,那它的意义会小很多。真正困难的事情,是在上游 SkyWalking 继续演进的同时,让它还能持续维护下去。
+
+这也是为什么仓库里会有一整套显式的清单和漂移检测机制:
+
+- provider 清单,用来强制新上游 provider 被分类;
+- 规则文件清单,用来强制新 DSL 输入被显式确认;
+- 预编译 YAML 输入的 SHA watcher;
+- 带 GraalVM 特定 replacement 的上游源文件 SHA watcher。
+
+好的抽象不仅仅是代码结构优雅,更在于你是否选择了一种能在未来变化面前继续成立的迁移设计。
+
+## 基准测试结果
+
+我们在一台 Apple M3 Max(macOS、Docker Desktop、10 CPUs / 62.7 GB)上,对标准 JVM OAP 和 
GraalVM Distro 做了对比测试,两者都连接到 BanyanDB。
+
+### 启动测试(Docker Compose,无流量,3 次取中位数)
+
+| 指标 | JVM OAP | GraalVM OAP | 差异 |
+|------|---------|-------------|------|
+| 冷启动时间 | 635 ms | 5 ms | 约快 127 倍 |
+| 热启动时间 | 630 ms | 5 ms | 约快 126 倍 |
+| 空闲 RSS | 约 1.2 GiB | 约 41 MiB | 约降低 97% |
+
+启动时间的测量方式,是从 OAP 第一条应用日志时间戳开始,到出现 `listening on 11800` 日志(即 gRPC 服务 ready)为止。
+
+### 持续负载下(Kind + Istio 1.25.2 + Bookinfo,约 20 RPS,2 个 OAP 副本)
+
+在 60 秒预热之后,每 10 秒采样一次,共 30 个样本。
+
+| 指标 | JVM OAP | GraalVM OAP | 差异 |
+|------|---------|-------------|------|
+| CPU 中位数(millicores) | 101 | 68 | -33% |
+| CPU 平均值(millicores) | 107 | 67 | -37% |
+| 内存中位数(MiB) | 2068 | 629 | **-70%** |
+| 内存平均值(MiB) | 2082 | 624 | **-70%** |
+
+两个版本报告的 entry-service CPM 一致,说明在这个测试负载下,两者的流量处理能力相同。
+
+我们每 30 秒通过 swctl 对所有已发现服务收集这些指标:
+`service_cpm`、`service_resp_time`、`service_sla`、`service_apdex`、`service_percentile`。
+
+完整的基准测试脚本和原始数据位于发行版仓库中的 
[benchmark/](https://github.com/apache/skywalking-graalvm-distro/tree/main/benchmark)
 目录。
+
+## 当前状态
+
+这个项目已经是一个可运行的实验性发行版,托管在独立仓库中:[apache/skywalking-graalvm-distro](https://github.com/apache/skywalking-graalvm-distro)。
+
+当前发行版有意聚焦在一种现代、高性能的运行模式上:
+
+- **存储:** BanyanDB
+- **集群模式:** Standalone 和 Kubernetes
+- **配置方式:** 无配置或 Kubernetes ConfigMap
+- **运行模型:** 固定模块集合、预编译产物和 AOT 友好的装配方式
+
+这种聚焦是刻意的。要把迁移做成一套可重复的系统,第一步必须先把边界收清楚,做出一个真正能跑起来的版本,然后再在不失控的前提下逐步扩展。
+
+## 快速开始
+
+由于 SkyWalking GraalVM Distro 的设计目标就是追求极致性能,它目前最适合与 **BanyanDB** 
存储后端搭配使用。当前发布的镜像已经可以在 Docker Hub 获取,你可以直接用下面这个 `docker-compose.yml` 启动整套系统。
+
+```yaml
+version: '3.8'
+
+services:
+  banyandb:
+    image: 
ghcr.io/apache/skywalking-banyandb:e1ba421bd624727760c7a69c84c6fe55878fb526
+    container_name: banyandb
+    restart: always
+    ports:
+      - "17912:17912"
+      - "17913:17913"
+    command: standalone --stream-root-path /tmp/stream-data 
--measure-root-path /tmp/measure-data --measure-metadata-cache-wait-duration 1m 
--stream-metadata-cache-wait-duration 1m
+    healthcheck:
+      test: ["CMD", "sh", "-c", "nc -nz 127.0.0.1 17912"]
+      interval: 5s
+      timeout: 10s
+      retries: 120
+
+  oap:
+    image: apache/skywalking-graalvm-distro:0.1.1
+    container_name: oap
+    depends_on:
+      banyandb:
+        condition: service_healthy
+    restart: always
+    ports:
+      - "11800:11800"
+      - "12800:12800"
+    environment:
+      SW_STORAGE: banyandb
+      SW_STORAGE_BANYANDB_TARGETS: banyandb:17912
+      SW_HEALTH_CHECKER: default
+    healthcheck:
+      test: ["CMD-SHELL", "nc -nz 127.0.0.1 11800 || exit 1"]
+      interval: 5s
+      timeout: 10s
+      retries: 120
+
+  ui:
+    image: ghcr.io/apache/skywalking/ui:10.3.0
+    container_name: ui
+    depends_on:
+      oap:
+        condition: service_healthy
+    restart: always
+    ports:
+      - "8080:8080"
+    environment:
+      SW_OAP_ADDRESS: http://oap:12800
+```
+
+只需要执行:
+
+```bash
+docker compose up -d
+```
+
+欢迎社区来测试这个新发行版、提交 issue,并帮助我们推动它走向生产可用。
+
+*特别感谢 GraalVM 团队提供的技术基础。*

Reply via email to