廖溢俊

廖溢俊

18岁独立AI研究员,专注于LLM架构优化、强化学习、测试时扩展和CUDA计算优化。 在AAAI 2026担任Program Committee成员,积极参与前沿AI研究。

核心技术栈

最新动态 News

2025.12

ACL ARR 2026 (Jan Cycle) 投稿完成

提交论文《Overcoming State Inertia》,提出 DZ-TiDPO 框架解决长文本对话中的状态惯性问题。

2025.06

担任 AAAI 2026 程序委员会成员 (PC Member)

受邀参与顶级 AI 会议审稿工作。

2025.04

Arc Prize 2025 竞赛

探索 LLM 在抽象推理任务中的能力边界。

精选论文 Preprint

Overcoming State Inertia: Minimally Invasive Temporal Alignment for Evolving Contexts

Yijun Liao (Independent Researcher)
ACL ARR 2026 Under Review Alignment RLHF/DPO

We propose DZ-TiDPO, a framework that resolves state inertia in long-context LLMs by synergizing semantic-aware optimization with a structural temporal attention bias.

Semantic Scholar Code (Coming Soon)

学术成就

🏆

AAAI 2026

Program Committee成员

参与顶级AI会议评审工作

🎯

ARC Prize 2025

竞赛参与者

挑战抽象推理能力测试

📊

论文评分

AAAI 2026评分5分

《DTTC: 动态测试时间计算扩展框架》

重点项目

YH

YingHub V3

稀疏混合专家语言模型

基于Triton实现Flash Attention,支持异构专家和动态Top-k路由的先进语言模型架构。

LLM MoE Triton
查看项目 →
RL

强化学习项目集

算法实现与优化

包含DQN、PPO、GRPO、TD3等主流强化学习算法和ICM、RENT、RaR、INTUITOR等前沿强化学习算法的完整实现,支持多种环境训练。

RL Meta-RL SSL-RL U-RL
查看项目 →
FA

Triton FlashAttention

CUDA计算优化

使用Triton重写Flash Attention内核,实现高效的注意力机制计算优化。

CUDA Triton Attention
查看项目 →
3073936251@qq.com
点击发送邮件或复制邮箱地址
GitHub