正在加载...
系统目前无法执行此操作,请稍后再试。
每年引用数
重复的引用
下面的文章将在学术搜索中合并。它们的
合并引用
次数只会计入第一篇文章。
合并的引用
此“引用引文的出版物数量”计数包含了对学术搜索中以下文章的引用次数。带有
*
标记的引文可能与个人学术档案中的文章有所区别。
添加合著者
合著作者
关注
此作者发表了新文章
有对此作者文章的新引用
有与此作者的研究工作相关的新文章
用于接收动态的电子邮件地址
完成
我的个人学术档案
我的图书馆
统计指标
快讯
设置
登录
登录
创建我的个人资料
引用次数
总计
2019 年至今
引用
44
44
h 指数
2
2
i10 指数
2
2
0
26
13
2022
2023
2024
5
25
14
关注
Gyeongman Kim
KAIST
AI
在 kaist.ac.kr 的电子邮件经过验证
Artificial Intelligence
文章
引用次数
标题
排序
按引用次数排序
按年份排序
按标题排序
引用次数
引用次数
年份
Distilling linguistic context for language model compression
G Park, G Kim, E Yang
Proceedings of the 2021 Conference on Empirical Methods in Natural Language …
, 2021
26
2021
Diffusion Video Autoencoders: Toward Temporally Consistent Face Video Editing via Disentangled Video Encoding
G Kim, H Shim, H Kim, Y Choi, J Kim, E Yang
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern …
, 2022
17
2022
PromptKD: Distilling Student-Friendly Knowledge for Generative Language Models via Prompt Tuning
G Kim, D Jang, E Yang
arXiv preprint arXiv:2402.12842
, 2024
1
2024
SeamsTalk: Seamless Talking Face Generation via Flow-Guided Inpainting
Y Jeong, G Kim, D Jang, J Hwang, E Yang
IEEE Access
, 2024
2024
系统目前无法执行此操作,请稍后再试。
文章 1–4
展开
隐私权
条款
帮助
关于学术搜索
Google 搜索帮助