Folgen
Gyeongman Kim
Gyeongman Kim
Bestätigte E-Mail-Adresse bei kaist.ac.kr
Titel
Zitiert von
Zitiert von
Jahr
Distilling linguistic context for language model compression
G Park, G Kim, E Yang
Proceedings of the 2021 Conference on Empirical Methods in Natural Language …, 2021
252021
Diffusion Video Autoencoders: Toward Temporally Consistent Face Video Editing via Disentangled Video Encoding
G Kim, H Shim, H Kim, Y Choi, J Kim, E Yang
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern …, 2022
172022
PromptKD: Distilling Student-Friendly Knowledge for Generative Language Models via Prompt Tuning
G Kim, D Jang, E Yang
arXiv preprint arXiv:2402.12842, 2024
12024
SeamsTalk: Seamless Talking Face Generation via Flow-Guided Inpainting
Y Jeong, G Kim, D Jang, J Hwang, E Yang
IEEE Access, 2024
2024
Das System kann den Vorgang jetzt nicht ausführen. Versuchen Sie es später erneut.
Artikel 1–4