#表示学习
speech-resynthesis
该项目开发了一种新型语音重合成方法,采用自监督学习的离散表示技术,分别提取语音内容、韵律信息和说话人特征。这种方法实现了可控的语音合成,在重建质量和特征解耦方面表现优异。此外,该技术还可应用于超轻量级语音编解码,以365比特/秒的低比特率提供高质量语音输出。项目提供完整的训练和推理流程,兼容多种数据集和自监督学习方法。
speech-trident
Speech-trident项目调查语音大模型的三个核心领域:语音表示学习、神经编解码模型和语音语言模型。该项目涵盖语义标记学习、声学标记生成及基于标记的语言建模方法,旨在促进语音理解和生成技术的发展,为相关研究提供资源。
awesome-contrastive-self-supervised-learning
该项目收录了对比自监督学习领域的重要论文和资源,覆盖从2017年至今的研究成果。内容包括综述、算法、应用等,按年份分类整理。研究人员可通过此项目快速了解该领域发展历程和最新动态,是深入研究对比学习的重要参考资料。
RLMRec
RLMRec是一个模型无关的推荐系统框架,利用大语言模型增强表示学习。该框架整合表示学习与大语言模型,深入捕捉用户行为和偏好的语义特征。RLMRec引入辅助文本信息,构建大语言模型支持的用户和物品画像,并通过跨视图对齐方法整合语义空间和协同关系信号。在多个公开数据集的评估中,RLMRec展现出显著的性能提升。
Awesome-SSL4TS
这个项目汇总了时间序列数据自监督学习的最新研究资源,包括相关论文、代码和数据集。资源分为生成式和对比式两大类方法,涵盖了自回归预测、自编码重构、扩散模型生成、采样对比、预测对比和增强对比等技术。该资源列表为时间序列自监督学习研究提供了全面的参考材料。
TS-TCC
TS-TCC是一种无监督时间序列表示学习框架,利用时间和上下文对比从未标记数据中学习表示。该方法在多个真实数据集上表现优异,适用于少量标记数据和迁移学习场景。TS-TCC还扩展到半监督设置(CA-TCC),相关研究发表于IEEE TPAMI。这一方法为时间序列分析提供了有效的表示学习工具,推动了该领域的发展。