searchusermenu
  • 发布文章
  • 消息中心
贺****茜
有目共赏
4 文章|0 获赞|0 粉丝|1307 浏览
社区专栏视频问答关注
全部文章Ta的评论
  • RetroMAE是一种预训练框架,主要用于提升模型的语义表征能力。该框架基于经典的掩码自编码器(Masked Auto-Encoder, MAE)架构进行设计,其核心思想是在输入文本中进行掩码操作,然后让模型尝试恢复原始文本,以此学习到文本的深层语义结构。本文将从RetroMAE的论文出发,结合实际实验效果对该框架进行较为详细地介绍。
    贺****茜
    2024-06-28
    130
    0
  • 对比学习是一种自监督学习方法,主要使用在不同上下文中出现的相同事物的两种表现形式来训练模型。为了能够更好的完成对比学习过程,需要设置合适的损失函数,本文对CoSENT-Loss、Angle-Loss、IN-BATCH NEGATIVE-Loss以及IFM(隐式特征修改)等四种不同的损失函数进行了论文的分析介绍,并进行了对比实验,对实验结果分析不同loss的优缺点。
    贺****茜
    2024-05-22
    430
    0
  • 在研发过程中,经常会碰见需要连接ssh到服务器上的情况,有时候网络等原因会导致ssh断开,使得正在运行的程序断掉,尤其是在模型训练的过程中,重新运行和训练模型又会浪费较多时间。tmux指令是Linux系统中为了避免ssh断开而导致正在运行的程序终止的一个很好用的命令,本文将对tmux的安装以及常用指令进行介绍。
    贺****茜
    2023-06-26
    125
    0
  • 手把手教你在Linux上部署ChatGLM-6B模型并进行测试
    贺****茜
    2023-05-12
    622
    0
个人简介
暂未填写公司和职务
暂未填写个人简介
暂未填写技能专长
暂未填写毕业院校和专业
个人成就
共发表过 4 篇文章
文章获得 0 次赞同
文章被浏览 1307 次
获得 0 人关注
个人荣誉查看规则
有目共赏