Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • ERNIE
  • Issue
  • #245

E
ERNIE
  • 项目概览

PaddlePaddle / ERNIE
大约 2 年 前同步成功

通知 115
Star 5997
Fork 1271
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 29
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 0
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
E
ERNIE
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 29
    • Issue 29
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 0
    • 合并请求 0
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
已关闭
开放中
Opened 8月 01, 2019 by saxon_zh@saxon_zhGuest

bert和ernie在msra-ner上的实验

Created by: 1234560o

我做了一些实验,使用Bert Chinese model(base, tensorflow版)和ERNIE1.0(base, paddlepaddle实现)在中文ner数据集msra-ner进行实验,发现bert在该数据集(由paddlehub代码中提供的网址下载下来的)上验证集和测试集的f1-score分别是96.1,94.8,与ERNIE论文中的相差比较大,论文中分别是94.0和92.6,ERNIE的实验差别不大。我的计算f1-score方式是计算LOC、PER、ORG这三类的chunk的macro-f1,是否是paddlepaddle调用的评估方式不一样造成的差别在这个过程中还是有其他什么问题?

数据集 MSRA-NER
任务描述 中文实体识别
评估指标 f1-score
Bert dev: 94.0(96.1) test: 92.6(94.8)
ERNIE dev: 94.5(+0.5) test: 93.7(+1.1)
指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/ERNIE#245
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7