Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
飞 羽
代码片段(1)
提交
c90da403
代
代码片段(1)
项目概览
飞 羽
/
代码片段(1)
与 Fork 源项目一致
Fork自
inscode / Python
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
代
代码片段(1)
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
c90da403
编写于
12月 03, 2023
作者:
W
weixin_44417093
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Sun Dec 3 15:23:00 CST 2023 inscode
上级
37d51ffd
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
10 addition
and
9 deletion
+10
-9
.inscode
.inscode
+5
-1
main.py
main.py
+5
-8
未找到文件。
.inscode
浏览文件 @
c90da403
run = "pip install -r requirements.txt;python main.py"
language = "python"
[packager]
AUTO_PIP = true
...
...
@@ -9,4 +10,7 @@ PATH = "${VIRTUAL_ENV}/bin:${PATH}"
PYTHONPATH = "$PYTHONHOME/lib/python3.10:${VIRTUAL_ENV}/lib/python3.10/site-packages"
REPLIT_POETRY_PYPI_REPOSITORY = "http://mirrors.csdn.net.cn/repository/csdn-pypi-mirrors/simple"
MPLBACKEND = "TkAgg"
POETRY_CACHE_DIR = "/root/${PROJECT_DIR}/.cache/pypoetry"
\ No newline at end of file
POETRY_CACHE_DIR = "/root/${PROJECT_DIR}/.cache/pypoetry"
[debugger]
program = "main.py"
main.py
浏览文件 @
c90da403
...
...
@@ -21,11 +21,8 @@ class MyDataset(Dataset):
def
__getitem__
(
self
,
idx
):
tokens
=
self
.
data
[
idx
].
split
()
tokens
=
[
self
.
tokenizer
.
get
(
token
,
self
.
tokenizer
[
'<UNK>'
])
for
token
in
tokens
]
if
len
(
tokens
)
<
self
.
max_len
:
tokens
+=
[
self
.
tokenizer
[
'<PAD>'
]]
*
(
self
.
max_len
-
len
(
tokens
))
else
:
tokens
=
tokens
[:
self
.
max_len
]
return
torch
.
tensor
(
tokens
)
tokens
+=
[
self
.
tokenizer
[
'<PAD>'
]]
*
(
self
.
max_len
-
len
(
tokens
))
return
torch
.
tensor
(
tokens
[:
self
.
max_len
])
dataset
=
MyDataset
(
data
,
tokenizer
,
max_len
)
dataloader
=
DataLoader
(
dataset
,
batch_size
=
2
,
shuffle
=
True
)
...
...
@@ -62,7 +59,7 @@ for epoch in range(10):
# 测试模型
test_data
=
[
'hello'
,
'goodbye'
,
'pytorch'
]
test_tokens
=
[[
tokenizer
.
get
(
token
,
tokenizer
[
'<UNK>'
])
for
token
in
data
.
split
()]
for
data
in
test_data
]
test_tokens
=
[
torch
.
tensor
(
tokens
)
for
tokens
in
test_tokens
]
test_tokens
=
[
torch
.
tensor
(
tokens
[:
max_len
]
)
for
tokens
in
test_tokens
]
test_output
=
model
(
torch
.
stack
(
test_tokens
))
test_pred
=
torch
.
argmax
(
test_output
,
dim
=-
1
)
for
i
,
data
in
enumerate
(
test_data
):
...
...
@@ -71,7 +68,7 @@ for i, data in enumerate(test_data):
# 应用模型
input_data
=
'hello'
input_tokens
=
[
tokenizer
.
get
(
token
,
tokenizer
[
'<UNK>'
])
for
token
in
input_data
.
split
()]
input_tokens
=
torch
.
tensor
(
input_tokens
).
unsqueeze
(
0
)
input_tokens
=
torch
.
tensor
(
input_tokens
[:
max_len
]
).
unsqueeze
(
0
)
output
=
model
(
input_tokens
)
pred
=
torch
.
argmax
(
output
,
dim
=-
1
)
print
(
' '
.
join
([
k
for
k
,
v
in
tokenizer
.
items
()
if
v
==
pred
.
item
()]))
\ No newline at end of file
print
(
' '
.
join
([
k
for
k
,
v
in
tokenizer
.
items
()
if
v
==
pred
.
item
()]))
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录