Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
FL1623863129
ChatGLM-6B
提交
023c46a3
C
ChatGLM-6B
项目概览
FL1623863129
/
ChatGLM-6B
与 Fork 源项目一致
从无法访问的项目Fork
通知
4
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
C
ChatGLM-6B
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
023c46a3
编写于
3月 25, 2023
作者:
L
littlepanda0716
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update api.py
上级
963d5645
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
25 addition
and
3 deletion
+25
-3
api.py
api.py
+25
-3
未找到文件。
api.py
浏览文件 @
023c46a3
from
fastapi
import
FastAPI
,
Request
from
transformers
import
AutoTokenizer
,
AutoModel
import
uvicorn
,
json
,
datetime
import
torch
DEVICE
=
"cuda"
DEVICE_ID
=
"0"
CUDA_DEVICE
=
f
"
{
DEVICE
}
:
{
DEVICE_ID
}
"
if
DEVICE_ID
else
DEVICE
def
torch_gc
():
if
torch
.
cuda
.
is_available
():
with
torch
.
cuda
.
device
(
CUDA_DEVICE
):
torch
.
cuda
.
empty_cache
()
torch
.
cuda
.
ipc_collect
()
app
=
FastAPI
()
...
...
@@ -13,7 +26,15 @@ async def create_item(request: Request):
json_post_list
=
json
.
loads
(
json_post
)
prompt
=
json_post_list
.
get
(
'prompt'
)
history
=
json_post_list
.
get
(
'history'
)
response
,
history
=
model
.
chat
(
tokenizer
,
prompt
,
history
=
history
)
max_length
=
json_post_list
.
get
(
'max_length'
)
top_p
=
json_post_list
.
get
(
'top_p'
)
temperature
=
json_post_list
.
get
(
'temperature'
)
response
,
history
=
model
.
chat
(
tokenizer
,
prompt
,
history
=
history
,
max_length
=
max_length
if
max_length
else
2048
,
top_p
=
top_p
if
top_p
else
0.7
,
temperature
=
temperature
if
temperature
else
0.95
)
now
=
datetime
.
datetime
.
now
()
time
=
now
.
strftime
(
"%Y-%m-%d %H:%M:%S"
)
answer
=
{
...
...
@@ -24,12 +45,13 @@ async def create_item(request: Request):
}
log
=
"["
+
time
+
"] "
+
'", prompt:"'
+
prompt
+
'", response:"'
+
repr
(
response
)
+
'"'
print
(
log
)
torch_gc
()
return
answer
if
__name__
==
'__main__'
:
uvicorn
.
run
(
'api:app'
,
host
=
'0.0.0.0'
,
port
=
8000
,
workers
=
1
)
uvicorn
.
run
(
app
,
host
=
'0.0.0.0'
,
port
=
8000
,
workers
=
1
)
tokenizer
=
AutoTokenizer
.
from_pretrained
(
"THUDM/chatglm-6b"
,
trust_remote_code
=
True
)
model
=
AutoModel
.
from_pretrained
(
"THUDM/chatglm
-
6b"
,
trust_remote_code
=
True
).
half
().
cuda
()
model
=
AutoModel
.
from_pretrained
(
"THUDM/chatglm
_
6b"
,
trust_remote_code
=
True
).
half
().
cuda
()
model
.
eval
()
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录