Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
FL1623863129
ChatGLM-6B
提交
ef6b3ff3
C
ChatGLM-6B
项目概览
FL1623863129
/
ChatGLM-6B
与 Fork 源项目一致
从无法访问的项目Fork
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
C
ChatGLM-6B
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
ef6b3ff3
编写于
3月 22, 2023
作者:
老熊宝宝
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
support stream chat
上级
905aa26b
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
17 addition
and
12 deletion
+17
-12
web_demo2.py
web_demo2.py
+17
-12
未找到文件。
web_demo2.py
浏览文件 @
ef6b3ff3
...
...
@@ -11,8 +11,8 @@ st.set_page_config(
@
st
.
cache_resource
def
get_model
():
tokenizer
=
AutoTokenizer
.
from_pretrained
(
"/
THUDM
/chatglm-6b"
,
trust_remote_code
=
True
)
model
=
AutoModel
.
from_pretrained
(
"
THUDM
/chatglm-6b"
,
trust_remote_code
=
True
).
half
().
cuda
()
tokenizer
=
AutoTokenizer
.
from_pretrained
(
"/
data
/chatglm-6b"
,
trust_remote_code
=
True
)
model
=
AutoModel
.
from_pretrained
(
"
/data
/chatglm-6b"
,
trust_remote_code
=
True
).
half
().
cuda
()
model
=
model
.
eval
()
return
tokenizer
,
model
...
...
@@ -25,26 +25,31 @@ def predict(input, history=None):
tokenizer
,
model
=
get_model
()
if
history
is
None
:
history
=
[]
response
,
history
=
model
.
chat
(
tokenizer
,
input
,
history
)
#updates = []
for
i
,
(
query
,
response
)
in
enumerate
(
history
):
#updates.append("用户:" + query)
message
(
query
,
avatar_style
=
"big-smile"
,
key
=
str
(
i
)
+
"_user"
)
#updates.append("ChatGLM-6B:" + response)
message
(
response
,
avatar_style
=
"bottts"
,
key
=
str
(
i
))
with
container
:
if
len
(
history
)
>
0
:
for
i
,
(
query
,
response
)
in
enumerate
(
history
):
message
(
query
,
avatar_style
=
"big-smile"
,
key
=
str
(
i
)
+
"_user"
)
message
(
response
,
avatar_style
=
"bottts"
,
key
=
str
(
i
))
# if len(updates) < MAX_BOXES:
# updates = updates + [""] * (MAX_BOXES - len(updates))
message
(
input
,
avatar_style
=
"big-smile"
,
key
=
str
(
len
(
history
))
+
"_user"
)
st
.
write
(
"AI正在回复:"
)
with
st
.
empty
():
for
response
,
history
in
model
.
stream_chat
(
tokenizer
,
input
,
history
):
query
,
response
=
history
[
-
1
]
st
.
write
(
response
)
return
history
container
=
st
.
container
()
# create a prompt text for the text generation
prompt_text
=
st
.
text_area
(
label
=
"用户命令输入"
,
height
=
100
,
placeholder
=
"请在这儿输入您的命令"
)
if
'state'
not
in
st
.
session_state
:
st
.
session_state
[
'state'
]
=
[]
...
...
@@ -53,4 +58,4 @@ if st.button("发送", key="predict"):
# text generation
st
.
session_state
[
"state"
]
=
predict
(
prompt_text
,
st
.
session_state
[
"state"
])
st
.
balloons
()
\ No newline at end of file
st
.
session_state
[
"state"
]
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录