chatglm吧 关注:286贴子:449
  • 20回复贴,共1

请教大佬们部署chatGLM问题

只看楼主收藏回复

大佬们,在Win10上部署了chatGLM-6b-int4,web_demo能打开,但是却显示不了回复内容是为什么呢?虽然能运行但还是会报错


IP属地:湖北1楼2023-11-29 17:55回复
    而且再次提交的话就会connection error


    IP属地:湖北2楼2023-11-29 17:56
    收起回复
      用cli_demo.py 命令行方式正常,对吧?


      IP属地:湖北3楼2023-11-29 18:11
      收起回复
        类似这样@sdwzh
        99


        IP属地:湖北5楼2023-11-29 18:32
        回复
          如果web_demo不正常,cli_demo.py正常,那是前端显示的问题,解决办法是卸载高版本gradio,装低版本
          但你这个连cli_demo.py都不正常,我就不知道了。


          IP属地:湖北6楼2023-11-29 18:32
          收起回复
            试一下
            >>> from transformers import AutoTokenizer, AutoModel
            >>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
            >>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
            >>> model = model.eval()
            >>> response, history = model.chat(tokenizer, "你好", history=[])
            >>> print(response)


            IP属地:广东7楼2023-12-01 09:39
            收起回复
              能分享一下最新模型吗,我也是这个问题


              IP属地:湖北8楼2023-12-12 15:35
              收起回复
                前端报错了


                IP属地:山东来自Android客户端9楼2023-12-24 23:10
                回复
                  https://blog.csdn.net/nfkjdx/article/details/135019173?spm=1001.2014.3001.5502 非常详细,可以参考


                  IP属地:重庆10楼2024-01-30 15:13
                  回复