关于执行 python demo_gradio.py 时出现报错的

关于执行 python demo_gradio.py 时出现报错的

问题描述:

老师您好,我按照视频的步骤操作,执行到 python demo_gradio.py 时出现报错。

操作步骤:

1、进入 llm_course 目录,执行命令: 

conda activate /output/llm/llm_course/open-mmlab

激活虚拟环境。

2、执行命令:

pip install gradio==3.50.2

安装视频所示版本的 gradio

3、进入 llm_course 目录,创建软链接,执行命令:

ln -s /input0 /output/llm/llm_course/FlagAlpha-Llama2-Chinese-7b-Chat

4、进入 demo 目录,执行:

python demo_gradio.py

5、出现本次问题的报错。

相关截图:

https://img1.sycdn.imooc.com/climg/655da6510918169b19820678.jpg

报错内容:

(/output/llm/llm_course/open-mmlab) root@kaelmeepo-v6i9bjw9i2ix-main:/openbayes/home/llm/llm_course/demo# python demo_gradio.py
Traceback (most recent call last):
  File "/output/llm/llm_course/demo/demo_gradio.py", line 156, in <module>
    main()
  File "/output/llm/llm_course/demo/demo_gradio.py", line 90, in main
    tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_code=True)
  File "/output/llm/llm_course/open-mmlab/lib/python3.9/site-packages/transformers/models/auto/tokenization_auto.py", line 718, in from_pretrained
    tokenizer_config = get_tokenizer_config(pretrained_model_name_or_path, **kwargs)
  File "/output/llm/llm_course/open-mmlab/lib/python3.9/site-packages/transformers/models/auto/tokenization_auto.py", line 550, in get_tokenizer_config
    resolved_config_file = cached_file(
  File "/output/llm/llm_course/open-mmlab/lib/python3.9/site-packages/transformers/utils/hub.py", line 430, in cached_file
    resolved_file = hf_hub_download(
  File "/output/llm/llm_course/open-mmlab/lib/python3.9/site-packages/huggingface_hub/utils/_validators.py", line 110, in _inner_fn
    validate_repo_id(arg_value)
  File "/output/llm/llm_course/open-mmlab/lib/python3.9/site-packages/huggingface_hub/utils/_validators.py", line 158, in validate_repo_id
    raise HFValidationError(
huggingface_hub.utils._validators.HFValidationError: Repo id must be in the form 'repo_name' or 'namespace/repo_name': '../FlagAlpha--Llama2-Chinese-7b-Chat/'. Use `repo_type` argument if needed.


请老师帮忙看下,感谢!

正在回答 回答被采纳积分+1

登陆购买课程后可参与讨论,去登陆

2回答
那位科技大模型算法 2024-03-18 16:46:38

已经私聊解决问题了

提问者 白聪聪 2023-11-22 16:44:57

老师已私聊回复解决方法,修改 demo_gradio.py 的 MODEL_PATH 数据集路径:

    # MODEL_PATH = "../FlagAlpha--Llama2-Chinese-7b-Chat/"
    MODEL_PATH = "/openbayes/input/input0"


问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
LLM行业领军大佬 带你转型大语言模型算法工程师
  • 参与学习       216    人

从入门-案例实战-多领域应用-面试指导-推荐就业,匹配课前知识路线、详细学习笔记和全方位服务,助力学习与就业,快速实现职业跃迁。附赠价值2000元+的大模型项目代码/数据和配套环境和GPU。

了解课程
请稍等 ...
意见反馈 帮助中心 APP下载
官方微信

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师