去评论
dz插件网

分享一下对deepseek的看法和几个模型对我们个人站长的实用性

镖师
2025/01/31 21:52:41
DeepSeek  最近真的是太火了,到处都在谈,一些完全不懂的也在谈,这只是一个模型。资本的世界真的太疯狂了。能宣传开也是好事全民开始尝试ai。我下载了               deepseek的两个模型8B和14B的,我CPU是6核的,内存64G。用8b的还行,14B的完全太慢了。显卡是AMD要用GPU太麻烦了。第一个是阿里千问的,第二个是deepseek官方api,第三个是腾讯混元,第四个是本地模型。感觉直接接入阿里百度腾讯豆包的官方api速度比本地电脑快多了。当然你的配置很高用4090可能产出速度会快很多。不知道有几个站长用4090的。顺便把火车头本地插件分享一下。
  1. import sysimport jsonfrom urllib import parseimport requests  # 使用 requests 库调用 Ollama API# Ollama 的 API 地址OLLAMA_API_URL = "http://localhost:11434/api/generate"# 检查命令行参数长度if len(sys.argv) != 5:    print(len(sys.argv))    print("命令行参数长度不为5")    sys.exit()else:    LabelCookie = parse.unquote(sys.argv[1])    LabelUrl = parse.unquote(sys.argv[2])    PageType = sys.argv[3]    SerializerStr = parse.unquote(sys.argv[4])    # 如果 SerializerStr 不是 JSON 字符串,尝试从文件中读取    if SerializerStr[0:2] != '''{"''':        with open(SerializerStr, 'r') as file_object:            SerializerStr = file_object.read()            SerializerStr = parse.unquote(SerializerStr)    # 解析 JSON 数据    LabelArray = json.loads(SerializerStr)    # 如果页面类型是 "Save",调用 Ollama API    if PageType == "Save":        if LabelArray['文章标题词'].strip():            prompt = LabelArray['文章标题词']            # 调用 Ollama API            try:                response = requests.post(                    OLLAMA_API_URL,                    json={                        "model": "yasserrmd/Qwen2.5-7B-Instruct-1M:latest",  # 替换为 Ollama 中的模型名称                        "prompt": prompt,                        "stream": False,  # 是否启用流式输出                    },                    headers={"Content-Type": "application/json"},                )                # 检查响应状态                if response.status_code == 200:                    # 解析响应内容                    response_data = response.json()                    content = response_data.get("response", "")                    # 去除返回内容中的 * 号和 # 号                    content = content.replace('*', '').replace('#', '').replace('标题:', '')                    LabelArray['内容'] = content                else:                    print(f"Ollama API 调用失败,状态码: {response.status_code}")                    print(f"错误信息: {response.text}")            except Exception as e:                print(f"调用 Ollama API 时发生错误: {e}")    # 将 LabelArray 转换回 JSON 字符串并输出    LabelArray = json.dumps(LabelArray)    print(LabelArray)