分享一下对deepseek的看法和几个模型对我们个人站长的实用性

查看 25|回复 2
作者:宽大守信   
[size=16.002px]DeepSeek  最近真的是太火了,到处都在谈,一些完全不懂的也在谈,这只是一个模型。资本的世界真的太疯狂了。能宣传开也是好事全民开始尝试ai。我下载了               deepseek的两个模型8B和14B的,我CPU是6核的,内存64G。用8b的还行,14B的完全太慢了。显卡是AMD要用GPU太麻烦了。第一个是阿里千问的,第二个是deepseek官方api,第三个是腾讯混元,第四个是本地模型。感觉直接接入阿里百度腾讯豆包的官方api速度比本地电脑快多了。当然你的配置很高用4090可能产出速度会快很多。不知道有几个站长用4090的。顺便把火车头本地插件分享一下。


QQ20250131-150548.png (14.82 KB, 下载次数: 0)
下载附件
保存到相册
半小时前 上传

[ol]
  • import sys
  • import json
  • from urllib import parse
  • import requests  # 使用 requests 库调用 Ollama API
  • # Ollama 的 API 地址
  • OLLAMA_API_URL = "http://localhost:11434/api/generate"
  • # 检查命令行参数长度
  • if len(sys.argv) != 5:
  •     print(len(sys.argv))
  •     print("命令行参数长度不为5")
  •     sys.exit()
  • else:
  •     LabelCookie = parse.unquote(sys.argv[1])
  •     LabelUrl = parse.unquote(sys.argv[2])
  •     PageType = sys.argv[3]
  •     SerializerStr = parse.unquote(sys.argv[4])
  •     # 如果 SerializerStr 不是 JSON 字符串,尝试从文件中读取
  •     if SerializerStr[0:2] != '''{"''':
  •         with open(SerializerStr, 'r') as file_object:
  •             SerializerStr = file_object.read()
  •             SerializerStr = parse.unquote(SerializerStr)
  •     # 解析 JSON 数据
  •     LabelArray = json.loads(SerializerStr)
  •     # 如果页面类型是 "Save",调用 Ollama API
  •     if PageType == "Save":
  •         if LabelArray['文章标题词'].strip():
  •             prompt = LabelArray['文章标题词']
  •             # 调用 Ollama API
  •             try:
  •                 response = requests.post(
  •                     OLLAMA_API_URL,
  •                     json={
  •                         "model": "yasserrmd/Qwen2.5-7B-Instruct-1M:latest",  # 替换为 Ollama 中的模型名称
  •                         "prompt": prompt,
  •                         "stream": False,  # 是否启用流式输出
  •                     },
  •                     headers={"Content-Type": "application/json"},
  •                 )
  •                 # 检查响应状态
  •                 if response.status_code == 200:
  •                     # 解析响应内容
  •                     response_data = response.json()
  •                     content = response_data.get("response", "")
  •                     # 去除返回内容中的 * 号和 # 号
  •                     content = content.replace('*', '').replace('#', '').replace('标题:', '')
  •                     LabelArray['内容'] = content
  •                 else:
  •                     print(f"Ollama API 调用失败,状态码: {response.status_code}")
  •                     print(f"错误信息: {response.text}")
  •             except Exception as e:
  •                 print(f"调用 Ollama API 时发生错误: {e}")
  •     # 将 LabelArray 转换回 JSON 字符串并输出
  •     LabelArray = json.dumps(LabelArray)
  •     print(LabelArray)[/ol]复制代码

    模型, 几个

  • 宽大守信
    OP
      


    当初考虑性价比买了AMD的玩黑神话结果发现生产兼容性太差
    我不是小刀   
    大哥,deepseek最近一直被老美攻击。不稳定的。还有,你的api秘钥咋申请的,我看一直在维护中。
    您需要登录后才可以回帖 登录 | 立即注册

    返回顶部