🔪 被阿里云的退款机制背刺了。前两个月买了台¥199/年的服务器挂备案,最近迁到200M轻量,老机器准备退款。
💸 结果阿里云是按原价¥3857计算退款,算下来日均10.57元。用了100多天,按原价已用金额超199了,一分钱退不了。
🤔 国内云厂商的低价策略把我们都养习惯了这种优惠价格,殊不知这种优惠背后埋的坑。
💸 结果阿里云是按原价¥3857计算退款,算下来日均10.57元。用了100多天,按原价已用金额超199了,一分钱退不了。
🤔 国内云厂商的低价策略把我们都养习惯了这种优惠价格,殊不知这种优惠背后埋的坑。
分享一个冷门的新闻,英特尔最近新增了 Linux 的几款显卡驱动,不出意外的话,今年内有 B580 Pro 和 B770 两款新显卡。
基本确定是 24GB 的显存了 ,参考现在 B580 12G 只要 $300 的价格(实际$250) 如果跟你说只要 $350 到 $450 就能买到一张能跑 32b 模型的显卡,就说香不香吧😉
基本确定是 24GB 的显存了 ,参考现在 B580 12G 只要 $300 的价格(实际$250) 如果跟你说只要 $350 到 $450 就能买到一张能跑 32b 模型的显卡,就说香不香吧😉
🖥️ 这可能是中文圈第一个用英特尔的显卡 B580 跑 AI 本地大模型的测试,结论有点难绷 🥹
带点试水性质。但是很遗憾,测试失败了。这卡对标NVIDIA 4060/4060Ti系列,游戏什么的就不讨论了,主要是AI模型相关,即使参考了已有的成功案例,我电脑llama.cpp的GPU调度始终无法正常运行,14b和7b模型速度都达不到1t/s 🤔
🔬 补充测试:使用 Intel 官方的 AI Playground + IPEX-LLM 成功运行了 deepseek-7b 模型,速度在 25tokens/s 左右。不过相比llama.cpp,这个方案的部署和使用都相对复杂一些。
⚡️ 性能对比参考:
B580 ($250-300):IPEX-LLM 下 25t/s
Mac Mini M2 16GB ($500):15t/s
MacBook M2 Max 96GB ($3000):55t/s
从价格性能比来看,B580在IPEX-LLM下的表现其实还不错,比 Mac Mini 更快,虽然比不上高端的 M2 Max,但价格只有十分之一。如果后续能解决 llama.cpp 的调用问题,性能应该会更好。
💡 需要说明的是,我之前主要在Mac上使用Ollama部署模型,对Windows下的大模型调试经验不足,所以这次测试结果可能也跟我的调试方法有关。
📊 简单总结这张卡的特点:
市场表现比较特别:北美销量很好脱销状态,国内评价则比较两极 🌏
游戏性能与4060基本持平,2K网游和3A游戏都能正常运行 🎯
视频剪辑性能优于N/A两家,在专业领域有不少用户选择 🎬
💰 价格优势明显,现在2K(预计会降到1.5K左右)。如果你主要是玩热门游戏和做视频剪辑,这张卡是个不错的选择。还有一个可能就是,如果今年 Intel 在 AI 领域生态放一个大招,解决了基建框架这层的问题,按照这个价格,搞不好真的是一个破局的方向。
AI 测试的表现让我在考虑要不要退货... 不过看到价格性能比,似乎还是值得再折腾一下 🤔
带点试水性质。但是很遗憾,测试失败了。这卡对标NVIDIA 4060/4060Ti系列,游戏什么的就不讨论了,主要是AI模型相关,即使参考了已有的成功案例,我电脑llama.cpp的GPU调度始终无法正常运行,14b和7b模型速度都达不到1t/s 🤔
🔬 补充测试:使用 Intel 官方的 AI Playground + IPEX-LLM 成功运行了 deepseek-7b 模型,速度在 25tokens/s 左右。不过相比llama.cpp,这个方案的部署和使用都相对复杂一些。
⚡️ 性能对比参考:
B580 ($250-300):IPEX-LLM 下 25t/s
Mac Mini M2 16GB ($500):15t/s
MacBook M2 Max 96GB ($3000):55t/s
从价格性能比来看,B580在IPEX-LLM下的表现其实还不错,比 Mac Mini 更快,虽然比不上高端的 M2 Max,但价格只有十分之一。如果后续能解决 llama.cpp 的调用问题,性能应该会更好。
💡 需要说明的是,我之前主要在Mac上使用Ollama部署模型,对Windows下的大模型调试经验不足,所以这次测试结果可能也跟我的调试方法有关。
📊 简单总结这张卡的特点:
市场表现比较特别:北美销量很好脱销状态,国内评价则比较两极 🌏
游戏性能与4060基本持平,2K网游和3A游戏都能正常运行 🎯
视频剪辑性能优于N/A两家,在专业领域有不少用户选择 🎬
💰 价格优势明显,现在2K(预计会降到1.5K左右)。如果你主要是玩热门游戏和做视频剪辑,这张卡是个不错的选择。还有一个可能就是,如果今年 Intel 在 AI 领域生态放一个大招,解决了基建框架这层的问题,按照这个价格,搞不好真的是一个破局的方向。
AI 测试的表现让我在考虑要不要退货... 不过看到价格性能比,似乎还是值得再折腾一下 🤔
分享和推荐一下@soulteary 今晚新鲜出炉的《Intel B580 GPU 大模型容器推理实践:以 DeepSeek R1 Distill Qwen 7B 为例》
🔗 https://soulteary.com/2025/02/07/intel-b580-gpu-with-docker-and-deepseek-r1-distill-qwen-7b.html
🔗 https://soulteary.com/2025/02/07/intel-b580-gpu-with-docker-and-deepseek-r1-distill-qwen-7b.html
皮皮鸡遇到💩上最惨事故,元凶竟是DeepSeek。上周他们API不给充值,额度用完导致AI审核停摆。
我没当回事,想着几天就恢复,对报警没在意。刚好我清理闲置服务器,境内外几台一顿不可逆猛删后惊觉:有台服务器还跑着我的数据库!半年数据直接灰飞烟灭,数据挖掘计划彻底泡汤了,反诈大业遭遇重大挫败🥹
我没当回事,想着几天就恢复,对报警没在意。刚好我清理闲置服务器,境内外几台一顿不可逆猛删后惊觉:有台服务器还跑着我的数据库!半年数据直接灰飞烟灭,数据挖掘计划彻底泡汤了,反诈大业遭遇重大挫败🥹
推荐部 23 年的印度电影《12 年级的失败》,如果用类似中国语境来讲这个故事:大概是农村贫困学生,只身到北京,半工半读,幸运有富二代朋友相助,还遇到天津城市女友,最终考公上岸,带了很多美化滤镜,以至于太不真实,能看出很多印度社会问题,倒有点期待如果中国拍《衡水男孩》会怎么讲这类故事。
看到老牌浏览器代理插件 Proxy SwitchyOmega v3(图左)被投毒的新闻后,去年 Chrome 公告要求插件强制升级到 Manifest V3,我开始寻找替代方案。最终选择了同样开源的 ZeroOmega(图右),其配置可以无痛导入。
🔗 https://github.com/zero-peak/ZeroOmega
🔗 https://github.com/zero-peak/ZeroOmega