BLCL的博客小馆

binance币安理财存U年化收益40% !!牛市躺着就是收钱,闲置资金记得放理财!立即注册立享收益!!

首页

关于

归档

JavaJVMKotlin

Kotlin与Java对照手册

Generated By AI📗 1. 基本类型类型Kotlin 写法Java 写法简要说明数字Int, Long, Float, Double, Short, Byteint, long, float, double, short, byteKotlin 数值类型映射到相应的原生/包装类型。布尔Booleanboolean只能取 true/false,与数字不互通。字符Charchar单个 Unicode 字符,支持转义序列。字符串StringString不可变;支持多行文本块 """..."""。数组Array<T>, IntArray 等T[]提供原始类型专用数组如 IntArray、ByteArray。无符号整型UInt, ULong, UShort, UByte无编译时检查范围,运..

更多
loading..
LLMAIDeepSeek

DeepSeek-671b-Q4部署

Foreword DeepSeek火了这么久,总算轮到我来部署一下了,部署小模型的挺多的,但是接近满血的大模型的好像很少,遇到的问题也难得有人说。 DeepSeek 设备需求 浪潮 NF5468M6 GPU服务器 CPU:2x6330(2G,28C/56T,42MB,Turbo,205W,3200),2x2400¥ 内存:32x64G DDR4 3200 RDIMM ECC,32x500¥ 硬盘:5x1.6TB SSD NVMe U.2 2.5寸 混合型,5x900¥ 阵列卡:Intel/英特尔 VROC KEY VROCPREMM0D U.2 NVME 阵列 RAID 0/1/5/10激活卡 高级版,1300¥ 网卡1:迈络思 MCX556A 100G 双口网卡,1500¥ 网卡2:X710双..

更多
loading..
LLMAI

AI大模型笔记

Foreword 记录一些AI相关的流程或者是运行逻辑 AI Transform Transform的机制 Benchmark 做一个新模型的时候,最好先建立好一个Benchmark,用来评估当前模型的性能,从而有一个准确的优化方向 微调 微调的流程 微调的后期,要么是有一个专家模型负责评估,要么就是有一个RLHF的反馈环境,不断对模型进行微调,这样整个模型就在不断进化中,效果就能越来越好。 当这个累计到一定时间或者数据以后,就可以考虑直接全参数微调,变成一个新模型 RAG 某些应用既可以通过RAG实现,也能通过微调实现,RAG相当于是外挂一个知识给模型,比较灵活,但是RAG的实现细节也有很多东西要考虑。 Denoise 本质上Diffusion就是..

更多
嵌入式

嵌入式内存溢出检测

Foreword 内存溢出,非常常见的错误,但是对于嵌入式软件而言稍微有点麻烦,因为出问题的时候不一定能被调试,能被追踪到,条件十分严苛。 借鉴前人的经验,做一次实践 内存溢出 笨方法 这个方法比较笨,但是可以防止程序产生更严重的问题,比如在做内存copy或者调用指针的时候,都做一次内存范围检测,如果发现范围溢出了,那么此时就记录一下具体溢出的位置,触发函数等等。 这种方式可以维持一个长期稳定,但是溯源上还是差一些,同时也会影响效率,特别是一些高频操作或者是时间敏感的操作。 canary 最简单的思路,在觉得可能会溢出的地方加上一个溢出标志,那么当溢出的时候就可以直接记录溢出点,然后就能追踪了 这样追踪到的是溢出点,但是如果是哪个地方溢出了,写到了别的内存的位置,这种办法就无法直接溯源,..

更多
loading..
AI

AI模型生成对比

Foreword 研究一下如何把AI相关的AI设计产品融合到目前的艺术设计的工作流中,对比了一下当前模型生成相关的AI,发现区别还是挺大的 图片生成 Stable Diffusion https://github.com/AUTOMATIC1111/stable-diffusion-webui Stable Diffusion是一种图像模型,他背后是Stability AI Midjounery https://www.midjourney.com/ 模型生成 提示词,猫和老鼠中的老鼠,拿着一个烤串 # Core requirements Jerry from Tom and Jerry cartoon, holding a barbecue skewer, # Sty..

更多
loading..
AICursorMCP

如何写一个MCP Server

Foreword 看一下如何写一个MCP服务 FastMCP 翻了一下看到了MCP有一个快速的模式,这种方式不需要写那么多前置代码 # server.py from mcp.server.fastmcp import FastMCP # Create an MCP server mcp = FastMCP("Demo") # 通过注解快速加入一个工具命令 # Add an addition tool @mcp.tool() def add(a: int, b: int) -> int: """Add two numbers""" return a + b # 这里还通过注解,加入了有一部分资源 # 这里的资源可以理解为一个文件或者一段信息,或者说一个特定的内容,这个可..

更多
AI机器学习ComfyUI图像生成Stable Diffusion

ComfyUI的操作与使用

简单起见,又或者是没有N卡或者显卡的配置比较低,可以使用腾讯云HAI直接搭建ComfyUI服务。入门使用可以先clear掉当前的workflow,之后右键新建模块。首先需要新建一个采样器(KSampler),采样器的配置如下:参数值说明seed0随机种子,控制生成结果的随机性。相同种子会产生相同结果control_after_generaterandomize生成后种子控制方式:randomize(随机化)、increment(递增)、decrement(递减)、fixed(固定)steps20采样步数,通常15-30步较为合适。步数越多质量越好但耗时更长cfg8.000CFG引导强度,控制AI对提示词的遵循程度。范围1-20,推荐7-12sampler_nameeuler采样算法:euler、euler..

更多
AI机器学习ComfyUI图像生成

ComfyUI简介

ComfyUI 是一个基于节点工作流的现代化 Stable Diffusion 图形用户界面。与传统的WebUI不同,ComfyUI采用节点连接的方式来构建图像生成工作流,让用户能够更精确地控制整个生成过程。Stable Diffusion 是一款开源的 AI 图像生成技术,基于扩散模型构建。用户可以通过 Stable Diffusion WebUI 或 ComfyUI 等开源工具来运行它,只需下载相应的模型文件(通常为 .ckpt 或 .safetensors 格式)即可开始使用。核心概念ComfyUI中的图像生成涉及三个关键组件,在CheckpointLoader中进行设置:CLIP:将文本提示转化为主模型可以理解的向量形式主模型(Main MODEL):执行实际的图像生成计算 VAE(变分自编码器..

更多
loading..
LLM推理加速

聊聊大模型推理加速:从数据到系统的技术概要

随着 LLMs 在各行各业的应用,如何在保证模型性能的前提下实现高效推理已成为重点挑战之一。前言主流的 LLMs 在算法架构上基于 transformer 的 decoder-only 架构,核心任务是 next token prediction,在推理过程中,模型需要依次生成每个 token,这种自回归生成的特点会增加推理延迟。并且从参数量上模型可分为不同规模,即使是小模型,其对计算资源和内存资源也有较高要求。为了应对这些挑战,学术界和工业界提出了多种优化方案。本文将介绍了若干 LLMs 的推理加速相关的关键技术。如有错误或不准确之处,欢迎指正。正文推理阶段概述推理阶段是模型接收输入并产生输出的过程。与训练阶段不同,推理阶段不需要计算梯度和更新参数,只需要完成前向传播计算。在推理过程中,由于自回归生成的..

更多

用裸 git 仓库管理点文件的最佳方式

前些天在 Atlassian 的文档中看到一篇关于管理点文件(即.bashrc 之类以点开头的文件)的文章《Dotfiles: Best way to store in a bare git repository》,感觉很有参考价值,遂决定翻译出来,希望能帮到更多的人。 以下内容除特别注明外,皆翻译自原文。我亦不对内容做任何的担保,并不对任何可能产生的后果(包括但不限于文件丢失)负责。 免责声明:标题有些夸大其词了,而且针对这个问题也有其他好用的解决方案。但我确实觉得这也是一个优雅的技巧。 最近我在 Hacker News 中看到一篇帖子,是讨论人们怎么管理他们的点文件的。在这篇帖子中,用户 StreakyCobra 分享了一个他的很优雅的配置,而且我觉得非常的靠谱。正巧我也在开始用同样的技巧来管理..

更多
1234587