Limour's Blog
  • Home
  • Archive1
  • Archive2
  • Archive3
  • Alist
  • Orcid
  • Links
  • RSS
一沙一世界,一花一天堂。君掌盛无边,刹那成永恒。
【探索】暴力计算临床研究的样本量

【探索】暴力计算临床研究的样本量

这篇博客介绍了如何计算临床研究中两组生存分析的样本量。首先,作者提供了R代码,包括Logrank对数秩检验的函数以及模拟计算样本量的函数。其次,作者详细解释了模拟计算的步骤,包括生成生存时间数据、招募时间、失访时间等,并通过模拟来估计研究的功效。最后,作者展示了如何使用模拟计算函数来确定样本量,以达到预先设定的功效水平。通过模拟检验,作者展示了样本量计算的有效性,并给出了两个示例,以验证样本量计算
2024-03-13
#R #Bootstrap
【探索】6G显存畅玩无限长度的LLM角色扮演

【探索】6G显存畅玩无限长度的LLM角色扮演

角色扮演的体验是否舒适主要受角色卡、大模型和生成时间三个因素的影响。 优秀的角色卡往往附带大量的设定,这会极大的拖慢第一次生成的时间,并且随着对话的进行,上下文长度很容易超过kv_cache的上限,这些很破坏沉浸式的体验。 此外,大模型在进行角色扮演时,除了进行必要的对话生成外,还需要生成旁白增加想象空间。 对博主这些相比填空更喜欢选项的玩家,给出提问建议也是非常必要的:在建议的基础上修改比自己从
2024-02-10
#探索 #llama
【探索】将BlueLM-7B-Chat转换为标准的GGUF模型

【探索】将BlueLM-7B-Chat转换为标准的GGUF模型

准备模型 运行环境 123456789# conda create -n llamaConvert python=3.10 git -c conda-forge# conda activate llamaConvert# cd D:\llama# git clone --depth=1 https://github.com/ggerganov/llama.cpp.git# cd llama.c
2024-02-04
#探索 #llama
【探索】从零开始训练 GPT

【探索】从零开始训练 GPT

探索整个过程,从在一台搭载1660Ti显卡的笔记本电脑上构建 Tokenizer,定义带有 RoPE 的 Transformer,一直到训练、保存模型和可视化训练过程。沉浸在从零开始训练 GPT 的旅程中,深入了解每一个步骤。跳入深度学习的世界,释放在你的便携1660Ti笔记本上的强大潜能。
2024-01-18
#探索 #llama
【避坑】Azure AI 避免反向薅羊毛

【避坑】Azure AI 避免反向薅羊毛

起因 今天收到 Azure 的付费邮件,一看账单,好家伙,24.54$ ,比上个月暴涨 622%,给我 CPU 干烧了。 赶紧去成本分析里按资源分类看上个月的扣费详情,然后就看到两个 10.33$ 的 Container Registry,分别位于我在 Azure AI Studio 里的两个不同项目所在区域。 一顿折腾,发现这个 Container Registry,有一年的免费试用期,但是免费
2024-01-09
#openai
【记录】win10平台6G显存运行Qwen-1.8B

【记录】win10平台6G显存运行Qwen-1.8B

Llama.cpp 能 CPU & GPU 环境混合推理,这里记录一下在 windows10 平台上运行 Qwen-1.8B 的过程,显卡是 1660Ti 。 准备模型 安装conda Tun模式(管理员权限) 1234567conda create -n llamaConvert python=3.10 git -c conda-forgeconda activate llamaCo
2024-01-01
#llama
【记录】轻量个人导航页面 Flare

【记录】轻量个人导航页面 Flare

Flare 是一款轻量、快速、美观的个人导航页面,适用于 HomeLab 或其他注重私密的场景。 反向代理服务 访问 https://flare.limour.top/editor 进行书签编辑 123mkdir -p ~/app/flare && cd ~/app/flare && nano docker-compose.ymlsudo docker-comp
2024-01-01
#docker #ngpm #homepage
【记录】Win10平台使用MLC-LLM编译Qwen-1.8B-Chat

【记录】Win10平台使用MLC-LLM编译Qwen-1.8B-Chat

MLC-LLM 是一种大模型高性能通用部署解决方案,可以通过预编译加速使用本机API原生部署任何大型语言模型。该项目的使命是利用ML编译技术,使每个人都能在其设备上本地开发、优化和部署AI模型。 Qwen-1.8B 是阿里云研发的通义千问大模型系列的18亿参数规模的模型。在Qwen-1.8B的基础上,使用对齐机制打造了基于大语言模型的AI助手 Qwen-1.8B-Chat。 配置环境 安装con
2023-12-09
#llama
【探索】外科打结法中的等价操作

【探索】外科打结法中的等价操作

手术中的止血和缝合,均需要进行结扎,而结扎是否牢固,又与打结有密切关系,结一定要打得牢固,不能松动、滑脱。 常用的结扣是方结,结扎后极为牢固,在手术中最常用。而打方结时,手法顺序错误就容易打成假结或滑结。因此这里将探讨基础打结手法的等价性,帮助快速理解不同手法所成结的本质。 除不易混淆的外科结外,无论是单手打结还是持钳打结,均由基础动作组合而成,基础动作所成的结都对应纽结理论中的三叶结。三叶结有两
2023-12-02
#探索
【翻译】多重免疫分析揭示了血清免疫蛋白质组学在预测胃癌术前化疗反应中的作用

【翻译】多重免疫分析揭示了血清免疫蛋白质组学在预测胃癌术前化疗反应中的作用

原文链接:Multiplex immune profiling reveals the role of serum immune proteomics in predicting response to preoperative chemotherapy of gastric cancer 摘要 对于胃腺癌患者,对术前化疗的反应存在异质性。该领域现有
2023-12-01
#翻译 #预后模型
1234…13

Search

湘公网安备43130202000203号 湘ICP备20008299号 萌ICP备20210128号

Hexo Fluid SRC e/Acc