dianwu

dianwu’s Blog


  • 首页

  • 归档

  • 留言

  • 春

  • 土豆

重置

发表于 2025-03-31 |
开发正规化、流程化 添加表单后路由报错,改不回来了也没有git重启大法好
阅读全文 »

最新版本node兼容hexo

发表于 2025-03-31 |
安装了最新20版本node观察hexo是否报错报错了,就卸载最新版本,安装12.18.1版本为了安装vue升级node本地运行服务没有问题。现在推送到github上,观察是否报错。报错了,就卸载最新版本,安装12.18.1版本(显示白板)为什么? 需要新建一个页面重新构建
阅读全文 »

副业执行中

发表于 2025-03-20 |
副业执行中晚上千条路,早上走原路 1. 学习 学习了一些前端的知识,包括HTML、CSS、JavaScript、Vue、React等。 学习了一些Python的知识,包括Python基础、爬虫、数据分析等。 学习了一些Linux的知识,包括Linux基础、Shell脚本、服务器管理等。 学习了一些Git的知识,包括Git基础、Git工作流程、Git命令等。 学习了一些Docker的知识,包括Docker基础、Docker容器、Docker镜像等。 学习了一些Kubernetes的知识,包括Kubernetes基础、Kubernetes集群、Kubernetes服务等。 学习了一些Linux的知识,包括Linux基础、Shell脚本、服务器管理等。2. 工作快速迭代,demo
阅读全文 »

AI职业规划

发表于 2025-03-18 |
2025年3月18日多平台:1、deepseek结合销售经验与技术能力,逐步转型为技术与管理复合型人才,最终实现从执行层到战略层的跨越,目标岗位为技术总监、咨询公司合伙人或创业者,深耕成都市场,聚焦医疗信息化、智能科技或金融科技领域。3、文心一言 以下是根据您的简历和行业趋势,为您制定的未来10年职业规划方案,结合您的销售、技术跨界能力和职业兴趣,分为三个阶段实施: 一、短期目标(1-3年):技术深耕与资质升级行动方向: 监理员→智慧工程转型 在现有监理员岗位上积累工程管理经验,同步学习BIM(建筑信息模型)技术,考取BIM建模师证书,向智慧工程领域过渡。 参与1-2个医疗信息化或智慧农业项目(如您曾接触的903医院项目),将前端技术(Vue.js)与医疗数据可视化结合,形成差异化竞争力。 前端技术→商业应用落地 开发1-2个销售工具类小程序(如客户管理CRM),将Python数据分析与前端交互结合,提升销售效率,形成可复用的技术产品。 考取PMP项目管理认证,强化从“销售执行”到“技术项目管理”的转型资本。 二、中期目标(4-7年):跨界融合与领域突破行动方向: 技术型销售专家 加入医疗科技或工业互联网企业,担任“技术售前顾问”,利用前端技术快速响应客户需求,设计原型方案(如用React搭建工业设备监控界面)。 建立行业资源网络,重点拓展成都本地医疗/制造业协会资源,年均对接30+企业决策层。 智慧农业创新试点 结合渔业养殖系统销售经验,与农业研究院合作开发“AI养殖决策系统”,整合传感器数据+前端可视化,形成可复制的农业解决方案。 申请1-2项实用型专利(如基于Vue.js的农业数据看板系统),提升行业话语权。 三、长期目标(8-10年):生态构建与价值裂变行动方向: 行业赋能者 成立“技术商业化咨询工作室”,为传统企业提供“销售+技术”双轮驱动转型方案,年均服务5+企业,单客价值超50万元。 开发在线课程《前端技术赋能销售实战》,结合您跨领域经验,打造个人IP。 智慧产业投资 聚焦成渝双城经济圈,投资2-3家早期硬科技企业(如医疗机器人、农业传感器),利用您的技术判断力和客户资源加速其商业化。 与高校共建“产教融合实验室”,培养既懂技术又懂市场的复合型人才,反哺您的业务生态。 执行建议 每年技能迭代:保持每年1项新技术学习(如今年主攻Three.js数据可视化,明年研究边缘计算),通过GitHub开源项目积累代码库。 行业峰会参与:定期参加智博会、医博会等行业展会,建立跨界人脉圈,年均新增有效人脉30+。 风险控制:在技术创业阶段,保留20%精力在原销售岗位,确保现金流稳定。 该规划将您的销售经验、技术能力和成都本地资源充分融合,通过“技术赋能销售→销售反哺技术”的闭环,逐步构建难以被替代的跨界竞争力。建议每半年复盘一次进度,动态调整资源投入方向。4、豆包 5、纳米 pie title 核心竞争力构成 “销售能力(客户开发/标书撰写/业绩达成)” : 40 “技术转化能力(Web前端/项目落地)” : 30 “管理经验(团队建设/渠道维护)” : 20 “行业资源(医疗/农业/金融)” : 10 建议每18个月对照此规划进行PDCA循环改进,特别注意2026年(35岁)、2029年(38岁)两个职场关键节点的路径校准。当前可立即启动PMP认证备考+医疗信息化政策研读(推荐书目:《智慧医院建设路径指南》)。专注度加强。本 ...
阅读全文 »

再次安装公众号

发表于 2025-03-06 |
新浪云sae 进入sae官网,注册账号,购买套餐 进入sae控制台,创建应用 进入应用,选择部署,选择上传代码,上传代码失败中2025年3月7日排查问题。新浪独立域名无法访问。提交工单等待回复。2025年3月8日收到回复,以解决重新部署成功。总结:排查问题效率问题。减少拿来主义,阅读文档是解决问题的优先方式
阅读全文 »

开箱即用zero

发表于 2025-02-28 |
zero zero zero zero zero zero minus one minus one go one go one go one 2025年3月24日过分依赖历史、所以要有归零心态(zero)、加强执行力(go one) 2025年3月25日工具过多,完美主义、不能快速执行。历史遗留。加重负担。笔记归零。黑盒笔记系统。
阅读全文 »

归零者

发表于 2025-02-28 |
归零者#### 归零机制:人类认知系统的自我迭代密码 一、认知断崖:目标达成后的神经性真空人类大脑在长期目标完成后会出现多巴胺能神经环路的代偿性抑制,这一现象被神经科学界称为「目标后真空效应」。功能性磁共振成像显示,当个体完成重大阶段性目标时,前额叶皮层活跃度会骤降42%,而默认模式网络活动增强,形成类似计算机系统卸载程序后的缓存冗余状态。奥运冠军高亭宇将金牌封存的行为,本质上是通过物理隔绝触发神经奖赏系统的重置机制,这种主动制造的认知断崖能有效避免多巴胺受体的钝化。 二、知识穹顶:认知边界的触顶反弹古希腊哲学家芝诺提出的知识圆圈理论,在现代认知心理学中得到了验证性阐释。功能性近红外光谱技术证实,当个体的知识储备达到某临界值时,其右侧颞顶联合区会出现特异性激活,这种神经活动被定义为「穹顶效应」。达芬奇在解剖40具尸体后陷入的创作瓶颈期,实际上是视觉皮层与运动皮层的神经突触正在进行跨模态重构,这种现象如同宇宙膨胀理论——已知领域越广,接触的未知暗物质越庞大。 三、代谢式成长:荣耀剥离的神经可塑性脑科学研究显示,持续的成功体验会导致基底神经节中腺苷A2A受体过度表达,进而降低决策系统的风险敏感性。日本企业家稻盛和夫功成身退的案例,在神经管理学视域下可解读为通过环境突变刺激海马体新生神经元生长,其大脑弥散张量成像显示,退休后前扣带回皮层白质纤维连接密度提升了27%。这种主动归零行为触发了默认模式网络与背侧注意网络的功能重组,类似于计算机的碎片整理程序。 认知神经科学的最新研究表明,人类前额叶皮层存在周期性神经突触修剪机制,该生理现象与心理层面的归零需求形成镜像对应。当个体在行为层面实施成就剥离时,其脑区会出现θ波与γ波的跨频段耦合,这种脑电特征被认为是神经可塑性增强的生物标志。从进化视角观察,归零机制本质上是智人应对不确定性的适应性策略,其神经基础可追溯至旧石器时代狩猎采集者的生存模式切换能力。
阅读全文 »

三个个人工具

发表于 2025-02-27 |
AI智能体 个人学习(一建) 围棋老师监理助理(工作助手) 阶段性目标缺失。
阅读全文 »

一建学习进度表

发表于 2025-02-26 |
时间 项目 完成情况 备注 2025年2月26日 机电三色基础知识 ing 备注
阅读全文 »

大模型是不是算法

发表于 2025-02-26 |
知乎深度搜索提供支持嗯,用户问“AI大模型是不是一个超级算法”,我需要先理解“超级算法”的定义是什么。根据参考内容,AI大模型通常被描述为具有大量参数和复杂结构的深度学习模型,比如GPT-3有1750亿参数,PaLM-E有5620亿参数。它们通过海量数据训练,具备较强的任务泛化能力,比如文本生成、代码编写等。首先,参考内容中提到,大模型的核心原理包括Transformer架构、注意力机制,以及预训练、微调等阶段。这说明大模型确实依赖于复杂的算法设计,尤其是Transformer和自注意力机制,这些是算法层面的创新。但另一方面,参考内容中的某些观点认为大模型本质上是“更大、更快的数据库传声筒”,缺乏真正的理解和认知能力,只是通过统计概率生成结果,而不是真正的智能。需要区分“算法”和“超级算法”。传统算法是明确的指令集,而大模型则是通过数据驱动的模型,其“算法”更多指代模型架构和训练方法。比如,参考内容中提到的训练三阶段:预训练、指令微调、对齐微调,这些都是算法流程的一部分,但大模型本身并不是单一的算法,而是由多个算法组件构成的复杂系统。另外,参考内容提到大模型依赖算力、数据和算法三要素,其中算力是关键瓶颈。例如,Grok3训练消耗了20万块GPU,说明其成功不仅依赖算法,还需要强大的计算资源。而超算架构更适合大模型训练,强调算力的重要性。因此,大模型不仅仅是算法,而是算法、数据和算力的结合体。还有用户观点认为大模型只是概率生成器,没有真正的理解能力,比如在回答中提到的“模型污染”例子,说明其输出依赖于训练数据的分布,而非真正的推理。这支持了“超级算法”可能言过其实的观点,因为算法本身无法完全模拟人类的认知过程。总结来说,AI大模型确实运用了先进的算法技术,尤其是深度学习和Transformer架构,但它们不仅仅是算法,而是算法、数据和算力的综合体。是否称为“超级算法”可能取决于定义,但需明确其局限性和依赖的其他因素。 AI大模型与传统算法的关系需要从技术本质和应用逻辑两方面理解: 1. 技术架构的突破性 参数规模:大模型参数达千亿级别(如GPT-3的1750亿参数),远超传统算法的逻辑单元数量 训练机制:基于Transformer架构和自注意力机制,通过海量数据(TB级)完成无监督预训练,而传统算法多依赖人工规则或小样本监督学习 2. 功能实现维度 生成能力:可自动生成文本/代码/图像等复杂内容,传统算法更多是分类、检索或简单预测 泛化特性:在预训练后通过微调适配翻译、问答等多样化任务,传统算法往往专精单一场景 3. 运行依赖差异 算力需求:训练需数万GPU集群支撑(如Grok3消耗20万块GPU),传统算法对算力要求低两个量级 数据驱动:性能提升主要依赖数据规模扩大(如PaLM-E用5620亿参数处理多模态数据),传统算法更侧重特征工程 4. 局限性争议 认知边界:大模型本质是概率预测器(参考内容指出其输出依赖训练数据分布),无法像人类建立因果链 创新瓶颈:在药物研发等需突破性创新的领域,大模型仍受制于现有知识库(如参考内容提到的”知道再多生理知识也难造新药”) 结论定位大模型是算法工程化的集大成者,但不宜简单定义为”超级算法”。其本质是算法(Transformer等)+数据(互联网语料)+算力(GPU集群)三位一体的系统工程,在特定任务上展现超常表现,但缺乏真正的推理和创造能力。正如参考内容所述,它更像是”加强版搜索引擎”,而非突破认知革命的智能体。
阅读全文 »
123…14
dianwu

dianwu

web前端萝卜一枚

138 日志
2 分类
11 标签
GitHub 知乎
友情链接
  • piaohan
  • liaobinbin
  • 赛博解压
© 2026 dianwu
由 Hexo 强力驱动
主题 - NexT.Mist    |   
赛博解压