The Poet's Challenge

While creators question AI's creative prowess, scholars forge ahead, ushering in the dawn of artificial intelligence.

LLM Agent Design Based on Waterfall Model

A waterfall model Agent simulation implementation based on LLM Agent, where different roles are played by LLM Agent respectively, and tasks are divided according to the stages of the waterfall model.

基于瀑布模型的LLM Agent设计

一种基于LLM Agent的瀑布模型Agent模拟实现方案,通过LLM Agent分别扮演不同角色,并按照瀑布模型的阶段划分任务

服务器流量使用限制

服务器高级流量监控和限制脚本:实时监测网络流量,自动警告并采取行动该脚本利用vnstat工具对服务器的网络流量进行实时监控。一旦检测到流量超过预设阈值,脚本将发出警告或采取相应措施,以确保网络资源的合理分配和保护。用户可自定义网络接口、流量限制、警告阈值以及在达到限制时采取的行动方案。脚本提供三种运行方式:直接执行、后台运行或创建为系统服务。所有操作日志记录在/var/log/vnstat_monitor.log文件中,方便用户随时查看。停止脚本时需注意不同运行方式的操作方法,以避免意外中断服务。

WIN客户端开发技术选型调研(自用留存)

为现有 Windows 服务开发跨平台桌面应用。调研涵盖 Electron、Tauri、Flutter、.NET MAUI 等跨平台框架,以及 WinUI 3、WPF 等 Windows 原生框架,并分析了 Qt 框架。 调研重点关注框架的成熟度、生态系统、性能表现、开发效率、以及与系统组件交互能力,例如界面截图、剪贴板操作、快捷键等。此外,还考虑了未来国产化需求,例如 Linux 支持和信创生态兼容性。 后续将根据项目具体需求,对选定框架进行更深入的技术评估和原型开发,以确定最终方案。

常用大语言模型提示词

本文记录了一些自己常用的大模型提示词。

Transformer基础学习笔记

AI摘要:这篇文档介绍了 Transformer 模型的核心原理,旨在取代 RNN 用于序列处理。它阐述了 Transformer 如何利用自注意力机制克服 RNN 在长距离依赖和并行计算上的局限。文章详细拆解了其Encoder-Decoder架构,包括关键组件:词嵌入、位置编码(解决无序性问题)、多头注意力(核心,通过 QKV 计算上下文表示)、前馈网络以及残差连接与层归一化(稳定训练)。同时解释了 Encoder 层和 Decoder 层(含掩码机制)的构造,并提及了最终的线性输出层和 PyTorch 实现要点。

KL散度

这篇文章介绍了KL散度(Kullback–Leibler divergence)的概念和推导过程。首先介绍了熵的定义,然后通过熵的推广得到了KL散度的公式。KL散度可以用于衡量两个概率分布之间的差异,具有非负性质,但不具有对称性。文章最后总结了KL散度的两个重要性质:非负性和不对称性。

实验室GPU服务器使用简要说明

本文介绍了服务器的基本情况和连接方式。服务器拥有两块GPU:RTX3090 24G和泰坦12G,采用Docker容器化管理。容器只保留/home/ubuntu目录,其他目录不保留。可通过Zerotier加入网络后使用SSH连接服务器,传输文件不宜使用sftp,大文件建议使用wget从网络下载。

实验室GPU服务器管理员指南

本文介绍了服务器的基本信息,包括GPU型号和数量、存储目录、虚拟化环境和连接方式。重点提醒勿将服务器当做存储使用,并强调了备份数据的重要性。同时还介绍了容器部署方法、配置保存方法等内容。文章最后对已被弃用的LXD设置方法做了说明。总的来说,本文为服务器使用提供了全面的指导和警示。