规则设计,选择关键词,深度学习训练ai

day1

实验主题:理论学习与 Python 基础语法实践

上午时段

  1. 额外事项处理:接触消防安全相关事宜,占用部分上午时间,后续需协调好理论学习与这类事务的时间分配。
  2. 理论学习:学习模型黑箱机制相关内容,了解到模型黑箱是指算法模型在运行过程中,其内部的决策逻辑、特征权重等细节难以被人类解释和理解的特性,该特性在部分复杂机器学习模型中表现尤为明显,后续可结合具体案例深入探究其可解释性优化方案。

下午时段

  1. 环境准备:完成 Python 实验环境的安装与配置,确保编程环境可正常运行,为后续语法学习和题目训练奠定基础。

  2. Python 基础语法学习

    • 系统学习 Python 基础语法规则,包括变量定义、数据类型等核心内容。
    • 重点掌握字符串拼接操作,熟悉+运算符拼接、join()方法拼接等多种实现方式及各自适用场景。
    • 深入学习列表相关操作,涵盖列表元素的修改(通过索引直接修改、切片修改)、查找(index()方法)、统计(count()方法)等核心功能。
    • 学习函数相关知识,包括函数的定义(def关键字)、封装思想(将功能代码整合为函数,提高复用性),以及外部库的调用方法(import语句导入)。
  3. 实操训练:完成两道 Python 基础训练题目,将所学语法知识应用到实际编程中,检验学习效果,提升代码编写和调试能力。

  4. 特殊事项:参与神秘开班仪式,具体内容待后续进一步明确。

  5. 额外事项处理:涉及百度云相关事宜,增加了当日任务量,后续需梳理相关流程,提高事务处理效率。

问题与反思

  1. 当日需处理消防安全、百度云等额外事务,导致学习和实验时间被分割,后续需制定更合理的时间规划表。
  2. 模型黑箱机制的理论内容较为抽象,需结合具体的机器学习模型案例进行深入学习,才能更好地理解其原理和应用局限。
  3. Python 语法学习中,对于列表的复杂操作和外部库的灵活调用仍需加强练习,通过更多实操题目巩固知识点。

后续计划

  1. 协调好理论学习、编程实操与额外事务的时间分配,确保学习进度不受影响。
  2. 查找模型黑箱机制的相关案例和文献,加深对理论知识的理解。
  3. 增加 Python 编程练习量,重点练习列表高级操作和第三方库的调用。
  4. 梳理百度云相关事宜的处理流程,提高事务处理效率。

day2

(一)上午:算法模型代码练习

聚焦机器学习与深度学习核心算法,完成多类模型的代码实现与训练验证,具体包括:

  1. 线性回归模型:基于 PyTorch 构建简单线性回归网络,以x_data=[[1.0],[2.0],[3.0]]y_data=[[2.2],[3.3],[4.4]]为训练数据,定义LinearModel类封装线性层,使用均方误差损失(MSELoss)和随机梯度下降(SGD)优化器完成 100 轮训练,验证模型对输入4.0的预测能力,输出权重w和偏置b的迭代结果。
  2. K-Means 聚类:利用sklearn生成含 3 个聚类中心的模拟数据(centers=[[1, 1], [-1, -1], [1, -1]]),实现 K-Means 聚类算法(初始化方式为k-means++),对比原始数据分布与聚类结果,可视化聚类中心与样本分类,并统计训练耗时。
  3. RNN 序列建模:基于 PyTorch 实现简单 RNN 模型,针对自定义字典(dict=['e','h','l','o'])的序列数据(x_data=[1,0,2,2,3]y_data=[3,1,2,3,2]),通过 Embedding 层将离散索引转为向量,结合 RNN 层与全连接层完成序列分类任务,使用交叉熵损失(CrossEntropyLoss)和 Adam 优化器训练 15 轮,输出每轮损失值与模型预测的字符序列。

(二)下午:进阶模型练习 + 实验记录撰写

  1. BP 神经网络回归:基于 PyTorch 构建多层全连接神经网络(3 层隐藏层 + Sigmoid 激活),读取number_list.xlsx数据并标准化处理,以均方误差为损失函数、Adam 为优化器,按批次(batch_size=2)训练 300 轮,记录每 10 轮的平均损失值,绘制损失曲线,并将训练完成的模型保存为BP.pt
  2. 实验记录整理:梳理上午 + 下午所有代码练习的核心逻辑、参数设置、训练过程与结果,规范记录各模型的实现细节、关键参数(如学习率、迭代次数、隐藏层维度)及可视化结果,形成完整实验文档。

三、实验总结

  1. 技术层面:熟练掌握 PyTorch 构建神经网络的核心流程(模型定义、损失函数 / 优化器选择、训练循环、反向传播),理解线性回归、聚类、RNN、BP 神经网络的核心原理与代码实现差异;
  2. 实践层面:掌握数据预处理(标准化、张量转换)、模型保存与加载、结果可视化(Matplotlib 绘图)等工程化技巧;
  3. 待优化点:可进一步增加模型评估指标(如聚类准确率、回归 R² 值),对比不同优化器 / 超参数对模型性能的影响。

day3

上午

人工智能体:角色,目标,规则,限制

关键是写提示词:1.上下文前置规则2.反思机制3.trae内置优化

栗子:1. 股票分析智能体

目标:构建一个能智能回答股票证券知识并快速生成网站的智能体。

步骤

  1. 创建智能体,命名为”股票智能分析达人王”

  2. 添加所需MCP工具:sequential-thinking、Puppeteer、Notion API

  3. 编写提示词,定义智能体角色和工作流程

  4. 测试智能体功能,输入指令如”帮我分析当前股市行情并生成分析网页”

效果:智能体自动搜索股票数据,生成包含K线图、趋势分析和预测的网页。

下午

机器学习和数据处理

爬虫收集数据,数据不干净,有缺失值,中位数补充

机器学习十大经典算法:这里最好找一下

数据集分成三部分:1.训练部分2.没有训练的数据放进训练好的模型进行验证—交叉验证(训练集80,测试集20)3.验证集

继续ppt介绍机器学习:1.监督学习(给标签,标注)2.无监督(聚类,分类)3.半监督,强化练习(输入立刻给相应的调整)

时间管理app

day4

飞机,飞,有代码不管他

你这段代码的核心功能是使用 PyTorch 实现一个简单的 RNN(循环神经网络)模型,来学习并预测三维空间中的轨迹数据,本质上是一个时间序列预测任务。生成一组带轻微噪声的三维轨迹数据(x 轴线性增长,y 轴固定值 + 噪声,z 轴固定值),然后用 RNN 模型学习这组轨迹的规律,最终基于已知轨迹片段预测后续的轨迹点,并通过可视化对比原始轨迹和预测轨迹。

深度学习基础(PyTorch)

  • 自定义模型:继承nn.Module类,实现__init__(定义层)和forward(定义前向传播);

  • 参数初始化:用nn.init.normal_初始化 RNN 参数,避免初始值异常导致训练不稳定;

  • 损失函数与优化器

    • nn.MSELoss():回归任务核心损失(分类任务常用nn.CrossEntropyLoss);
    • optim.Adam():工业界常用的优化器(比 SGD 收敛更快,自带自适应学习率);
  • 梯度管理

    • optimizer.zero_grad():清空梯度,避免梯度累加;
    • detach():分离张量,切断梯度回传(此处用于隐藏状态,避免跨迭代梯度干扰)。

循环神经网络(RNN)核心

  • 序列数据处理:RNN 的核心优势是处理时序 / 序列数据(如轨迹、文本、时间序列),通过隐藏状态保存历史信息;
  • 输入输出形状batch_first=True时,输入形状为[batch_size, seq_len, input_size](此处 batch_size=1,seq_len=15,input_size=3);
  • 隐藏状态:RNN 的隐藏层输出(out)是每个时间步的结果,hidden_prev是最后一个时间步的隐藏状态(可用于后续预测的初始状态)。

数据处理与可视化

  • numpy 与 torch 张量转换torch.Tensor()将 numpy 数组转为张量,detach().numpy()将张量转回 numpy(预测后需分离梯度才能转);
  • 形状调整view()(等价于reshape)调整张量形状,适配模型输入要求;
  • 3D 可视化:用mpl_toolkits.mplot3d.Axes3D绘制 3D 散点图,展示三维轨迹;
  • 中文字体配置:解决 matplotlib 中文乱码和负号显示问题。

时间序列预测任务

  • 序列回归:预测连续值(三维坐标),区别于分类任务(预测离散标签);
  • 训练数据构造:用 “历史序列” 预测 “未来序列”(此处是输入后移 5 步的序列作为目标);
  • 随机采样训练:训练时随机选取起始点,避免模型过拟合固定序列。

day5

在报告厅疯狂玩手机,说是参观什么实验室

day6

写代码

day7

上午:深度神经网络

sudo bash reinstall.sh ubuntu 22.04 –password 357159

bash reinstall.sh ubuntu 22.04