不要钱,比github快?拿来吧你咱们前端小白一个,摸索的比较艰辛。。。其它优化的方式还没有搞,不过我觉得移植过来之后确实快了一些,比如之前总是加载不出来banner图
配置过程遇到的问题记录怎么删除项目哈哈,好瓜的问题,但确实让我狠找了一会。】【、
具体步骤:
点进待删除项目内页
点击左上方的setting
点击左侧选项列表最后的Advanced
滑动到最下面找到Delete
配置了自己的域名怎么访问不了我查看了[帮助文档](Custom Domains – Vercel Docs)
Read more
1 os概述
功能
用户接口
文件管理
存储器管理
处理机管理
设备管理
特征
并发:一段时间 多道程序 宏观同时
虚拟:一个物理-->多个逻辑 多个物理-->一个逻辑
共享:互斥共享 "同时"共享
异步(不确定性):[执行顺序] [执行时间]
CPU执行状态
操作系统执行在核心态下
原语执行在核心态下
用户程序执行在用户态下
2 处理机管理
进程与线程
Read more
写在^ 前面
并发控制并发可能导致的三种不一致状态
丢失修改
写-写
两个事务T2和T2读入同一数据并修改,T2的提交结果破坏了T1提交的结果,导致T1的修改被丢失
不可重复读
读-修改
读-删除
读-插入
读脏数据
修改-读
并发控制:正确调度并发操作,避免造成不一致性
封锁技术
写锁:其他事务不能读和写,也不能申请任何锁
读锁:其它事务可以读,可以再申请读锁
封锁协议:规定申请时间,持锁时长,释放时间
一级协议:修改前必须加写锁,事务[^ 结束]后释放
[^ 结束]: commit OR rollback
Read more
今天有空上来换个主题,顺便完善下一些效果
[^ hexo-Material]: 以下只记录一些问题, hexo的相关配置省略
Theme: [^ hexo-Material]来比力留言“将data-uid后的代码复制,然后打开主题配置文件_config.yml,找到livere_uid,将代码复制到其后即可:”
livere_uid: "你的代码"
问 这里代码外有””吗?
傻了,人家说的是data-uid之后的代码
Read more
1 计算机系统简介
硬件:主机、外设等
软件:程序
2 计算机基本组成graph LR
A[运算器] -->B(CPU)
C[控制器] -->B
B -->E
D[存储器] -->E(主机)
F[输入设备] -->H(I/O设备)
G[输出设备] -->H
style A fill:#ccf
style C fill:#ccf
style D fill:#ccf
style F fill:#ccf
style G fill:#ccf
一条指令[操作码|地址码]的完成过程:
取指令:从MAR–>IR (PC 指向下一条指令的地址)
指令译码:ID获取指令类别和操作数
指令执行:
访存取数:根据指令地址码访问主存取到对应操作数
结果写回:CPU内部寄存器 || 主存..
3 计算机硬件主要技术指标
机器字长:CPU一次能处理的数据位数(取决于CPU寄存器位数)
运算速度
CPI 执行一条指令所需时钟周期数MIPS 每秒执行百万条指令FLOPS 每秒浮点运算次数
主存容量(内存)
64K × 32位 :MAR 16个 存储字长32位1KB = 2 13 b
辅存容量(外存) :1GB = 2 30 B 、1B = 8b(bit)
Read more
—————————————–知识图谱—————–| | ||———————————————————————————————————————————-|———————————————————————————————————————————-|—————————————嵌入技术得到的每个节点的表达(向量)包含关系信息和实体本身
训练过程:一定要听解析
trans系列模型transE:同一个头节点和关系对应的尾结点会趋近相似transH:先将h和t投影到r对应的超平面上,再做|h+r-t|
transR: 将r直接转到另一个向量空间语义匹配模型
Read more
GNN–>GCN–>GAT从GNN开始:
(a,b,c是系数跟节点ABC无关~)
α的取值就是个创新点,比如注意力,自定
聚合的用处:循环———b站谢谢你🤞感觉就是要有一个大的概念认识再去看原理公式啥的才清晰接下来是GCN:在 【聚合】 的时候进行变化聚合实质就是对邻居加权求和:关键是这个权怎么规定(计算)直接先上公式:
实质是在平均法的基础上考虑”度“的因素 类似右边这种情况:对A来说B是唯一邻居因此聚合时会加上B 的所有信息,但B的邻居不只A一个,照理讲它对A的重要程度不应该这么大,在GCN中利用拉普拉斯矩阵就解决了这种问题
ok,move on—》GAT:在GCN中可以看到,聚合时应该考虑节点之间的影响度这个因素,对应的处理方式就是考虑节点的度(比较简单的措施,并且结构改变后模型用不了)而GAT的思想就是希望模型自动去学习这个影响度!W是一个可以训练的参数(矩阵):比如A原来是个10维向量,通过W转成小维数(be like transform~)||:就是拼接–>(1,1)||(2,2)=(1,1,2,2)a:也是可以训练的一个参数有了大概理解后再看论文中的公式:
Read more
我们有什么:无标签的数据集要得到什么:be like通过输入一个噪声,模拟得到一个人脸图像,这个图像可以非常逼真以至于以假乱真
generator:可以看成是一个神经网络模型,输入是一组随机数Z,输出是一个图像,即图中的假样本集discriminator:输入就是一副图像,输出就是一个概率值,用于判断真假使用(概率值大于0.5那就是真,小于0.5那就是假)对抗网络的is:因为discriminator想要尽可能判别出样本来自真还是假而generator需要使制造的假样本尽可能真 so be like rivalry
单独交替迭代训练: 这俩其实是独立的两模型 因此其实是单独训练的对判别网络的训练:假设已经通过生成网络生成了一组假样本,此时把真样本标签全设1假样本全设0,送进去就好(简单的有监督二分类8了)对生成网络的训练:仔细想想,如果单单一个生成网络貌似没有误差来源,因此我们需要连接上刚刚判别网络的结果à现在把假样本标签设为1(是不是有迷惑的感jio了)然后把样本送进[生成网络||判别网络]前向传递到判别网络后会计算出误差(比如刚开始样本还比较假误差就应该比较大),然后反向传递误差,这里注意:判别网络的参数都保持不变!只更新生成网络的参数
现在生成网络更新参数后,得到的假样本会更”真“一点,然后再次迭代上面过程,直到判别器出的结果是0.5(无法判断)
Read more
——————————–对比GCN——————————–————————————–注意力机制的数学原理——————————————————注意力be like:用X=[x1, x2, …, xN]表示N个输入信息,为了节省计算资源,不需要让神经网络处理这N个输入信息,而只需要从X中选择一些与任务相关的信息输进行计算注意力值计算步骤:
在所有输入信息上计算注意力分布
![image2](../../resources/image2-8.png)
X:输入信息向量
z=i:选择了第i个输入信息
q:查找并选择X中的某些信息
αi:在给定查询q时,输入信息向量X中第i个信息与查询q的相关程度
αi构成的概率向量:注意力分布
s(xi,q):注意力打分函数
其中W、U和v是可学习的网络参数
d是输入信息的维度
![image3](../../resources/image3-7.png)
根据注意力分布来计算输入信息的加权平均
公式
计算过程
—————————————-Encoder-Decoder框架————————————————————–GAT核心公式——————————–| | ||———————————————————————————————————————————————-|———————————————————————————————————————————————————————–|
——————————–基于相似性的注意力算法—————————–既然我们有节点v的特征表示x,假设和节点自身相像的邻居节点更加重要,那么可以通过直接计算x之间相似性的方法得到节点的相对重要性。————————————————(参考 TheKumparampil et al. 2018 )—————————————————GAT中的运用——————————————Graph Attention layer:输入àN个节点的每个节点的F个feature输出àN个节点的每个节点的F’个feature(包含了graph的结构信息)
Read more