Muyun99's wiki Muyun99's wiki
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Muyun99

努力成为一个善良的人
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 代码实践-目标检测

  • 代码实践-图像分割

  • 代码实践-自监督学习

  • 竞赛笔记-视觉竞赛

  • 框架解析-mmlab系列

  • 讲座记录-有意思的文章集合

  • 体会感悟-产品沉思录观后有感

  • 体会感悟-摄影

  • 系列笔记-

  • 系列笔记-乐理和五线谱

  • 系列笔记-爬虫实践

  • 系列笔记-Django学习笔记

  • 系列笔记-Git 使用笔记

  • 系列笔记-网站搭建

  • 系列笔记-图卷积网络

    • 图学习初印象
    • 图游走类模型
      • 节点分类是如何训练的
    • 课程笔记-MIT-NULL

    • 系列笔记-OpenCV-Python

    • 系列笔记-使用 Beancount 记账

    • 系列笔记-Python设计模式

    • 系列笔记-MLOps

    • 系列笔记-Apollo自动驾驶

    • 系列笔记-PaddlePaddle

    • 系列笔记-视频操作

    • Vue+Django前后端分离开发

    • 深度学习及机器学习理论知识学习笔记

    • PyTorch Tricks

    • 学习笔记
    • 系列笔记-图卷积网络
    Muyun99
    2021-07-05

    图游走类模型

    # 1、图游走类算法简介

    目标:Node embeddings。得到节点的低维表示,学习到节点与邻居的关系,更好地表示节点信息,再用于下游任务

    方法:多次游走,得到游走序列,类似于NLP领域的Word2vec模型:词的语义由其上下文决定

    # 2、Word2vec

    # 2.1 Word2vec:Skip Gram

    通过给定中心词预测上下文这个任务,得到Hidden layer的参数,通过Hidden Layer即可得到词的Embedding。

    image-20210628114348190

    # 2.2 Word2vec:Negative Sampling

    softmax需要对上下文的每个词都预测一个概率,计算量很大

    提出负采样(Negative Sampling),得到正样本和负样本,做一个分类任务,将 Softmax 变为 Multiple sigmoid

    # 3、Word2vec->图浅入领域

    # 3.1 图游走类模型-DeepWalk

    通过随机游走得到NLP领域中的“句子”,得到多个游走序列,本质就是可以回头的DFS

    15:50

    上次更新: 2021/08/17, 18:07:06
    图学习初印象
    节点分类是如何训练的

    ← 图学习初印象 节点分类是如何训练的→

    最近更新
    01
    Structured Knowledge Distillation for Semantic Segmentation
    06-03
    02
    README 美化
    05-20
    03
    常见 Tricks 代码片段
    05-12
    更多文章>
    Theme by Vdoing | Copyright © 2021-2023 Muyun99 | MIT License
    • 跟随系统
    • 浅色模式
    • 深色模式
    • 阅读模式
    ×