视频标题建议: AI这么强,还要学东西吗?网友热议:学习到底有没有意义了?
视频时长建议: 6-9分钟(适合B站/抖音/小红书等平台,节奏感强,配科技背景音乐+动态文字+AI相关插图/动画)
整体风格建议:
开头用震撼AI生成画面(如AI机器人 vs 人类大脑),快速切入话题。
主体用不同颜色卡片区分“悲观派”“乐观派”“中立工具派”。
每段观点配匿名回复关键句截图(模糊用户名),或文字飞入。
插入相关视觉:AI幻觉出错动画、人类指挥AI场景、好奇心火花等。
结尾呼吁观众评论自己的看法,增加互动。
脚本正文:
[开场:0:00-0:40] (画面:快速闪现AI生成代码、画画、解答难题的画面,然后切到困惑人类表情)
旁白(语气带点疑问与思考): “大家好!现在AI发展这么快,随便问个问题,它都能秒答。有人就感慨:学什么都没意义了,AI全都会了啊! 最近有个热门讨论帖,91条回复炸锅了。有人觉得人类要被甩开,有人说学习反而更重要了。今天我们来盘点这些真实声音,看看AI时代,学习到底还有没有意义。”
[部分1:悲观声音——AI太强,学习像白费劲 0:40-2:30] (画面:暗色调,A ...
深度学习
未读不过,在动手修改 ultralytics 源码之前,我们需要先认清一个现实问题: 如果 Global 图像是局部区域放大 3~5 倍再下采样回来的,那么原本在 Local 图中清晰可见的目标,在 Global 图里可能会变成只有几个像素的“噪点”。如果你依然用精确的边界框(BBox)作为 Global 标签去强制模型检测,效果往往很差,甚至会带偏网络。
因此,针对你要在华北地区进行大规模旱地提取这类的任务,我建议将 Global 标签设计为“场景级分类标签(Scene Classification)”或“粗粒度掩码(Coarse Mask)”,而不是 BBox。
最简单的“Global 影响 Local”的模型逻辑是:全局输出一个概率权重,直接惩罚或增强局部的置信度。 比如,Global 分支判断这张大图所在的 5km 范围内根本没有农田(概率 0.01),那么 Local 分支里任何疑似农田的检测框置信度都会被乘以 0.01,直接过滤掉虚警。
在 ultralytics 这种高度封装的框架里,硬改数据流(让 forward 接收两个输入)会牵扯到 DataLoader、Trainer ...
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2026/3/9 14:53
# @File : python v2ex_download_comments.py
'''
从指定某个v2ex下载所有的评论
'''
# v2ex_download_text.py
# 功能:从指定 V2EX 帖子下载所有评论(包括楼主),保存为纯文本文件
# 依赖:requests, beautifulsoup4
# 安装:pip install requests beautifulsoup4
# 使用方法:python v2ex_download_text.py
# 注意:V2EX 有反爬机制,建议不要高频请求;本脚本仅用于个人学习/备份
import requests
from bs4 import BeautifulSoup
import re
import time
from urllib.parse import urljoin
import re
def extract_users_from_text(text) ...
大家好,我是你们的老朋友——遥感码农小白。
之前有人问我:“RPC 文件是什么鬼?RPB 又是啥?为什么有的卫星给 .rpc,有的是 .rpb?读取的时候总是报错怎么办?”
今天这篇就来手把手帮你搞懂这件事,保证零基础也能看懂、能上手!
一、先搞清楚:RPC 是什么?为什么遥感离不开它?简单说,RPC = Rational Polynomial Coefficients(有理多项式系数)。
卫星拍下来的影像,原始的样子是“歪的、斜的、扭曲的”,因为卫星在飞、地球是圆的、镜头有畸变……直接拿来用会叠不对地图。
RPC 就是卫星厂家提前帮你算好的一组“魔法公式”,告诉你:
“图像上的这个像素(行、列),对应地球上的哪个经纬度(+高度)?”
用这组系数,你就能做:
几何校正(让影像“躺平”)
正射纠正(去掉地形起伏影响)
影像配准、镶嵌、入库……
一句话:没有 RPC,你就没法把卫星照片精准叠到 Google 地图上。
我遇到不提供RPC文件的卫星影像有:
风云4号静止卫星
日本葵花8静止卫星
sentinel3海洋卫星
它们的特点是nc数据,它们把定位信息直接写在nc文件内部,要通过插 ...
深度学习
未读1、详细介绍技术背景,并描述已有的与本发明最相近似的实现方案
1.1 技术背景1.2 最相近似的现有实现方案
2、现有技术的缺点是什么?针对这些缺点,说明本发明的目的。(客观评价,现有技术的缺点是针对于本发明的优点来说的,本发明不能解决的缺点不必写;基于本发明能解决的问题写出发明的目的)
2.1 现有技术的缺点
2.2 本发明的目的
3、本发明技术方案的详细阐述,应该结合示意图进行说明(越详细越好,至少要提供2页;发明中每一功能的实现都要有相应的技术实现方案;所有英文缩写都应有中文注释;所有附图都应该有详细的文字描述,以别人不看附图即可明白技术方案为准;同时附图中的关键词或方框图中的注释都尽量用中文;方法专利都应该提供流程图,并提供相关的系统装置图;工艺专利都应提供整个工艺的流程图,附图中各相关部件都要提供名称)。
附图说明
下面结合附图和实施例对本专利进一步说明。
4、本发明的关键点和欲保护点是什么?(发明内容部分提供的是为完成一定功能的完整技术方案,在本部分是提炼出技术方案的关键创新点,列出1、2、3…,以提醒代理人注意,便于代理人撰写权利要求书)
5、与第1部分最好的现有技术相比 ...
深度学习
未读当水货13年了。。。 大学四年没谈过恋爱,全献给了游戏。谈恋爱哪里有开黑爽?至于学习,低分飘过不挂科就是胜利。当时的信念是,好不容易考上大学,以后注定是去工地的,不如趁着年轻多打一会游戏!
直到大三去野外实习,扛着全站仪在烈日下走了一周,看着磨破的脚底板和黑了三度的脸,我悟了:做测绘太累了,要不考研?
吭哧吭哧的翻开高数书从头开始学习微积分,英语单词从abandon开始背起来。
我那时候水到什么程度?直到开考前三个月,我才知道考研得先报学校再考试。仓促之下,为了求稳直接报了本校。没成想,这种“盲人骑瞎马”的搞法居然让我上岸了,继续在母校混了三年硕士。
工作第一年家里攒了为数不多的口罩,全给我塞进了大包。我就这样背着沉重的行囊,像个孤勇者一样杀到了广州。 入职第一天,组长丢给我一堆高分二号(GF-2)的原始数据。
“去,把这些图做了。” 我盯着屏幕发呆:什么是ENVI处理高分影像? 在学校我只会在 Google Earth Engine (GEE) 里写两行 JavaScript 调现成的层,那种“点一下运行就出图”的快感让我产生了“我遥感很强”的错觉。
面对本地处理软件,我连大气校正 ...
啥是波段顺序?想象一下,一张遥感图像不是普通的照片,它有好多“层”——这些层叫“波段”(bands)。每个波段捕捉不同颜色的光,比如:
R(Red):红色波段,帮你看植物的健康(因为健康的植物反射红光少)。
G(Green):绿色波段,看植被覆盖。
B(Blue):蓝色波段,帮分析水体或大气。
在电脑里,这些波段像三明治一样叠起来。最常见的有两种顺序:
RGB:红-绿-蓝(这是我们眼睛看照片的自然顺序,很多图片软件默认这个)。
BGR:蓝-绿-红(这是OpenCV这个流行库的习惯,因为历史原因)。
深度学习模型(比如用PyTorch或TensorFlow建的神经网络)在“学习”的时候,会记住这些层的顺序。比如,它会想:“第一层是蓝的特征,第二层是绿的……” 如果你训练时用BGR,但预测(就是用模型猜新图片)时喂它RGB,模型就懵了!它会把蓝当成红,绿当成蓝,结果当然乱七八糟,就像你把鞋子左右穿反了,走路肯定歪歪扭扭。
为啥训练和预测要一致?模型的“记忆”:模型不是随便猜的,它在训练时学的是特定顺序的图案。如果你换顺序,就等于给它看颠倒的地图——它能认出来才怪!
遥感数据的特殊性 ...
大家好,我是小白。很久没写公众号了。
今天聊一聊什么是遥感影像样本库及制作流程。
开门见山地说,深度学习需要的样本,我的理解是:指导计算机去识别、理解输入内容。。
主语是计算机,动词是 识别, 对象是 输入内容。
样本一般形式是 两两为一对 出现。
一、样本的基本组成
Image(原始影像)
就是我们的输入素材,遥感里一般是卫星 / 航拍 / 无人机拍摄的影像,格式多为 TIFF/GeoTIFF(带地理坐标),也可转 JPG/PNG。 我一般是滑窗分割为小瓦片转为png,大小一般是512x512。
Label(标注 / 标准答案)
是给计算机看的「正确答案」,文件格式主要分两类:
图片格式(掩码图)
文本格式(坐标 + 类别)
在语义分割,样本一般是图片+图片的形式。
在目标识别,样本一般是图片+文本的形式。
在语义分割也分为二分类和多分类。
二、不同任务的样本配对(遥感最常用)语义分割(像素级分类,如土地利用分类、水体提取)
形式:影像图 + 标注图(图片格式)
每个像素都对应一个类别,逐像素匹配。
目标检测(找位置 + 类别,如找建筑、车辆、桥梁、光伏板)
形式:影像图 ...
大家好,我是小白。今天分享一个轻量化脚本,只需配置路径和少量参数,就能基于 TIFF 影像 + SHP 矢量自动生成 YOLO-Seg 格式的分割样本,还能自动划分训练 / 验证集、生成标准 data.yaml 配置文件,开箱即用!
当然,前提是,要提前绘制好矢量。绘制矢量这个步骤很麻烦,费时费力,不在这里细说。
核心思路整个流程无需复杂操作,核心就 4 步:
矢量栅格化:将 SHP 矢量转为与 TIFF 影像尺寸、投影完全匹配的二值掩膜(有目标的区域为 255,背景为 0);
滑窗分块:对大尺寸 TIFF 和掩膜按指定尺寸滑窗分块,支持重叠率设置;
标签生成:从掩膜中提取目标轮廓,归一化后生成 YOLO-Seg 格式标签(自动过滤小面积无效轮廓);
数据集整理:随机划分训练 / 验证集,生成 YOLO 训练所需的 data.yaml 文件。
快速使用1. 配置参数只需修改代码末尾的 4 个核心路径 / 参数:
TIFF_PATH = r"你的大尺寸TIFF影像路径"
SHP_PATH = r"对应的SHP矢量文件路径"
OUTPUT_DIR = r"样本输出目录"
temp_ma ...







