2020年9月26日星期六

美国或收紧对中芯国际出口,国会正考虑250亿补贴半导体

美国国会正在考虑一项250亿美元的预算来支持半导体生产。参议院在7月召集该法案投票时,几乎每个共和党人都投了赞同票。
几十年来,美国保守派政治家一直认为,政府最好让美国经济中的竞争来决定哪些企业蓬勃发展。在大多数情况下,政府不应干预。
如今谈到半导体,他们认为都需要介入并在财政上支持美国公司。这种大谈产业政策、不惜两败俱伤的贸易战的打法转变,原因是中国。
报道 | 机器之能
据日经亚洲评论报道, 美国国会正在考虑一项250亿美元的预算来支持半导体生产。 
今年6月,美国国会议员就曾提出250亿美元资金和税收抵免建议,以加强国内半导体生产,应对来自中国日益激烈的竞争。这份《美国晶圆代工业法案》(American Foundries Act of 2020,AFA)拟为美国各州提供补助款以协助扩展商业芯片生产设施。 
据报道,当参议院在7月召集该法案投票时,几乎每个共和党人都投了赞同票。分析人士说,共和党对250 亿美元的半导体法案(AFA)的支持表明,一些人正以谨慎的态度重新考虑其放任自流的正统观念。 
提倡该法案的得克萨斯州共和党参议员约翰·科宁说:「自由市场没有任何动机来保护国家安全。」 
「就像在半导体领域一样,我们必须承认一个事实,即中国不受类似意识形态的束缚。实际上,他们正在投入大量资金,因此他们可以成为这些领域的世界领导者。」 
过去几十年来,美国保守派政治家一直在倡导自由市场经济模型的力量,以确定哪些公司成功与失败。他们认为,政府最好让美国经济中的竞争来决定哪些企业蓬勃发展。在大多数情况下,政府不应干预。 
如今,保守派人士认为,谈到半导体,政府都需要介入并在财政上支持美国公司。 
华盛顿信息技术与创新基金会主席罗伯特·阿特金森(Robert Atkinson)表示,保守主义思想发生转变的原因是中国。 
与之「相辅相成」,就在昨天(9月26日),路透社和英国《金融时报》报导,根据获得的相关文件显示,美国政府已经对中国最大的芯片制造企业,中芯国际(SMIC)施加了出口限制。
路透社看到的一封美国商务部上周五发出的信函显示,中芯国际的某些设备供应商现在必须申请个人出口许可证( individual export licenses)。
国内微信群和微博也可以看到这份疑似路透社等媒体获取的文件,不过真实性还有待确认。中芯国际方面尚未对此回应。 
据三位知情人士透露,这一最新举措标志着美国政策与今年早些时候相比发生了转变。当时,美国商务部告诉申请向中芯国际出售「军用终端用户」许可证的企业,这些个人许可证(individual export licenses)是不必要的。 
现在,对于提供芯片制造设备的包括Lam Research,KLA Corp和Applied Materials在内的美国公司来说,可能需要获得许可才能将某些商品运送到SMIC。 
不过,目前尚不清楚哪个供应商收到了这封信。通常情况是,一旦商务部得出结论认为存在军事用途或转移用途的风险时,它将把这些信息发送给公司。
就这一最新动态,美国商务部工业与安全局面对质询并未作出直接回应,但称,「正持续监测和评估对美国国家安全和外交政策利益的任何潜在威胁。」
不过,作为实锤证据的美国商务部网站并未发布将中芯国际列入实体清单的公告。 
中芯国际表示,尚未收到任何有关这些限制的官方通知,并正在同美国商务部继续交涉。公司称,该公司仅仅为民用和商用终端用户提供服务,否认公司与中国军方有任何联系。 
事实上,9月初已有消息传出美商务部要将中芯国际加入实体清单。五角大楼也在9月早些时候首次报道,称正在与其他机构合作,以决定是否将中芯国际列入与中国军方联系的黑名单。 
目前情况看来是调查仍在继续,但最终是否会制裁中芯国际(「列入实体清单」),还需要等待美方进一步决定。 
「这完全取决于美国将如何实施(出口限制)。」来自政治风险咨询公司欧亚集团(Eurasia Group)的政策分析师特欧楼(Paul Triolo)表示, 
「在最坏的情况下,中芯国际将被完全切断供应,这将严重挫伤中国的芯片生产能力。如此下来, 其也将成为美中关系的转折点。」 
虽然仍然崇尚自由经济,但是,以川普为代表的保守主义从中国半导体产业上看到了产业政策的力量。 
产业政策是一个国家为鼓励经济中所有或某些部门的发展而做出的战略努力,包括补贴,税收优惠和政府优惠贷款。 
在支持者看来,美国一直依靠公私合作来增进国家利益。为美军生产武器和物资的私人公司就是一个例子。法律禁止这些公司使用政府共享的技术向外国出售某些武器。第二次世界大战后实施的政策使航空,钢铁等多个行业受益。 
但批评人士说,产业政策可能很危险,因为它们可能意味着政治领导人将出于政治目的做出经济决策。从长远来看,许多经济学家对政府官员在为特定技术和公司提供资金方面比投资者做得更好表示怀疑。 
「没有太多证据表明,政府在选择最佳前沿技术方面比私营公司具有更好的洞察力。」「就全球而言,产业政策的失败远胜于成功。」彼得森国际经济研究所(Peterson Institute for International Economics)的资深经济学家加里•哈夫鲍尔(Gary Hufbauer)表示。
参考链接:

https://ift.tt/3cxlJdw
https://ift.tt/3mWQmha
https://ift.tt/3355lO9

继续阅读


source http://posts.careerengine.us/p/5f700f0dce4ff53cd47fb4fc

7 Papers & Radios | 华为诺亚端到端车道线检测新方法;网络表示学习综述

机器之心 & ArXiv Weekly Radiostation
参与:杜伟、楚航、罗若天
本周的重要论文包括华为诺亚方舟实验室联合中山大学提出的新型车道线检测方法,以及发表在《计算机科学》杂志上的网络表示学习综述。
  1. High-Resolution Deep Image Matting
  2. Equilibrium Finding for Large Adversarial Imperfect-Information Games
  3. Table2Charts: Learning Shared Representations for Recommending Charts on Multi-dimensional Data
  4. CurveLane-NAS: Unifying Lane-Sensitive Architecture Search and Adaptive Point Blending
  5. Transfer Learning in Deep Reinforcement Learning: A Survey
  6. Survey of Network Representation Learning
  7. Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning
  8. ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)
论文 1:High-Resolution Deep Image Matting
  • 作者:Haichao Yu、Ning Xu、Zilong Huang 等
  • 论文链接:https://ift.tt/2EBxK58
摘要:抠图是图像和视频编辑与合成的关键技术。通常,深度学习方法会以整个输入图像和相关的 trimap 作为输入,使用卷积神经网络来推断前景蒙版(alpha matte)。这种方法在图像抠图领域实现了 SOTA 结果。但是,由于硬件限制,这些方法在实际的抠图应用中可能会失败,因为现实世界中需要抠图的输入图像大多具备很高的分辨率。
近日,来自伊利诺伊大学香槟分校(UIUC)、Adobe 研究院和俄勒冈大学的研究者提出了一种名为 HDMatt 的新方法,这是首个处理高分辨率输入图像的深度学习抠图方法。大量实验表明了该方法的有效性及其对于高分辨率输入图像的必要性。
HDMatt 方法的整体框架。
CPC 模块的工作流程。
这些方法(包括 IndexNet 和 ContextNet)的实际效果对比。
推荐:HDMatt 方法在 Adobe Image Matting 和 AlphaMatting 基准上均实现了新的 SOTA 性能,并且在更真实的高分辨率图像上获得了优秀的效果。
论文 2:Equilibrium Finding for Large Adversarial Imperfect-Information Games
  • 作者:Noam Brown
  • 论文链接:https://ift.tt/2HDY9k9
摘要:本文作者 Noam Brown 现为 Facebook 人工智能实验室的研究科学家。这篇博士论文详述了大型对抗性不完美信息博弈中均衡计算的一系列进展。这些新技术使得 AI 智能体首次有可能在无限注扑克游戏中击败顶级职业玩家,而这正是几十年来 AI 和博弈论领域一直存在的重大挑战性难题。
推荐:这位大神曾创建了冷扑大师和 Pluribus,如今要博士毕业了!
论文 3:Table2Charts: Learning Shared Representations for Recommending Charts on Multi-dimensional Data
  • 作者:Mengyu Zhou、Qingtao Li、Yuejiang Li 等
  • 论文链接:https://ift.tt/3mNaZfG
摘要:为多维数据集创建图表(表格)是销售、人力资源、投资、工程、科研、教育等许多领域的常见应用。为了执行常规分析和发现见解,人们花费大量时间构建不同类型的图表来展示不同的观点。这个过程通常需要数据分析方面的专业知识和广泛的知识储备来创建适当的图表。有没有可能通过智能的方式来创建图表呢?
近日,由微软研究院、北京大学和清华大学共同发表了一篇论文,文中提出的新型图表推荐框架 Table2Charts 可以高效地解决创建图表问题。在具有 196000 个表和 306000 个图表的大型电子表格语料库中,该研究展示了 Table2Charts 可以学习表字段的共享表示,这样不同图表类型的任务就可以相互增强。
DQN 的模型架构。
评价结果。混合和迁移范式(Transfer)通常比单独训练(Lone)和仅混合模式(Mixed)效果更好。Transfer 的评价标准 R@1 超过了其他两种方法。
每个点代表一个字段,颜色代表其字段类型。图中可以清楚地看到通过嵌入学得的字段类型信息。

推荐:面对数据表时,很多人通常不清楚应该创建什么样的图表分析。在这种场景中,你需要一个智能助手,可以帮你更好的生成图表分析。
论文 4:CurveLane-NAS: Unifying Lane-Sensitive Architecture Search and Adaptive Point Blending
  • 作者:Hang Xu、Shaoju Wang、Xinyue Cai 等
  • 论文链接:https://ift.tt/36eKdXR
摘要:在本文中,来自华为诺亚方舟实验室和中山大学的研究者提出了一种端到端的车道线架构搜索框架,CurveLane-NAS 该框架旨在解决现阶段车道线检测模型计算量大且不大适宜落地的难题。
不同方法下的车道检测实测比较。
模型架构图。
网络架构搜索流程图。
推荐:实验表明,该框架在 CULane 等公开数据集上实现了新的 SOTA。
论文 5:Transfer Learning in Deep Reinforcement Learning: A Survey
  • 作者:Zhuangdi Zhu、Kaixiang Lin、Jiayu Zhou
  • 论文链接:https://ift.tt/30c1ttc
摘要:在本文中,来自密歇根州立大学的研究者对强化学习(RL)问题设置中的迁移学习进行了综述

他们回顾了强化学习领域中迁移学习的焦点问题,提供了当前最优技术的系统分类。研究者分析了这些方法的目标、方法论和应用,还从强化学习的角度探讨了迁移学习与其他相关主题的关系。最后探讨了强化学习中迁移学习的潜在挑战和未来发展方向。
本研究涵盖的主题。
策略迁移方法的比较。
任务之间(inter-task)映射方法的比较。
推荐:一作 Zhuangdi Zhu 为密歇根州立大学计算机科学与工程系博士生。
论文 6:Survey of Network Representation Learning
  • 作者:Ding Yu、Wei Hao、Pan Zhi-Song、Liu Xin
  • 论文链接:https://ift.tt/338H8Xz
摘要:网络是一系列节点和边的集合,通常表示成一个包含节点和边的图。许多复杂系统都以网络的形式来表示,如社交网络、生物网络和信息网络。为了使网络数据的处理变得简单有效,针对网络中节点的表示学习成为了近年来的研究热点。网络表示学习旨在为网络中的每个节点学习一个低维稠密的表示向量,进而可将得到的向量表示运用到常见的网络分析任务中,如节点聚类、节点分类和链路预测等。
然而,绝大多数真实网络节点都有丰富的属性信息,如社交网络中的用户资料和引文网络中的文本内容。网络的属性信息对网络表示具有重要的作用,当网络高度稀疏时,网络的属性信息是网络表示重要的辅助信息,有助于更好地学习网络表示。传统的邻接矩阵仅仅表示了边的信息,而无法加入节点的属性信息。网络表示不仅要保存网络的结构信息,还要保存网络的属性信息。此外,大多数真实世界网络都是动态变化的,这种变化包括网络节点的增加和减少,以及网络边的新建和消失。同时,与网络结构变化相似,网络中的属性也会随着时间的推移发生变化。
随着机器学习技术的发展,针对网络表示学习问题的研究成果层出不穷,文中将针对近年来的网络表示学习方法进行系统性的介绍和总结
DRNE 的框架。
DANE 框架图解。
DynGem 动态图嵌入模型。
推荐:本文在《计算机科学》(Computer Science)杂志上发表。
论文 7:Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning
  • 作者:Xun Wang、Xintong Han、Weiling Huang 等
  • 论文链接:https://ift.tt/3kRZFgA
摘要:度量学习旨在学习一个嵌入空间,在这个空间中,相似样本的嵌入向量被拉近,不同样本的嵌入向量被推远。
在这篇论文中,来自码隆科技的研究者提出利用多相似度损失(Multi Similarity Loss)实现这一目标,并在公共基准数据集上得到了验证
多相似度损失的目标。
不同方法在 Cars-196 数据集上的结果比较。
嵌入大小(embedding size)对多相似度损失的影响。
推荐:该方法充分考虑了 batch 中整体距离分布的对比损失函数。
ArXiv Weekly Radiostation
机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:
本周 10 篇 NLP 精选论文是:
1. Generation-Augmented Retrieval for Open-domain Question Answering.  (from Jianfeng Gao, Jiawei Han)
2. Hierarchical GPT with Congruent Transformers for Multi-Sentence Language Models.  (from Soo-Young Lee)
3. Lifelong Learning Dialogue Systems: Chatbots that Self-Learn On the Job.  (from Bing Liu)
4. SSMBA: Self-Supervised Manifold Based Data Augmentation for Improving Out-of-Domain Robustness.  (from Kyunghyun Cho)
5. Unsupervised Parallel Corpus Mining on Web Data.  (from Yiming Yang)
6. Language Generation with Multi-Hop Reasoning on Commonsense Knowledge Graph.  (from Minlie Huang)
7. Generating Commonsense Explanation by Extracting Bridge Concepts from Reasoning Paths.  (from Minlie Huang)
8. Task-Oriented Dialogue as Dataflow Synthesis.  (from Jason Eisner, Dan Roth)
9. Structured Attention for Unsupervised Dialogue Structure Induction.  (from Song-Chun Zhu)
10. RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language Models.  (from Noah A. Smith)
本周 10 篇 CV 精选论文是:
1. Synthetic Convolutional Features for Improved Semantic Segmentation.  (from Bernt Schiele)
2. PennSyn2Real: Training Object Recognition Models without Human Labeling.  (from Camillo J. Taylor, Vijay Kumar)
3. Progressive Semantic-Aware Style Transformation for Blind Face Restoration.  (from Lei Zhang)
4. 6-DoF Grasp Planning using Fast 3D Reconstruction and Grasp Quality CNN.  (from Harry Zhang)
5. Searching for Low-Bit Weights in Quantized Neural Networks.  (from Dacheng Tao)
6. Reinforcement Learning for Weakly Supervised Temporal Grounding of Natural Language in Untrimmed Videos.  (from Jie Wu)
7. Scene Graph to Image Generation with Contextualized Object Layout Refinement.  (from Lior Wolf)
8. Smartphone Camera De-identification while Preserving Biometric Utility.  (from Arun Ross)
9. Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion.  (from Marc Pollefeys)
10. Dense Forecasting of Wildfire Smoke Particulate Matter Using Sparsity Invariant Convolutional Neural Networks.  (from Raymond Ng)
本周 10 篇 ML 精选论文是:
1. A Unifying Review of Deep and Shallow Anomaly Detection.  (from Thomas G. Dietterich, Klaus-Robert Müller)
2. Text Classification with Novelty Detection.  (from Bing Liu)
3. Uncertainty-aware Attention Graph Neural Network for Defending Adversarial Attacks.  (from Zheng Wang)
4. Tailoring: encoding inductive biases by optimizing unsupervised objectives at prediction time.  (from Tomas Lozano-Perez, Leslie Pack Kaelbling)
5. Federated Learning with Nesterov Accelerated Gradient Momentum Method.  (from Albert Y. Zomaya)
6. Improving Medical Annotation Quality to Decrease Labeling Burden Using Stratified Noisy Cross-Validation.  (from Jonathan Krause)
7. Online AUC Optimization for Sparse High-Dimensional Datasets.  (from Steven Skiena)
8. Neurocoder: Learning General-Purpose Computation Using Stored Neural Programs.  (from Svetha Venkatesh)
9. A Contraction Approach to Model-based Reinforcement Learning.  (from Peter J. Ramadge)
10. Revisiting Graph Convolutional Network on Semi-Supervised Node Classification from an Optimization Perspective.  (from Yuanqing Xia)
继续阅读


source http://posts.careerengine.us/p/5f701a119f30e771aa0eaaf8

20种小技巧,玩转Google Colab

选自amitness.com
作者:Amit Chaudhary
机器之心编译

编辑:陈萍
Google Colab 给广大的 AI 开发者提供了免费的 GPU,你可以在上面轻松地跑 Tensorflow、Pytorch 等深度学习框架。但关于 Colab 的使用技巧你又掌握了多少呢?这篇文章将介绍 20 种 Colab 使用技巧,帮你提高使用效率。
1. 便签本 Notebook
当我们在 colab 上尝试一些临时的东西时,我们会创建一堆杂乱、没有标题的 Notebook。
为了解决这个问题,你可以把以下链接加入书签:https://ift.tt/3j64nqA
这将打开一个特殊的 scratch notebook,并且你对该 notebook 所做的任何更改都不会保存到你的主目录中。
2. 单元计时
通常,我们手动计算一段代码的开始时间和结束时间之间的差值来衡量所花费的时间。Colab 提供了内置功能来执行此操作。在执行了一个单元(cell)之后,将鼠标悬停在单元运行图标上,你将获得代码执行时间的估计值。
3. 运行某个单元的一部分
你也可以运行某个单元的一部分,通过选择单元格并点击 Runtime 索引到 Run Selection 按钮或使用键盘快捷键 Ctrl + Shift + Enter。
4. Jupyter Notebook 快捷键
快捷键为编程带来了便利,但 Jupyter Notebook 中的快捷键不能直接在 Colab 中使用。不过,这里有一个关系映射表来解决这一问题。从中可以看出,你只需要在 Jupyter 的快捷键前面加上「Ctrl +M」就能在 Colab 中使用。此规则适用于大多数快捷键。
以下是一些特例,其快捷方式已完全更改或保持不变。
5. 跳转到类定义
与 IDE 相似,你可以通过按 Ctrl 键,然后单击一个类名来跳转到类定义。例如,在这里我们通过按 Ctrl 并单击 Dense 类名来查看 Keras 中 Dense 层的类定义。
6. 在 GitHub 中打开 Notebooks
Google Colab 团队提供了官方的 Chrome 扩展程序。使用 colab 时,可以直接在 GitHub 上打开 notebooks。
扩展程序下载地址:https://ift.tt/2FlZdrl
安装后,单击 GitHub notebook 的 colab 图标直接将其打开。
或者,你也可以手动打开 GitHub notebook,将 github.com 替换为 colab.research.google.com/github 即可。
https://github.com/fastai/course-v3/blob/master/nbs/dl1/00_notebook_tutorial.ipynb 
替换为
https://ift.tt/3695nqf
甚至更简单的方法是用 githubtocolab.com 替换 github.com。
https://github.com/fastai/course-v3/blob/master/nbs/dl1/00_notebook_tutorial.ipynb 
替换为
https://ift.tt/3i8xNmA
7. 从 Colab 运行 Flask 应用
使用 flask-ngrok 库(https://github.com/gstaff/flask-ngrok),你可以轻松地将运行在 colab 上的 Flask Web 应用程序转换为一个 demo 原型。
首先,你需要安装 flask 和 flask-ngrok。
!pip install flask-ngrok flask==0.12.2
然后,你只需要将「flask app」对象传递给「run_with_ngrok」函数,它将在启动服务器时公开 ngrok 端点。
from flask import Flaskfrom flask_ngrok import run_with_ngrokapp = Flask(__name__)run_with_ngrok(app)@app.route('/')def hello():return'Hello World!'if __name__ == '__main__': app.run()
8. 在 Tensorflow 版本之间切换
你可以很容易地在 Tensorflow 1 和 Tensorflow 2 之间切换。
要切换到 Tensorflow 1.15.2,请使用以下命令:
%tensorflow_version 1.x
要切换到 Tensorflow 2.2,请运行以下命令:
%tensorflow_version 2.x
你需要重新启动才能生效。出于性能考虑,Colab 建议使用预安装的 Tensorflow 版本,而不是用 pip 命令安装它。
9. Tensorboard 集成
Colab 还提供了一个命令,可以直接从 notebook 使用 Tensorboard。你只需要使用 --logdir 设置日志目录位置。
你可以从官方 notebook 学到它的使用方法:https://colab.research.google.com/github/tensorflow/tensorboard/blob/master/docs/tensorboard_in_notebooks.ipynb。
%load_ext tensorboard%tensorboard --logdir logs
10. 查看资源限制
Colab 为他们的免费版本和专业版本提供了以下规格。根据自己的情况,如果你需要更好的运行时间、GPU 和内存,你可以以每月 10 美元的价格切换到专业版本。
可以通过运行以下命令查看你已经被分配到的 GPU:
!nvidia-smi
有关 CPU 的信息,可以运行此命令:
!cat /proc/cpuinfo
此外,你还可以通过运行以下命令查看 RAM 容量
import psutilram_gb = psutil.virtual_memory().total / 1e9print(ram_gb)
11. 使用交互式 shell
Colab 中没有内置的交互终端。但是可以使用 bash 命令以交互方式试用 shell 命令。只需运行此命令,你将获得交互式输入。
!bash
现在,你可以在给定的输入框中运行任何 shell 命令。
要退出 shell,只需在输入框中键入 exit。
12. 当前的内存和存储使用情况
Colab 提供了 RAM 和磁盘使用情况的指示器。如果将鼠标悬停在指示器上,将弹出一个窗口,其中包含当前内存和存储使用情况和总容量。
13.「Open in Colab」 标志
你可以使用如下 markdown 代码在 README.md 或 jupyter notebooks 中添加「Open in Colab 」标志。
在这段代码中,我们正在加载 SVG 图片,然后将其链接到 colab notebook。
[![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/notebooks/basic_features_overview.ipynb)
14. Pandas 交互表
Colab 提供了一个 notebook 扩展,用于向 pandas dataframes 添加交互式排序和过滤功能。要使用它,请运行以下代码。
%load_extgoogle.colab.data_table
在加载下面的扩展之后,你可以看到常规的 pandas dataframe 和交互式 dataframe。
15. 设置 Conda 环境
如果将 miniconda 用作 python 环境管理器,你可以通过在 notebook 顶部运行以下命令,在 colab 上对其进行设置。
# Download Miniconda installation script!wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh# Make it executable!chmod +x Miniconda3-latest-Linux-x86_64.sh# Start installation in silent mode!bash ./Miniconda3-latest-Linux-x86_64.sh -b -f -p /usr/local# Make conda packages available in current environmentimport syssys.path.append('/usr/local/lib/python3.7/site-packages/')
执行完单元后,你可以照常使用 conda 安装软件包。
!conda install -y flask
16. 从命令行管理 Colab Notebooks
你可以使用名为 colab-cli 的库轻松创建 colab notebooks 并将其与本地 notebooks 同步:https://ift.tt/2HtqKs4
17. 运行后台任务
在某些情况下,我们需要先启动一些 Web 服务器或后台任务,然后才能执行常规程序。
要运行后台任务,请使用「nohup」命令,然后使用常规的 shell 命令,并在末尾添加「&」使其在后台运行。这样确保可以在之后的 notebook 中运行单元,而不会被后台任务终止。
!nohupbashping.sh &
18. 提醒训练完成
如果你要执行耗时较长的任务(例如训练模型),你可以将 Colab 设置为在完成后发送桌面通知。
要启用此功能,请转到「Tools ⮕ Settings ⮕ Site」,然后启用「Show desktop notifications」复选框。
这时将弹出一个窗口,以启用浏览器通知。只要接受它,即使你在另一个选项卡、窗口或应用程序上,colab 也会在任务完成时通知你。
19. 运行 javascript 代码
使用 %%javascript 命令运行 javascript 代码。
20. 在 Colab 上运行 VSCode
你可以在 Colab 上运行完整的 VSCode。请参考文档:https://amitness.com/vscode-on-colab/。
原文链接:https://ift.tt/2ZaPpae
如何根据任务需求搭配恰当类型的数据库?
在AWS推出的白皮书《进入专用数据库时代》中,介绍了8种数据库类型:关系、键值、文档、内存中、关系图、时间序列、分类账、领域宽列,并逐一分析了每种类型的优势、挑战与主要使用案例。
点击阅读原文识别二维码,申请免费获取白皮书。
© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com
继续阅读


source http://posts.careerengine.us/p/5f701a04f0770571146ba548

NeurIPS 2020放榜,接收率史上最低!AC:低接收率带不来有趣的论文

机器之心报道
作者:魔王
NeurIPS 2020 现史上最低论文接收率,你的论文中了吗?
昨日,NeurIPS 2020 会议发送论文录取通知。
根据杜克大学陈怡然教授的微博信息,NeurIPS 2020 共收到论文投稿 9454 篇,接收 1900 篇(其中 oral 论文 105 篇、spotlight 论文 280 篇),论文接收率为 20.1%。
相比前几年,今年 NeurIPS 会议不管从论文投稿数量还是接收率都创了记录:论文投稿数量创历史最高记录,相比去年增长了 38%,接收率却为史上最低。
2013-2020 年 NeurIPS 会议的投稿和接收论文数量。(图源:AMiner 科技)
这或许与 NeurIPS 2020 的投稿、评审制度变化有关。
NeurIPS 2020 政策变动
今年初,NeurIPS 2020 公布了新一届大会的变化:投稿截止日期提前;部分论文会被提前拒稿;绝大多数作者可能会参与审稿工作等。
具体而言:
  • 1. 今年摘要提交的截稿日期提前到 2020 年 5 月 5 日(后延期至 5 月 27 日),而论文提交的截止日期是 2020 年 5 月 12 日(后延期至 6 月 5 日),此次调整旨在让社区能够合理地处理完增加的投稿量,以及配合「提前拒稿」这一新政策。
  • 2. 提前拒稿:每篇论文都会经过两名不同有经验的研究者评估(领域主席 AC 和高级领域主席 SAC),决定论文是否需要接受进一步的评审。领域主席会有两个星期时间建议哪些论文会被提前拒绝,然后高级领域主席会有一个星期的时间来审核及批准这一决定。批准之后,这些论文作者将会得到通知。最终这一阶段刷掉了 11% 的论文
  • 3. 作者也是审稿人:此次改变提出,在需要时,论文作者或联合作者都需要同意审稿。这一改变有助于增加审稿人员的总量,并可以在提交论文的员中更加公平地分配审稿的工作量。
  • 4. 更广泛的影响:作者被要求在他们提交的文件中包含新的讨论部分,而讨论部分是关于他们的研究工作可能产生的影响,包括一些可能导致的正面的或者负面的社会影响。
  • 5. Spotlight 视频:社区要求所有作者在提交作品时上传一段视频,主要是记录该工作的 Spotlight 展示,该视频和 camera-ready 版论文一同提交。同时,社区也在推进远程演示以及远程参会,他们也能看到这样的视频展示。
NeurIPS 2020 在 7 月份透露,在「提前拒稿」阶段,约 11% 的论文被拒;组委会基于论文发表情况、评审经验和学科领域汇集了 7800 名合格的论文评审者,其中 2400 名是 NeurIPS 2020 会议的投稿作者。
尽管这些举措出于解决论文投稿数量大、研究的伦理问题和算法应用问题,以及远程会议的考虑,但新的变动仍引发了大量争议。
上个月,NeurIPS 2020 论文评审结果一出就引来了大量吐槽,矛头指向「提前拒稿」和「作者也是审稿人」。
领域主席发声:这样做或许能让 NeurIPS 会议更好
而这次,在众多吐槽声中,NeurIPS 2020 领域主席之一、纽约大学副教授 Julian Togelius 作为评审人员发表了自己的看法,他认为「会议的低接收率使得论文的新奇度、有趣度下降,不再向研究者施加向大型严格会议提交论文的压力或许会让 NeurIPS 等会议变得更好、规模也更小」。
我理解大家被 NeurIPS 会议拒稿后的沮丧。作为领域主席,我可以确定我给一些不错论文的推荐结果是「rejection」。它们的问题在于不够新奇有趣、不够令人兴奋。
当然,所有被拒的论文都存在某种问题。比如,错误的基准、控制变量研究不足、没有引用一些重要的工作等。但是,其实所有论文都有错误。想想那些影响你最深的机器学习论文,它们难道就是完美的吗?
如果你觉得一篇论文足够新奇有趣,你会忽略它的缺点(在合理范围内)。然而,在评审 NeurIPS 论文的时候,即使用了所有 sorting 函数,我仍然难以找到让我觉得兴奋的亮点。
一大问题是低接收率,它让评审过程变成了「找茬游戏」。会议 tenure 和 promotion 委员会的要求使得论文接收率较低。因此很多作者把论文写得很周全、符合要求,而这也让论文变得无聊和平庸了。
一个隐形的更大问题是 NeurIPS 会议规模太大了。它汇集了不同研究兴趣的人,但无法保证评审的兴趣与论文最大程度地匹配,因此这些评审会找理由拒稿。
按照我的经验,在高接收率的小型会议和 workshop 上,我会找到较多感兴趣的论文。部分原因在于,在拒稿威胁较小时,你才能写出更有趣的论文。
还有一个更大的原因是,我对小型会议和 workshop 的领域更感兴趣。我的意思是,为什么要把时间浪费在 95% 的议程你都不感兴趣的会议上呢?
我希望,机构不要向作者施加向大型、严格筛选的会议提交论文的压力。如果只有那些真的想向 NeurIPS 投稿的人投稿,那这个会议可能会变得更好,规模也会变小。
近年来,机器学习会议的论文投稿数量激增,论文评审变成了亟待解决的问题。各家会议纷纷出台新政策,然而不管是 NeurIPS 2020 的「提前拒稿」还是 EMNLP 2020 的 Findings,都引起了一些争议。
如何解决评审难题,道阻且长,但行则将至。这或许不只需要学术会议的努力。
参考链接:
如何根据任务需求搭配恰当类型的数据库?
在AWS推出的白皮书《进入专用数据库时代》中,介绍了8种数据库类型:关系、键值、文档、内存中、关系图、时间序列、分类账、领域宽列,并逐一分析了每种类型的优势、挑战与主要使用案例。
点击阅读原文识别二维码,申请免费获取白皮书。
© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com
继续阅读


source http://posts.careerengine.us/p/5f701a04f0770571146ba547

JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧!- InfoQ 每周精要848期

「每周精要」 NO. 848 2024/09/21 头条 HEADLINE JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧! 精选 SELECTED C++ 发布革命性提案 "借鉴"Rust...