Skip to content

Commit 52ff6ee

Browse files
authored
forum link (#805)
1 parent e3d093b commit 52ff6ee

File tree

15 files changed

+27
-27
lines changed

15 files changed

+27
-27
lines changed

chapter_computational-performance/async-computation.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -208,9 +208,9 @@ Python前端线程和C++后端线程之间的简化交互可以概括如下:
208208
:end_tab:
209209

210210
:begin_tab:`mxnet`
211-
[Discussions](https://discuss.d2l.ai/t/361)
211+
[Discussions](https://discuss.d2l.ai/t/2792)
212212
:end_tab:
213213

214214
:begin_tab:`pytorch`
215-
[Discussions](https://discuss.d2l.ai/t/2564)
215+
[Discussions](https://discuss.d2l.ai/t/2791)
216216
:end_tab:

chapter_computational-performance/auto-parallelism.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -181,9 +181,9 @@ with d2l.Benchmark('在GPU1上运行并复制到CPU'):
181181
1. 设计包含更复杂数据依赖关系的计算任务,并运行实验,以查看是否可以在提高性能的同时获得正确的结果。
182182

183183
:begin_tab:`mxnet`
184-
[Discussions](https://discuss.d2l.ai/t/362)
184+
[Discussions](https://discuss.d2l.ai/t/2795)
185185
:end_tab:
186186

187187
:begin_tab:`pytorch`
188-
[Discussions](https://discuss.d2l.ai/t/1681)
188+
[Discussions](https://discuss.d2l.ai/t/2794)
189189
:end_tab:

chapter_computational-performance/hardware.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -214,4 +214,4 @@ GPU内存的带宽要求甚至更高,因为它们的处理单元比CPU多得
214214
1. 看看Turing T4 GPU的性能数字。为什么从FP16到INT8和INT4的性能只翻倍?
215215
1. 从旧金山到阿姆斯特丹的往返旅行,一个网络包需要多长时间?提示:你可以假设距离为10000公里。
216216

217-
[Discussions](https://discuss.d2l.ai/t/363)
217+
[Discussions](https://discuss.d2l.ai/t/2798)

chapter_computational-performance/hybridize.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -380,13 +380,13 @@ net(x)
380380
:end_tab:
381381

382382
:begin_tab:`mxnet`
383-
[Discussions](https://discuss.d2l.ai/t/360)
383+
[Discussions](https://discuss.d2l.ai/t/2789)
384384
:end_tab:
385385

386386
:begin_tab:`pytorch`
387-
[Discussions](https://discuss.d2l.ai/t/2490)
387+
[Discussions](https://discuss.d2l.ai/t/2788)
388388
:end_tab:
389389

390390
:begin_tab:`tensorflow`
391-
[Discussions](https://discuss.d2l.ai/t/2492)
391+
[Discussions](https://discuss.d2l.ai/t/2787)
392392
:end_tab:

chapter_computational-performance/multiple-gpus-concise.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -264,9 +264,9 @@ train(net, num_gpus=2, batch_size=512, lr=0.2)
264264
:end_tab:
265265

266266
:begin_tab:`mxnet`
267-
[Discussions](https://discuss.d2l.ai/t/365)
267+
[Discussions](https://discuss.d2l.ai/t/2804)
268268
:end_tab:
269269

270270
:begin_tab:`pytorch`
271-
[Discussions](https://discuss.d2l.ai/t/1403)
271+
[Discussions](https://discuss.d2l.ai/t/2803)
272272
:end_tab:

chapter_computational-performance/multiple-gpus.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -357,9 +357,9 @@ train(num_gpus=2, batch_size=256, lr=0.2)
357357
1. 实现多GPU测试精度计算。
358358

359359
:begin_tab:`mxnet`
360-
[Discussions](https://discuss.d2l.ai/t/364)
360+
[Discussions](https://discuss.d2l.ai/t/2801)
361361
:end_tab:
362362

363363
:begin_tab:`pytorch`
364-
[Discussions](https://discuss.d2l.ai/t/1669)
364+
[Discussions](https://discuss.d2l.ai/t/2800)
365365
:end_tab:

chapter_computational-performance/parameterserver.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -98,4 +98,4 @@ $$\mathbf{g}_{i} = \sum_{k \in \text{workers}} \sum_{j \in \text{GPUs}} \mathbf{
9898
1. 是否可以允许异步通信(而计算仍在进行)?它如何影响性能?
9999
1. 如果我们在长时间运行的计算过程中丢失了一台服务器,该怎么办?我们如何设计一种容错机制来避免完全重新启动计算?
100100

101-
[Discussions](https://discuss.d2l.ai/t/366)
101+
[Discussions](https://discuss.d2l.ai/t/2807)

chapter_recurrent-modern/beam-search.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -71,4 +71,4 @@ $$ \frac{1}{L^\alpha} \log P(y_1, \ldots, y_{L}) = \frac{1}{L^\alpha} \sum_{t'=1
7171
1. 在 :numref:`sec_seq2seq` 的机器翻译问题中应用束搜索。束宽如何影响结果和预测速度?
7272
1. 在 :numref:`sec_rnn_scratch` 中,我们使用语言模型来生成用户提供前缀的文本。它使用了哪种搜索策略?你能改进吗?
7373

74-
[Discussions](https://discuss.d2l.ai/t/338)
74+
[Discussions](https://discuss.d2l.ai/t/2786)

chapter_recurrent-modern/bi-rnn.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -166,9 +166,9 @@ d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
166166
1. 一词多义在自然语言中很常见。例如,“bank”一词在“i went to the bank to deposit cash”和“i went to the bank to sit down”中有不同的含义。我们如何设计一个神经网络模型,使其在给定上下文序列和单词的情况下,返回该单词在上下文中的向量表示?哪种类型的神经结构更适合处理一词多义?
167167

168168
:begin_tab:`mxnet`
169-
[Discussions](https://discuss.d2l.ai/t/339)
169+
[Discussions](https://discuss.d2l.ai/t/2774)
170170
:end_tab:
171171

172172
:begin_tab:`pytorch`
173-
[Discussions](https://discuss.d2l.ai/t/1059)
173+
[Discussions](https://discuss.d2l.ai/t/2773)
174174
:end_tab:

chapter_recurrent-modern/deep-rnn.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -97,9 +97,9 @@ d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
9797
4. 在为文本建模时,是否要合并不同作者的来源?为什么这是个好主意?会出什么问题?
9898

9999
:begin_tab:`mxnet`
100-
[Discussions](https://discuss.d2l.ai/t/340)
100+
[Discussions](https://discuss.d2l.ai/t/2771)
101101
:end_tab:
102102

103103
:begin_tab:`pytorch`
104-
[Discussions](https://discuss.d2l.ai/t/1058)
104+
[Discussions](https://discuss.d2l.ai/t/2770)
105105
:end_tab:

0 commit comments

Comments
 (0)