diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.de.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.de.png
new file mode 100644
index 00000000..408b7ce6
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.de.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.es.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.es.png
new file mode 100644
index 00000000..4003a162
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.es.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.fa.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.fa.png
new file mode 100644
index 00000000..bd8135c7
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.fa.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.hi.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.hi.png
new file mode 100644
index 00000000..6025549d
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.hi.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.pl.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.pl.png
new file mode 100644
index 00000000..dbeed0c1
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.pl.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.pt.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.pt.png
new file mode 100644
index 00000000..4aa635fc
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.pt.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.de.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.de.png
new file mode 100644
index 00000000..97dd3a62
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.de.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.es.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.es.png
new file mode 100644
index 00000000..df0f48c8
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.es.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.fa.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.fa.png
new file mode 100644
index 00000000..c27a38cf
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.fa.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.hi.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.hi.png
new file mode 100644
index 00000000..49fcca6a
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.hi.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.pl.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.pl.png
new file mode 100644
index 00000000..423b9eb0
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.pl.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.pt.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.pt.png
new file mode 100644
index 00000000..c5f68948
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.pt.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.de.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.de.png
new file mode 100644
index 00000000..96fa4ba5
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.de.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.es.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.es.png
new file mode 100644
index 00000000..8ba615ff
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.es.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.fa.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.fa.png
new file mode 100644
index 00000000..068c7abc
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.fa.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.hi.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.hi.png
new file mode 100644
index 00000000..efa430c2
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.hi.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.pl.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.pl.png
new file mode 100644
index 00000000..dd6cf7f4
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.pl.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.pt.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.pt.png
new file mode 100644
index 00000000..cd5f91a3
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.pt.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.de.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.de.png
new file mode 100644
index 00000000..32758768
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.de.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.es.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.es.png
new file mode 100644
index 00000000..ee595a69
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.es.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.fa.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.fa.png
new file mode 100644
index 00000000..53e663de
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.fa.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.hi.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.hi.png
new file mode 100644
index 00000000..9eaa9342
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.hi.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.pl.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.pl.png
new file mode 100644
index 00000000..d2413ff0
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.pl.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.pt.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.pt.png
new file mode 100644
index 00000000..5e223b72
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.pt.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.de.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.de.png
new file mode 100644
index 00000000..e0846d8c
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.de.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.es.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.es.png
new file mode 100644
index 00000000..8d13a266
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.es.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.fa.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.fa.png
new file mode 100644
index 00000000..f2626a51
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.fa.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.hi.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.hi.png
new file mode 100644
index 00000000..effbff42
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.hi.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.pl.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.pl.png
new file mode 100644
index 00000000..57b90e29
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.pl.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.pt.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.pt.png
new file mode 100644
index 00000000..bfb53864
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.pt.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.de.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.de.png
new file mode 100644
index 00000000..be58febb
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.de.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.es.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.es.png
new file mode 100644
index 00000000..330922bd
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.es.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.fa.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.fa.png
new file mode 100644
index 00000000..e6df5e99
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.fa.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.hi.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.hi.png
new file mode 100644
index 00000000..ccc20380
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.hi.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.pl.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.pl.png
new file mode 100644
index 00000000..614d6ebb
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.pl.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.pt.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.pt.png
new file mode 100644
index 00000000..bbc8b4e5
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.pt.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.de.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.de.png
new file mode 100644
index 00000000..1a976c24
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.de.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.es.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.es.png
new file mode 100644
index 00000000..4e3d6743
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.es.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.fa.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.fa.png
new file mode 100644
index 00000000..bd2b1c04
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.fa.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.hi.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.hi.png
new file mode 100644
index 00000000..d77c013b
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.hi.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.pl.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.pl.png
new file mode 100644
index 00000000..4814e646
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.pl.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.pt.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.pt.png
new file mode 100644
index 00000000..5dd53b42
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.pt.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.de.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.de.png
new file mode 100644
index 00000000..8e71ef03
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.de.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.es.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.es.png
new file mode 100644
index 00000000..f4f83b26
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.es.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.fa.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.fa.png
new file mode 100644
index 00000000..47505910
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.fa.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.hi.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.hi.png
new file mode 100644
index 00000000..a832bcd3
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.hi.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.pl.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.pl.png
new file mode 100644
index 00000000..2d77c874
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.pl.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.pt.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.pt.png
new file mode 100644
index 00000000..d8aa061b
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.pt.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.de.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.de.png
new file mode 100644
index 00000000..61019d78
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.de.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.es.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.es.png
new file mode 100644
index 00000000..fbc552e1
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.es.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.fa.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.fa.png
new file mode 100644
index 00000000..1f5aa8bb
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.fa.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.hi.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.hi.png
new file mode 100644
index 00000000..8120b99b
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.hi.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.pl.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.pl.png
new file mode 100644
index 00000000..c20ca2a3
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.pl.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.pt.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.pt.png
new file mode 100644
index 00000000..08000304
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.pt.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.de.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.de.png
new file mode 100644
index 00000000..c6faccfa
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.de.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.es.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.es.png
new file mode 100644
index 00000000..83507af7
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.es.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.fa.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.fa.png
new file mode 100644
index 00000000..368bcf68
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.fa.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.hi.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.hi.png
new file mode 100644
index 00000000..f05104c6
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.hi.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.pl.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.pl.png
new file mode 100644
index 00000000..aae58027
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.pl.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.pt.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.pt.png
new file mode 100644
index 00000000..9c1397ae
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.pt.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.de.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.de.png
new file mode 100644
index 00000000..54b01b16
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.de.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.es.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.es.png
new file mode 100644
index 00000000..63338083
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.es.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.fa.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.fa.png
new file mode 100644
index 00000000..d2655f2e
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.fa.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.hi.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.hi.png
new file mode 100644
index 00000000..731cfcf5
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.hi.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.pl.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.pl.png
new file mode 100644
index 00000000..a200c52f
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.pl.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.pt.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.pt.png
new file mode 100644
index 00000000..d74e2017
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.pt.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.de.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.de.png
new file mode 100644
index 00000000..7f7357fd
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.de.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.es.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.es.png
new file mode 100644
index 00000000..9cddb6fe
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.es.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.fa.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.fa.png
new file mode 100644
index 00000000..4a2a2a1a
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.fa.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.hi.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.hi.png
new file mode 100644
index 00000000..7f4a97d6
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.hi.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.pl.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.pl.png
new file mode 100644
index 00000000..e809c602
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.pl.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.pt.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.pt.png
new file mode 100644
index 00000000..318e5e6e
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.pt.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.de.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.de.png
new file mode 100644
index 00000000..afe7915e
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.de.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.es.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.es.png
new file mode 100644
index 00000000..c81557fe
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.es.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.fa.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.fa.png
new file mode 100644
index 00000000..60b3a254
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.fa.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.hi.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.hi.png
new file mode 100644
index 00000000..6df2fcc2
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.hi.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.pl.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.pl.png
new file mode 100644
index 00000000..681649d8
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.pl.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.pt.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.pt.png
new file mode 100644
index 00000000..31bb6adb
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.pt.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.de.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.de.png
new file mode 100644
index 00000000..0b140222
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.de.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.es.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.es.png
new file mode 100644
index 00000000..28abb9c5
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.es.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.fa.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.fa.png
new file mode 100644
index 00000000..cd47eea9
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.fa.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.hi.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.hi.png
new file mode 100644
index 00000000..2dd7c785
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.hi.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.pl.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.pl.png
new file mode 100644
index 00000000..2cc4fed8
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.pl.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.pt.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.pt.png
new file mode 100644
index 00000000..9004a003
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.pt.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.de.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.de.png
new file mode 100644
index 00000000..3041914d
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.de.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.es.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.es.png
new file mode 100644
index 00000000..642f7510
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.es.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.fa.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.fa.png
new file mode 100644
index 00000000..d42f3fe4
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.fa.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.hi.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.hi.png
new file mode 100644
index 00000000..bea891d8
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.hi.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.pl.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.pl.png
new file mode 100644
index 00000000..7489f254
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.pl.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.pt.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.pt.png
new file mode 100644
index 00000000..68b05c53
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.pt.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.de.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.de.png
new file mode 100644
index 00000000..978fa353
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.de.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.es.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.es.png
new file mode 100644
index 00000000..42715de9
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.es.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.fa.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.fa.png
new file mode 100644
index 00000000..70b63d59
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.fa.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.hi.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.hi.png
new file mode 100644
index 00000000..4f950a5d
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.hi.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.pl.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.pl.png
new file mode 100644
index 00000000..1250e520
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.pl.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.pt.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.pt.png
new file mode 100644
index 00000000..3763a51c
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.pt.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.de.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.de.png
new file mode 100644
index 00000000..3590a370
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.de.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.es.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.es.png
new file mode 100644
index 00000000..0a6aa4bc
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.es.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.fa.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.fa.png
new file mode 100644
index 00000000..1d5fb570
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.fa.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.hi.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.hi.png
new file mode 100644
index 00000000..d2947c54
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.hi.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.pl.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.pl.png
new file mode 100644
index 00000000..bb4d2630
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.pl.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.pt.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.pt.png
new file mode 100644
index 00000000..31cdf4ec
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.pt.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.de.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.de.png
new file mode 100644
index 00000000..1d41dd3b
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.de.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.es.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.es.png
new file mode 100644
index 00000000..5ab17286
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.es.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.fa.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.fa.png
new file mode 100644
index 00000000..468d46f7
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.fa.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.hi.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.hi.png
new file mode 100644
index 00000000..472f595f
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.hi.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.pl.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.pl.png
new file mode 100644
index 00000000..24743ec0
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.pl.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.pt.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.pt.png
new file mode 100644
index 00000000..d1a28019
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.pt.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.de.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.de.png
new file mode 100644
index 00000000..97bd2f5c
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.de.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.es.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.es.png
new file mode 100644
index 00000000..ffeb223d
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.es.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.fa.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.fa.png
new file mode 100644
index 00000000..f38639f8
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.fa.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.hi.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.hi.png
new file mode 100644
index 00000000..c0ac54a9
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.hi.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.pl.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.pl.png
new file mode 100644
index 00000000..0000f796
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.pl.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.pt.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.pt.png
new file mode 100644
index 00000000..76d98edf
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.pt.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.de.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.de.png
new file mode 100644
index 00000000..89e6e160
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.de.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.es.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.es.png
new file mode 100644
index 00000000..5bd059d6
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.es.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.fa.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.fa.png
new file mode 100644
index 00000000..fcd064da
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.fa.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.hi.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.hi.png
new file mode 100644
index 00000000..394b0d2b
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.hi.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.pl.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.pl.png
new file mode 100644
index 00000000..2e92116b
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.pl.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.pt.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.pt.png
new file mode 100644
index 00000000..890b4fea
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.pt.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.de.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.de.png
new file mode 100644
index 00000000..ee805c1e
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.de.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.es.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.es.png
new file mode 100644
index 00000000..008ecf97
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.es.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.fa.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.fa.png
new file mode 100644
index 00000000..c5ef2b96
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.fa.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.hi.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.hi.png
new file mode 100644
index 00000000..c47a9614
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.hi.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.pl.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.pl.png
new file mode 100644
index 00000000..d7055314
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.pl.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.pt.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.pt.png
new file mode 100644
index 00000000..0e68efaa
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.pt.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.de.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.de.png
new file mode 100644
index 00000000..2a14fc62
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.de.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.es.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.es.png
new file mode 100644
index 00000000..869f72b6
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.es.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.fa.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.fa.png
new file mode 100644
index 00000000..0995b570
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.fa.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.hi.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.hi.png
new file mode 100644
index 00000000..313cd17f
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.hi.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.pl.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.pl.png
new file mode 100644
index 00000000..27e382ad
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.pl.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.pt.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.pt.png
new file mode 100644
index 00000000..d68fcd04
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.pt.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.de.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.de.png
new file mode 100644
index 00000000..33dc89e6
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.de.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.es.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.es.png
new file mode 100644
index 00000000..f7ef89b0
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.es.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.fa.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.fa.png
new file mode 100644
index 00000000..f100e784
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.fa.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.hi.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.hi.png
new file mode 100644
index 00000000..c6b41c61
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.hi.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.pl.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.pl.png
new file mode 100644
index 00000000..2ca195d7
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.pl.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.pt.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.pt.png
new file mode 100644
index 00000000..f8c2c290
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.pt.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.de.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.de.png
new file mode 100644
index 00000000..0a3a3296
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.de.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.es.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.es.png
new file mode 100644
index 00000000..0c267c0d
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.es.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.fa.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.fa.png
new file mode 100644
index 00000000..49a9d62a
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.fa.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.hi.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.hi.png
new file mode 100644
index 00000000..b89a7278
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.hi.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.pl.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.pl.png
new file mode 100644
index 00000000..2741f0ef
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.pl.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.pt.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.pt.png
new file mode 100644
index 00000000..08d1b1b9
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.pt.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.de.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.de.png
new file mode 100644
index 00000000..8410f923
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.de.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.es.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.es.png
new file mode 100644
index 00000000..23ed28cb
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.es.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.fa.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.fa.png
new file mode 100644
index 00000000..94b41922
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.fa.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.hi.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.hi.png
new file mode 100644
index 00000000..e14269c5
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.hi.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.pl.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.pl.png
new file mode 100644
index 00000000..be6d039b
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.pl.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.pt.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.pt.png
new file mode 100644
index 00000000..c7c0df4e
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.pt.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.de.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.de.png
new file mode 100644
index 00000000..968ce52e
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.de.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.es.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.es.png
new file mode 100644
index 00000000..968ce52e
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.es.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.fa.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.fa.png
new file mode 100644
index 00000000..d3bead8a
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.fa.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.hi.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.hi.png
new file mode 100644
index 00000000..968ce52e
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.hi.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.pl.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.pl.png
new file mode 100644
index 00000000..67192f41
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.pl.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.pt.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.pt.png
new file mode 100644
index 00000000..133bc0a4
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.pt.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.de.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.de.png
new file mode 100644
index 00000000..19b2d90c
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.de.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.es.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.es.png
new file mode 100644
index 00000000..19b2d90c
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.es.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.fa.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.fa.png
new file mode 100644
index 00000000..7f978eaa
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.fa.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.hi.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.hi.png
new file mode 100644
index 00000000..28ee42c7
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.hi.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.pl.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.pl.png
new file mode 100644
index 00000000..1105d03a
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.pl.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.pt.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.pt.png
new file mode 100644
index 00000000..b4ee925d
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.pt.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.de.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.de.png
new file mode 100644
index 00000000..91e5f084
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.de.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.es.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.es.png
new file mode 100644
index 00000000..95ef6670
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.es.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.fa.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.fa.png
new file mode 100644
index 00000000..d1368c2c
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.fa.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.hi.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.hi.png
new file mode 100644
index 00000000..72508f42
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.hi.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.pl.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.pl.png
new file mode 100644
index 00000000..94ceb2f1
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.pl.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.pt.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.pt.png
new file mode 100644
index 00000000..65cbc2ec
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.pt.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.de.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.de.png
new file mode 100644
index 00000000..39d676a5
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.de.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.es.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.es.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.es.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.fa.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.fa.png
new file mode 100644
index 00000000..5f54991b
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.fa.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.hi.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.hi.png
new file mode 100644
index 00000000..ab9eb045
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.hi.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.pl.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.pl.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.pl.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.pt.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.pt.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.pt.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.de.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.de.png
new file mode 100644
index 00000000..c83f6e28
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.de.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.es.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.es.png
new file mode 100644
index 00000000..830c6fcc
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.es.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.fa.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.fa.png
new file mode 100644
index 00000000..5f54991b
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.fa.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.hi.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.hi.png
new file mode 100644
index 00000000..ab9eb045
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.hi.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.pl.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.pl.png
new file mode 100644
index 00000000..1df61c7a
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.pl.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.pt.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.pt.png
new file mode 100644
index 00000000..c83f6e28
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.pt.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.de.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.de.png
new file mode 100644
index 00000000..6e420ee6
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.de.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.es.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.es.png
new file mode 100644
index 00000000..ff46ddc7
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.es.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.fa.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.fa.png
new file mode 100644
index 00000000..1bd77765
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.fa.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.hi.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.hi.png
new file mode 100644
index 00000000..343b3445
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.hi.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.pl.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.pl.png
new file mode 100644
index 00000000..8b5dd13c
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.pl.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.pt.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.pt.png
new file mode 100644
index 00000000..400b9440
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.pt.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.de.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.de.png
new file mode 100644
index 00000000..3fecd72b
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.de.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.es.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.es.png
new file mode 100644
index 00000000..9ad678aa
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.es.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.fa.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.fa.png
new file mode 100644
index 00000000..747e1fd2
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.fa.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.hi.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.hi.png
new file mode 100644
index 00000000..9039866a
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.hi.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.pl.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.pl.png
new file mode 100644
index 00000000..4f33e7e3
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.pl.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.pt.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.pt.png
new file mode 100644
index 00000000..54ada4b7
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.pt.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.de.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.de.png
new file mode 100644
index 00000000..434ae190
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.de.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.es.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.es.png
new file mode 100644
index 00000000..a2542e1d
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.es.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.fa.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.fa.png
new file mode 100644
index 00000000..52498328
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.fa.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.hi.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.hi.png
new file mode 100644
index 00000000..b822ea97
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.hi.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.pl.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.pl.png
new file mode 100644
index 00000000..92ed6320
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.pl.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.pt.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.pt.png
new file mode 100644
index 00000000..0cb6cc6c
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.pt.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.de.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.de.png
new file mode 100644
index 00000000..91d566d4
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.de.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.es.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.es.png
new file mode 100644
index 00000000..06b381b7
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.es.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.fa.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.fa.png
new file mode 100644
index 00000000..a3e3836c
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.fa.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.hi.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.hi.png
new file mode 100644
index 00000000..e0eaf53d
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.hi.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.pl.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.pl.png
new file mode 100644
index 00000000..96d03bb7
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.pl.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.pt.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.pt.png
new file mode 100644
index 00000000..da0908de
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.pt.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.de.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.de.png
new file mode 100644
index 00000000..0bd4ab27
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.de.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.es.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.es.png
new file mode 100644
index 00000000..b5a3f783
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.es.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.fa.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.fa.png
new file mode 100644
index 00000000..0288b15c
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.fa.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.hi.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.hi.png
new file mode 100644
index 00000000..37883601
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.hi.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.pl.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.pl.png
new file mode 100644
index 00000000..22d0e9d8
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.pl.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.pt.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.pt.png
new file mode 100644
index 00000000..45586c86
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.pt.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.de.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.de.png
new file mode 100644
index 00000000..df06754d
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.de.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.es.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.es.png
new file mode 100644
index 00000000..56f5205c
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.es.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.fa.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.fa.png
new file mode 100644
index 00000000..86fd2b6b
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.fa.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.hi.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.hi.png
new file mode 100644
index 00000000..3c4a2ff0
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.hi.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.pl.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.pl.png
new file mode 100644
index 00000000..d823640a
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.pl.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.pt.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.pt.png
new file mode 100644
index 00000000..6f1cc96c
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.pt.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.de.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.de.png
new file mode 100644
index 00000000..899c763f
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.de.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.es.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.es.png
new file mode 100644
index 00000000..2d24fff6
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.es.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.fa.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.fa.png
new file mode 100644
index 00000000..8e3cd6e0
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.fa.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.hi.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.hi.png
new file mode 100644
index 00000000..4909b4dc
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.hi.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.pl.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.pl.png
new file mode 100644
index 00000000..19fbabf9
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.pl.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.pt.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.pt.png
new file mode 100644
index 00000000..d8c26d2a
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.pt.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.de.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.de.png
new file mode 100644
index 00000000..cb471189
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.de.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.es.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.es.png
new file mode 100644
index 00000000..53df81a5
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.es.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.fa.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.fa.png
new file mode 100644
index 00000000..317dadc3
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.fa.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.hi.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.hi.png
new file mode 100644
index 00000000..5e6b795d
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.hi.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.pl.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.pl.png
new file mode 100644
index 00000000..7bb8eacd
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.pl.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.pt.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.pt.png
new file mode 100644
index 00000000..0c9daac1
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.pt.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.de.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.de.png
new file mode 100644
index 00000000..2e43567c
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.de.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.es.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.es.png
new file mode 100644
index 00000000..19a06b92
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.es.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.fa.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.fa.png
new file mode 100644
index 00000000..6b1a3aed
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.fa.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.hi.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.hi.png
new file mode 100644
index 00000000..929d9494
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.hi.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.pl.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.pl.png
new file mode 100644
index 00000000..f80617ec
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.pl.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.pt.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.pt.png
new file mode 100644
index 00000000..47e0356b
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.pt.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.de.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.de.png
new file mode 100644
index 00000000..72de42ad
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.de.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.es.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.es.png
new file mode 100644
index 00000000..81bb7231
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.es.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.fa.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.fa.png
new file mode 100644
index 00000000..78533b82
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.fa.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.hi.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.hi.png
new file mode 100644
index 00000000..e772a1fa
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.hi.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.pl.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.pl.png
new file mode 100644
index 00000000..f7be3141
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.pl.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.pt.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.pt.png
new file mode 100644
index 00000000..d9de5eab
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.pt.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.de.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.de.png
new file mode 100644
index 00000000..0d4bddf5
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.de.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.es.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.es.png
new file mode 100644
index 00000000..89988b0a
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.es.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.fa.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.fa.png
new file mode 100644
index 00000000..78533b82
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.fa.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.hi.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.hi.png
new file mode 100644
index 00000000..88310257
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.hi.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.pl.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.pl.png
new file mode 100644
index 00000000..53ac6dfc
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.pl.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.pt.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.pt.png
new file mode 100644
index 00000000..55b3a0ff
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.pt.png differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.de.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.de.jpg
new file mode 100644
index 00000000..1119753e
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.de.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.es.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.es.jpg
new file mode 100644
index 00000000..c7647956
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.es.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.fa.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.fa.jpg
new file mode 100644
index 00000000..da3183c9
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.fa.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.hi.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.hi.jpg
new file mode 100644
index 00000000..3ce94aeb
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.hi.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.pl.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.pl.jpg
new file mode 100644
index 00000000..de778f9e
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.pl.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.pt.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.pt.jpg
new file mode 100644
index 00000000..37bc1daa
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.pt.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.de.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.de.jpg
new file mode 100644
index 00000000..1119753e
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.de.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.es.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.es.jpg
new file mode 100644
index 00000000..c7647956
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.es.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.fa.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.fa.jpg
new file mode 100644
index 00000000..c6f901d2
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.fa.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.hi.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.hi.jpg
new file mode 100644
index 00000000..a5f99f4e
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.hi.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.pl.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.pl.jpg
new file mode 100644
index 00000000..d6da5a58
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.pl.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.pt.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.pt.jpg
new file mode 100644
index 00000000..89aa226f
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.pt.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.de.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.de.jpg
new file mode 100644
index 00000000..f4b492d3
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.de.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.es.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.es.jpg
new file mode 100644
index 00000000..e79840cc
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.es.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.fa.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.fa.jpg
new file mode 100644
index 00000000..38fd8341
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.fa.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.hi.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.hi.jpg
new file mode 100644
index 00000000..a45e24d4
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.hi.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.pl.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.pl.jpg
new file mode 100644
index 00000000..9accbdbd
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.pl.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.pt.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.pt.jpg
new file mode 100644
index 00000000..be9505c8
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.pt.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.de.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.de.jpg
new file mode 100644
index 00000000..546d4b6d
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.de.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.es.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.es.jpg
new file mode 100644
index 00000000..19246be4
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.es.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.fa.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.fa.jpg
new file mode 100644
index 00000000..8a2839d4
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.fa.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.hi.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.hi.jpg
new file mode 100644
index 00000000..3e81fc4c
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.hi.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.pl.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.pl.jpg
new file mode 100644
index 00000000..55fdc2bb
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.pl.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.pt.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.pt.jpg
new file mode 100644
index 00000000..016ca51d
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.pt.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.de.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.de.jpg
new file mode 100644
index 00000000..9245d5a0
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.de.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.es.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.es.jpg
new file mode 100644
index 00000000..2c93ed78
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.es.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.fa.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.fa.jpg
new file mode 100644
index 00000000..54be8847
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.fa.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.hi.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.hi.jpg
new file mode 100644
index 00000000..76de0883
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.hi.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.pl.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.pl.jpg
new file mode 100644
index 00000000..efd5b24f
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.pl.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.pt.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.pt.jpg
new file mode 100644
index 00000000..c3f33b7f
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.pt.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.de.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.de.jpg
new file mode 100644
index 00000000..43babdd5
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.de.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.es.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.es.jpg
new file mode 100644
index 00000000..c985c13e
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.es.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.fa.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.fa.jpg
new file mode 100644
index 00000000..5720f9b8
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.fa.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.hi.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.hi.jpg
new file mode 100644
index 00000000..232279bf
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.hi.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.pl.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.pl.jpg
new file mode 100644
index 00000000..263adc76
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.pl.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.pt.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.pt.jpg
new file mode 100644
index 00000000..1dca8f22
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.pt.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.de.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.de.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.de.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.es.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.es.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.es.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.fa.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.fa.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.fa.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.hi.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.hi.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.hi.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.pl.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.pl.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.pl.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.pt.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.pt.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.pt.jpg differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.de.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.de.png
new file mode 100644
index 00000000..19f6987b
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.de.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.es.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.es.png
new file mode 100644
index 00000000..6bf9bef3
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.es.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.fa.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.fa.png
new file mode 100644
index 00000000..af5b8f8d
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.fa.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.hi.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.hi.png
new file mode 100644
index 00000000..e22c33bf
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.hi.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.pl.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.pl.png
new file mode 100644
index 00000000..b7d1d45b
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.pl.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.pt.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.pt.png
new file mode 100644
index 00000000..7f818c0e
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.pt.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.de.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.de.png
new file mode 100644
index 00000000..0f6e19e6
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.de.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.es.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.es.png
new file mode 100644
index 00000000..0da2488b
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.es.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.fa.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.fa.png
new file mode 100644
index 00000000..c8f1b291
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.fa.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.hi.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.hi.png
new file mode 100644
index 00000000..bae1c2e0
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.hi.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.pl.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.pl.png
new file mode 100644
index 00000000..8ac99176
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.pl.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.pt.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.pt.png
new file mode 100644
index 00000000..e1a81469
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.pt.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.de.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.de.png
new file mode 100644
index 00000000..ebd147bc
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.de.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.es.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.es.png
new file mode 100644
index 00000000..7be1d979
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.es.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.fa.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.fa.png
new file mode 100644
index 00000000..4ad02436
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.fa.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.hi.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.hi.png
new file mode 100644
index 00000000..80b18111
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.hi.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.pl.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.pl.png
new file mode 100644
index 00000000..a160d997
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.pl.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.pt.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.pt.png
new file mode 100644
index 00000000..65d3941c
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.pt.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.de.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.de.png
new file mode 100644
index 00000000..9688416a
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.de.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.es.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.es.png
new file mode 100644
index 00000000..030b135e
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.es.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.fa.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.fa.png
new file mode 100644
index 00000000..ec3f9bed
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.fa.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.hi.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.hi.png
new file mode 100644
index 00000000..7a67e995
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.hi.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.pl.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.pl.png
new file mode 100644
index 00000000..65bf29eb
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.pl.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.pt.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.pt.png
new file mode 100644
index 00000000..7e988c82
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.pt.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.de.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.de.png
new file mode 100644
index 00000000..6b4bbb3e
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.de.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.es.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.es.png
new file mode 100644
index 00000000..3423a5cc
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.es.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.fa.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.fa.png
new file mode 100644
index 00000000..113e5094
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.fa.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.hi.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.hi.png
new file mode 100644
index 00000000..3c00f7d3
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.hi.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.pl.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.pl.png
new file mode 100644
index 00000000..23edd5ff
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.pl.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.pt.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.pt.png
new file mode 100644
index 00000000..aac344b1
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.pt.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.de.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.de.png
new file mode 100644
index 00000000..a1e2c7d7
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.de.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.es.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.es.png
new file mode 100644
index 00000000..ee9a64cb
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.es.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.fa.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.fa.png
new file mode 100644
index 00000000..122645c8
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.fa.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.hi.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.hi.png
new file mode 100644
index 00000000..78aad7e9
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.hi.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.pl.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.pl.png
new file mode 100644
index 00000000..0a8128d9
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.pl.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.pt.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.pt.png
new file mode 100644
index 00000000..aac344b1
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.pt.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.de.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.de.png
new file mode 100644
index 00000000..77298cb2
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.de.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.es.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.es.png
new file mode 100644
index 00000000..5c6a2eb2
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.es.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.fa.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.fa.png
new file mode 100644
index 00000000..f34bcd62
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.fa.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.hi.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.hi.png
new file mode 100644
index 00000000..5cb544c3
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.hi.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.pl.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.pl.png
new file mode 100644
index 00000000..a7b54fcc
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.pl.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.pt.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.pt.png
new file mode 100644
index 00000000..8a46afba
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.pt.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.de.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.de.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.de.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.es.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.es.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.es.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.fa.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.fa.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.fa.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.hi.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.hi.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.hi.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.pl.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.pl.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.pl.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.pt.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.pt.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.pt.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.de.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.de.png
new file mode 100644
index 00000000..3688d5fd
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.de.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.es.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.es.png
new file mode 100644
index 00000000..64d41e93
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.es.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.fa.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.fa.png
new file mode 100644
index 00000000..737add73
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.fa.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.hi.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.hi.png
new file mode 100644
index 00000000..4b9e00c7
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.hi.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.pl.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.pl.png
new file mode 100644
index 00000000..7d00665d
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.pl.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.pt.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.pt.png
new file mode 100644
index 00000000..ed03f2dd
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.pt.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.de.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.de.png
new file mode 100644
index 00000000..d85c2eba
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.de.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.es.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.es.png
new file mode 100644
index 00000000..2d509b27
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.es.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.fa.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.fa.png
new file mode 100644
index 00000000..ae8075c3
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.fa.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.hi.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.hi.png
new file mode 100644
index 00000000..f2a01d37
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.hi.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.pl.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.pl.png
new file mode 100644
index 00000000..eca36aad
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.pl.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.pt.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.pt.png
new file mode 100644
index 00000000..102f60b8
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.pt.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.de.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.de.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.de.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.es.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.es.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.es.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.fa.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.fa.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.fa.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.hi.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.hi.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.hi.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.pl.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.pl.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.pl.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.pt.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.pt.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.pt.png differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.de.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.de.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.de.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.es.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.es.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.es.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.fa.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.fa.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.fa.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.hi.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.hi.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.hi.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.pl.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.pl.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.pl.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.pt.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.pt.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.pt.jpg differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.de.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.de.png
new file mode 100644
index 00000000..b22f0a57
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.de.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.es.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.es.png
new file mode 100644
index 00000000..4adc2ce7
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.es.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.fa.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.fa.png
new file mode 100644
index 00000000..2e5a5036
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.fa.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.hi.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.hi.png
new file mode 100644
index 00000000..a16d4ee0
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.hi.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.pl.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.pl.png
new file mode 100644
index 00000000..21f3bc7f
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.pl.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.pt.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.pt.png
new file mode 100644
index 00000000..9313b627
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.pt.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.de.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.de.png
new file mode 100644
index 00000000..e386d36e
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.de.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.es.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.es.png
new file mode 100644
index 00000000..861de3d2
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.es.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.fa.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.fa.png
new file mode 100644
index 00000000..5b1aecab
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.fa.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.hi.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.hi.png
new file mode 100644
index 00000000..1d1b6036
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.hi.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.pl.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.pl.png
new file mode 100644
index 00000000..f88e9d9c
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.pl.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.pt.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.pt.png
new file mode 100644
index 00000000..93af58c2
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.pt.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.de.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.de.png
new file mode 100644
index 00000000..ef907439
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.de.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.es.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.es.png
new file mode 100644
index 00000000..e370f56f
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.es.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.fa.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.fa.png
new file mode 100644
index 00000000..03af20f8
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.fa.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.hi.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.hi.png
new file mode 100644
index 00000000..d5c4be65
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.hi.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.pl.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.pl.png
new file mode 100644
index 00000000..fedac36c
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.pl.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.pt.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.pt.png
new file mode 100644
index 00000000..ad7fe4ec
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.pt.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.de.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.de.png
new file mode 100644
index 00000000..bd8db3a5
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.de.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.es.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.es.png
new file mode 100644
index 00000000..96add336
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.es.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.fa.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.fa.png
new file mode 100644
index 00000000..1bdaa7a0
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.fa.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.hi.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.hi.png
new file mode 100644
index 00000000..9d24f810
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.hi.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.pl.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.pl.png
new file mode 100644
index 00000000..eaeedaac
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.pl.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.pt.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.pt.png
new file mode 100644
index 00000000..b38ccea0
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.pt.png differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.de.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.de.jpg
new file mode 100644
index 00000000..cf2cdf11
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.de.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.es.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.es.jpg
new file mode 100644
index 00000000..cf2cdf11
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.es.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.fa.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.fa.jpg
new file mode 100644
index 00000000..cf2cdf11
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.fa.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.hi.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.hi.jpg
new file mode 100644
index 00000000..bd7fdddf
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.hi.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.pl.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.pl.jpg
new file mode 100644
index 00000000..cf2cdf11
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.pl.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.pt.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.pt.jpg
new file mode 100644
index 00000000..cf2cdf11
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.pt.jpg differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.de.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.de.png
new file mode 100644
index 00000000..a3d27300
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.de.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.es.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.es.png
new file mode 100644
index 00000000..3332fc8b
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.es.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.fa.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.fa.png
new file mode 100644
index 00000000..687ca79e
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.fa.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.hi.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.hi.png
new file mode 100644
index 00000000..3e6cc762
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.hi.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.pl.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.pl.png
new file mode 100644
index 00000000..b4779da3
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.pl.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.pt.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.pt.png
new file mode 100644
index 00000000..683d5a20
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.pt.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.de.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.de.png
new file mode 100644
index 00000000..bad4ddd6
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.de.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.es.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.es.png
new file mode 100644
index 00000000..30c55901
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.es.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.fa.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.fa.png
new file mode 100644
index 00000000..2fb796f8
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.fa.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.hi.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.hi.png
new file mode 100644
index 00000000..dba0e3bb
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.hi.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.pl.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.pl.png
new file mode 100644
index 00000000..00e0d873
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.pl.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.pt.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.pt.png
new file mode 100644
index 00000000..24721ded
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.pt.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.de.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.de.png
new file mode 100644
index 00000000..88c46b6c
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.de.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.es.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.es.png
new file mode 100644
index 00000000..bc9886e2
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.es.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.fa.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.fa.png
new file mode 100644
index 00000000..49ab37bc
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.fa.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.hi.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.hi.png
new file mode 100644
index 00000000..0c54461d
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.hi.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.pl.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.pl.png
new file mode 100644
index 00000000..b38db71a
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.pl.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.pt.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.pt.png
new file mode 100644
index 00000000..8361b84f
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.pt.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.de.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.de.png
new file mode 100644
index 00000000..73eca864
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.de.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.es.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.es.png
new file mode 100644
index 00000000..1fbdacf5
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.es.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.fa.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.fa.png
new file mode 100644
index 00000000..d2e3593a
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.fa.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.hi.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.hi.png
new file mode 100644
index 00000000..617024a7
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.hi.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.pl.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.pl.png
new file mode 100644
index 00000000..80878413
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.pl.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.pt.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.pt.png
new file mode 100644
index 00000000..75685a87
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.pt.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.de.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.de.png
new file mode 100644
index 00000000..9f7f3fe7
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.de.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.es.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.es.png
new file mode 100644
index 00000000..1d95d82e
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.es.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.fa.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.fa.png
new file mode 100644
index 00000000..17a1754f
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.fa.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.hi.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.hi.png
new file mode 100644
index 00000000..696cb11a
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.hi.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.pl.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.pl.png
new file mode 100644
index 00000000..d5850184
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.pl.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.pt.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.pt.png
new file mode 100644
index 00000000..e4238a72
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.pt.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.de.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.de.png
new file mode 100644
index 00000000..a4b7793c
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.de.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.es.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.es.png
new file mode 100644
index 00000000..60132c41
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.es.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.fa.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.fa.png
new file mode 100644
index 00000000..00713092
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.fa.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.hi.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.hi.png
new file mode 100644
index 00000000..ff7fe063
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.hi.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.pl.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.pl.png
new file mode 100644
index 00000000..9ac49fa5
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.pl.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.pt.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.pt.png
new file mode 100644
index 00000000..70137061
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.pt.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.de.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.de.png
new file mode 100644
index 00000000..50ab115a
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.de.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.es.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.es.png
new file mode 100644
index 00000000..ba8b88eb
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.es.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.fa.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.fa.png
new file mode 100644
index 00000000..48be9233
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.fa.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.hi.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.hi.png
new file mode 100644
index 00000000..ba1529b4
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.hi.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.pl.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.pl.png
new file mode 100644
index 00000000..6dc12589
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.pl.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.pt.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.pt.png
new file mode 100644
index 00000000..1f465b49
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.pt.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.de.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.de.png
new file mode 100644
index 00000000..2fc46f32
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.de.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.es.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.es.png
new file mode 100644
index 00000000..b3dab7e5
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.es.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.fa.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.fa.png
new file mode 100644
index 00000000..87f91393
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.fa.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.hi.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.hi.png
new file mode 100644
index 00000000..4fb9b45c
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.hi.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.pl.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.pl.png
new file mode 100644
index 00000000..7637f487
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.pl.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.pt.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.pt.png
new file mode 100644
index 00000000..0a709faa
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.pt.png differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.de.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.de.jpg
new file mode 100644
index 00000000..1d9e3628
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.de.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.es.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.es.jpg
new file mode 100644
index 00000000..1d9e3628
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.es.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.fa.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.fa.jpg
new file mode 100644
index 00000000..56123b05
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.fa.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.hi.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.hi.jpg
new file mode 100644
index 00000000..e572920b
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.hi.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.pl.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.pl.jpg
new file mode 100644
index 00000000..0f055a79
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.pl.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.pt.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.pt.jpg
new file mode 100644
index 00000000..1d9e3628
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.pt.jpg differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.de.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.de.png
new file mode 100644
index 00000000..8110c4d3
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.de.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.es.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.es.png
new file mode 100644
index 00000000..e38c5dec
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.es.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.fa.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.fa.png
new file mode 100644
index 00000000..c665fb0b
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.fa.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.hi.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.hi.png
new file mode 100644
index 00000000..fe7ff534
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.hi.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.pl.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.pl.png
new file mode 100644
index 00000000..61fa9472
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.pl.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.pt.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.pt.png
new file mode 100644
index 00000000..80ffc5c4
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.pt.png differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.de.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.de.jpg
new file mode 100644
index 00000000..78131b16
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.de.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.es.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.es.jpg
new file mode 100644
index 00000000..746576bf
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.es.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.fa.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.fa.jpg
new file mode 100644
index 00000000..66a7d28a
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.fa.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.hi.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.hi.jpg
new file mode 100644
index 00000000..75266254
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.hi.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.pl.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.pl.jpg
new file mode 100644
index 00000000..758a3d0e
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.pl.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.pt.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.pt.jpg
new file mode 100644
index 00000000..47503bb3
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.pt.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.de.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.de.jpg
new file mode 100644
index 00000000..91263fad
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.de.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.es.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.es.jpg
new file mode 100644
index 00000000..247ff5e6
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.es.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.fa.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.fa.jpg
new file mode 100644
index 00000000..b3e90536
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.fa.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.hi.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.hi.jpg
new file mode 100644
index 00000000..a5902a26
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.hi.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.pl.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.pl.jpg
new file mode 100644
index 00000000..e856c89a
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.pl.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.pt.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.pt.jpg
new file mode 100644
index 00000000..b317ff56
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.pt.jpg differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.de.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.de.png
new file mode 100644
index 00000000..eb9e20c1
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.de.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.es.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.es.png
new file mode 100644
index 00000000..e6f56507
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.es.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.fa.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.fa.png
new file mode 100644
index 00000000..27b0526d
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.fa.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.hi.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.hi.png
new file mode 100644
index 00000000..a931d63b
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.hi.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.pl.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.pl.png
new file mode 100644
index 00000000..fd7c5506
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.pl.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.pt.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.pt.png
new file mode 100644
index 00000000..ff03ecab
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.pt.png differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.de.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.de.jpg
new file mode 100644
index 00000000..0448ff80
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.de.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.es.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.es.jpg
new file mode 100644
index 00000000..42c83a3f
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.es.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.fa.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.fa.jpg
new file mode 100644
index 00000000..ef4c4d00
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.fa.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.hi.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.hi.jpg
new file mode 100644
index 00000000..409beaa8
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.hi.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.pl.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.pl.jpg
new file mode 100644
index 00000000..40dc304e
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.pl.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.pt.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.pt.jpg
new file mode 100644
index 00000000..92dff388
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.pt.jpg differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.de.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.de.png
new file mode 100644
index 00000000..e387218e
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.de.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.es.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.es.png
new file mode 100644
index 00000000..923c5017
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.es.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.fa.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.fa.png
new file mode 100644
index 00000000..ef742ceb
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.fa.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.hi.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.hi.png
new file mode 100644
index 00000000..e4c9ee00
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.hi.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.pl.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.pl.png
new file mode 100644
index 00000000..6614a7e4
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.pl.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.pt.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.pt.png
new file mode 100644
index 00000000..12f059b8
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.pt.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.de.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.de.png
new file mode 100644
index 00000000..a1a4ba06
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.de.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.es.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.es.png
new file mode 100644
index 00000000..6e11b4e5
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.es.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.fa.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.fa.png
new file mode 100644
index 00000000..9f4cdffe
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.fa.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.hi.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.hi.png
new file mode 100644
index 00000000..f3486b7c
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.hi.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.pl.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.pl.png
new file mode 100644
index 00000000..03afb60e
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.pl.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.pt.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.pt.png
new file mode 100644
index 00000000..51fae888
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.pt.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.de.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.de.png
new file mode 100644
index 00000000..544f67ee
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.de.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.es.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.es.png
new file mode 100644
index 00000000..5abb91d0
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.es.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.fa.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.fa.png
new file mode 100644
index 00000000..f2dadd0d
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.fa.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.hi.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.hi.png
new file mode 100644
index 00000000..f48254f4
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.hi.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.pl.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.pl.png
new file mode 100644
index 00000000..2c263089
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.pl.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.pt.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.pt.png
new file mode 100644
index 00000000..a7522aa4
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.pt.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.de.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.de.png
new file mode 100644
index 00000000..377b6c5d
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.de.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.es.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.es.png
new file mode 100644
index 00000000..6dc40d2f
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.es.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.fa.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.fa.png
new file mode 100644
index 00000000..a7db9eb5
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.fa.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.hi.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.hi.png
new file mode 100644
index 00000000..1befc7c5
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.hi.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.pl.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.pl.png
new file mode 100644
index 00000000..c4c2ee42
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.pl.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.pt.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.pt.png
new file mode 100644
index 00000000..3b84a1fe
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.pt.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.de.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.de.png
new file mode 100644
index 00000000..aa32118f
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.de.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.es.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.es.png
new file mode 100644
index 00000000..e1115acb
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.es.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.fa.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.fa.png
new file mode 100644
index 00000000..7582d320
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.fa.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.hi.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.hi.png
new file mode 100644
index 00000000..38c30f50
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.hi.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.pl.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.pl.png
new file mode 100644
index 00000000..8206767c
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.pl.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.pt.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.pt.png
new file mode 100644
index 00000000..6151ed77
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.pt.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.de.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.de.png
new file mode 100644
index 00000000..183b611c
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.de.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.es.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.es.png
new file mode 100644
index 00000000..27437a46
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.es.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.fa.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.fa.png
new file mode 100644
index 00000000..f14ec9ef
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.fa.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.hi.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.hi.png
new file mode 100644
index 00000000..a04c7857
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.hi.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.pl.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.pl.png
new file mode 100644
index 00000000..07414998
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.pl.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.pt.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.pt.png
new file mode 100644
index 00000000..e911592b
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.pt.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.de.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.de.png
new file mode 100644
index 00000000..b43add52
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.de.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.es.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.es.png
new file mode 100644
index 00000000..3598c773
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.es.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.fa.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.fa.png
new file mode 100644
index 00000000..3c09cb7f
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.fa.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.hi.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.hi.png
new file mode 100644
index 00000000..554305a5
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.hi.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.pl.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.pl.png
new file mode 100644
index 00000000..5c2c5247
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.pl.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.pt.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.pt.png
new file mode 100644
index 00000000..06884f88
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.pt.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.de.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.de.png
new file mode 100644
index 00000000..d58df673
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.de.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.es.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.es.png
new file mode 100644
index 00000000..92d77bd9
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.es.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.fa.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.fa.png
new file mode 100644
index 00000000..6b8e99a5
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.fa.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.hi.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.hi.png
new file mode 100644
index 00000000..b6937e3c
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.hi.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.pl.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.pl.png
new file mode 100644
index 00000000..f6fec99d
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.pl.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.pt.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.pt.png
new file mode 100644
index 00000000..1a8e1110
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.pt.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.de.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.de.png
new file mode 100644
index 00000000..ce04fa3c
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.de.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.es.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.es.png
new file mode 100644
index 00000000..73fc9d92
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.es.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.fa.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.fa.png
new file mode 100644
index 00000000..a4d3d386
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.fa.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.hi.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.hi.png
new file mode 100644
index 00000000..96fd79ce
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.hi.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.pl.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.pl.png
new file mode 100644
index 00000000..620b7de2
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.pl.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.pt.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.pt.png
new file mode 100644
index 00000000..9a5ffa9b
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.pt.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.de.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.de.png
new file mode 100644
index 00000000..8b600aea
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.de.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.es.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.es.png
new file mode 100644
index 00000000..3b26d07e
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.es.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.fa.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.fa.png
new file mode 100644
index 00000000..20c5b7de
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.fa.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.hi.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.hi.png
new file mode 100644
index 00000000..3118182b
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.hi.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.pl.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.pl.png
new file mode 100644
index 00000000..3bef2449
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.pl.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.pt.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.pt.png
new file mode 100644
index 00000000..26e73c2b
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.pt.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.de.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.de.png
new file mode 100644
index 00000000..48da3750
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.de.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.es.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.es.png
new file mode 100644
index 00000000..75bcc859
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.es.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.fa.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.fa.png
new file mode 100644
index 00000000..8be47d5c
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.fa.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.hi.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.hi.png
new file mode 100644
index 00000000..687e05ed
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.hi.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.pl.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.pl.png
new file mode 100644
index 00000000..701e2e49
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.pl.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.pt.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.pt.png
new file mode 100644
index 00000000..0575e0c1
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.pt.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.de.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.de.png
new file mode 100644
index 00000000..2585370e
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.de.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.es.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.es.png
new file mode 100644
index 00000000..3cb35f2e
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.es.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.fa.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.fa.png
new file mode 100644
index 00000000..54573977
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.fa.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.hi.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.hi.png
new file mode 100644
index 00000000..4bec8949
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.hi.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.pl.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.pl.png
new file mode 100644
index 00000000..66837bc6
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.pl.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.pt.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.pt.png
new file mode 100644
index 00000000..4b03806a
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.pt.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.de.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.de.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.de.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.es.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.es.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.es.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.fa.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.fa.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.fa.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.hi.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.hi.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.hi.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.pl.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.pl.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.pl.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.pt.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.pt.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.pt.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.de.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.de.png
new file mode 100644
index 00000000..68c195e3
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.de.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.es.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.es.png
new file mode 100644
index 00000000..84a90b99
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.es.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.fa.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.fa.png
new file mode 100644
index 00000000..e48374a9
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.fa.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.hi.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.hi.png
new file mode 100644
index 00000000..e77d8f9a
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.hi.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.pl.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.pl.png
new file mode 100644
index 00000000..deb6684e
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.pl.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.pt.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.pt.png
new file mode 100644
index 00000000..2a6b83ec
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.pt.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.de.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.de.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.de.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.es.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.es.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.es.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.fa.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.fa.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.fa.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.hi.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.hi.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.hi.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.pl.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.pl.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.pl.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.pt.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.pt.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.pt.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.de.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.de.png
new file mode 100644
index 00000000..74300244
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.de.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.es.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.es.png
new file mode 100644
index 00000000..aee035b3
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.es.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.fa.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.fa.png
new file mode 100644
index 00000000..6b128815
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.fa.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.hi.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.hi.png
new file mode 100644
index 00000000..b060b949
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.hi.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.pl.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.pl.png
new file mode 100644
index 00000000..5655a646
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.pl.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.pt.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.pt.png
new file mode 100644
index 00000000..08fc743e
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.pt.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.de.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.de.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.de.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.es.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.es.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.es.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.fa.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.fa.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.fa.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.hi.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.hi.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.hi.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.pl.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.pl.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.pl.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.pt.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.pt.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.pt.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.de.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.de.png
new file mode 100644
index 00000000..d905f66f
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.de.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.es.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.es.png
new file mode 100644
index 00000000..0e9619c5
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.es.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.fa.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.fa.png
new file mode 100644
index 00000000..cf6c3db4
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.fa.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.hi.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.hi.png
new file mode 100644
index 00000000..5df8602b
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.hi.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.pl.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.pl.png
new file mode 100644
index 00000000..073fa1b4
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.pl.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.pt.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.pt.png
new file mode 100644
index 00000000..c9320de9
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.pt.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.de.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.de.png
new file mode 100644
index 00000000..4324de71
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.de.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.es.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.es.png
new file mode 100644
index 00000000..258d62a2
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.es.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.fa.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.fa.png
new file mode 100644
index 00000000..3f6cc342
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.fa.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.hi.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.hi.png
new file mode 100644
index 00000000..0912bdd7
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.hi.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.pl.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.pl.png
new file mode 100644
index 00000000..46e5ef85
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.pl.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.pt.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.pt.png
new file mode 100644
index 00000000..167559a6
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.pt.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.de.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.de.png
new file mode 100644
index 00000000..f38bcbe9
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.de.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.es.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.es.png
new file mode 100644
index 00000000..ed38c4e5
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.es.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.fa.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.fa.png
new file mode 100644
index 00000000..d5655946
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.fa.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.hi.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.hi.png
new file mode 100644
index 00000000..a3f62ae2
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.hi.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.pl.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.pl.png
new file mode 100644
index 00000000..bb4e099d
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.pl.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.pt.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.pt.png
new file mode 100644
index 00000000..ed4066a3
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.pt.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.de.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.de.png
new file mode 100644
index 00000000..90be4a85
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.de.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.es.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.es.png
new file mode 100644
index 00000000..cdfe9ff7
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.es.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.fa.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.fa.png
new file mode 100644
index 00000000..c7393afc
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.fa.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.hi.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.hi.png
new file mode 100644
index 00000000..292a4b7b
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.hi.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.pl.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.pl.png
new file mode 100644
index 00000000..0060a58c
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.pl.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.pt.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.pt.png
new file mode 100644
index 00000000..b5e52442
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.pt.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.de.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.de.png
new file mode 100644
index 00000000..aa5f43f9
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.de.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.es.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.es.png
new file mode 100644
index 00000000..95558177
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.es.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.fa.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.fa.png
new file mode 100644
index 00000000..a1f0dc0c
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.fa.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.hi.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.hi.png
new file mode 100644
index 00000000..88c44fd1
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.hi.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.pl.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.pl.png
new file mode 100644
index 00000000..a01ebd1d
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.pl.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.pt.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.pt.png
new file mode 100644
index 00000000..6869c5c6
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.pt.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.de.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.de.png
new file mode 100644
index 00000000..0264d9f8
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.de.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.es.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.es.png
new file mode 100644
index 00000000..aa0f9e3a
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.es.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.fa.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.fa.png
new file mode 100644
index 00000000..6f98ec22
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.fa.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.hi.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.hi.png
new file mode 100644
index 00000000..66a37fe7
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.hi.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.pl.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.pl.png
new file mode 100644
index 00000000..aa0f9e3a
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.pl.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.pt.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.pt.png
new file mode 100644
index 00000000..0264d9f8
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.pt.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.de.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.de.png
new file mode 100644
index 00000000..389f5987
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.de.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.es.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.es.png
new file mode 100644
index 00000000..4ca77003
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.es.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.fa.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.fa.png
new file mode 100644
index 00000000..b034e248
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.fa.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.hi.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.hi.png
new file mode 100644
index 00000000..d9c78ea0
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.hi.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.pl.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.pl.png
new file mode 100644
index 00000000..fb9a1de2
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.pl.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.pt.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.pt.png
new file mode 100644
index 00000000..68ed56ec
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.pt.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.de.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.de.png
new file mode 100644
index 00000000..bf4081e6
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.de.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.es.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.es.png
new file mode 100644
index 00000000..5855b7fd
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.es.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.fa.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.fa.png
new file mode 100644
index 00000000..8799afed
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.fa.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.hi.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.hi.png
new file mode 100644
index 00000000..0834d80b
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.hi.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.pl.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.pl.png
new file mode 100644
index 00000000..b9b77b9a
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.pl.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.pt.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.pt.png
new file mode 100644
index 00000000..f6e25939
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.pt.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.de.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.de.png
new file mode 100644
index 00000000..2cef8353
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.de.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.es.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.es.png
new file mode 100644
index 00000000..d65a7fc9
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.es.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.fa.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.fa.png
new file mode 100644
index 00000000..e0991663
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.fa.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.hi.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.hi.png
new file mode 100644
index 00000000..f3c84543
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.hi.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.pl.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.pl.png
new file mode 100644
index 00000000..42ac74d3
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.pl.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.pt.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.pt.png
new file mode 100644
index 00000000..6b29ae39
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.pt.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.de.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.de.png
new file mode 100644
index 00000000..414698d7
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.de.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.es.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.es.png
new file mode 100644
index 00000000..01586c16
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.es.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.fa.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.fa.png
new file mode 100644
index 00000000..010c1dcc
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.fa.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.hi.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.hi.png
new file mode 100644
index 00000000..ec4a095e
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.hi.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.pl.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.pl.png
new file mode 100644
index 00000000..342b3fb9
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.pl.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.pt.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.pt.png
new file mode 100644
index 00000000..c4a2979d
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.pt.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.de.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.de.png
new file mode 100644
index 00000000..12273e03
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.de.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.es.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.es.png
new file mode 100644
index 00000000..9150d468
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.es.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.fa.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.fa.png
new file mode 100644
index 00000000..3ce49501
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.fa.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.hi.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.hi.png
new file mode 100644
index 00000000..95489126
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.hi.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.pl.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.pl.png
new file mode 100644
index 00000000..8ab26a82
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.pl.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.pt.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.pt.png
new file mode 100644
index 00000000..5bf8043f
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.pt.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.de.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.de.png
new file mode 100644
index 00000000..33014640
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.de.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.es.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.es.png
new file mode 100644
index 00000000..1f13e99e
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.es.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.fa.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.fa.png
new file mode 100644
index 00000000..1dc4dfe6
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.fa.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.hi.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.hi.png
new file mode 100644
index 00000000..8a3dae7d
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.hi.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.pl.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.pl.png
new file mode 100644
index 00000000..4e46fb4b
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.pl.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.pt.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.pt.png
new file mode 100644
index 00000000..9e1b274a
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.pt.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.de.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.de.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.de.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.es.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.es.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.es.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.fa.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.fa.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.fa.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.hi.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.hi.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.hi.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.pl.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.pl.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.pl.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.pt.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.pt.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.pt.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.de.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.de.png
new file mode 100644
index 00000000..35e1c675
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.de.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.es.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.es.png
new file mode 100644
index 00000000..68697669
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.es.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.fa.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.fa.png
new file mode 100644
index 00000000..aacb5fdf
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.fa.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.hi.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.hi.png
new file mode 100644
index 00000000..12864ce0
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.hi.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.pl.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.pl.png
new file mode 100644
index 00000000..7b5fd4d2
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.pl.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.pt.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.pt.png
new file mode 100644
index 00000000..f5678dea
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.pt.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.de.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.de.png
new file mode 100644
index 00000000..05b8b3c5
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.de.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.es.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.es.png
new file mode 100644
index 00000000..5aa450f5
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.es.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.fa.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.fa.png
new file mode 100644
index 00000000..d5f70190
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.fa.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.hi.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.hi.png
new file mode 100644
index 00000000..4eec0f3e
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.hi.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.pl.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.pl.png
new file mode 100644
index 00000000..129da814
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.pl.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.pt.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.pt.png
new file mode 100644
index 00000000..d7a8cba0
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.pt.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.de.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.de.png
new file mode 100644
index 00000000..e79c706a
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.de.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.es.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.es.png
new file mode 100644
index 00000000..9c4b05af
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.es.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.fa.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.fa.png
new file mode 100644
index 00000000..e44239b5
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.fa.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.hi.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.hi.png
new file mode 100644
index 00000000..308fc28e
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.hi.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.pl.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.pl.png
new file mode 100644
index 00000000..80f789d2
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.pl.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.pt.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.pt.png
new file mode 100644
index 00000000..9bfb2fa4
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.pt.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.de.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.de.png
new file mode 100644
index 00000000..8f43cd96
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.de.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.es.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.es.png
new file mode 100644
index 00000000..3402e174
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.es.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.fa.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.fa.png
new file mode 100644
index 00000000..c371b80d
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.fa.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.hi.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.hi.png
new file mode 100644
index 00000000..54dc8115
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.hi.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.pl.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.pl.png
new file mode 100644
index 00000000..1b6499ff
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.pl.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.pt.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.pt.png
new file mode 100644
index 00000000..9b3fd3e0
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.pt.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.de.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.de.png
new file mode 100644
index 00000000..1ab5ca65
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.de.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.es.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.es.png
new file mode 100644
index 00000000..10986094
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.es.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.fa.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.fa.png
new file mode 100644
index 00000000..a53779b8
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.fa.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.hi.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.hi.png
new file mode 100644
index 00000000..a49f5f78
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.hi.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.pl.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.pl.png
new file mode 100644
index 00000000..ce025bca
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.pl.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.pt.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.pt.png
new file mode 100644
index 00000000..1c95f114
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.pt.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.de.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.de.png
new file mode 100644
index 00000000..108be015
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.de.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.es.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.es.png
new file mode 100644
index 00000000..fbcebe3e
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.es.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.fa.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.fa.png
new file mode 100644
index 00000000..b20cb682
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.fa.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.hi.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.hi.png
new file mode 100644
index 00000000..2e1ed4ec
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.hi.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.pl.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.pl.png
new file mode 100644
index 00000000..f95576fc
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.pl.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.pt.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.pt.png
new file mode 100644
index 00000000..1fded8ad
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.pt.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.de.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.de.png
new file mode 100644
index 00000000..f0c42455
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.de.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.es.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.es.png
new file mode 100644
index 00000000..a5ab64a8
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.es.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.fa.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.fa.png
new file mode 100644
index 00000000..5b9d5ac1
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.fa.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.hi.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.hi.png
new file mode 100644
index 00000000..70d9815b
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.hi.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.pl.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.pl.png
new file mode 100644
index 00000000..977dc132
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.pl.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.pt.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.pt.png
new file mode 100644
index 00000000..38f202f6
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.pt.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.de.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.de.png
new file mode 100644
index 00000000..e4ef768c
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.de.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.es.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.es.png
new file mode 100644
index 00000000..2270660a
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.es.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.fa.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.fa.png
new file mode 100644
index 00000000..1a08a267
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.fa.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.hi.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.hi.png
new file mode 100644
index 00000000..7bc3fa86
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.hi.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.pl.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.pl.png
new file mode 100644
index 00000000..0e45be27
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.pl.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.pt.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.pt.png
new file mode 100644
index 00000000..48b53234
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.pt.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.de.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.de.png
new file mode 100644
index 00000000..8d1e8281
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.de.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.es.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.es.png
new file mode 100644
index 00000000..ce5e7b9c
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.es.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.fa.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.fa.png
new file mode 100644
index 00000000..e18bf8f8
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.fa.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.hi.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.hi.png
new file mode 100644
index 00000000..55a3a851
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.hi.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.pl.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.pl.png
new file mode 100644
index 00000000..1d4a8e33
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.pl.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.pt.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.pt.png
new file mode 100644
index 00000000..97407783
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.pt.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.de.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.de.png
new file mode 100644
index 00000000..2d622520
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.de.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.es.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.es.png
new file mode 100644
index 00000000..02c06bb1
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.es.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.fa.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.fa.png
new file mode 100644
index 00000000..f07bbfb6
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.fa.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.hi.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.hi.png
new file mode 100644
index 00000000..4baa2749
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.hi.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.pl.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.pl.png
new file mode 100644
index 00000000..36d66c73
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.pl.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.pt.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.pt.png
new file mode 100644
index 00000000..c77344c1
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.pt.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.de.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.de.png
new file mode 100644
index 00000000..733c39c5
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.de.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.es.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.es.png
new file mode 100644
index 00000000..00cdb07f
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.es.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.fa.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.fa.png
new file mode 100644
index 00000000..d9f621ca
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.fa.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.hi.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.hi.png
new file mode 100644
index 00000000..8a387d58
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.hi.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.pl.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.pl.png
new file mode 100644
index 00000000..21564030
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.pl.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.pt.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.pt.png
new file mode 100644
index 00000000..34b4e821
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.pt.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.de.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.de.png
new file mode 100644
index 00000000..1c885868
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.de.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.es.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.es.png
new file mode 100644
index 00000000..08c46735
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.es.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.fa.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.fa.png
new file mode 100644
index 00000000..ffb8055e
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.fa.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.hi.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.hi.png
new file mode 100644
index 00000000..3c56bef5
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.hi.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.pl.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.pl.png
new file mode 100644
index 00000000..23492789
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.pl.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.pt.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.pt.png
new file mode 100644
index 00000000..a27f814a
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.pt.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.de.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.de.png
new file mode 100644
index 00000000..6be6af81
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.de.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.es.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.es.png
new file mode 100644
index 00000000..82abcbef
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.es.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.fa.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.fa.png
new file mode 100644
index 00000000..85a1b249
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.fa.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.hi.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.hi.png
new file mode 100644
index 00000000..3e728fc4
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.hi.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.pl.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.pl.png
new file mode 100644
index 00000000..27f8a427
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.pl.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.pt.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.pt.png
new file mode 100644
index 00000000..c7eeb266
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.pt.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.de.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.de.png
new file mode 100644
index 00000000..55ee4f4e
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.de.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.es.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.es.png
new file mode 100644
index 00000000..47abeb76
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.es.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.fa.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.fa.png
new file mode 100644
index 00000000..16a92139
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.fa.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.hi.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.hi.png
new file mode 100644
index 00000000..42d4f4fd
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.hi.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.pl.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.pl.png
new file mode 100644
index 00000000..3dfefec3
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.pl.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.pt.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.pt.png
new file mode 100644
index 00000000..576a0157
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.pt.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.de.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.de.png
new file mode 100644
index 00000000..b62c7567
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.de.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.es.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.es.png
new file mode 100644
index 00000000..47abeb76
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.es.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.fa.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.fa.png
new file mode 100644
index 00000000..7cbd149d
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.fa.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.hi.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.hi.png
new file mode 100644
index 00000000..a31f272b
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.hi.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.pl.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.pl.png
new file mode 100644
index 00000000..3dfefec3
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.pl.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.pt.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.pt.png
new file mode 100644
index 00000000..576a0157
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.pt.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.de.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.de.png
new file mode 100644
index 00000000..d87956bf
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.de.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.es.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.es.png
new file mode 100644
index 00000000..386bbf13
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.es.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.fa.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.fa.png
new file mode 100644
index 00000000..fd0ce2a3
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.fa.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.hi.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.hi.png
new file mode 100644
index 00000000..3c13fa3f
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.hi.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.pl.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.pl.png
new file mode 100644
index 00000000..6784ba5a
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.pl.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.pt.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.pt.png
new file mode 100644
index 00000000..a315aef3
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.pt.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.de.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.de.png
new file mode 100644
index 00000000..10a58a83
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.de.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.es.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.es.png
new file mode 100644
index 00000000..dd0b0018
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.es.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.fa.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.fa.png
new file mode 100644
index 00000000..51a2fc2a
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.fa.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.hi.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.hi.png
new file mode 100644
index 00000000..59185987
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.hi.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.pl.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.pl.png
new file mode 100644
index 00000000..2cbd6e9c
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.pl.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.pt.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.pt.png
new file mode 100644
index 00000000..91a016bd
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.pt.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.de.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.de.png
new file mode 100644
index 00000000..9a02df35
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.de.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.es.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.es.png
new file mode 100644
index 00000000..e82cb9c4
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.es.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.fa.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.fa.png
new file mode 100644
index 00000000..2d00edcc
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.fa.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.hi.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.hi.png
new file mode 100644
index 00000000..2faba0ca
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.hi.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.pl.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.pl.png
new file mode 100644
index 00000000..39dbee5c
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.pl.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.pt.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.pt.png
new file mode 100644
index 00000000..f13fed6c
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.pt.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.de.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.de.png
new file mode 100644
index 00000000..b2c69c7b
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.de.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.es.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.es.png
new file mode 100644
index 00000000..0cf10ec3
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.es.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.fa.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.fa.png
new file mode 100644
index 00000000..b9efdb33
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.fa.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.hi.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.hi.png
new file mode 100644
index 00000000..400f7817
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.hi.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.pl.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.pl.png
new file mode 100644
index 00000000..d3f4d40e
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.pl.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.pt.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.pt.png
new file mode 100644
index 00000000..9b10d880
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.pt.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.de.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.de.png
new file mode 100644
index 00000000..7ca8054d
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.de.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.es.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.es.png
new file mode 100644
index 00000000..d7e56b2f
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.es.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.fa.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.fa.png
new file mode 100644
index 00000000..a4ed34cc
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.fa.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.hi.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.hi.png
new file mode 100644
index 00000000..cb4fe9b1
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.hi.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.pl.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.pl.png
new file mode 100644
index 00000000..f1779b18
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.pl.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.pt.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.pt.png
new file mode 100644
index 00000000..59592bdd
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.pt.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.de.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.de.png
new file mode 100644
index 00000000..e90302c4
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.de.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.es.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.es.png
new file mode 100644
index 00000000..a7809886
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.es.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.fa.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.fa.png
new file mode 100644
index 00000000..aea4d7fe
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.fa.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.hi.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.hi.png
new file mode 100644
index 00000000..4ca87a6e
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.hi.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.pl.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.pl.png
new file mode 100644
index 00000000..1b957fce
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.pl.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.pt.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.pt.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.pt.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.de.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.de.png
new file mode 100644
index 00000000..45d7695d
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.de.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.es.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.es.png
new file mode 100644
index 00000000..91670870
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.es.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.fa.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.fa.png
new file mode 100644
index 00000000..5f91a025
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.fa.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.hi.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.hi.png
new file mode 100644
index 00000000..feca441e
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.hi.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.pl.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.pl.png
new file mode 100644
index 00000000..2c6febae
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.pl.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.pt.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.pt.png
new file mode 100644
index 00000000..51b9419e
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.pt.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.de.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.de.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.de.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.es.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.es.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.es.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.fa.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.fa.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.fa.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.hi.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.hi.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.hi.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.pl.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.pl.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.pl.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.pt.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.pt.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.pt.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.de.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.de.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.de.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.es.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.es.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.es.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.fa.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.fa.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.fa.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.hi.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.hi.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.hi.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.pl.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.pl.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.pl.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.pt.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.pt.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.pt.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.de.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.de.png
new file mode 100644
index 00000000..31e8582f
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.de.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.es.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.es.png
new file mode 100644
index 00000000..540a6093
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.es.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.fa.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.fa.png
new file mode 100644
index 00000000..f55b5f4e
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.fa.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.hi.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.hi.png
new file mode 100644
index 00000000..7b1a3f27
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.hi.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.pl.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.pl.png
new file mode 100644
index 00000000..8e4c9717
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.pl.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.pt.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.pt.png
new file mode 100644
index 00000000..42ee4481
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.pt.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.de.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.de.png
new file mode 100644
index 00000000..4a06e27e
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.de.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.es.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.es.png
new file mode 100644
index 00000000..663cd919
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.es.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.fa.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.fa.png
new file mode 100644
index 00000000..85a77c0d
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.fa.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.hi.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.hi.png
new file mode 100644
index 00000000..44c14c28
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.hi.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.pl.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.pl.png
new file mode 100644
index 00000000..471182d7
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.pl.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.pt.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.pt.png
new file mode 100644
index 00000000..990e675d
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.pt.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.de.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.de.png
new file mode 100644
index 00000000..45f3c0b1
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.de.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.es.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.es.png
new file mode 100644
index 00000000..7ad19fc3
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.es.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.fa.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.fa.png
new file mode 100644
index 00000000..02d40e46
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.fa.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.hi.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.hi.png
new file mode 100644
index 00000000..42b34faf
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.hi.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.pl.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.pl.png
new file mode 100644
index 00000000..1a8bda65
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.pl.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.pt.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.pt.png
new file mode 100644
index 00000000..1a8bda65
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.pt.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.de.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.de.png
new file mode 100644
index 00000000..de7869fd
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.de.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.es.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.es.png
new file mode 100644
index 00000000..99644ccf
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.es.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.fa.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.fa.png
new file mode 100644
index 00000000..f815989f
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.fa.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.hi.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.hi.png
new file mode 100644
index 00000000..4407e79a
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.hi.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.pl.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.pl.png
new file mode 100644
index 00000000..6bc2af16
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.pl.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.pt.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.pt.png
new file mode 100644
index 00000000..1fdd278c
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.pt.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.de.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.de.png
new file mode 100644
index 00000000..9268222a
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.de.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.es.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.es.png
new file mode 100644
index 00000000..422de398
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.es.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.fa.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.fa.png
new file mode 100644
index 00000000..c891f514
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.fa.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.hi.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.hi.png
new file mode 100644
index 00000000..9d946860
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.hi.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.pl.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.pl.png
new file mode 100644
index 00000000..9623f143
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.pl.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.pt.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.pt.png
new file mode 100644
index 00000000..61f2d09b
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.pt.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.de.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.de.png
new file mode 100644
index 00000000..dff4b384
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.de.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.es.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.es.png
new file mode 100644
index 00000000..2ab12fe2
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.es.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.fa.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.fa.png
new file mode 100644
index 00000000..b993a4fc
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.fa.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.hi.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.hi.png
new file mode 100644
index 00000000..b6bdf49f
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.hi.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.pl.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.pl.png
new file mode 100644
index 00000000..d6a91d62
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.pl.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.pt.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.pt.png
new file mode 100644
index 00000000..fdbe5c60
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.pt.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.de.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.de.png
new file mode 100644
index 00000000..c8fe7031
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.de.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.es.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.es.png
new file mode 100644
index 00000000..79eaac8f
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.es.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.fa.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.fa.png
new file mode 100644
index 00000000..a073922b
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.fa.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.hi.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.hi.png
new file mode 100644
index 00000000..0336746a
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.hi.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.pl.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.pl.png
new file mode 100644
index 00000000..b2a1ea62
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.pl.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.pt.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.pt.png
new file mode 100644
index 00000000..b87c1533
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.pt.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.de.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.de.png
new file mode 100644
index 00000000..75fe4e22
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.de.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.es.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.es.png
new file mode 100644
index 00000000..cff392d4
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.es.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.fa.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.fa.png
new file mode 100644
index 00000000..ba42a956
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.fa.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.hi.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.hi.png
new file mode 100644
index 00000000..e6ebe8c4
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.hi.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.pl.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.pl.png
new file mode 100644
index 00000000..d09bbbdc
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.pl.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.pt.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.pt.png
new file mode 100644
index 00000000..1cfcb792
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.pt.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.de.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.de.png
new file mode 100644
index 00000000..238e31d4
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.de.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.es.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.es.png
new file mode 100644
index 00000000..6ab14938
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.es.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.fa.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.fa.png
new file mode 100644
index 00000000..9f8bc709
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.fa.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.hi.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.hi.png
new file mode 100644
index 00000000..73e31667
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.hi.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.pl.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.pl.png
new file mode 100644
index 00000000..befa3c12
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.pl.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.pt.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.pt.png
new file mode 100644
index 00000000..9ba0eece
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.pt.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.de.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.de.png
new file mode 100644
index 00000000..8ff6e666
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.de.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.es.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.es.png
new file mode 100644
index 00000000..0d367745
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.es.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.fa.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.fa.png
new file mode 100644
index 00000000..8b42ca50
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.fa.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.hi.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.hi.png
new file mode 100644
index 00000000..9bfdc5c8
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.hi.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.pl.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.pl.png
new file mode 100644
index 00000000..52d1646c
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.pl.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.pt.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.pt.png
new file mode 100644
index 00000000..c8bcfb81
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.pt.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.de.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.de.png
new file mode 100644
index 00000000..d24ff6b4
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.de.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.es.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.es.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.es.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.fa.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.fa.png
new file mode 100644
index 00000000..a750a894
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.fa.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.hi.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.hi.png
new file mode 100644
index 00000000..b96e2a55
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.hi.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.pl.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.pl.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.pl.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.pt.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.pt.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.pt.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.de.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.de.png
new file mode 100644
index 00000000..2f1ec763
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.de.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.es.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.es.png
new file mode 100644
index 00000000..f612d892
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.es.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.fa.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.fa.png
new file mode 100644
index 00000000..be6cb53e
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.fa.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.hi.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.hi.png
new file mode 100644
index 00000000..cc8da3ef
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.hi.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.pl.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.pl.png
new file mode 100644
index 00000000..aa40b3b6
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.pl.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.pt.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.pt.png
new file mode 100644
index 00000000..567eb98d
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.pt.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.de.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.de.png
new file mode 100644
index 00000000..29cae356
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.de.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.es.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.es.png
new file mode 100644
index 00000000..9628766d
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.es.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.fa.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.fa.png
new file mode 100644
index 00000000..ec4ffad7
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.fa.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.hi.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.hi.png
new file mode 100644
index 00000000..833aa8ca
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.hi.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.pl.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.pl.png
new file mode 100644
index 00000000..647bb975
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.pl.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.pt.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.pt.png
new file mode 100644
index 00000000..35853d7d
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.pt.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.de.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.de.png
new file mode 100644
index 00000000..0e71c7ee
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.de.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.es.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.es.png
new file mode 100644
index 00000000..edc34b92
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.es.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.fa.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.fa.png
new file mode 100644
index 00000000..945ca6bb
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.fa.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.hi.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.hi.png
new file mode 100644
index 00000000..88516407
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.hi.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.pl.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.pl.png
new file mode 100644
index 00000000..93c9891f
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.pl.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.pt.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.pt.png
new file mode 100644
index 00000000..39a476c7
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.pt.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.de.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.de.png
new file mode 100644
index 00000000..e7ecbae7
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.de.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.es.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.es.png
new file mode 100644
index 00000000..e7ecbae7
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.es.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.fa.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.fa.png
new file mode 100644
index 00000000..e7ecbae7
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.fa.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.hi.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.hi.png
new file mode 100644
index 00000000..e7ecbae7
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.hi.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.pl.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.pl.png
new file mode 100644
index 00000000..e7ecbae7
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.pl.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.pt.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.pt.png
new file mode 100644
index 00000000..e7ecbae7
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.pt.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.de.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.de.png
new file mode 100644
index 00000000..31ee8eff
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.de.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.es.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.es.png
new file mode 100644
index 00000000..7319b1c4
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.es.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.fa.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.fa.png
new file mode 100644
index 00000000..78b53d9c
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.fa.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.hi.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.hi.png
new file mode 100644
index 00000000..bbfa46e8
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.hi.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.pl.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.pl.png
new file mode 100644
index 00000000..8f089db6
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.pl.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.pt.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.pt.png
new file mode 100644
index 00000000..5801c49a
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.pt.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.de.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.de.png
new file mode 100644
index 00000000..e2e3158f
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.de.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.es.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.es.png
new file mode 100644
index 00000000..5362d897
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.es.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.fa.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.fa.png
new file mode 100644
index 00000000..a3a3a6da
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.fa.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.hi.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.hi.png
new file mode 100644
index 00000000..e44754a1
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.hi.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.pl.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.pl.png
new file mode 100644
index 00000000..1734ae0b
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.pl.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.pt.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.pt.png
new file mode 100644
index 00000000..ba3c476b
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.pt.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.de.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.de.png
new file mode 100644
index 00000000..63d9f054
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.de.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.es.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.es.png
new file mode 100644
index 00000000..dad73556
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.es.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.fa.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.fa.png
new file mode 100644
index 00000000..2b32306d
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.fa.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.hi.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.hi.png
new file mode 100644
index 00000000..f6b3a596
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.hi.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.pl.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.pl.png
new file mode 100644
index 00000000..6dc6a2e3
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.pl.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.pt.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.pt.png
new file mode 100644
index 00000000..2122181e
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.pt.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.de.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.de.png
new file mode 100644
index 00000000..7973b05c
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.de.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.es.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.es.png
new file mode 100644
index 00000000..909bb0b0
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.es.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.fa.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.fa.png
new file mode 100644
index 00000000..fb8ca146
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.fa.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.hi.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.hi.png
new file mode 100644
index 00000000..e11507c6
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.hi.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.pl.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.pl.png
new file mode 100644
index 00000000..4d8495ec
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.pl.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.pt.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.pt.png
new file mode 100644
index 00000000..8cf2092c
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.pt.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.de.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.de.png
new file mode 100644
index 00000000..11b3e971
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.de.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.es.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.es.png
new file mode 100644
index 00000000..d21f39d2
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.es.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.fa.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.fa.png
new file mode 100644
index 00000000..d0ac69d1
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.fa.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.hi.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.hi.png
new file mode 100644
index 00000000..4c6cdc79
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.hi.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.pl.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.pl.png
new file mode 100644
index 00000000..be1c8d77
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.pl.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.pt.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.pt.png
new file mode 100644
index 00000000..f9feccdc
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.pt.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.de.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.de.png
new file mode 100644
index 00000000..463554f4
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.de.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.es.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.es.png
new file mode 100644
index 00000000..b67cfffb
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.es.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.fa.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.fa.png
new file mode 100644
index 00000000..81f49697
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.fa.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.hi.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.hi.png
new file mode 100644
index 00000000..77a3d8bc
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.hi.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.pl.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.pl.png
new file mode 100644
index 00000000..954aca09
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.pl.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.pt.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.pt.png
new file mode 100644
index 00000000..c71e9bbf
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.pt.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.de.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.de.png
new file mode 100644
index 00000000..adb6d4ed
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.de.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.es.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.es.png
new file mode 100644
index 00000000..00463c40
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.es.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.fa.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.fa.png
new file mode 100644
index 00000000..950f6ba9
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.fa.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.hi.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.hi.png
new file mode 100644
index 00000000..0b50d655
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.hi.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.pl.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.pl.png
new file mode 100644
index 00000000..961f019c
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.pl.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.pt.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.pt.png
new file mode 100644
index 00000000..79671558
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.pt.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.de.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.de.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.de.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.es.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.es.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.es.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.fa.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.fa.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.fa.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.hi.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.hi.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.hi.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.pl.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.pl.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.pl.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.pt.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.pt.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.pt.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.de.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.de.png
new file mode 100644
index 00000000..e3e3c1f4
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.de.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.es.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.es.png
new file mode 100644
index 00000000..3bd8f346
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.es.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.fa.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.fa.png
new file mode 100644
index 00000000..922e890f
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.fa.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.hi.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.hi.png
new file mode 100644
index 00000000..04318dac
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.hi.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.pl.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.pl.png
new file mode 100644
index 00000000..1de6ba86
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.pl.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.pt.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.pt.png
new file mode 100644
index 00000000..92e5de8c
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.pt.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.de.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.de.png
new file mode 100644
index 00000000..60c3763c
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.de.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.es.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.es.png
new file mode 100644
index 00000000..a9f4f12f
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.es.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.fa.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.fa.png
new file mode 100644
index 00000000..365712ee
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.fa.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.hi.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.hi.png
new file mode 100644
index 00000000..05302529
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.hi.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.pl.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.pl.png
new file mode 100644
index 00000000..5bec34c6
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.pl.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.pt.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.pt.png
new file mode 100644
index 00000000..4d993187
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.pt.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.de.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.de.png
new file mode 100644
index 00000000..63cea9e0
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.de.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.es.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.es.png
new file mode 100644
index 00000000..98395d3c
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.es.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.fa.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.fa.png
new file mode 100644
index 00000000..a008472f
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.fa.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.hi.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.hi.png
new file mode 100644
index 00000000..f52715df
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.hi.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.pl.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.pl.png
new file mode 100644
index 00000000..6867f092
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.pl.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.pt.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.pt.png
new file mode 100644
index 00000000..1da91565
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.pt.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.de.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.de.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.de.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.es.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.es.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.es.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.fa.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.fa.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.fa.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.hi.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.hi.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.hi.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.pl.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.pl.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.pl.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.pt.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.pt.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.pt.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.de.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.de.png
new file mode 100644
index 00000000..b7e9e61c
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.de.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.es.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.es.png
new file mode 100644
index 00000000..fd228bc5
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.es.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.fa.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.fa.png
new file mode 100644
index 00000000..8a4e2d5e
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.fa.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.hi.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.hi.png
new file mode 100644
index 00000000..13bc4488
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.hi.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.pl.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.pl.png
new file mode 100644
index 00000000..1bec0651
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.pl.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.pt.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.pt.png
new file mode 100644
index 00000000..ea7d0e5f
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.pt.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.de.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.de.png
new file mode 100644
index 00000000..cb095094
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.de.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.es.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.es.png
new file mode 100644
index 00000000..c21e4cd0
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.es.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.fa.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.fa.png
new file mode 100644
index 00000000..0b2dfa2d
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.fa.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.hi.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.hi.png
new file mode 100644
index 00000000..ce95c358
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.hi.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.pl.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.pl.png
new file mode 100644
index 00000000..1e705fb5
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.pl.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.pt.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.pt.png
new file mode 100644
index 00000000..fde2355e
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.pt.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.de.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.de.png
new file mode 100644
index 00000000..df69ce07
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.de.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.es.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.es.png
new file mode 100644
index 00000000..0d78944e
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.es.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.fa.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.fa.png
new file mode 100644
index 00000000..4cdcb274
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.fa.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.hi.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.hi.png
new file mode 100644
index 00000000..04bbe7ae
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.hi.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.pl.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.pl.png
new file mode 100644
index 00000000..5761aafb
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.pl.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.pt.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.pt.png
new file mode 100644
index 00000000..10826bbd
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.pt.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.de.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.de.png
new file mode 100644
index 00000000..e226d017
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.de.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.es.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.es.png
new file mode 100644
index 00000000..b416c122
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.es.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.fa.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.fa.png
new file mode 100644
index 00000000..420f7f28
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.fa.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.hi.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.hi.png
new file mode 100644
index 00000000..cb9cdf2d
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.hi.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.pl.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.pl.png
new file mode 100644
index 00000000..dfaaba76
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.pl.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.pt.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.pt.png
new file mode 100644
index 00000000..bbfa0c76
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.pt.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.de.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.de.png
new file mode 100644
index 00000000..165242ca
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.de.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.es.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.es.png
new file mode 100644
index 00000000..06d91d96
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.es.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.fa.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.fa.png
new file mode 100644
index 00000000..201c26ba
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.fa.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.hi.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.hi.png
new file mode 100644
index 00000000..bd53af28
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.hi.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.pl.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.pl.png
new file mode 100644
index 00000000..93f69a3a
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.pl.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.pt.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.pt.png
new file mode 100644
index 00000000..d348e610
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.pt.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.de.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.de.png
new file mode 100644
index 00000000..412e992c
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.de.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.es.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.es.png
new file mode 100644
index 00000000..06d91d96
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.es.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.fa.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.fa.png
new file mode 100644
index 00000000..930094ba
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.fa.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.hi.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.hi.png
new file mode 100644
index 00000000..39931be5
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.hi.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.pl.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.pl.png
new file mode 100644
index 00000000..8257b97b
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.pl.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.pt.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.pt.png
new file mode 100644
index 00000000..cec1a555
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.pt.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.de.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.de.png
new file mode 100644
index 00000000..24b42ce8
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.de.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.es.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.es.png
new file mode 100644
index 00000000..1fb44000
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.es.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.fa.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.fa.png
new file mode 100644
index 00000000..47874450
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.fa.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.hi.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.hi.png
new file mode 100644
index 00000000..a7fdf048
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.hi.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.pl.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.pl.png
new file mode 100644
index 00000000..44411af0
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.pl.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.pt.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.pt.png
new file mode 100644
index 00000000..411e9ab0
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.pt.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.de.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.de.png
new file mode 100644
index 00000000..69eeb549
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.de.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.es.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.es.png
new file mode 100644
index 00000000..7ac4a027
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.es.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.fa.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.fa.png
new file mode 100644
index 00000000..710e7076
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.fa.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.hi.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.hi.png
new file mode 100644
index 00000000..184eb6df
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.hi.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.pl.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.pl.png
new file mode 100644
index 00000000..8b7876eb
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.pl.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.pt.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.pt.png
new file mode 100644
index 00000000..d1d33a22
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.pt.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.de.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.de.png
new file mode 100644
index 00000000..15447c80
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.de.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.es.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.es.png
new file mode 100644
index 00000000..af568de9
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.es.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.fa.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.fa.png
new file mode 100644
index 00000000..8883e21f
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.fa.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.hi.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.hi.png
new file mode 100644
index 00000000..06f0d3fb
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.hi.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.pl.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.pl.png
new file mode 100644
index 00000000..c25d4cec
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.pl.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.pt.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.pt.png
new file mode 100644
index 00000000..76efbdcf
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.pt.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.de.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.de.png
new file mode 100644
index 00000000..7de88771
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.de.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.es.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.es.png
new file mode 100644
index 00000000..58b15470
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.es.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.fa.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.fa.png
new file mode 100644
index 00000000..243a4dd6
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.fa.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.hi.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.hi.png
new file mode 100644
index 00000000..7a3b050a
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.hi.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.pl.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.pl.png
new file mode 100644
index 00000000..9ca8356d
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.pl.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.pt.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.pt.png
new file mode 100644
index 00000000..27eb6959
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.pt.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.de.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.de.png
new file mode 100644
index 00000000..d47ad6aa
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.de.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.es.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.es.png
new file mode 100644
index 00000000..9ea23d5b
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.es.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.fa.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.fa.png
new file mode 100644
index 00000000..cbdc7697
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.fa.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.hi.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.hi.png
new file mode 100644
index 00000000..e1318f4b
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.hi.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.pl.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.pl.png
new file mode 100644
index 00000000..5806ccee
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.pl.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.pt.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.pt.png
new file mode 100644
index 00000000..bb4ec999
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.pt.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.de.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.de.png
new file mode 100644
index 00000000..f6405cd1
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.de.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.es.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.es.png
new file mode 100644
index 00000000..177d0c29
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.es.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.fa.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.fa.png
new file mode 100644
index 00000000..bb05292a
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.fa.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.hi.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.hi.png
new file mode 100644
index 00000000..f0f5a900
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.hi.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.pl.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.pl.png
new file mode 100644
index 00000000..f10cbc57
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.pl.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.pt.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.pt.png
new file mode 100644
index 00000000..73b3dd7b
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.pt.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.de.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.de.png
new file mode 100644
index 00000000..fd1ba85f
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.de.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.es.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.es.png
new file mode 100644
index 00000000..0a3971f0
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.es.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.fa.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.fa.png
new file mode 100644
index 00000000..377ebb8a
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.fa.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.hi.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.hi.png
new file mode 100644
index 00000000..fa1d6ffa
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.hi.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.pl.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.pl.png
new file mode 100644
index 00000000..b35e6752
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.pl.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.pt.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.pt.png
new file mode 100644
index 00000000..0a3971f0
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.pt.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.de.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.de.png
new file mode 100644
index 00000000..5d7aceae
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.de.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.es.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.es.png
new file mode 100644
index 00000000..016ffbce
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.es.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.fa.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.fa.png
new file mode 100644
index 00000000..a2de8d1b
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.fa.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.hi.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.hi.png
new file mode 100644
index 00000000..ca21e40e
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.hi.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.pl.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.pl.png
new file mode 100644
index 00000000..c336f4fc
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.pl.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.pt.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.pt.png
new file mode 100644
index 00000000..7d3e1eb2
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.pt.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.de.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.de.png
new file mode 100644
index 00000000..ce0b26ad
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.de.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.es.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.es.png
new file mode 100644
index 00000000..8d6e6406
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.es.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.fa.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.fa.png
new file mode 100644
index 00000000..6ada6ffd
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.fa.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.hi.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.hi.png
new file mode 100644
index 00000000..cc896839
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.hi.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.pl.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.pl.png
new file mode 100644
index 00000000..3b0d83dd
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.pl.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.pt.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.pt.png
new file mode 100644
index 00000000..243246c4
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.pt.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.de.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.de.png
new file mode 100644
index 00000000..a07ef06c
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.de.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.es.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.es.png
new file mode 100644
index 00000000..c400efb4
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.es.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.fa.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.fa.png
new file mode 100644
index 00000000..dc5915a7
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.fa.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.hi.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.hi.png
new file mode 100644
index 00000000..b6c179c9
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.hi.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.pl.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.pl.png
new file mode 100644
index 00000000..45f75730
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.pl.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.pt.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.pt.png
new file mode 100644
index 00000000..b0e93f89
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.pt.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.de.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.de.png
new file mode 100644
index 00000000..facb75c4
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.de.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.es.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.es.png
new file mode 100644
index 00000000..72904f93
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.es.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.fa.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.fa.png
new file mode 100644
index 00000000..cd47fe06
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.fa.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.hi.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.hi.png
new file mode 100644
index 00000000..3386950d
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.hi.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.pl.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.pl.png
new file mode 100644
index 00000000..0abdd872
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.pl.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.pt.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.pt.png
new file mode 100644
index 00000000..9e72ea46
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.pt.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.de.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.de.png
new file mode 100644
index 00000000..d57ee86b
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.de.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.es.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.es.png
new file mode 100644
index 00000000..ee860302
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.es.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.fa.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.fa.png
new file mode 100644
index 00000000..e6d8692e
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.fa.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.hi.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.hi.png
new file mode 100644
index 00000000..259e6afb
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.hi.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.pl.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.pl.png
new file mode 100644
index 00000000..fc76d719
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.pl.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.pt.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.pt.png
new file mode 100644
index 00000000..6142c14a
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.pt.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.de.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.de.png
new file mode 100644
index 00000000..61e11139
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.de.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.es.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.es.png
new file mode 100644
index 00000000..366d050b
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.es.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.fa.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.fa.png
new file mode 100644
index 00000000..68fa9303
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.fa.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.hi.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.hi.png
new file mode 100644
index 00000000..c385c316
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.hi.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.pl.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.pl.png
new file mode 100644
index 00000000..75e75524
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.pl.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.pt.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.pt.png
new file mode 100644
index 00000000..268b2251
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.pt.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.de.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.de.png
new file mode 100644
index 00000000..d28a7a97
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.de.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.es.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.es.png
new file mode 100644
index 00000000..411c7a6d
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.es.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.fa.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.fa.png
new file mode 100644
index 00000000..8ba93cee
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.fa.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.hi.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.hi.png
new file mode 100644
index 00000000..63ae45aa
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.hi.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.pl.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.pl.png
new file mode 100644
index 00000000..b7d1edfb
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.pl.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.pt.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.pt.png
new file mode 100644
index 00000000..646bb889
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.pt.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.de.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.de.png
new file mode 100644
index 00000000..f4f947ff
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.de.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.es.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.es.png
new file mode 100644
index 00000000..e26834cd
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.es.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.fa.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.fa.png
new file mode 100644
index 00000000..abfde2f4
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.fa.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.hi.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.hi.png
new file mode 100644
index 00000000..721f4580
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.hi.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.pl.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.pl.png
new file mode 100644
index 00000000..90913167
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.pl.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.pt.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.pt.png
new file mode 100644
index 00000000..445d0bac
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.pt.png differ
diff --git a/translations/de/1-Introduction/01-defining-data-science/README.md b/translations/de/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..2e82f9d6
--- /dev/null
+++ b/translations/de/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## Arten von Daten
+
+Wie bereits erwähnt, sind Daten überall. Wir müssen sie nur auf die richtige Weise erfassen! Es ist hilfreich, zwischen **strukturierten** und **unstrukturierten** Daten zu unterscheiden. Erstere werden typischerweise in einer gut strukturierten Form dargestellt, oft als Tabelle oder mehrere Tabellen, während letztere einfach eine Sammlung von Dateien sind. Manchmal sprechen wir auch von **halbstrukturierten** Daten, die eine gewisse Struktur aufweisen, die jedoch stark variieren kann.
+
+| Strukturiert | Halbstrukturiert | Unstrukturiert |
+| ---------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------ | --------------------------------------- |
+| Liste von Personen mit ihren Telefonnummern | Wikipedia-Seiten mit Links | Text der Encyclopedia Britannica |
+| Temperatur in allen Räumen eines Gebäudes jede Minute der letzten 20 Jahre | Sammlung wissenschaftlicher Artikel im JSON-Format mit Autoren, Veröffentlichungsdatum und Abstract | Dateifreigabe mit Unternehmensdokumenten |
+| Daten zu Alter und Geschlecht aller Personen, die das Gebäude betreten | Internetseiten | Rohes Videomaterial von Überwachungskameras |
+
+## Woher man Daten bekommt
+
+Es gibt viele mögliche Quellen für Daten, und es wäre unmöglich, alle aufzuzählen! Dennoch wollen wir einige typische Orte erwähnen, an denen man Daten finden kann:
+
+* **Strukturiert**
+ - **Internet der Dinge** (IoT), einschließlich Daten von verschiedenen Sensoren wie Temperatur- oder Drucksensoren, liefert viele nützliche Daten. Zum Beispiel kann ein Bürogebäude mit IoT-Sensoren ausgestattet werden, um Heizung und Beleuchtung automatisch zu steuern und Kosten zu minimieren.
+ - **Umfragen**, die wir Nutzer nach einem Kauf oder nach dem Besuch einer Website ausfüllen lassen.
+ - **Verhaltensanalysen** können uns beispielsweise helfen zu verstehen, wie tief ein Nutzer in eine Website eintaucht und was der typische Grund für das Verlassen der Seite ist.
+* **Unstrukturiert**
+ - **Texte** können eine reiche Quelle von Erkenntnissen sein, wie etwa eine allgemeine **Stimmungsbewertung** oder das Extrahieren von Schlüsselwörtern und semantischen Bedeutungen.
+ - **Bilder** oder **Videos**. Ein Video von einer Überwachungskamera kann verwendet werden, um den Verkehr auf der Straße zu schätzen und Menschen über mögliche Staus zu informieren.
+ - **Protokolle** von Webservern können genutzt werden, um zu verstehen, welche Seiten unserer Website am häufigsten besucht werden und wie lange.
+* **Halbstrukturiert**
+ - **Soziale Netzwerke** können großartige Datenquellen über Benutzerpersönlichkeiten und die potenzielle Effektivität bei der Verbreitung von Informationen sein.
+ - Wenn wir eine Sammlung von Fotos von einer Party haben, können wir versuchen, **Gruppendynamik**-Daten zu extrahieren, indem wir ein Netzwerk von Personen erstellen, die miteinander fotografiert wurden.
+
+Indem man verschiedene mögliche Datenquellen kennt, kann man über verschiedene Szenarien nachdenken, in denen Datenwissenschaftstechniken angewendet werden können, um die Situation besser zu verstehen und Geschäftsprozesse zu verbessern.
+
+## Was man mit Daten machen kann
+
+In der Datenwissenschaft konzentrieren wir uns auf die folgenden Schritte der Datenreise:
+
+Natürlich können je nach den tatsächlichen Daten einige Schritte fehlen (z. B. wenn die Daten bereits in einer Datenbank vorliegen oder wenn kein Modelltraining erforderlich ist), oder einige Schritte können mehrmals wiederholt werden (wie die Datenverarbeitung).
+
+## Digitalisierung und digitale Transformation
+
+In den letzten zehn Jahren haben viele Unternehmen begonnen, die Bedeutung von Daten bei Geschäftsentscheidungen zu erkennen. Um Prinzipien der Datenwissenschaft auf ein Unternehmen anzuwenden, muss zunächst eine Datenerfassung erfolgen, d. h. Geschäftsprozesse müssen in digitale Form übersetzt werden. Dies wird als **Digitalisierung** bezeichnet. Die Anwendung von Datenwissenschaftstechniken auf diese Daten zur Entscheidungsfindung kann zu erheblichen Produktivitätssteigerungen (oder sogar zu einer Neuausrichtung des Geschäfts) führen, was als **digitale Transformation** bezeichnet wird.
+
+Betrachten wir ein Beispiel. Angenommen, wir haben einen Datenwissenschaftskurs (wie diesen hier), den wir online an Studierende vermitteln, und wir möchten Datenwissenschaft nutzen, um ihn zu verbessern. Wie können wir das tun?
+
+Wir könnten damit beginnen, uns zu fragen: "Was kann digitalisiert werden?" Der einfachste Weg wäre, die Zeit zu messen, die jeder Studierende benötigt, um jedes Modul abzuschließen, und das erworbene Wissen durch einen Multiple-Choice-Test am Ende jedes Moduls zu bewerten. Indem wir die Abschlusszeiten aller Studierenden mitteln, können wir herausfinden, welche Module den Studierenden die größten Schwierigkeiten bereiten, und daran arbeiten, sie zu vereinfachen.
+Man könnte argumentieren, dass dieser Ansatz nicht ideal ist, da Module unterschiedlich lang sein können. Es wäre wahrscheinlich gerechter, die Zeit durch die Länge des Moduls (in Anzahl der Zeichen) zu teilen und stattdessen diese Werte zu vergleichen.
+Wenn wir beginnen, die Ergebnisse von Multiple-Choice-Tests zu analysieren, können wir versuchen herauszufinden, welche Konzepte den Schülern Schwierigkeiten bereiten, und diese Informationen nutzen, um die Inhalte zu verbessern. Dazu müssen wir Tests so gestalten, dass jede Frage einem bestimmten Konzept oder Wissensbereich zugeordnet werden kann.
+
+Wenn wir es noch komplexer machen wollen, können wir die benötigte Zeit für jedes Modul gegen die Alterskategorie der Schüler auftragen. Wir könnten herausfinden, dass es für einige Alterskategorien unangemessen lange dauert, ein Modul abzuschließen, oder dass Schüler abbrechen, bevor sie es beenden. Dies kann uns helfen, Altersempfehlungen für das Modul zu geben und die Unzufriedenheit durch falsche Erwartungen zu minimieren.
+
+## 🚀 Herausforderung
+
+In dieser Herausforderung werden wir versuchen, Konzepte, die für den Bereich der Datenwissenschaft relevant sind, durch die Analyse von Texten zu finden. Wir werden einen Wikipedia-Artikel über Datenwissenschaft nehmen, den Text herunterladen und verarbeiten und dann eine Wortwolke wie diese erstellen:
+
+
+
+Besuche [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore'), um den Code durchzulesen. Du kannst den Code auch ausführen und sehen, wie er alle Datenumwandlungen in Echtzeit durchführt.
+
+> Wenn du nicht weißt, wie man Code in einem Jupyter Notebook ausführt, schau dir [diesen Artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) an.
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Aufgaben
+
+* **Aufgabe 1**: Ändere den obigen Code, um verwandte Konzepte für die Bereiche **Big Data** und **Maschinelles Lernen** zu finden.
+* **Aufgabe 2**: [Denke über Szenarien in der Datenwissenschaft nach](assignment.md)
+
+## Credits
+
+Diese Lektion wurde mit ♥️ von [Dmitry Soshnikov](http://soshnikov.com) verfasst.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/01-defining-data-science/assignment.md b/translations/de/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..658c18d5
--- /dev/null
+++ b/translations/de/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,44 @@
+
+# Aufgabe: Szenarien der Datenwissenschaft
+
+In dieser ersten Aufgabe bitten wir Sie, über einige reale Prozesse oder Probleme in verschiedenen Problembereichen nachzudenken und darüber, wie Sie diese mithilfe des Datenwissenschaftsprozesses verbessern können. Denken Sie über Folgendes nach:
+
+1. Welche Daten können Sie sammeln?
+1. Wie würden Sie diese Daten sammeln?
+1. Wie würden Sie die Daten speichern? Wie groß werden die Daten voraussichtlich sein?
+1. Welche Erkenntnisse könnten Sie aus diesen Daten gewinnen? Welche Entscheidungen könnten wir auf Basis der Daten treffen?
+
+Versuchen Sie, über 3 verschiedene Probleme/Prozesse nachzudenken und beschreiben Sie jeden der oben genannten Punkte für jeden Problembereich.
+
+Hier sind einige Problembereiche und Probleme, die Ihnen den Einstieg erleichtern können:
+
+1. Wie können Sie Daten nutzen, um den Bildungsprozess für Kinder in Schulen zu verbessern?
+1. Wie können Sie Daten nutzen, um die Impfung während der Pandemie zu kontrollieren?
+1. Wie können Sie Daten nutzen, um sicherzustellen, dass Sie bei der Arbeit produktiv sind?
+
+## Anweisungen
+
+Füllen Sie die folgende Tabelle aus (ersetzen Sie die vorgeschlagenen Problembereiche durch Ihre eigenen, falls erforderlich):
+
+| Problembereich | Problem | Welche Daten sammeln | Wie die Daten speichern | Welche Erkenntnisse/Entscheidungen können wir treffen |
+|----------------|---------|-----------------------|--------------------------|--------------------------------------|
+| Bildung | | | | |
+| Impfung | | | | |
+| Produktivität | | | | |
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Es wurden sinnvolle Datenquellen, Möglichkeiten zur Datenspeicherung und mögliche Entscheidungen/Erkenntnisse für alle Problembereiche identifiziert | Einige Aspekte der Lösung sind nicht detailliert, die Datenspeicherung wird nicht diskutiert, mindestens 2 Problembereiche werden beschrieben | Nur Teile der Datenlösung sind beschrieben, nur ein Problembereich wird berücksichtigt.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/de/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..34d15caa
--- /dev/null
+++ b/translations/de/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,46 @@
+
+# Aufgabe: Szenarien der Datenwissenschaft
+
+In dieser ersten Aufgabe bitten wir Sie, über einen realen Prozess oder ein Problem in verschiedenen Problembereichen nachzudenken und wie Sie diesen mithilfe des Datenwissenschaftsprozesses verbessern können. Denken Sie über Folgendes nach:
+
+1. Welche Daten können Sie sammeln?
+1. Wie würden Sie diese Daten sammeln?
+1. Wie würden Sie die Daten speichern? Wie groß werden die Daten voraussichtlich sein?
+1. Welche Erkenntnisse könnten Sie aus diesen Daten gewinnen? Welche Entscheidungen könnten wir auf Basis der Daten treffen?
+
+Versuchen Sie, über 3 verschiedene Probleme/Prozesse nachzudenken und beschreiben Sie jeden der oben genannten Punkte für jeden Problembereich.
+
+Hier sind einige Problembereiche und Probleme, die Ihnen den Einstieg erleichtern können:
+
+1. Wie können Sie Daten nutzen, um den Bildungsprozess für Kinder in Schulen zu verbessern?
+1. Wie können Sie Daten nutzen, um die Impfung während einer Pandemie zu kontrollieren?
+1. Wie können Sie Daten nutzen, um sicherzustellen, dass Sie bei der Arbeit produktiv sind?
+
+## Anweisungen
+
+Füllen Sie die folgende Tabelle aus (ersetzen Sie die vorgeschlagenen Problembereiche durch Ihre eigenen, falls erforderlich):
+
+| Problembereich | Problem | Welche Daten sammeln | Wie die Daten speichern | Welche Erkenntnisse/Entscheidungen wir treffen können |
+|----------------|---------|-----------------------|--------------------------|--------------------------------------|
+| Bildung | An Universitäten haben wir typischerweise eine geringe Teilnahme an Vorlesungen, und wir haben die Hypothese, dass Studierende, die regelmäßig an Vorlesungen teilnehmen, im Durchschnitt besser bei Prüfungen abschneiden. Wir möchten die Teilnahme fördern und die Hypothese testen. | Wir können die Teilnahme durch Bilder, die von der Überwachungskamera im Klassenzimmer aufgenommen werden, oder durch das Tracking von Bluetooth/WLAN-Adressen der Mobiltelefone der Studierenden im Klassenzimmer erfassen. Prüfungsdaten sind bereits in der Universitätsdatenbank verfügbar. | Falls wir Bilder der Überwachungskamera verfolgen, müssen wir einige (5-10) Fotos während der Vorlesung speichern (unstrukturierte Daten) und dann KI verwenden, um die Gesichter der Studierenden zu identifizieren (Daten in strukturierte Form umwandeln). | Wir können durchschnittliche Teilnahme-Daten für jede*n Studierende*n berechnen und prüfen, ob es eine Korrelation mit den Prüfungsergebnissen gibt. Mehr über Korrelation werden wir im Abschnitt [Wahrscheinlichkeit und Statistik](../../04-stats-and-probability/README.md) besprechen. Um die Teilnahme der Studierenden zu fördern, können wir die wöchentliche Teilnahmebewertung auf dem Schulportal veröffentlichen und Preise unter denjenigen mit der höchsten Teilnahme verlosen. |
+| Impfung | | | | |
+| Produktivität | | | | |
+
+> *Wir geben nur eine Antwort als Beispiel, damit Sie eine Vorstellung davon bekommen, was in dieser Aufgabe erwartet wird.*
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Es wurden sinnvolle Datenquellen, Speichermethoden und mögliche Entscheidungen/Erkenntnisse für alle Problembereiche identifiziert | Einige Aspekte der Lösung sind nicht detailliert, die Datenspeicherung wird nicht diskutiert, mindestens 2 Problembereiche werden beschrieben | Nur Teile der Datenlösung werden beschrieben, es wird nur ein Problembereich betrachtet.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/02-ethics/README.md b/translations/de/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..6864ff0c
--- /dev/null
+++ b/translations/de/1-Introduction/02-ethics/README.md
@@ -0,0 +1,265 @@
+
+# Einführung in Datenethik
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Datenethik - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Wir sind alle Datenbürger, die in einer datengetriebenen Welt leben.
+
+Markttrends zeigen, dass bis 2022 jede dritte große Organisation ihre Daten über Online-[Marktplätze und Börsen](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) kaufen und verkaufen wird. Als **App-Entwickler** wird es für uns einfacher und günstiger, datengesteuerte Erkenntnisse und algorithmusgesteuerte Automatisierung in den täglichen Nutzererfahrungen zu integrieren. Doch während KI allgegenwärtig wird, müssen wir auch die potenziellen Schäden verstehen, die durch die [Waffenisierung](https://www.youtube.com/watch?v=TQHs8SA1qpk) solcher Algorithmen in großem Maßstab entstehen können.
+
+Trends zeigen außerdem, dass wir bis 2025 über [180 Zettabyte](https://www.statista.com/statistics/871513/worldwide-data-created/) an Daten erzeugen und konsumieren werden. Als **Datenwissenschaftler** gibt uns dies beispiellosen Zugang zu persönlichen Daten. Das bedeutet, dass wir Verhaltensprofile von Nutzern erstellen und Entscheidungsprozesse beeinflussen können, die eine [Illusion der freien Wahl](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) schaffen, während wir Nutzer möglicherweise in von uns bevorzugte Richtungen lenken. Dies wirft auch größere Fragen zu Datenschutz und Nutzerrechten auf.
+
+Datenethik sind jetzt _notwendige Leitplanken_ für Datenwissenschaft und Ingenieurwesen, die uns helfen, potenzielle Schäden und unbeabsichtigte Konsequenzen unserer datengetriebenen Handlungen zu minimieren. Der [Gartner Hype Cycle für KI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifiziert relevante Trends in digitaler Ethik, verantwortungsvoller KI und KI-Governance als Schlüsseltreiber für größere Megatrends rund um die _Demokratisierung_ und _Industrialisierung_ von KI.
+
+
+
+In dieser Lektion werden wir den faszinierenden Bereich der Datenethik erkunden – von grundlegenden Konzepten und Herausforderungen bis hin zu Fallstudien und angewandten KI-Konzepten wie Governance – die helfen, eine Ethikkultur in Teams und Organisationen zu etablieren, die mit Daten und KI arbeiten.
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Grundlegende Definitionen
+
+Beginnen wir mit dem Verständnis der grundlegenden Terminologie.
+
+Das Wort "Ethik" stammt aus dem [griechischen Wort "ethikos"](https://en.wikipedia.org/wiki/Ethics) (und dessen Wurzel "ethos"), was _Charakter oder moralische Natur_ bedeutet.
+
+**Ethik** bezieht sich auf die gemeinsamen Werte und moralischen Prinzipien, die unser Verhalten in der Gesellschaft bestimmen. Ethik basiert nicht auf Gesetzen, sondern auf allgemein akzeptierten Normen dessen, was als "richtig vs. falsch" gilt. Dennoch können ethische Überlegungen Initiativen zur Unternehmensführung und staatliche Vorschriften beeinflussen, die mehr Anreize für die Einhaltung schaffen.
+
+**Datenethik** ist ein [neuer Zweig der Ethik](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), der "moralische Probleme im Zusammenhang mit _Daten, Algorithmen und entsprechenden Praktiken_ untersucht und bewertet". Hierbei konzentriert sich **"Daten"** auf Handlungen im Zusammenhang mit Erzeugung, Aufzeichnung, Pflege, Verarbeitung, Verbreitung, Teilen und Nutzung, **"Algorithmen"** auf KI, Agenten, maschinelles Lernen und Roboter, und **"Praktiken"** auf Themen wie verantwortungsvolle Innovation, Programmierung, Hacking und Ethikkodizes.
+
+**Angewandte Ethik** ist die [praktische Anwendung moralischer Überlegungen](https://en.wikipedia.org/wiki/Applied_ethics). Es ist der Prozess der aktiven Untersuchung ethischer Fragen im Kontext von _realen Handlungen, Produkten und Prozessen_ und der Ergreifung von Korrekturmaßnahmen, um sicherzustellen, dass diese mit unseren definierten ethischen Werten übereinstimmen.
+
+**Ethikkultur** bezieht sich darauf, [_angewandte Ethik zu operationalisieren_](https://hbr.org/2019/05/how-to-design-an-ethical-organization), um sicherzustellen, dass unsere ethischen Prinzipien und Praktiken konsistent und skalierbar in der gesamten Organisation übernommen werden. Erfolgreiche Ethikkulturen definieren organisationsweite ethische Prinzipien, bieten sinnvolle Anreize für die Einhaltung und verstärken Ethiknormen, indem sie gewünschte Verhaltensweisen auf jeder Ebene der Organisation fördern und verstärken.
+
+## Ethikkonzepte
+
+In diesem Abschnitt werden wir Konzepte wie **gemeinsame Werte** (Prinzipien) und **ethische Herausforderungen** (Probleme) für Datenethik diskutieren – und **Fallstudien** untersuchen, die Ihnen helfen, diese Konzepte in realen Kontexten zu verstehen.
+
+### 1. Ethische Prinzipien
+
+Jede Datenethikstrategie beginnt mit der Definition von _ethischen Prinzipien_ – den "gemeinsamen Werten", die akzeptables Verhalten beschreiben und konforme Handlungen in unseren Daten- und KI-Projekten leiten. Sie können diese auf individueller oder Teamebene definieren. Die meisten großen Organisationen legen diese jedoch in einer _ethischen KI-Missionserklärung_ oder einem Rahmenwerk fest, das auf Unternehmensebene definiert und konsistent über alle Teams hinweg durchgesetzt wird.
+
+**Beispiel:** Microsofts [Verantwortungsvolle KI](https://www.microsoft.com/en-us/ai/responsible-ai)-Missionserklärung lautet: _"Wir sind verpflichtet, die Entwicklung von KI voranzutreiben, die von ethischen Prinzipien geleitet wird und den Menschen in den Mittelpunkt stellt"_ – und identifiziert 6 ethische Prinzipien im untenstehenden Rahmenwerk:
+
+
+
+Lassen Sie uns diese Prinzipien kurz erkunden. _Transparenz_ und _Verantwortlichkeit_ sind grundlegende Werte, auf denen andere Prinzipien aufbauen – beginnen wir also damit:
+
+* [**Verantwortlichkeit**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) macht Praktiker _verantwortlich_ für ihre Daten- und KI-Operationen sowie die Einhaltung dieser ethischen Prinzipien.
+* [**Transparenz**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) stellt sicher, dass Daten- und KI-Handlungen für Nutzer _verständlich_ (interpretierbar) sind und erklärt, was und warum hinter Entscheidungen steckt.
+* [**Fairness**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) – konzentriert sich darauf, sicherzustellen, dass KI _alle Menschen_ fair behandelt und systemische oder implizite sozio-technische Vorurteile in Daten und Systemen angeht.
+* [**Zuverlässigkeit & Sicherheit**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) – stellt sicher, dass KI sich _konsistent_ mit definierten Werten verhält und potenzielle Schäden oder unbeabsichtigte Konsequenzen minimiert.
+* [**Privatsphäre & Sicherheit**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) – bezieht sich auf das Verständnis der Datenherkunft und die Bereitstellung von _Datenschutz und verwandten Schutzmaßnahmen_ für Nutzer.
+* [**Inklusivität**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) – bezieht sich darauf, KI-Lösungen mit Absicht zu gestalten und sie so anzupassen, dass sie _eine breite Palette menschlicher Bedürfnisse_ und Fähigkeiten erfüllen.
+
+> 🚨 Überlegen Sie, was Ihre Datenethik-Missionserklärung sein könnte. Erkunden Sie ethische KI-Rahmenwerke anderer Organisationen – hier sind Beispiele von [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) und [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Welche gemeinsamen Werte haben sie? Wie beziehen sich diese Prinzipien auf das KI-Produkt oder die Branche, in der sie tätig sind?
+
+### 2. Ethische Herausforderungen
+
+Sobald wir ethische Prinzipien definiert haben, besteht der nächste Schritt darin, unsere Daten- und KI-Handlungen zu bewerten, um festzustellen, ob sie mit diesen gemeinsamen Werten übereinstimmen. Denken Sie über Ihre Handlungen in zwei Kategorien nach: _Datenerfassung_ und _Algorithmendesign_.
+
+Bei der Datenerfassung werden die Handlungen wahrscheinlich **persönliche Daten** oder persönlich identifizierbare Informationen (PII) für identifizierbare lebende Personen umfassen. Dazu gehören [verschiedene Arten nicht-personenbezogener Daten](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), die _zusammen_ eine Person identifizieren können. Ethische Herausforderungen können sich auf _Datenschutz_, _Datenbesitz_ und verwandte Themen wie _informierte Zustimmung_ und _geistige Eigentumsrechte_ für Nutzer beziehen.
+
+Beim Algorithmendesign umfassen die Handlungen das Sammeln und Pflegen von **Datensätzen**, die dann verwendet werden, um **Datenmodelle** zu trainieren und einzusetzen, die Ergebnisse vorhersagen oder Entscheidungen in realen Kontexten automatisieren. Ethische Herausforderungen können sich aus _Datensatzverzerrungen_, _Datenqualitätsproblemen_, _Unfairness_ und _Fehldarstellungen_ in Algorithmen ergeben – einschließlich einiger systemischer Probleme.
+
+In beiden Fällen heben ethische Herausforderungen Bereiche hervor, in denen unsere Handlungen möglicherweise mit unseren gemeinsamen Werten in Konflikt geraten. Um diese Bedenken zu erkennen, zu mindern, zu minimieren oder zu beseitigen, müssen wir moralische "Ja/Nein"-Fragen zu unseren Handlungen stellen und gegebenenfalls Korrekturmaßnahmen ergreifen. Schauen wir uns einige ethische Herausforderungen und die moralischen Fragen an, die sie aufwerfen:
+
+#### 2.1 Datenbesitz
+
+Die Datenerfassung umfasst oft persönliche Daten, die die Datensubjekte identifizieren können. [Datenbesitz](https://permission.io/blog/data-ownership) bezieht sich auf _Kontrolle_ und [_Nutzerrechte_](https://permission.io/blog/data-ownership) im Zusammenhang mit der Erstellung, Verarbeitung und Verbreitung von Daten.
+
+Die moralischen Fragen, die wir stellen müssen, sind:
+ * Wer besitzt die Daten? (Nutzer oder Organisation)
+ * Welche Rechte haben Datensubjekte? (z. B. Zugriff, Löschung, Übertragbarkeit)
+ * Welche Rechte haben Organisationen? (z. B. Korrektur böswilliger Nutzerbewertungen)
+
+#### 2.2 Informierte Zustimmung
+
+[Informierte Zustimmung](https://legaldictionary.net/informed-consent/) definiert die Handlung, bei der Nutzer einer Aktion (wie der Datenerfassung) mit einem _vollständigen Verständnis_ relevanter Fakten einschließlich Zweck, potenzieller Risiken und Alternativen zustimmen.
+
+Fragen, die hier zu erkunden sind:
+ * Hat der Nutzer (Datensubjekt) die Erfassung und Nutzung von Daten erlaubt?
+ * Hat der Nutzer den Zweck verstanden, für den die Daten erfasst wurden?
+ * Hat der Nutzer die potenziellen Risiken seiner Teilnahme verstanden?
+
+#### 2.3 Geistiges Eigentum
+
+[Geistiges Eigentum](https://en.wikipedia.org/wiki/Intellectual_property) bezieht sich auf immaterielle Schöpfungen, die aus menschlicher Initiative resultieren und _wirtschaftlichen Wert_ für Einzelpersonen oder Unternehmen haben können.
+
+Fragen, die hier zu erkunden sind:
+ * Hatten die gesammelten Daten wirtschaftlichen Wert für einen Nutzer oder ein Unternehmen?
+ * Hat der **Nutzer** hier geistiges Eigentum?
+ * Hat die **Organisation** hier geistiges Eigentum?
+ * Wenn diese Rechte existieren, wie schützen wir sie?
+
+#### 2.4 Datenschutz
+
+[Datenschutz](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) oder Informationsschutz bezieht sich auf die Wahrung der Privatsphäre und den Schutz der Identität von Nutzern in Bezug auf persönlich identifizierbare Informationen.
+
+Fragen, die hier zu erkunden sind:
+ * Sind die (persönlichen) Daten der Nutzer gegen Hacks und Leaks gesichert?
+ * Sind die Daten der Nutzer nur für autorisierte Nutzer und Kontexte zugänglich?
+ * Wird die Anonymität der Nutzer gewahrt, wenn Daten geteilt oder verbreitet werden?
+ * Kann ein Nutzer aus anonymisierten Datensätzen de-identifiziert werden?
+
+#### 2.5 Recht auf Vergessenwerden
+
+Das [Recht auf Vergessenwerden](https://en.wikipedia.org/wiki/Right_to_be_forgotten) oder [Recht auf Löschung](https://www.gdpreu.org/right-to-be-forgotten/) bietet Nutzern zusätzlichen Schutz persönlicher Daten. Es gibt ihnen insbesondere das Recht, die Löschung oder Entfernung persönlicher Daten aus Internetsuchen und anderen Orten zu verlangen, _unter bestimmten Umständen_ – und ermöglicht ihnen einen Neuanfang online, ohne dass vergangene Handlungen gegen sie verwendet werden.
+
+Fragen, die hier zu erkunden sind:
+ * Ermöglicht das System Datensubjekten, die Löschung zu beantragen?
+ * Sollte der Widerruf der Nutzerzustimmung eine automatisierte Löschung auslösen?
+ * Wurden Daten ohne Zustimmung oder auf rechtswidrige Weise erfasst?
+ * Sind wir konform mit staatlichen Vorschriften zum Datenschutz?
+
+#### 2.6 Datensatzverzerrung
+
+Datensatz- oder [Erfassungsverzerrung](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) bezieht sich darauf, eine _nicht repräsentative_ Teilmenge von Daten für die Algorithmusentwicklung auszuwählen, was potenzielle Unfairness in den Ergebnissen für verschiedene Gruppen schaffen kann. Arten von Verzerrungen umfassen Auswahl- oder Stichprobenverzerrung, Freiwilligenverzerrung und Instrumentenverzerrung.
+
+Fragen, die hier zu erkunden sind:
+ * Haben wir eine repräsentative Gruppe von Datensubjekten rekrutiert?
+ * Haben wir unseren gesammelten oder gepflegten Datensatz auf verschiedene Verzerrungen getestet?
+ * Können wir entdeckte Verzerrungen mindern oder entfernen?
+
+#### 2.7 Datenqualität
+
+[Datenqualität](https://lakefs.io/data-quality-testing/) untersucht die Validität des gepflegten Datensatzes, der zur Entwicklung unserer Algorithmen verwendet wird, und überprüft, ob Merkmale und Datensätze die Anforderungen an die Genauigkeit und Konsistenz für unseren KI-Zweck erfüllen.
+
+Fragen, die hier zu erkunden sind:
+ * Haben wir gültige _Merkmale_ für unseren Anwendungsfall erfasst?
+ * Wurden Daten _konsistent_ über verschiedene Datenquellen hinweg erfasst?
+ * Ist der Datensatz _vollständig_ für verschiedene Bedingungen oder Szenarien?
+ * Wurden Informationen _genau_ erfasst und spiegeln die Realität wider?
+
+#### 2.8 Algorithmus-Fairness
+[Algorithmische Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) überprüft, ob das Design des Algorithmus systematisch bestimmte Untergruppen von Datensubjekten diskriminiert, was zu [potenziellen Schäden](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) in der _Ressourcenzuweisung_ (bei der Ressourcen verweigert oder zurückgehalten werden) und der _Dienstleistungsqualität_ (bei der KI für einige Untergruppen weniger genau ist als für andere) führen kann.
+
+Fragen, die hier untersucht werden sollten:
+ * Haben wir die Modellgenauigkeit für verschiedene Untergruppen und Bedingungen bewertet?
+ * Haben wir das System auf potenzielle Schäden (z. B. Stereotypisierung) überprüft?
+ * Können wir Daten überarbeiten oder Modelle neu trainieren, um identifizierte Schäden zu mindern?
+
+Erkunden Sie Ressourcen wie [Checklisten zur Fairness von KI](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), um mehr zu erfahren.
+
+#### 2.9 Fehlrepräsentation
+
+[Fehlrepräsentation von Daten](https://www.sciencedirect.com/topics/computer-science/misrepresentation) bezieht sich darauf, ob wir Erkenntnisse aus ehrlich berichteten Daten auf täuschende Weise kommunizieren, um eine gewünschte Erzählung zu unterstützen.
+
+Fragen, die hier untersucht werden sollten:
+ * Berichten wir unvollständige oder ungenaue Daten?
+ * Visualisieren wir Daten so, dass sie zu irreführenden Schlussfolgerungen führen?
+ * Verwenden wir selektive statistische Techniken, um Ergebnisse zu manipulieren?
+ * Gibt es alternative Erklärungen, die zu einer anderen Schlussfolgerung führen könnten?
+
+#### 2.10 Freie Wahl
+Die [Illusion der freien Wahl](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) tritt auf, wenn "Entscheidungsarchitekturen" eines Systems Algorithmen verwenden, um Menschen dazu zu bewegen, ein bevorzugtes Ergebnis zu wählen, während sie scheinbar Optionen und Kontrolle haben. Diese [dunklen Muster](https://www.darkpatterns.org/) können sozialen und wirtschaftlichen Schaden für Nutzer verursachen. Da Nutzerentscheidungen Verhaltensprofile beeinflussen, können diese Aktionen zukünftige Entscheidungen antreiben, die die Auswirkungen dieser Schäden verstärken oder verlängern.
+
+Fragen, die hier untersucht werden sollten:
+ * Hat der Nutzer die Auswirkungen dieser Entscheidung verstanden?
+ * War sich der Nutzer der (alternativen) Optionen und der Vor- und Nachteile jeder bewusst?
+ * Kann der Nutzer eine automatisierte oder beeinflusste Entscheidung später rückgängig machen?
+
+### 3. Fallstudien
+
+Um diese ethischen Herausforderungen in realen Kontexten zu betrachten, hilft es, Fallstudien zu untersuchen, die die potenziellen Schäden und Konsequenzen für Einzelpersonen und die Gesellschaft aufzeigen, wenn solche ethischen Verstöße übersehen werden.
+
+Hier sind einige Beispiele:
+
+| Ethische Herausforderung | Fallstudie |
+|--- |--- |
+| **Informierte Zustimmung** | 1972 - [Tuskegee-Syphilis-Studie](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afroamerikanische Männer, die an der Studie teilnahmen, wurden kostenlose medizinische Versorgung versprochen, _aber von Forschern getäuscht_, die die Teilnehmer nicht über ihre Diagnose oder die Verfügbarkeit von Behandlung informierten. Viele Teilnehmer starben, und Partner oder Kinder waren betroffen; die Studie dauerte 40 Jahre. |
+| **Datenschutz** | 2007 - Der [Netflix-Datenpreis](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) stellte Forschern _10 Millionen anonymisierte Filmbewertungen von 50.000 Kunden_ zur Verfügung, um Empfehlungsalgorithmen zu verbessern. Forscher konnten jedoch anonymisierte Daten mit persönlich identifizierbaren Daten in _externen Datensätzen_ (z. B. IMDb-Kommentaren) korrelieren und einige Netflix-Abonnenten effektiv "de-anonymisieren".|
+| **Sammlungsbias** | 2013 - Die Stadt Boston [entwickelte Street Bump](https://www.boston.gov/transportation/street-bump), eine App, mit der Bürger Schlaglöcher melden konnten, um der Stadt bessere Straßendaten zur Verfügung zu stellen. Allerdings hatten [Menschen in einkommensschwächeren Gruppen weniger Zugang zu Autos und Telefonen](https://hbr.org/2013/04/the-hidden-biases-in-big-data), wodurch ihre Straßenprobleme in dieser App unsichtbar blieben. Entwickler arbeiteten mit Akademikern zusammen, um _Fragen des gerechten Zugangs und der digitalen Kluft_ für Fairness zu lösen. |
+| **Algorithmische Fairness** | 2018 - Die MIT-Studie [Gender Shades](http://gendershades.org/overview.html) bewertete die Genauigkeit von KI-Produkten zur Geschlechtsklassifikation und deckte Lücken in der Genauigkeit für Frauen und farbige Personen auf. Eine [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) schien Frauen weniger Kredit zu gewähren als Männern. Beide Fälle illustrieren Probleme algorithmischer Verzerrungen, die zu sozioökonomischen Schäden führen.|
+| **Fehlrepräsentation von Daten** | 2020 - Das [Georgia Department of Public Health veröffentlichte COVID-19-Diagramme](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), die Bürger über Trends bei bestätigten Fällen mit nicht-chronologischer Reihenfolge auf der x-Achse zu täuschen schienen. Dies zeigt Fehlrepräsentation durch Visualisierungstricks. |
+| **Illusion der freien Wahl** | 2020 - Lern-App [ABCmouse zahlte $10M, um eine FTC-Beschwerde beizulegen](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), bei der Eltern in Abonnements gefangen waren, die sie nicht kündigen konnten. Dies zeigt dunkle Muster in Entscheidungsarchitekturen, bei denen Nutzer zu potenziell schädlichen Entscheidungen gedrängt wurden. |
+| **Datenschutz & Nutzerrechte** | 2021 - Facebook [Datenleck](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) enthüllte Daten von 530 Millionen Nutzern, was zu einer $5B-Einigung mit der FTC führte. Es weigerte sich jedoch, die Nutzer über das Leck zu informieren, was die Nutzerrechte in Bezug auf Datentransparenz und -zugang verletzte. |
+
+Möchten Sie weitere Fallstudien erkunden? Schauen Sie sich diese Ressourcen an:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ethische Dilemmata in verschiedenen Branchen.
+* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - wegweisende Fallstudien untersucht.
+* [Wo Dinge schiefgelaufen sind](https://deon.drivendata.org/examples/) - Deon-Checkliste mit Beispielen.
+
+
+> 🚨 Denken Sie über die Fallstudien nach, die Sie gesehen haben – haben Sie ähnliche ethische Herausforderungen in Ihrem Leben erlebt oder wurden davon betroffen? Können Sie mindestens eine weitere Fallstudie nennen, die eine der ethischen Herausforderungen illustriert, die wir in diesem Abschnitt besprochen haben?
+
+## Angewandte Ethik
+
+Wir haben über ethische Konzepte, Herausforderungen und Fallstudien in realen Kontexten gesprochen. Aber wie beginnen wir mit der _Anwendung_ ethischer Prinzipien und Praktiken in unseren Projekten? Und wie _operationalisieren_ wir diese Praktiken für eine bessere Governance? Lassen Sie uns einige Lösungen aus der Praxis erkunden:
+
+### 1. Berufscodes
+
+Berufscodes bieten eine Möglichkeit für Organisationen, Mitglieder zu "motivieren", ihre ethischen Prinzipien und ihre Mission zu unterstützen. Codes sind _moralische Richtlinien_ für berufliches Verhalten, die Mitarbeitern oder Mitgliedern helfen, Entscheidungen zu treffen, die mit den Prinzipien ihrer Organisation übereinstimmen. Sie sind nur so gut wie die freiwillige Einhaltung durch die Mitglieder; viele Organisationen bieten jedoch zusätzliche Belohnungen und Strafen, um die Einhaltung zu fördern.
+
+Beispiele:
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (erstellt 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (seit 1993)
+
+> 🚨 Gehören Sie einer professionellen Ingenieur- oder Datenwissenschaftsorganisation an? Erkunden Sie deren Website, um zu sehen, ob sie einen Berufskodex definiert. Was sagt dies über ihre ethischen Prinzipien aus? Wie motivieren sie Mitglieder, den Kodex zu befolgen?
+
+### 2. Ethik-Checklisten
+
+Während Berufscodes das erforderliche _ethische Verhalten_ von Praktikern definieren, haben sie [bekannte Einschränkungen](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) bei der Durchsetzung, insbesondere in groß angelegten Projekten. Stattdessen befürworten viele Datenwissenschaftsexperten [Checklisten](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), die **Prinzipien mit Praktiken** auf deterministische und umsetzbare Weise verbinden können.
+
+Checklisten wandeln Fragen in "Ja/Nein"-Aufgaben um, die operationalisiert werden können, sodass sie als Teil standardmäßiger Produktfreigabeworkflows verfolgt werden können.
+
+Beispiele:
+ * [Deon](https://deon.drivendata.org/) - eine allgemeine Datenethik-Checkliste, erstellt aus [Empfehlungen der Branche](https://deon.drivendata.org/#checklist-citations) mit einem Befehlszeilentool für einfache Integration.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - bietet allgemeine Leitlinien für Informationshandhabungspraktiken aus rechtlicher und sozialer Perspektive.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - erstellt von KI-Praktikern, um die Integration von Fairness-Checks in KI-Entwicklungszyklen zu unterstützen.
+ * [22 Fragen zur Ethik in Daten und KI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - ein offeneres Framework, strukturiert für die erste Untersuchung ethischer Fragen in Design-, Implementierungs- und organisatorischen Kontexten.
+
+### 3. Ethik-Regulierungen
+
+Ethik bedeutet, gemeinsame Werte zu definieren und das Richtige _freiwillig_ zu tun. **Compliance** bedeutet, _das Gesetz zu befolgen_, falls und wo es definiert ist. **Governance** umfasst allgemein alle Möglichkeiten, wie Organisationen ethische Prinzipien durchsetzen und festgelegte Gesetze einhalten.
+
+Heute nimmt Governance in Organisationen zwei Formen an. Erstens geht es darum, **ethische KI**-Prinzipien zu definieren und Praktiken zu etablieren, um die Einführung in allen KI-bezogenen Projekten der Organisation zu operationalisieren. Zweitens geht es darum, alle staatlich vorgeschriebenen **Datenschutzbestimmungen** für die Regionen, in denen sie tätig sind, einzuhalten.
+
+Beispiele für Datenschutz- und Privatsphäre-Regulierungen:
+
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - regelt die Sammlung, Nutzung und Offenlegung persönlicher Informationen durch die _Bundesregierung_.
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - schützt persönliche Gesundheitsdaten.
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - schützt die Datenprivatsphäre von Kindern unter 13 Jahren.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - bietet Nutzerrechte, Datenschutz und Privatsphäre.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) gibt Verbrauchern mehr _Rechte_ über ihre (persönlichen) Daten.
+ * `2021`, Chinas [Gesetz zum Schutz persönlicher Informationen](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) wurde gerade verabschiedet und schafft eine der weltweit stärksten Online-Datenschutzbestimmungen.
+
+> 🚨 Die von der Europäischen Union definierte Datenschutz-Grundverordnung (GDPR) bleibt eine der einflussreichsten Datenschutzbestimmungen heute. Wussten Sie, dass sie auch [8 Nutzerrechte](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) definiert, um die digitale Privatsphäre und persönlichen Daten der Bürger zu schützen? Erfahren Sie, was diese sind und warum sie wichtig sind.
+
+### 4. Ethikkultur
+
+Beachten Sie, dass es eine immaterielle Lücke zwischen _Compliance_ (genug tun, um "den Buchstaben des Gesetzes" zu erfüllen) und der Bewältigung [systemischer Probleme](https://www.coursera.org/learn/data-science-ethics/home/week/4) (wie Versteinerung, Informationsasymmetrie und Verteilungsungerechtigkeit) gibt, die die Waffenfähigkeit von KI beschleunigen können.
+
+Letzteres erfordert [kollaborative Ansätze zur Definition von Ethikkulturen](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), die emotionale Verbindungen und konsistente gemeinsame Werte _über Organisationen hinweg_ in der Branche aufbauen. Dies erfordert mehr [formalisierte Datenethikkulturen](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) in Organisationen – sodass _jeder_ [die Andon-Schnur ziehen](https://en.wikipedia.org/wiki/Andon_(manufacturing)) kann (um ethische Bedenken frühzeitig zu äußern) und _ethische Bewertungen_ (z. B. bei der Einstellung) zu einem Kernkriterium der Teamzusammenstellung in KI-Projekten macht.
+
+---
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Überprüfung & Selbststudium
+
+Kurse und Bücher helfen, grundlegende ethische Konzepte und Herausforderungen zu verstehen, während Fallstudien und Tools bei der Anwendung ethischer Praktiken in realen Kontexten helfen. Hier sind einige Ressourcen, um zu beginnen:
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - Lektion über Fairness, von Microsoft.
+* [Prinzipien der verantwortungsvollen KI](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - kostenloser Lernpfad von Microsoft Learn.
+* [Ethik und Data Science](https://resources.oreilly.com/examples/0636920203964) - O'Reilly EBook (M. Loukides, H. Mason et. al)
+* [Ethik in der Datenwissenschaft](https://www.coursera.org/learn/data-science-ethics#syllabus) - Online-Kurs der Universität Michigan.
+* [Ethik Entfaltet](https://ethicsunwrapped.utexas.edu/case-studies) - Fallstudien der Universität Texas.
+
+# Aufgabe
+
+[Schreiben Sie eine Fallstudie zur Datenethik](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/02-ethics/assignment.md b/translations/de/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..9d8fbf78
--- /dev/null
+++ b/translations/de/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,33 @@
+
+## Schreibe eine Fallstudie zu Datenethik
+
+## Anweisungen
+
+Du hast verschiedene [Herausforderungen der Datenethik](README.md#2-ethics-challenges) kennengelernt und einige Beispiele von [Fallstudien](README.md#3-case-studies) gesehen, die Herausforderungen der Datenethik in realen Kontexten widerspiegeln.
+
+In dieser Aufgabe wirst du deine eigene Fallstudie schreiben, die eine Herausforderung der Datenethik aus deiner eigenen Erfahrung oder aus einem relevanten realen Kontext, den du kennst, widerspiegelt. Befolge einfach diese Schritte:
+
+1. `Wähle eine Herausforderung der Datenethik`. Sieh dir [die Beispiele aus der Lektion](README.md#2-ethics-challenges) an oder recherchiere online nach Beispielen wie [der Deon-Checkliste](https://deon.drivendata.org/examples/), um Inspiration zu finden.
+
+2. `Beschreibe ein reales Beispiel`. Denke an eine Situation, von der du gehört hast (Schlagzeilen, Forschungsstudie etc.) oder die du erlebt hast (lokale Gemeinschaft), in der diese spezifische Herausforderung aufgetreten ist. Überlege, welche Fragen der Datenethik mit der Herausforderung verbunden sind, und diskutiere die potenziellen Schäden oder unbeabsichtigten Konsequenzen, die durch dieses Problem entstehen. Bonuspunkte: Überlege dir potenzielle Lösungen oder Prozesse, die hier angewendet werden könnten, um die negativen Auswirkungen dieser Herausforderung zu beseitigen oder zu mindern.
+
+3. `Stelle eine Liste mit verwandten Ressourcen bereit`. Teile eine oder mehrere Ressourcen (Links zu einem Artikel, einem persönlichen Blogbeitrag oder Bild, einer Online-Forschungsarbeit etc.), um zu belegen, dass dies tatsächlich ein reales Ereignis war. Bonuspunkte: Teile Ressourcen, die auch die potenziellen Schäden und Konsequenzen des Vorfalls aufzeigen oder positive Schritte hervorheben, die unternommen wurden, um eine Wiederholung zu verhindern.
+
+
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Eine oder mehrere Herausforderungen der Datenethik werden identifiziert.
Die Fallstudie beschreibt klar einen realen Vorfall, der diese Herausforderung widerspiegelt, und hebt unerwünschte Konsequenzen oder Schäden hervor, die dadurch verursacht wurden.
Es gibt mindestens eine verlinkte Ressource, die belegt, dass dies tatsächlich passiert ist. | Eine Herausforderung der Datenethik wird identifiziert.
Mindestens ein relevanter Schaden oder eine Konsequenz wird kurz diskutiert.
Die Diskussion ist jedoch begrenzt oder es fehlt der Nachweis eines realen Vorfalls. | Eine Herausforderung wird identifiziert.
Die Beschreibung oder die Ressourcen spiegeln jedoch die Herausforderung oder den Nachweis eines realen Vorfalls nicht ausreichend wider. |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/03-defining-data/README.md b/translations/de/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..fb2f0f2e
--- /dev/null
+++ b/translations/de/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,83 @@
+
+# Definition von Daten
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definition von Daten - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Daten sind Fakten, Informationen, Beobachtungen und Messungen, die verwendet werden, um Entdeckungen zu machen und fundierte Entscheidungen zu unterstützen. Ein Datenpunkt ist eine einzelne Einheit innerhalb eines Datensatzes, der aus einer Sammlung von Datenpunkten besteht. Datensätze können in verschiedenen Formaten und Strukturen vorliegen und basieren in der Regel auf ihrer Quelle oder dem Ursprung der Daten. Beispielsweise könnten die monatlichen Einnahmen eines Unternehmens in einer Tabellenkalkulation vorliegen, während stündliche Herzfrequenzdaten von einer Smartwatch im [JSON](https://stackoverflow.com/a/383699)-Format vorliegen könnten. Es ist üblich, dass Datenwissenschaftler mit verschiedenen Arten von Daten innerhalb eines Datensatzes arbeiten.
+
+Diese Lektion konzentriert sich darauf, Daten anhand ihrer Eigenschaften und ihrer Quellen zu identifizieren und zu klassifizieren.
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+
+## Wie Daten beschrieben werden
+
+### Rohdaten
+Rohdaten sind Daten, die aus ihrer Quelle in ihrem ursprünglichen Zustand stammen und noch nicht analysiert oder organisiert wurden. Um zu verstehen, was mit einem Datensatz passiert, müssen die Daten in ein Format organisiert werden, das sowohl von Menschen als auch von der Technologie, die sie weiter analysieren soll, verstanden werden kann. Die Struktur eines Datensatzes beschreibt, wie er organisiert ist, und kann als strukturiert, unstrukturiert und halbstrukturiert klassifiziert werden. Diese Strukturtypen variieren je nach Quelle, passen jedoch letztendlich in diese drei Kategorien.
+
+### Quantitative Daten
+Quantitative Daten sind numerische Beobachtungen innerhalb eines Datensatzes und können typischerweise analysiert, gemessen und mathematisch verwendet werden. Einige Beispiele für quantitative Daten sind: die Bevölkerung eines Landes, die Körpergröße einer Person oder die vierteljährlichen Einnahmen eines Unternehmens. Mit zusätzlicher Analyse könnten quantitative Daten verwendet werden, um saisonale Trends des Luftqualitätsindex (AQI) zu entdecken oder die Wahrscheinlichkeit von Berufsverkehr an einem typischen Arbeitstag zu schätzen.
+
+### Qualitative Daten
+Qualitative Daten, auch bekannt als kategoriale Daten, sind Daten, die nicht objektiv gemessen werden können, wie Beobachtungen von quantitativen Daten. Es handelt sich im Allgemeinen um verschiedene Formate subjektiver Daten, die die Qualität von etwas erfassen, wie z. B. eines Produkts oder Prozesses. Manchmal sind qualitative Daten numerisch, werden jedoch typischerweise nicht mathematisch verwendet, wie Telefonnummern oder Zeitstempel. Einige Beispiele für qualitative Daten sind: Videokommentare, die Marke und das Modell eines Autos oder die Lieblingsfarbe Ihrer engsten Freunde. Qualitative Daten könnten verwendet werden, um zu verstehen, welche Produkte Verbraucher am meisten mögen oder um beliebte Schlüsselwörter in Lebensläufen zu identifizieren.
+
+### Strukturierte Daten
+Strukturierte Daten sind Daten, die in Zeilen und Spalten organisiert sind, wobei jede Zeile denselben Satz von Spalten hat. Spalten repräsentieren einen Wert eines bestimmten Typs und werden mit einem Namen identifiziert, der beschreibt, was der Wert darstellt, während Zeilen die tatsächlichen Werte enthalten. Spalten haben oft eine spezifische Reihe von Regeln oder Einschränkungen für die Werte, um sicherzustellen, dass die Werte die Spalte genau repräsentieren. Stellen Sie sich beispielsweise eine Kunden-Tabelle vor, in der jede Zeile eine Telefonnummer haben muss und die Telefonnummern keine alphabetischen Zeichen enthalten dürfen. Es könnten Regeln für die Spalte "Telefonnummer" gelten, um sicherzustellen, dass sie niemals leer ist und nur Zahlen enthält.
+
+Ein Vorteil strukturierter Daten ist, dass sie so organisiert werden können, dass sie mit anderen strukturierten Daten in Beziehung gesetzt werden können. Da die Daten jedoch so gestaltet sind, dass sie auf eine bestimmte Weise organisiert sind, kann es viel Aufwand erfordern, Änderungen an ihrer Gesamtstruktur vorzunehmen. Beispielsweise bedeutet das Hinzufügen einer E-Mail-Spalte zur Kunden-Tabelle, die nicht leer sein darf, dass Sie herausfinden müssen, wie Sie diese Werte zu den vorhandenen Zeilen der Kunden im Datensatz hinzufügen.
+
+Beispiele für strukturierte Daten: Tabellenkalkulationen, relationale Datenbanken, Telefonnummern, Kontoauszüge
+
+### Unstrukturierte Daten
+Unstrukturierte Daten können typischerweise nicht in Zeilen oder Spalten kategorisiert werden und enthalten kein Format oder eine Reihe von Regeln, denen sie folgen müssen. Da unstrukturierte Daten weniger Einschränkungen hinsichtlich ihrer Struktur haben, ist es einfacher, neue Informationen hinzuzufügen, verglichen mit einem strukturierten Datensatz. Wenn ein Sensor, der alle 2 Minuten Daten zum Luftdruck erfasst, ein Update erhält, das es ihm ermöglicht, auch die Temperatur zu messen und aufzuzeichnen, erfordert dies keine Änderung der vorhandenen Daten, wenn sie unstrukturiert sind. Dies kann jedoch dazu führen, dass die Analyse oder Untersuchung dieser Art von Daten länger dauert. Beispielsweise möchte ein Wissenschaftler die durchschnittliche Temperatur des letzten Monats aus den Sensordaten ermitteln, stellt jedoch fest, dass der Sensor in einigen seiner aufgezeichneten Daten ein "e" vermerkt hat, um anzuzeigen, dass er defekt war, anstatt eine typische Zahl, was bedeutet, dass die Daten unvollständig sind.
+
+Beispiele für unstrukturierte Daten: Textdateien, Textnachrichten, Videodateien
+
+### Halbstrukturierte Daten
+Halbstrukturierte Daten haben Merkmale, die sie zu einer Kombination aus strukturierten und unstrukturierten Daten machen. Sie entsprechen normalerweise nicht einem Format aus Zeilen und Spalten, sind jedoch auf eine Weise organisiert, die als strukturiert angesehen wird und möglicherweise einem festen Format oder einer Reihe von Regeln folgt. Die Struktur variiert je nach Quelle, von einer gut definierten Hierarchie bis hin zu etwas Flexiblerem, das eine einfache Integration neuer Informationen ermöglicht. Metadaten sind Indikatoren, die helfen zu entscheiden, wie die Daten organisiert und gespeichert werden, und haben je nach Art der Daten verschiedene Namen. Einige gängige Namen für Metadaten sind Tags, Elemente, Entitäten und Attribute. Beispielsweise hat eine typische E-Mail-Nachricht einen Betreff, einen Text und eine Gruppe von Empfängern und kann nach Absender oder Zeitpunkt organisiert werden.
+
+Beispiele für halbstrukturierte Daten: HTML, CSV-Dateien, JavaScript Object Notation (JSON)
+
+## Datenquellen
+
+Eine Datenquelle ist der ursprüngliche Ort, an dem die Daten generiert wurden oder "leben", und variiert je nachdem, wie und wann sie gesammelt wurden. Daten, die von ihren Benutzer*innen generiert werden, werden als Primärdaten bezeichnet, während Sekundärdaten aus einer Quelle stammen, die Daten für allgemeine Zwecke gesammelt hat. Beispielsweise würde eine Gruppe von Wissenschaftler*innen, die Beobachtungen in einem Regenwald sammelt, als primär betrachtet, und wenn sie diese mit anderen Wissenschaftler*innen teilen, würde dies für die Nutzenden als sekundär gelten.
+
+Datenbanken sind eine häufige Quelle und basieren auf einem Datenbankverwaltungssystem, um die Daten zu hosten und zu pflegen, wobei Benutzer*innen Befehle, sogenannte Abfragen, verwenden, um die Daten zu erkunden. Dateien als Datenquellen können Audio-, Bild- und Videodateien sowie Tabellenkalkulationen wie Excel sein. Internetquellen sind ein häufiger Ort für das Hosting von Daten, wo sowohl Datenbanken als auch Dateien zu finden sind. Application Programming Interfaces, auch bekannt als APIs, ermöglichen es Programmierer*innen, Wege zu schaffen, Daten über das Internet mit externen Benutzer*innen zu teilen, während der Prozess des Web-Scrapings Daten von einer Webseite extrahiert. Die [Lektionen in Arbeiten mit Daten](../../../../../../../../../2-Working-With-Data) konzentrieren sich darauf, wie verschiedene Datenquellen verwendet werden können.
+
+## Fazit
+
+In dieser Lektion haben wir gelernt:
+
+- Was Daten sind
+- Wie Daten beschrieben werden
+- Wie Daten klassifiziert und kategorisiert werden
+- Wo Daten zu finden sind
+
+## 🚀 Herausforderung
+
+Kaggle ist eine ausgezeichnete Quelle für offene Datensätze. Verwenden Sie das [Suchtool für Datensätze](https://www.kaggle.com/datasets), um einige interessante Datensätze zu finden, und klassifizieren Sie 3-5 Datensätze anhand dieser Kriterien:
+
+- Sind die Daten quantitativ oder qualitativ?
+- Sind die Daten strukturiert, unstrukturiert oder halbstrukturiert?
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Überprüfung & Selbststudium
+
+- Diese Microsoft Learn-Einheit mit dem Titel [Classify your Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data) bietet eine detaillierte Übersicht über strukturierte, halbstrukturierte und unstrukturierte Daten.
+
+## Aufgabe
+
+[Datensätze klassifizieren](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/03-defining-data/assignment.md b/translations/de/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..0c0fdc3c
--- /dev/null
+++ b/translations/de/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,77 @@
+
+# Klassifizierung von Datensätzen
+
+## Anweisungen
+
+Folgen Sie den Anweisungen in dieser Aufgabe, um die Daten zu identifizieren und mit jeweils einem der folgenden Datentypen zu klassifizieren:
+
+**Strukturtypen**: Strukturiert, Semi-Strukturiert oder Unstrukturiert
+
+**Wertetypen**: Qualitativ oder Quantitativ
+
+**Quellentypen**: Primär oder Sekundär
+
+1. Ein Unternehmen wurde übernommen und hat nun ein Mutterunternehmen. Die Datenwissenschaftler haben eine Tabelle mit Kundentelefonnummern vom Mutterunternehmen erhalten.
+
+Strukturtyp:
+
+Wertetyp:
+
+Quellentyp:
+
+---
+
+2. Eine Smartwatch sammelt Herzfrequenzdaten ihres Trägers, und die Rohdaten liegen im JSON-Format vor.
+
+Strukturtyp:
+
+Wertetyp:
+
+Quellentyp:
+
+---
+
+3. Eine Arbeitsplatzumfrage zur Mitarbeiterzufriedenheit, die in einer CSV-Datei gespeichert ist.
+
+Strukturtyp:
+
+Wertetyp:
+
+Quellentyp:
+
+---
+
+4. Astrophysiker greifen auf eine Datenbank von Galaxien zu, die von einer Raumsonde gesammelt wurde. Die Daten enthalten die Anzahl der Planeten in jeder Galaxie.
+
+Strukturtyp:
+
+Wertetyp:
+
+Quellentyp:
+
+---
+
+5. Eine persönliche Finanz-App verwendet APIs, um sich mit den Finanzkonten eines Nutzers zu verbinden, um dessen Nettovermögen zu berechnen. Der Nutzer kann alle seine Transaktionen in einem Format sehen, das aus Zeilen und Spalten besteht und einer Tabelle ähnelt.
+
+Strukturtyp:
+
+Wertetyp:
+
+Quellentyp:
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Identifiziert korrekt alle Struktur-, Werte- und Quellentypen | Identifiziert korrekt 3 Struktur-, Werte- und Quellentypen | Identifiziert korrekt 2 oder weniger Struktur-, Werte- und Quellentypen |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/04-stats-and-probability/README.md b/translations/de/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..4faaea52
--- /dev/null
+++ b/translations/de/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,274 @@
+
+# Eine kurze Einführung in Statistik und Wahrscheinlichkeitsrechnung
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Statistik und Wahrscheinlichkeitsrechnung - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Statistik und Wahrscheinlichkeitsrechnung sind zwei eng miteinander verbundene Bereiche der Mathematik, die für Data Science von großer Bedeutung sind. Es ist möglich, mit Daten zu arbeiten, ohne tiefgehende mathematische Kenntnisse zu haben, aber es ist dennoch besser, zumindest einige grundlegende Konzepte zu kennen. Hier geben wir eine kurze Einführung, die Ihnen den Einstieg erleichtern soll.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Wahrscheinlichkeit und Zufallsvariablen
+
+**Wahrscheinlichkeit** ist eine Zahl zwischen 0 und 1, die angibt, wie wahrscheinlich ein **Ereignis** ist. Sie wird definiert als die Anzahl der positiven Ergebnisse (die zum Ereignis führen), geteilt durch die Gesamtanzahl der Ergebnisse, vorausgesetzt, dass alle Ergebnisse gleich wahrscheinlich sind. Zum Beispiel: Wenn wir einen Würfel werfen, beträgt die Wahrscheinlichkeit, eine gerade Zahl zu erhalten, 3/6 = 0,5.
+
+Wenn wir über Ereignisse sprechen, verwenden wir **Zufallsvariablen**. Zum Beispiel würde die Zufallsvariable, die die Zahl beim Würfeln darstellt, Werte von 1 bis 6 annehmen. Die Menge der Zahlen von 1 bis 6 wird als **Stichprobenraum** bezeichnet. Wir können über die Wahrscheinlichkeit sprechen, dass eine Zufallsvariable einen bestimmten Wert annimmt, z. B. P(X=3)=1/6.
+
+Die Zufallsvariable im obigen Beispiel wird als **diskret** bezeichnet, da sie einen abzählbaren Stichprobenraum hat, d. h. es gibt separate Werte, die aufgezählt werden können. Es gibt jedoch Fälle, in denen der Stichprobenraum ein Bereich von reellen Zahlen oder die gesamte Menge der reellen Zahlen ist. Solche Variablen werden als **kontinuierlich** bezeichnet. Ein gutes Beispiel ist die Ankunftszeit eines Busses.
+
+## Wahrscheinlichkeitsverteilung
+
+Im Fall von diskreten Zufallsvariablen ist es einfach, die Wahrscheinlichkeit jedes Ereignisses durch eine Funktion P(X) zu beschreiben. Für jeden Wert *s* aus dem Stichprobenraum *S* gibt sie eine Zahl zwischen 0 und 1 an, sodass die Summe aller Werte von P(X=s) für alle Ereignisse 1 ergibt.
+
+Die bekannteste diskrete Verteilung ist die **gleichmäßige Verteilung**, bei der es einen Stichprobenraum mit N Elementen gibt, wobei jedes Element die gleiche Wahrscheinlichkeit von 1/N hat.
+
+Es ist schwieriger, die Wahrscheinlichkeitsverteilung einer kontinuierlichen Variablen zu beschreiben, deren Werte aus einem Intervall [a,b] oder der gesamten Menge der reellen Zahlen ℝ stammen. Betrachten wir den Fall der Ankunftszeit eines Busses. Tatsächlich ist die Wahrscheinlichkeit, dass ein Bus zu einem bestimmten Zeitpunkt *t* genau ankommt, gleich 0!
+
+> Jetzt wissen Sie, dass Ereignisse mit einer Wahrscheinlichkeit von 0 passieren – und das sogar sehr oft! Zumindest jedes Mal, wenn der Bus ankommt!
+
+Wir können nur über die Wahrscheinlichkeit sprechen, dass eine Variable in ein bestimmtes Intervall von Werten fällt, z. B. P(t1≤X2). In diesem Fall wird die Wahrscheinlichkeitsverteilung durch eine **Wahrscheinlichkeitsdichtefunktion** p(x) beschrieben, sodass
+
+![P(t_1\le X1, x2, ..., xn. Wir können den **Mittelwert** (oder **arithmetisches Mittel**) der Sequenz auf die traditionelle Weise definieren als (x1+x2+xn)/n. Wenn wir die Stichprobengröße erhöhen (d. h. den Grenzwert n→∞ nehmen), erhalten wir den Mittelwert (auch **Erwartungswert** genannt) der Verteilung. Wir bezeichnen den Erwartungswert mit **E**(x).
+
+> Es kann gezeigt werden, dass für jede diskrete Verteilung mit den Werten {x1, x2, ..., xN} und den entsprechenden Wahrscheinlichkeiten p1, p2, ..., pN der Erwartungswert gleich E(X)=x1p1+x2p2+...+xNpN ist.
+
+Um zu bestimmen, wie weit die Werte gestreut sind, können wir die Varianz σ2 = ∑(xi - μ)2/n berechnen, wobei μ der Mittelwert der Sequenz ist. Der Wert σ wird als **Standardabweichung** bezeichnet, und σ2 wird als **Varianz** bezeichnet.
+
+## Modus, Median und Quartile
+
+Manchmal repräsentiert der Mittelwert nicht ausreichend den "typischen" Wert der Daten. Zum Beispiel können einige extreme Werte, die völlig außerhalb des Bereichs liegen, den Mittelwert beeinflussen. Ein weiterer guter Indikator ist der **Median**, ein Wert, bei dem die Hälfte der Datenpunkte darunter liegt und die andere Hälfte darüber.
+
+Um die Verteilung der Daten besser zu verstehen, ist es hilfreich, über **Quartile** zu sprechen:
+
+* Das erste Quartil, oder Q1, ist ein Wert, bei dem 25 % der Daten darunter liegen.
+* Das dritte Quartil, oder Q3, ist ein Wert, bei dem 75 % der Daten darunter liegen.
+
+Grafisch können wir die Beziehung zwischen Median und Quartilen in einem Diagramm namens **Boxplot** darstellen:
+
+
+
+Hier berechnen wir auch den **Interquartilsabstand** IQR=Q3-Q1 und sogenannte **Ausreißer** – Werte, die außerhalb der Grenzen [Q1-1.5*IQR,Q3+1.5*IQR] liegen.
+
+Für eine endliche Verteilung mit einer kleinen Anzahl möglicher Werte ist ein guter "typischer" Wert derjenige, der am häufigsten vorkommt, der sogenannte **Modus**. Dieser wird oft auf kategoriale Daten angewendet, wie z. B. Farben. Betrachten Sie eine Situation, in der wir zwei Gruppen von Menschen haben – einige, die stark Rot bevorzugen, und andere, die Blau bevorzugen. Wenn wir Farben durch Zahlen kodieren, würde der Mittelwert für eine Lieblingsfarbe irgendwo im orange-grünen Spektrum liegen, was die tatsächliche Präferenz keiner der Gruppen widerspiegelt. Der Modus hingegen wäre entweder eine der Farben oder beide Farben, wenn die Anzahl der Personen, die für sie stimmen, gleich ist (in diesem Fall nennen wir die Stichprobe **multimodal**).
+
+## Reale Daten
+
+Wenn wir Daten aus der realen Welt analysieren, sind sie oft keine Zufallsvariablen im eigentlichen Sinne, da wir keine Experimente mit unbekanntem Ergebnis durchführen. Betrachten Sie zum Beispiel ein Team von Baseballspielern und deren Körperdaten wie Größe, Gewicht und Alter. Diese Zahlen sind nicht wirklich zufällig, aber wir können dennoch dieselben mathematischen Konzepte anwenden. Zum Beispiel kann eine Sequenz von Gewichten von Personen als eine Sequenz von Werten betrachtet werden, die aus einer Zufallsvariablen gezogen wurden. Unten ist die Sequenz der Gewichte tatsächlicher Baseballspieler aus der [Major League Baseball](http://mlb.mlb.com/index.jsp), entnommen aus [diesem Datensatz](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (der Übersicht halber sind nur die ersten 20 Werte gezeigt):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Hinweis**: Um ein Beispiel für die Arbeit mit diesem Datensatz zu sehen, werfen Sie einen Blick auf das [begleitende Notebook](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb). Es gibt auch eine Reihe von Herausforderungen in dieser Lektion, die Sie durch das Hinzufügen von Code zu diesem Notebook abschließen können. Wenn Sie nicht sicher sind, wie man mit Daten arbeitet, machen Sie sich keine Sorgen – wir werden später darauf zurückkommen, wie man mit Python arbeitet. Wenn Sie nicht wissen, wie man Code in einem Jupyter Notebook ausführt, lesen Sie [diesen Artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Hier ist der Boxplot, der Mittelwert, Median und Quartile für unsere Daten zeigt:
+
+
+
+Da unsere Daten Informationen über verschiedene Spieler**rollen** enthalten, können wir auch den Boxplot nach Rollen erstellen – das ermöglicht uns, eine Vorstellung davon zu bekommen, wie sich die Parameterwerte je nach Rolle unterscheiden. Diesmal betrachten wir die Größe:
+
+
+
+Dieses Diagramm deutet darauf hin, dass die Größe von First Basemen im Durchschnitt höher ist als die von Second Basemen. Später in dieser Lektion werden wir lernen, wie wir diese Hypothese formeller testen können und wie wir zeigen können, dass unsere Daten statistisch signifikant sind, um dies zu belegen.
+
+> Wenn wir mit realen Daten arbeiten, gehen wir davon aus, dass alle Datenpunkte Stichproben sind, die aus einer Wahrscheinlichkeitsverteilung gezogen wurden. Diese Annahme ermöglicht es uns, maschinelles Lernen anzuwenden und funktionierende Vorhersagemodelle zu erstellen.
+
+Um zu sehen, wie die Verteilung unserer Daten aussieht, können wir ein Diagramm namens **Histogramm** erstellen. Die X-Achse enthält eine Anzahl verschiedener Gewichtsintervalle (sogenannte **Bins**), und die Y-Achse zeigt die Anzahl der Male, die unsere Zufallsvariablenstichprobe in ein bestimmtes Intervall fiel.
+
+
+
+Aus diesem Histogramm können Sie erkennen, dass alle Werte um einen bestimmten mittleren Wert zentriert sind und dass die Wahrscheinlichkeit, dass ein Gewicht stark vom Mittelwert abweicht, geringer ist. Die Varianz der Gewichte zeigt, in welchem Maße die Gewichte wahrscheinlich vom Mittelwert abweichen.
+
+> Wenn wir die Gewichte anderer Personen, die nicht aus der Baseballliga stammen, betrachten, wird die Verteilung wahrscheinlich anders sein. Die Form der Verteilung bleibt jedoch gleich, aber Mittelwert und Varianz ändern sich. Wenn wir unser Modell auf Baseballspieler trainieren, wird es wahrscheinlich falsche Ergebnisse liefern, wenn es auf Universitätsstudenten angewendet wird, da die zugrunde liegende Verteilung unterschiedlich ist.
+
+## Normalverteilung
+
+Die Verteilung der Gewichte, die wir oben gesehen haben, ist sehr typisch, und viele Messungen aus der realen Welt folgen demselben Verteilungstyp, jedoch mit unterschiedlichem Mittelwert und Varianz. Diese Verteilung wird als **Normalverteilung** bezeichnet und spielt eine sehr wichtige Rolle in der Statistik.
+
+Die Verwendung der Normalverteilung ist eine korrekte Methode, um zufällige Gewichte potenzieller Baseballspieler zu generieren. Sobald wir den mittleren Wert `mean` und die Standardabweichung `std` kennen, können wir 1000 Gewichtsstichproben wie folgt generieren:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Wenn wir das Histogramm der generierten Stichproben zeichnen, sehen wir ein Bild, das dem oben gezeigten sehr ähnlich ist. Und wenn wir die Anzahl der Stichproben und die Anzahl der Bins erhöhen, können wir ein Bild einer Normalverteilung erzeugen, das näher an der idealen Form liegt:
+
+
+
+*Normalverteilung mit Mittelwert=0 und Standardabweichung=1*
+
+## Konfidenzintervalle
+
+Wenn wir über die Gewichte von Baseballspielern sprechen, nehmen wir an, dass es eine bestimmte **Zufallsvariable W** gibt, die der idealen Wahrscheinlichkeitsverteilung der Gewichte aller Baseballspieler entspricht (sogenannte **Population**). Unsere Sequenz von Gewichten entspricht einer Teilmenge aller Baseballspieler, die wir als **Stichprobe** bezeichnen. Eine interessante Frage ist: Können wir die Parameter der Verteilung von W kennen, d. h. den Mittelwert und die Varianz der Population?
+
+Die einfachste Antwort wäre, den Mittelwert und die Varianz unserer Stichprobe zu berechnen. Es könnte jedoch sein, dass unsere zufällige Stichprobe die gesamte Population nicht genau repräsentiert. Daher macht es Sinn, über **Konfidenzintervalle** zu sprechen.
+> **Konfidenzintervall** ist die Schätzung des wahren Mittelwerts der Grundgesamtheit basierend auf unserer Stichprobe, die mit einer bestimmten Wahrscheinlichkeit (oder einem **Konfidenzniveau**) genau ist.
+Angenommen, wir haben eine Stichprobe X1, ..., Xn aus unserer Verteilung. Jedes Mal, wenn wir eine Stichprobe aus unserer Verteilung ziehen, erhalten wir einen anderen Mittelwert μ. Daher kann μ als Zufallsvariable betrachtet werden. Ein **Konfidenzintervall** mit Konfidenz p ist ein Wertepaar (Lp,Rp), sodass **P**(Lp≤μ≤Rp) = p, d.h. die Wahrscheinlichkeit, dass der gemessene Mittelwert innerhalb des Intervalls liegt, entspricht p.
+
+Es geht über unsere kurze Einführung hinaus, im Detail zu erklären, wie diese Konfidenzintervalle berechnet werden. Weitere Details finden Sie [auf Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). Kurz gesagt, wir definieren die Verteilung des berechneten Stichprobenmittelwerts relativ zum wahren Mittelwert der Population, die als **Student-Verteilung** bezeichnet wird.
+
+> **Interessante Tatsache**: Die Student-Verteilung ist nach dem Mathematiker William Sealy Gosset benannt, der seine Arbeit unter dem Pseudonym "Student" veröffentlichte. Er arbeitete in der Guinness-Brauerei, und laut einer Version wollte sein Arbeitgeber nicht, dass die Öffentlichkeit erfährt, dass sie statistische Tests zur Bestimmung der Qualität der Rohstoffe verwendeten.
+
+Wenn wir den Mittelwert μ unserer Population mit Konfidenz p schätzen möchten, müssen wir das *(1-p)/2-te Perzentil* einer Student-Verteilung A nehmen, das entweder aus Tabellen entnommen oder mit eingebauten Funktionen statistischer Software (z. B. Python, R usw.) berechnet werden kann. Dann wird das Intervall für μ durch X±A*D/√n gegeben, wobei X der erhaltene Mittelwert der Stichprobe und D die Standardabweichung ist.
+
+> **Hinweis**: Wir lassen auch die Diskussion über ein wichtiges Konzept der [Freiheitsgrade](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)) aus, das im Zusammenhang mit der Student-Verteilung wichtig ist. Sie können auf umfassendere Bücher über Statistik zurückgreifen, um dieses Konzept besser zu verstehen.
+
+Ein Beispiel für die Berechnung des Konfidenzintervalls für Gewichte und Größen finden Sie in den [begleitenden Notebooks](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+| p | Gewichtsmittelwert |
+|------|--------------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Beachten Sie, dass je höher die Konfidenzwahrscheinlichkeit ist, desto breiter ist das Konfidenzintervall.
+
+## Hypothesentests
+
+In unserem Datensatz der Baseballspieler gibt es verschiedene Spielerrollen, die wie folgt zusammengefasst werden können (sehen Sie sich das [begleitende Notebook](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) an, um zu sehen, wie diese Tabelle berechnet werden kann):
+
+| Rolle | Größe | Gewicht | Anzahl |
+|--------------------|------------|------------|--------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Wir können feststellen, dass die durchschnittliche Größe der First Basemen höher ist als die der Second Basemen. Daher könnten wir versucht sein, zu folgern, dass **First Basemen größer sind als Second Basemen**.
+
+> Diese Aussage wird als **Hypothese** bezeichnet, da wir nicht wissen, ob die Tatsache tatsächlich wahr ist oder nicht.
+
+Es ist jedoch nicht immer offensichtlich, ob wir diese Schlussfolgerung ziehen können. Aus der obigen Diskussion wissen wir, dass jeder Mittelwert ein zugehöriges Konfidenzintervall hat, und daher könnte dieser Unterschied nur ein statistischer Fehler sein. Wir benötigen eine formellere Methode, um unsere Hypothese zu testen.
+
+Lassen Sie uns die Konfidenzintervalle separat für die Größen der First und Second Basemen berechnen:
+
+| Konfidenz | First Basemen | Second Basemen |
+|-----------|-----------------|-----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Wir können sehen, dass die Intervalle unter keiner Konfidenz überlappen. Das beweist unsere Hypothese, dass First Basemen größer sind als Second Basemen.
+
+Formeller gesagt, das Problem, das wir lösen, besteht darin, zu prüfen, ob **zwei Wahrscheinlichkeitsverteilungen gleich sind** oder zumindest die gleichen Parameter haben. Abhängig von der Verteilung müssen wir dafür unterschiedliche Tests verwenden. Wenn wir wissen, dass unsere Verteilungen normal sind, können wir den **[Student t-Test](https://en.wikipedia.org/wiki/Student%27s_t-test)** anwenden.
+
+Im Student t-Test berechnen wir den sogenannten **t-Wert**, der die Differenz zwischen den Mittelwerten unter Berücksichtigung der Varianz angibt. Es wird gezeigt, dass der t-Wert der **Student-Verteilung** folgt, was es uns ermöglicht, den Schwellenwert für ein gegebenes Konfidenzniveau **p** zu erhalten (dies kann berechnet oder in numerischen Tabellen nachgeschlagen werden). Wir vergleichen dann den t-Wert mit diesem Schwellenwert, um die Hypothese zu bestätigen oder abzulehnen.
+
+In Python können wir das **SciPy**-Paket verwenden, das die Funktion `ttest_ind` enthält (zusätzlich zu vielen anderen nützlichen statistischen Funktionen!). Es berechnet den t-Wert für uns und führt auch die Rückwärtssuche des Konfidenz-p-Werts durch, sodass wir nur auf die Konfidenz schauen müssen, um eine Schlussfolgerung zu ziehen.
+
+Zum Beispiel liefert unser Vergleich zwischen den Größen der First und Second Basemen die folgenden Ergebnisse:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+In unserem Fall ist der p-Wert sehr niedrig, was bedeutet, dass es starke Beweise dafür gibt, dass First Basemen größer sind.
+
+Es gibt auch verschiedene andere Arten von Hypothesen, die wir testen möchten, zum Beispiel:
+* Um zu beweisen, dass eine gegebene Stichprobe einer bestimmten Verteilung folgt. In unserem Fall haben wir angenommen, dass die Größen normal verteilt sind, aber das erfordert eine formale statistische Überprüfung.
+* Um zu beweisen, dass der Mittelwert einer Stichprobe einem vordefinierten Wert entspricht.
+* Um die Mittelwerte einer Anzahl von Stichproben zu vergleichen (z. B. den Unterschied in den Glücksniveaus zwischen verschiedenen Altersgruppen).
+
+## Gesetz der großen Zahlen und zentraler Grenzwertsatz
+
+Einer der Gründe, warum die Normalverteilung so wichtig ist, ist der sogenannte **zentrale Grenzwertsatz**. Angenommen, wir haben eine große Stichprobe von unabhängigen N Werten X1, ..., XN, die aus einer beliebigen Verteilung mit Mittelwert μ und Varianz σ2 entnommen wurden. Dann, für ausreichend großes N (mit anderen Worten, wenn N→∞), wäre der Mittelwert ΣiXi normal verteilt, mit Mittelwert μ und Varianz σ2/N.
+
+> Eine andere Möglichkeit, den zentralen Grenzwertsatz zu interpretieren, besteht darin, zu sagen, dass unabhängig von der Verteilung, wenn Sie den Mittelwert einer Summe beliebiger Zufallsvariablen berechnen, Sie am Ende eine Normalverteilung erhalten.
+
+Aus dem zentralen Grenzwertsatz folgt auch, dass, wenn N→∞, die Wahrscheinlichkeit, dass der Stichprobenmittelwert gleich μ ist, 1 wird. Dies ist als **Gesetz der großen Zahlen** bekannt.
+
+## Kovarianz und Korrelation
+
+Eine der Aufgaben der Datenwissenschaft besteht darin, Beziehungen zwischen Daten zu finden. Wir sagen, dass zwei Sequenzen **korrelieren**, wenn sie sich zur gleichen Zeit ähnlich verhalten, d.h. sie steigen/fallen gleichzeitig, oder eine Sequenz steigt, wenn die andere fällt und umgekehrt. Mit anderen Worten, es scheint eine Beziehung zwischen zwei Sequenzen zu geben.
+
+> Korrelation zeigt nicht unbedingt eine kausale Beziehung zwischen zwei Sequenzen an; manchmal können beide Variablen von einer externen Ursache abhängen, oder es kann rein zufällig sein, dass die beiden Sequenzen korrelieren. Eine starke mathematische Korrelation ist jedoch ein guter Hinweis darauf, dass zwei Variablen irgendwie miteinander verbunden sind.
+
+Mathematisch ist das Hauptkonzept, das die Beziehung zwischen zwei Zufallsvariablen zeigt, die **Kovarianz**, die wie folgt berechnet wird: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Wir berechnen die Abweichung beider Variablen von ihren Mittelwerten und dann das Produkt dieser Abweichungen. Wenn beide Variablen gemeinsam abweichen, ist das Produkt immer ein positiver Wert, der zu einer positiven Kovarianz addiert wird. Wenn beide Variablen nicht synchron abweichen (d.h. eine fällt unter den Durchschnitt, wenn die andere über den Durchschnitt steigt), erhalten wir immer negative Zahlen, die zu einer negativen Kovarianz addiert werden. Wenn die Abweichungen unabhängig sind, summieren sie sich ungefähr zu null.
+
+Der absolute Wert der Kovarianz sagt uns nicht viel darüber, wie groß die Korrelation ist, da er von der Größe der tatsächlichen Werte abhängt. Um sie zu normalisieren, können wir die Kovarianz durch die Standardabweichung beider Variablen teilen, um die **Korrelation** zu erhalten. Das Gute daran ist, dass die Korrelation immer im Bereich [-1,1] liegt, wobei 1 eine starke positive Korrelation zwischen Werten anzeigt, -1 eine starke negative Korrelation und 0 keine Korrelation (Variablen sind unabhängig).
+
+**Beispiel**: Wir können die Korrelation zwischen Gewichten und Größen von Baseballspielern aus dem oben genannten Datensatz berechnen:
+```python
+print(np.corrcoef(weights,heights))
+```
+Als Ergebnis erhalten wir eine **Korrelationsmatrix** wie diese:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Die Korrelationsmatrix C kann für jede Anzahl von Eingabesequenzen S1, ..., Sn berechnet werden. Der Wert von Cij ist die Korrelation zwischen Si und Sj, und die Diagonalelemente sind immer 1 (was auch die Selbstkorrelation von Si ist).
+
+In unserem Fall zeigt der Wert 0.53 an, dass es eine gewisse Korrelation zwischen dem Gewicht und der Größe einer Person gibt. Wir können auch das Streudiagramm eines Wertes gegen den anderen erstellen, um die Beziehung visuell zu sehen:
+
+
+
+> Weitere Beispiele für Korrelation und Kovarianz finden Sie im [begleitenden Notebook](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+## Fazit
+
+In diesem Abschnitt haben wir gelernt:
+
+* grundlegende statistische Eigenschaften von Daten, wie Mittelwert, Varianz, Modus und Quartile
+* verschiedene Verteilungen von Zufallsvariablen, einschließlich der Normalverteilung
+* wie man Korrelationen zwischen verschiedenen Eigenschaften findet
+* wie man mathematische und statistische Methoden verwendet, um Hypothesen zu beweisen
+* wie man Konfidenzintervalle für Zufallsvariablen basierend auf Stichprobendaten berechnet
+
+Obwohl dies definitiv keine vollständige Liste der Themen ist, die innerhalb der Wahrscheinlichkeit und Statistik existieren, sollte es ausreichen, um Ihnen einen guten Einstieg in diesen Kurs zu geben.
+
+## 🚀 Herausforderung
+
+Verwenden Sie den Beispielcode im Notebook, um andere Hypothesen zu testen:
+1. First Basemen sind älter als Second Basemen
+2. First Basemen sind größer als Third Basemen
+3. Shortstops sind größer als Second Basemen
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Überprüfung & Selbststudium
+
+Wahrscheinlichkeit und Statistik ist ein so breites Thema, dass es einen eigenen Kurs verdient. Wenn Sie tiefer in die Theorie eintauchen möchten, können Sie einige der folgenden Bücher lesen:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) von der New York University hat großartige Vorlesungsnotizen [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (online verfügbar)
+1. [Peter und Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[Beispielcode in R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[Beispielcode in R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Aufgabe
+
+[Kleine Diabetes-Studie](assignment.md)
+
+## Credits
+
+Diese Lektion wurde mit ♥️ von [Dmitry Soshnikov](http://soshnikov.com) erstellt.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/04-stats-and-probability/assignment.md b/translations/de/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..a91f96ef
--- /dev/null
+++ b/translations/de/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,38 @@
+
+# Kleine Diabetes-Studie
+
+In dieser Aufgabe arbeiten wir mit einem kleinen Datensatz von Diabetes-Patienten, der von [hier](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html) stammt.
+
+| | ALTER | GESCHLECHT | BMI | BLUTDRUCK | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-------|------------|-----|-----------|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1| 101.0 | 157| 93.2| 38.0| 4.0 | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6| 87.0 | 183| 103.2| 70.0| 3.0 | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5| 93.0 | 156| 93.6| 41.0| 4.0 | 4.0 | 85 | 141 |
+| ... | ... | ... | ... | ... | ...| ... | ... | ... | ... | ...| ... |
+
+## Anweisungen
+
+* Öffnen Sie das [Aufgaben-Notebook](../../../../1-Introduction/04-stats-and-probability/assignment.ipynb) in einer Jupyter-Notebook-Umgebung.
+* Bearbeiten Sie alle im Notebook aufgeführten Aufgaben, nämlich:
+ * [ ] Berechnen Sie Mittelwerte und Varianzen für alle Werte.
+ * [ ] Erstellen Sie Boxplots für BMI, Blutdruck und Y in Abhängigkeit vom Geschlecht.
+ * [ ] Wie ist die Verteilung der Variablen Alter, Geschlecht, BMI und Y?
+ * [ ] Testen Sie die Korrelation zwischen verschiedenen Variablen und dem Krankheitsverlauf (Y).
+ * [ ] Testen Sie die Hypothese, dass der Grad des Diabetesverlaufs zwischen Männern und Frauen unterschiedlich ist.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | --- |
+Alle erforderlichen Aufgaben sind abgeschlossen, grafisch dargestellt und erklärt | Die meisten Aufgaben sind abgeschlossen, Erklärungen oder Schlussfolgerungen aus den Grafiken und/oder den erhaltenen Werten fehlen | Nur grundlegende Aufgaben wie die Berechnung von Mittelwert/Varianz und einfache Diagramme sind abgeschlossen, es werden keine Schlussfolgerungen aus den Daten gezogen
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/1-Introduction/README.md b/translations/de/1-Introduction/README.md
new file mode 100644
index 00000000..9e60638f
--- /dev/null
+++ b/translations/de/1-Introduction/README.md
@@ -0,0 +1,29 @@
+
+# Einführung in Data Science
+
+
+> Foto von Stephen Dawson auf Unsplash
+
+In diesen Lektionen erfahren Sie, wie Data Science definiert wird und lernen die ethischen Überlegungen kennen, die ein Data Scientist berücksichtigen muss. Außerdem lernen Sie, wie Daten definiert werden, und erhalten einen Einblick in Statistik und Wahrscheinlichkeit, die zentralen akademischen Bereiche der Data Science.
+
+### Themen
+
+1. [Data Science definieren](01-defining-data-science/README.md)
+2. [Ethik in der Data Science](02-ethics/README.md)
+3. [Daten definieren](03-defining-data/README.md)
+4. [Einführung in Statistik und Wahrscheinlichkeit](04-stats-and-probability/README.md)
+
+### Credits
+
+Diese Lektionen wurden mit ❤️ geschrieben von [Nitya Narasimhan](https://twitter.com/nitya) und [Dmitry Soshnikov](https://twitter.com/shwars).
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/05-relational-databases/README.md b/translations/de/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..73098d78
--- /dev/null
+++ b/translations/de/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,193 @@
+
+# Arbeiten mit Daten: Relationale Datenbanken
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Arbeiten mit Daten: Relationale Datenbanken - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Wahrscheinlich hast du in der Vergangenheit eine Tabellenkalkulation verwendet, um Informationen zu speichern. Du hattest eine Reihe von Zeilen und Spalten, wobei die Zeilen die Informationen (oder Daten) enthielten und die Spalten die Informationen beschrieben (manchmal als Metadaten bezeichnet). Eine relationale Datenbank basiert auf diesem grundlegenden Prinzip von Spalten und Zeilen in Tabellen, wodurch Informationen über mehrere Tabellen verteilt werden können. Dies ermöglicht es dir, mit komplexeren Daten zu arbeiten, Duplikate zu vermeiden und Flexibilität bei der Erkundung der Daten zu haben. Lass uns die Konzepte einer relationalen Datenbank erkunden.
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Alles beginnt mit Tabellen
+
+Das Herzstück einer relationalen Datenbank sind Tabellen. Genau wie bei der Tabellenkalkulation ist eine Tabelle eine Sammlung von Spalten und Zeilen. Die Zeile enthält die Daten oder Informationen, mit denen wir arbeiten möchten, wie z. B. den Namen einer Stadt oder die Menge an Niederschlag. Die Spalten beschreiben die Daten, die sie speichern.
+
+Beginnen wir unsere Erkundung, indem wir eine Tabelle erstellen, um Informationen über Städte zu speichern. Wir könnten mit ihrem Namen und Land beginnen. Du könntest dies in einer Tabelle wie folgt speichern:
+
+| Stadt | Land |
+| -------- | ------------- |
+| Tokio | Japan |
+| Atlanta | Vereinigte Staaten |
+| Auckland | Neuseeland |
+
+Beachte, dass die Spaltennamen **Stadt**, **Land** und **Bevölkerung** die gespeicherten Daten beschreiben und jede Zeile Informationen über eine Stadt enthält.
+
+## Die Nachteile eines Ansatzes mit einer einzigen Tabelle
+
+Wahrscheinlich kommt dir die obige Tabelle relativ vertraut vor. Fangen wir an, einige zusätzliche Daten zu unserer wachsenden Datenbank hinzuzufügen – jährlicher Niederschlag (in Millimetern). Wir konzentrieren uns auf die Jahre 2018, 2019 und 2020. Wenn wir dies für Tokio hinzufügen würden, könnte es so aussehen:
+
+| Stadt | Land | Jahr | Menge |
+| ------ | ------- | ---- | ------ |
+| Tokio | Japan | 2020 | 1690 |
+| Tokio | Japan | 2019 | 1874 |
+| Tokio | Japan | 2018 | 1445 |
+
+Was fällt dir an unserer Tabelle auf? Du könntest bemerken, dass wir den Namen und das Land der Stadt immer wieder duplizieren. Das könnte ziemlich viel Speicherplatz beanspruchen und ist größtenteils unnötig, da wir nur einen Namen für Tokio benötigen.
+
+OK, versuchen wir etwas anderes. Fügen wir neue Spalten für jedes Jahr hinzu:
+
+| Stadt | Land | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokio | Japan | 1445 | 1874 | 1690 |
+| Atlanta | Vereinigte Staaten | 1779 | 1111 | 1683 |
+| Auckland | Neuseeland | 1386 | 942 | 1176 |
+
+Während dies die Zeilenduplikation vermeidet, bringt es ein paar andere Herausforderungen mit sich. Wir müssten die Struktur unserer Tabelle jedes Mal ändern, wenn ein neues Jahr hinzukommt. Außerdem wird es mit zunehmendem Datenvolumen schwieriger, Werte zu abrufen und zu berechnen, wenn unsere Jahre als Spalten dargestellt werden.
+
+Deshalb brauchen wir mehrere Tabellen und Beziehungen. Indem wir unsere Daten aufteilen, können wir Duplikate vermeiden und mehr Flexibilität bei der Arbeit mit unseren Daten haben.
+
+## Die Konzepte von Beziehungen
+
+Kehren wir zu unseren Daten zurück und bestimmen, wie wir sie aufteilen möchten. Wir wissen, dass wir den Namen und das Land unserer Städte speichern möchten, daher funktioniert dies wahrscheinlich am besten in einer Tabelle.
+
+| Stadt | Land |
+| -------- | ------------- |
+| Tokio | Japan |
+| Atlanta | Vereinigte Staaten |
+| Auckland | Neuseeland |
+
+Bevor wir die nächste Tabelle erstellen, müssen wir herausfinden, wie wir jede Stadt referenzieren. Wir brauchen eine Art Identifikator, ID oder (in technischen Datenbankbegriffen) einen Primärschlüssel. Ein Primärschlüssel ist ein Wert, der eine bestimmte Zeile in einer Tabelle identifiziert. Obwohl dies auf einem Wert selbst basieren könnte (wir könnten beispielsweise den Namen der Stadt verwenden), sollte es fast immer eine Nummer oder ein anderer Identifikator sein. Wir möchten nicht, dass sich die ID jemals ändert, da dies die Beziehung brechen würde. In den meisten Fällen wird der Primärschlüssel oder die ID automatisch generiert.
+
+> ✅ Primärschlüssel wird häufig als PK abgekürzt
+
+### Städte
+
+| stadt_id | Stadt | Land |
+| -------- | -------- | ------------- |
+| 1 | Tokio | Japan |
+| 2 | Atlanta | Vereinigte Staaten |
+| 3 | Auckland | Neuseeland |
+
+> ✅ Du wirst bemerken, dass wir die Begriffe "ID" und "Primärschlüssel" während dieser Lektion austauschbar verwenden. Die Konzepte hier gelten auch für DataFrames, die du später erkunden wirst. DataFrames verwenden nicht die Terminologie "Primärschlüssel", aber du wirst bemerken, dass sie sich ähnlich verhalten.
+
+Nachdem wir unsere Städte-Tabelle erstellt haben, speichern wir den Niederschlag. Anstatt die vollständigen Informationen über die Stadt zu duplizieren, können wir die ID verwenden. Wir sollten auch sicherstellen, dass die neu erstellte Tabelle ebenfalls eine *ID*-Spalte hat, da alle Tabellen eine ID oder einen Primärschlüssel haben sollten.
+
+### Niederschlag
+
+| niederschlag_id | stadt_id | Jahr | Menge |
+| --------------- | -------- | ---- | ------ |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Beachte die **stadt_id**-Spalte in der neu erstellten **niederschlag**-Tabelle. Diese Spalte enthält Werte, die die IDs in der **städte**-Tabelle referenzieren. In technischen relationalen Datenbegriffen wird dies als **Fremdschlüssel** bezeichnet; es ist ein Primärschlüssel aus einer anderen Tabelle. Du kannst es einfach als Referenz oder Zeiger betrachten. **stadt_id** 1 referenziert Tokio.
+
+> [!NOTE] Fremdschlüssel wird häufig als FK abgekürzt
+
+## Daten abrufen
+
+Mit unseren Daten, die in zwei Tabellen aufgeteilt sind, fragst du dich vielleicht, wie wir sie abrufen. Wenn wir eine relationale Datenbank wie MySQL, SQL Server oder Oracle verwenden, können wir eine Sprache namens Structured Query Language oder SQL verwenden. SQL (manchmal als "Sequel" ausgesprochen) ist eine Standardsprache, die verwendet wird, um Daten in einer relationalen Datenbank abzurufen und zu ändern.
+
+Um Daten abzurufen, verwendest du den Befehl `SELECT`. Im Kern **wählst** du die Spalten aus, die du sehen möchtest, **aus** der Tabelle, in der sie enthalten sind. Wenn du nur die Namen der Städte anzeigen möchtest, könntest du Folgendes verwenden:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` ist der Ort, an dem du die Spalten auflistest, und `FROM` ist der Ort, an dem du die Tabellen auflistest.
+
+> [NOTE] SQL-Syntax ist nicht case-sensitiv, was bedeutet, dass `select` und `SELECT` dasselbe bedeuten. Je nach Art der verwendeten Datenbank könnten die Spalten und Tabellen jedoch case-sensitiv sein. Daher ist es eine bewährte Praxis, immer alles in der Programmierung so zu behandeln, als wäre es case-sensitiv. Beim Schreiben von SQL-Abfragen ist es üblich, die Schlüsselwörter in Großbuchstaben zu schreiben.
+
+Die obige Abfrage zeigt alle Städte an. Angenommen, wir möchten nur Städte in Neuseeland anzeigen. Wir brauchen eine Art Filter. Das SQL-Schlüsselwort dafür ist `WHERE`, oder "wo etwas wahr ist".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Daten verbinden
+
+Bis jetzt haben wir Daten aus einer einzigen Tabelle abgerufen. Jetzt möchten wir die Daten aus **städte** und **niederschlag** zusammenführen. Dies geschieht durch *Verbinden* der Tabellen. Du erstellst effektiv eine Verbindung zwischen den beiden Tabellen und ordnest die Werte aus einer Spalte jeder Tabelle einander zu.
+
+In unserem Beispiel werden wir die **stadt_id**-Spalte in **niederschlag** mit der **stadt_id**-Spalte in **städte** verbinden. Dies ordnet den Niederschlagswert der jeweiligen Stadt zu. Die Art der Verbindung, die wir durchführen, wird als *innerer* Join bezeichnet, was bedeutet, dass alle Zeilen, die nicht mit einer anderen Tabelle übereinstimmen, nicht angezeigt werden. In unserem Fall hat jede Stadt Niederschlagsdaten, sodass alles angezeigt wird.
+
+Lass uns den Niederschlag für 2019 für alle unsere Städte abrufen.
+
+Wir werden dies in Schritten tun. Der erste Schritt besteht darin, die Daten zusammenzuführen, indem wir die Spalten für die Verbindung angeben - **stadt_id**, wie zuvor hervorgehoben.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Wir haben die beiden Spalten hervorgehoben, die wir möchten, und die Tatsache, dass wir die Tabellen durch die **stadt_id** verbinden möchten. Jetzt können wir die `WHERE`-Anweisung hinzufügen, um nur das Jahr 2019 herauszufiltern.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Zusammenfassung
+
+Relationale Datenbanken basieren darauf, Informationen zwischen mehreren Tabellen aufzuteilen, die dann für Anzeige und Analyse wieder zusammengeführt werden. Dies bietet eine hohe Flexibilität, Berechnungen durchzuführen und Daten anderweitig zu manipulieren. Du hast die Kernkonzepte einer relationalen Datenbank gesehen und wie man eine Verbindung zwischen zwei Tabellen herstellt.
+
+## 🚀 Herausforderung
+
+Es gibt zahlreiche relationale Datenbanken im Internet. Du kannst die Daten erkunden, indem du die oben erlernten Fähigkeiten anwendest.
+
+## Quiz nach der Vorlesung
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Überprüfung & Selbststudium
+
+Es gibt mehrere Ressourcen auf [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum), die dir helfen, SQL und relationale Datenbankkonzepte weiter zu erkunden.
+
+- [Konzepte relationaler Daten beschreiben](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Erste Schritte mit Abfragen in Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL ist eine Version von SQL)
+- [SQL-Inhalte auf Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Aufgabe
+
+[Aufgabentitel](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/05-relational-databases/assignment.md b/translations/de/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..837ce248
--- /dev/null
+++ b/translations/de/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,71 @@
+
+# Anzeigen von Flughafendaten
+
+Ihnen wurde eine [Datenbank](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) bereitgestellt, die auf [SQLite](https://sqlite.org/index.html) basiert und Informationen über Flughäfen enthält. Das Schema wird unten angezeigt. Sie werden die [SQLite-Erweiterung](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) in [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) verwenden, um Informationen über Flughäfen in verschiedenen Städten anzuzeigen.
+
+## Anweisungen
+
+Um mit der Aufgabe zu beginnen, müssen Sie einige Schritte ausführen. Sie müssen einige Tools installieren und die Beispieldatenbank herunterladen.
+
+### System einrichten
+
+Sie können Visual Studio Code und die SQLite-Erweiterung verwenden, um mit der Datenbank zu interagieren.
+
+1. Gehen Sie zu [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) und folgen Sie den Anweisungen, um Visual Studio Code zu installieren.
+1. Installieren Sie die [SQLite-Erweiterung](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum), wie auf der Marketplace-Seite beschrieben.
+
+### Datenbank herunterladen und öffnen
+
+Als Nächstes laden Sie die Datenbank herunter und öffnen sie.
+
+1. Laden Sie die [Datenbankdatei von GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) herunter und speichern Sie sie in einem Verzeichnis.
+1. Öffnen Sie Visual Studio Code.
+1. Öffnen Sie die Datenbank in der SQLite-Erweiterung, indem Sie **Strg-Shift-P** (oder **Cmd-Shift-P** auf einem Mac) auswählen und `SQLite: Open database` eingeben.
+1. Wählen Sie **Choose database from file** und öffnen Sie die zuvor heruntergeladene Datei **airports.db**.
+1. Nachdem Sie die Datenbank geöffnet haben (es wird keine Aktualisierung auf dem Bildschirm angezeigt), erstellen Sie ein neues Abfragefenster, indem Sie **Strg-Shift-P** (oder **Cmd-Shift-P** auf einem Mac) auswählen und `SQLite: New query` eingeben.
+
+Sobald das neue Abfragefenster geöffnet ist, können Sie SQL-Anweisungen gegen die Datenbank ausführen. Sie können den Befehl **Strg-Shift-Q** (oder **Cmd-Shift-Q** auf einem Mac) verwenden, um Abfragen gegen die Datenbank auszuführen.
+
+> [!NOTE] Weitere Informationen zur SQLite-Erweiterung finden Sie in der [Dokumentation](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum).
+
+## Datenbankschema
+
+Das Schema einer Datenbank ist ihr Tabellenentwurf und ihre Struktur. Die **airports**-Datenbank hat zwei Tabellen: `cities`, die eine Liste von Städten in Großbritannien und Irland enthält, und `airports`, die die Liste aller Flughäfen enthält. Da einige Städte mehrere Flughäfen haben können, wurden zwei Tabellen erstellt, um die Informationen zu speichern. In dieser Übung verwenden Sie Joins, um Informationen für verschiedene Städte anzuzeigen.
+
+| Städte |
+| ----------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Flughäfen |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK zu id in **Cities**) |
+
+## Aufgabe
+
+Erstellen Sie Abfragen, um die folgenden Informationen zurückzugeben:
+
+1. Alle Städtenamen in der Tabelle `Cities`.
+1. Alle Städte in Irland in der Tabelle `Cities`.
+1. Alle Flughafennamen mit ihrer Stadt und ihrem Land.
+1. Alle Flughäfen in London, Großbritannien.
+
+## Bewertungskriterien
+
+| Vorbildlich | Angemessen | Verbesserungswürdig |
+| ----------- | ---------- | ------------------- |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/06-non-relational/README.md b/translations/de/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..bb0dce99
--- /dev/null
+++ b/translations/de/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,156 @@
+
+# Arbeiten mit Daten: Nicht-relationale Daten
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Arbeiten mit NoSQL-Daten - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Daten sind nicht nur auf relationale Datenbanken beschränkt. Diese Lektion konzentriert sich auf nicht-relationale Daten und behandelt die Grundlagen von Tabellenkalkulationen und NoSQL.
+
+## Tabellenkalkulationen
+
+Tabellenkalkulationen sind eine beliebte Methode, um Daten zu speichern und zu analysieren, da sie weniger Aufwand für die Einrichtung und den Start erfordern. In dieser Lektion lernst du die grundlegenden Bestandteile einer Tabellenkalkulation sowie Formeln und Funktionen kennen. Die Beispiele werden mit Microsoft Excel illustriert, aber die meisten Begriffe und Schritte sind vergleichbar mit anderen Tabellenkalkulationsprogrammen.
+
+
+
+Eine Tabellenkalkulation ist eine Datei und wird im Dateisystem eines Computers, Geräts oder cloudbasierten Dateisystems gespeichert. Die Software selbst kann browserbasiert oder eine Anwendung sein, die auf einem Computer installiert oder als App heruntergeladen werden muss. In Excel werden diese Dateien auch als **Arbeitsmappen** bezeichnet, und diese Terminologie wird in der restlichen Lektion verwendet.
+
+Eine Arbeitsmappe enthält ein oder mehrere **Arbeitsblätter**, die durch Tabs gekennzeichnet sind. Innerhalb eines Arbeitsblatts befinden sich Rechtecke, die als **Zellen** bezeichnet werden und die eigentlichen Daten enthalten. Eine Zelle ist der Schnittpunkt einer Zeile und einer Spalte, wobei die Spalten mit Buchstaben und die Zeilen numerisch gekennzeichnet sind. Einige Tabellenkalkulationen enthalten in den ersten Zeilen Kopfzeilen, die die Daten in einer Zelle beschreiben.
+
+Mit diesen grundlegenden Elementen einer Excel-Arbeitsmappe verwenden wir ein Beispiel aus den [Microsoft-Vorlagen](https://templates.office.com/), das sich auf ein Inventar konzentriert, um weitere Bestandteile einer Tabellenkalkulation zu erläutern.
+
+### Verwaltung eines Inventars
+
+Die Tabellenkalkulationsdatei mit dem Namen "InventoryExample" ist eine formatierte Tabelle mit Artikeln in einem Inventar, die drei Arbeitsblätter enthält. Die Tabs sind mit "Inventory List", "Inventory Pick List" und "Bin Lookup" beschriftet. Zeile 4 des Arbeitsblatts "Inventory List" ist die Kopfzeile, die den Wert jeder Zelle in der Kopfspalte beschreibt.
+
+
+
+Es gibt Fälle, in denen der Wert einer Zelle von den Werten anderer Zellen abhängt. Die Tabelle "Inventory List" verfolgt die Kosten jedes Artikels im Inventar, aber was ist, wenn wir den Gesamtwert des Inventars wissen möchten? [**Formeln**](https://support.microsoft.com/de-de/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) führen Aktionen mit Zellenwerten aus und werden in diesem Beispiel verwendet, um die Kosten des Inventars zu berechnen. Diese Tabelle verwendet eine Formel in der Spalte "Inventory Value", um den Wert jedes Artikels zu berechnen, indem die Menge unter der Kopfzeile "QTY" mit den Kosten unter der Kopfzeile "COST" multipliziert wird. Durch Doppelklicken oder Markieren einer Zelle wird die Formel angezeigt. Formeln beginnen immer mit einem Gleichheitszeichen, gefolgt von der Berechnung oder Operation.
+
+
+
+Wir können eine weitere Formel verwenden, um alle Werte der Spalte "Inventory Value" zusammenzuzählen und den Gesamtwert zu erhalten. Dies könnte durch das manuelle Addieren jeder Zelle erfolgen, was jedoch mühsam wäre. Excel bietet [**Funktionen**](https://support.microsoft.com/de-de/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), vordefinierte Formeln, die Berechnungen mit Zellenwerten durchführen. Funktionen benötigen Argumente, also die erforderlichen Werte für die Berechnung. Wenn Funktionen mehr als ein Argument benötigen, müssen diese in einer bestimmten Reihenfolge angegeben werden, damit die Funktion korrekt berechnet. In diesem Beispiel wird die SUM-Funktion verwendet, die die Werte der Spalte "Inventory Value" als Argument nimmt, um die Gesamtsumme in Zeile 3, Spalte B (auch als B3 bezeichnet) zu berechnen.
+
+## NoSQL
+
+NoSQL ist ein Sammelbegriff für verschiedene Methoden zur Speicherung nicht-relationaler Daten und kann als "non-SQL", "nicht-relational" oder "nicht nur SQL" interpretiert werden. Diese Art von Datenbanksystemen lässt sich in vier Typen unterteilen.
+
+
+> Quelle: [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[Key-Value](https://docs.microsoft.com/de-de/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores)-Datenbanken speichern eindeutige Schlüssel, die als eindeutige Kennung mit einem Wert verknüpft sind. Diese Paare werden mithilfe einer [Hashtabelle](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) und einer geeigneten Hash-Funktion gespeichert.
+
+
+> Quelle: [Microsoft](https://docs.microsoft.com/de-de/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[Graph](https://docs.microsoft.com/de-de/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores)-Datenbanken beschreiben Beziehungen in Daten und werden als Sammlung von Knoten und Kanten dargestellt. Ein Knoten repräsentiert eine Entität, etwas, das in der realen Welt existiert, wie ein Student oder ein Kontoauszug. Kanten repräsentieren die Beziehung zwischen zwei Entitäten. Jeder Knoten und jede Kante hat Eigenschaften, die zusätzliche Informationen bereitstellen.
+
+
+
+[Spaltenbasierte](https://docs.microsoft.com/de-de/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) Datenspeicher organisieren Daten in Spalten und Zeilen wie eine relationale Datenstruktur, aber jede Spalte wird in Gruppen namens Spaltenfamilien unterteilt, wobei alle Daten unter einer Spalte zusammengehören und als Einheit abgerufen oder geändert werden können.
+
+### Dokumenten-Datenspeicher mit Azure Cosmos DB
+
+[Dokumenten](https://docs.microsoft.com/de-de/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores)-Datenspeicher basieren auf dem Konzept eines Key-Value-Datenspeichers und bestehen aus einer Reihe von Feldern und Objekten. In diesem Abschnitt werden Dokumentendatenbanken mit dem Cosmos DB Emulator untersucht.
+
+Eine Cosmos DB-Datenbank entspricht der Definition von "Nicht nur SQL", da die Dokumentendatenbank von Cosmos DB auf SQL basiert, um die Daten abzufragen. Die [vorherige Lektion](../05-relational-databases/README.md) zu SQL behandelt die Grundlagen der Sprache, und wir können einige der gleichen Abfragen hier auf eine Dokumentendatenbank anwenden. Wir verwenden den Cosmos DB Emulator, der es uns ermöglicht, eine Dokumentendatenbank lokal auf einem Computer zu erstellen und zu erkunden. Weitere Informationen zum Emulator findest du [hier](https://docs.microsoft.com/de-de/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Ein Dokument ist eine Sammlung von Feldern und Objektwerten, wobei die Felder beschreiben, was der Objektwert darstellt. Unten ist ein Beispiel für ein Dokument.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Die interessanten Felder in diesem Dokument sind: `firstname`, `id` und `age`. Die restlichen Felder mit den Unterstrichen wurden von Cosmos DB generiert.
+
+#### Daten mit dem Cosmos DB Emulator erkunden
+
+Du kannst den Emulator [für Windows hier herunterladen und installieren](https://aka.ms/cosmosdb-emulator). Informationen zur Ausführung des Emulators unter macOS und Linux findest du in dieser [Dokumentation](https://docs.microsoft.com/de-de/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos).
+
+Der Emulator öffnet ein Browserfenster, in dem die Explorer-Ansicht es ermöglicht, Dokumente zu erkunden.
+
+
+
+Wenn du mitmachst, klicke auf "Start with Sample", um eine Beispieldatenbank namens SampleDB zu erstellen. Wenn du SampleDB durch Klicken auf den Pfeil erweiterst, findest du einen Container namens `Persons`. Ein Container enthält eine Sammlung von Elementen, die die Dokumente im Container sind. Du kannst die vier einzelnen Dokumente unter `Items` erkunden.
+
+
+
+#### Dokumentendaten mit dem Cosmos DB Emulator abfragen
+
+Wir können die Beispieldaten auch abfragen, indem wir auf die Schaltfläche "New SQL Query" (zweite Schaltfläche von links) klicken.
+
+`SELECT * FROM c` gibt alle Dokumente im Container zurück. Fügen wir eine WHERE-Klausel hinzu, um alle Personen unter 40 zu finden.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Die Abfrage gibt zwei Dokumente zurück. Beachte, dass der Alterswert für jedes Dokument kleiner als 40 ist.
+
+#### JSON und Dokumente
+
+Wenn du mit JavaScript Object Notation (JSON) vertraut bist, wirst du feststellen, dass Dokumente JSON ähneln. In diesem Verzeichnis gibt es eine Datei namens `PersonsData.json` mit weiteren Daten, die du über die Schaltfläche `Upload Item` in den Container `Persons` im Emulator hochladen kannst.
+
+In den meisten Fällen können APIs, die JSON-Daten zurückgeben, direkt in Dokumentendatenbanken übertragen und gespeichert werden. Unten ist ein weiteres Dokument, das Tweets vom Microsoft-Twitter-Konto darstellt, die über die Twitter-API abgerufen und dann in Cosmos DB eingefügt wurden.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Die interessanten Felder in diesem Dokument sind: `created_at`, `id` und `text`.
+
+## 🚀 Herausforderung
+
+Es gibt eine Datei namens `TwitterData.json`, die du in die SampleDB-Datenbank hochladen kannst. Es wird empfohlen, sie in einem separaten Container hinzuzufügen. Dies kann wie folgt erfolgen:
+
+1. Klicke auf die Schaltfläche "New Container" oben rechts.
+1. Wähle die bestehende Datenbank (SampleDB) aus, erstelle eine Container-ID für den Container.
+1. Setze den Partitionsschlüssel auf `/id`.
+1. Klicke auf OK (du kannst den Rest der Informationen in dieser Ansicht ignorieren, da es sich um einen kleinen Datensatz handelt, der lokal auf deinem Computer läuft).
+1. Öffne deinen neuen Container und lade die Twitter-Daten-Datei über die Schaltfläche `Upload Item` hoch.
+
+Versuche, einige SELECT-Abfragen auszuführen, um die Dokumente zu finden, die "Microsoft" im Textfeld enthalten. Tipp: Verwende das [LIKE-Schlüsselwort](https://docs.microsoft.com/de-de/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Wiederholung & Selbststudium
+
+- Es gibt zusätzliche Formatierungen und Funktionen in dieser Tabellenkalkulation, die in dieser Lektion nicht behandelt werden. Microsoft bietet eine [umfangreiche Bibliothek mit Dokumentationen und Videos](https://support.microsoft.com/excel) zu Excel, falls du mehr lernen möchtest.
+
+- Diese Architektur-Dokumentation beschreibt die Eigenschaften der verschiedenen Arten von nicht-relationalen Daten: [Nicht-relationale Daten und NoSQL](https://docs.microsoft.com/de-de/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Cosmos DB ist eine cloudbasierte nicht-relationale Datenbank, die auch die in dieser Lektion erwähnten verschiedenen NoSQL-Typen speichern kann. Erfahre mehr über diese Typen in diesem [Cosmos DB Microsoft Learn Modul](https://docs.microsoft.com/de-de/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Aufgabe
+
+[Soda Profits](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/06-non-relational/assignment.md b/translations/de/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..420aedd3
--- /dev/null
+++ b/translations/de/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,31 @@
+
+# Soda-Gewinne
+
+## Anweisungen
+
+Die [Coca Cola Co-Tabelle](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) enthält einige fehlende Berechnungen. Deine Aufgabe ist es:
+
+1. Die Bruttogewinne der Geschäftsjahre '15, '16, '17 und '18 zu berechnen.
+ - Bruttogewinn = Netto-Betriebserlöse - Herstellungskosten
+1. Den Durchschnitt aller Bruttogewinne zu berechnen. Versuche dies mit einer Funktion zu machen.
+ - Durchschnitt = Summe der Bruttogewinne geteilt durch die Anzahl der Geschäftsjahre (10)
+ - Dokumentation zur [AVERAGE-Funktion](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Dies ist eine Excel-Datei, sollte aber in jeder Tabellenkalkulationssoftware bearbeitbar sein.
+
+[Quellenangabe für die Daten: Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | ---
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/07-python/README.md b/translations/de/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..fd1a6580
--- /dev/null
+++ b/translations/de/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,288 @@
+
+# Arbeiten mit Daten: Python und die Pandas-Bibliothek
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Arbeiten mit Python - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Datenbanken bieten sehr effiziente Möglichkeiten, Daten zu speichern und sie mit Abfragesprachen zu durchsuchen. Die flexibelste Art der Datenverarbeitung ist jedoch das Schreiben eines eigenen Programms, um Daten zu manipulieren. In vielen Fällen wäre eine Datenbankabfrage effektiver. Es gibt jedoch Situationen, in denen komplexere Datenverarbeitungen erforderlich sind, die mit SQL nicht einfach durchzuführen sind.
+Datenverarbeitung kann in jeder Programmiersprache programmiert werden, aber es gibt bestimmte Sprachen, die sich besonders gut für die Arbeit mit Daten eignen. Datenwissenschaftler bevorzugen typischerweise eine der folgenden Sprachen:
+
+* **[Python](https://www.python.org/)**, eine universelle Programmiersprache, die aufgrund ihrer Einfachheit oft als eine der besten Optionen für Anfänger gilt. Python verfügt über viele zusätzliche Bibliotheken, die Ihnen helfen können, praktische Probleme zu lösen, wie z. B. das Extrahieren von Daten aus einem ZIP-Archiv oder das Konvertieren eines Bildes in Graustufen. Neben der Datenwissenschaft wird Python auch häufig für die Webentwicklung verwendet.
+* **[R](https://www.r-project.org/)** ist ein traditionelles Werkzeug, das speziell für die statistische Datenverarbeitung entwickelt wurde. Es enthält ein großes Repository von Bibliotheken (CRAN), was es zu einer guten Wahl für die Datenverarbeitung macht. Allerdings ist R keine universelle Programmiersprache und wird außerhalb des Bereichs der Datenwissenschaft selten verwendet.
+* **[Julia](https://julialang.org/)** ist eine weitere Sprache, die speziell für die Datenwissenschaft entwickelt wurde. Sie soll eine bessere Leistung als Python bieten und ist daher ein großartiges Werkzeug für wissenschaftliche Experimente.
+
+In dieser Lektion konzentrieren wir uns auf die Verwendung von Python für einfache Datenverarbeitung. Wir setzen grundlegende Kenntnisse der Sprache voraus. Wenn Sie eine tiefere Einführung in Python wünschen, können Sie auf eine der folgenden Ressourcen zurückgreifen:
+
+* [Lernen Sie Python auf unterhaltsame Weise mit Turtle Graphics und Fraktalen](https://github.com/shwars/pycourse) - Ein schneller Einführungskurs in Python-Programmierung auf GitHub
+* [Machen Sie Ihre ersten Schritte mit Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) - Lernpfad auf [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Daten können in vielen Formen vorliegen. In dieser Lektion betrachten wir drei Formen von Daten - **tabellarische Daten**, **Text** und **Bilder**.
+
+Wir konzentrieren uns auf einige Beispiele der Datenverarbeitung, anstatt Ihnen einen vollständigen Überblick über alle zugehörigen Bibliotheken zu geben. Dies ermöglicht es Ihnen, die Hauptidee dessen, was möglich ist, zu verstehen und zu wissen, wo Sie Lösungen für Ihre Probleme finden können, wenn Sie sie benötigen.
+
+> **Der nützlichste Ratschlag**: Wenn Sie eine bestimmte Datenoperation durchführen müssen, aber nicht wissen, wie, suchen Sie im Internet danach. [Stackoverflow](https://stackoverflow.com/) enthält oft viele nützliche Codebeispiele in Python für viele typische Aufgaben.
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Tabellarische Daten und Dataframes
+
+Sie haben bereits tabellarische Daten kennengelernt, als wir über relationale Datenbanken gesprochen haben. Wenn Sie viele Daten haben, die in vielen verschiedenen verknüpften Tabellen enthalten sind, macht es definitiv Sinn, SQL zu verwenden, um damit zu arbeiten. Es gibt jedoch viele Fälle, in denen wir eine Tabelle mit Daten haben und **Einblicke** oder **Verständnis** über diese Daten gewinnen möchten, wie z. B. die Verteilung oder Korrelation zwischen Werten. In der Datenwissenschaft gibt es viele Fälle, in denen wir einige Transformationen der ursprünglichen Daten durchführen müssen, gefolgt von einer Visualisierung. Beide Schritte können leicht mit Python durchgeführt werden.
+
+Es gibt zwei nützliche Bibliotheken in Python, die Ihnen bei der Arbeit mit tabellarischen Daten helfen können:
+* **[Pandas](https://pandas.pydata.org/)** ermöglicht es Ihnen, sogenannte **Dataframes** zu manipulieren, die relationalen Tabellen ähneln. Sie können benannte Spalten haben und verschiedene Operationen auf Zeilen, Spalten und Dataframes im Allgemeinen durchführen.
+* **[Numpy](https://numpy.org/)** ist eine Bibliothek für die Arbeit mit **Tensors**, d. h. mehrdimensionalen **Arrays**. Ein Array hat Werte desselben zugrunde liegenden Typs, ist einfacher als ein Dataframe, bietet jedoch mehr mathematische Operationen und erzeugt weniger Overhead.
+
+Es gibt auch ein paar andere Bibliotheken, die Sie kennen sollten:
+* **[Matplotlib](https://matplotlib.org/)** ist eine Bibliothek für Datenvisualisierung und das Erstellen von Diagrammen
+* **[SciPy](https://www.scipy.org/)** ist eine Bibliothek mit zusätzlichen wissenschaftlichen Funktionen. Wir sind bereits auf diese Bibliothek gestoßen, als wir über Wahrscheinlichkeit und Statistik gesprochen haben.
+
+Hier ist ein Codebeispiel, das Sie typischerweise verwenden würden, um diese Bibliotheken am Anfang Ihres Python-Programms zu importieren:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas basiert auf einigen grundlegenden Konzepten.
+
+### Series
+
+**Series** ist eine Sequenz von Werten, ähnlich einer Liste oder einem Numpy-Array. Der Hauptunterschied besteht darin, dass eine Series auch einen **Index** hat, und wenn wir mit Series arbeiten (z. B. sie addieren), wird der Index berücksichtigt. Der Index kann so einfach wie eine ganze Zeilennummer sein (dies ist der Standardindex, wenn eine Series aus einer Liste oder einem Array erstellt wird), oder er kann eine komplexe Struktur wie ein Datumsintervall haben.
+
+> **Hinweis**: Es gibt einige einführende Pandas-Codes im begleitenden Notebook [`notebook.ipynb`](../../../../2-Working-With-Data/07-python/notebook.ipynb). Wir skizzieren hier nur einige Beispiele, und Sie sind herzlich eingeladen, das vollständige Notebook zu überprüfen.
+
+Betrachten wir ein Beispiel: Wir möchten die Verkäufe unseres Eisdielenstandes analysieren. Lassen Sie uns eine Serie von Verkaufszahlen (Anzahl der täglich verkauften Artikel) für einen bestimmten Zeitraum generieren:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Angenommen, wir organisieren jede Woche eine Party für Freunde und nehmen zusätzlich 10 Packungen Eiscreme für die Party mit. Wir können eine weitere Serie erstellen, die nach Wochen indiziert ist, um dies zu demonstrieren:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Wenn wir zwei Serien zusammenaddieren, erhalten wir die Gesamtzahl:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Hinweis**: Wir verwenden nicht die einfache Syntax `total_items+additional_items`. Wenn wir dies tun würden, würden wir viele `NaN` (*Not a Number*)-Werte in der resultierenden Serie erhalten. Dies liegt daran, dass für einige Indexpunkte in der Serie `additional_items` Werte fehlen, und das Addieren von `NaN` zu irgendetwas ergibt `NaN`. Daher müssen wir den Parameter `fill_value` während der Addition angeben.
+
+Mit Zeitreihen können wir die Serie auch mit unterschiedlichen Zeitintervallen **neu abtasten**. Zum Beispiel, wenn wir das durchschnittliche Verkaufsvolumen monatlich berechnen möchten, können wir den folgenden Code verwenden:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+Ein DataFrame ist im Wesentlichen eine Sammlung von Series mit demselben Index. Wir können mehrere Series zu einem DataFrame kombinieren:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Dies erstellt eine horizontale Tabelle wie diese:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Wir können Series auch als Spalten verwenden und Spaltennamen mit einem Wörterbuch angeben:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Dies ergibt eine Tabelle wie diese:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Hinweis**: Wir können dieses Tabellenlayout auch erhalten, indem wir die vorherige Tabelle transponieren, z. B. durch Schreiben von
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Hier bedeutet `.T` die Operation des Transponierens des DataFrames, d. h. das Tauschen von Zeilen und Spalten, und die `rename`-Operation ermöglicht es uns, Spalten umzubenennen, um das vorherige Beispiel zu entsprechen.
+
+Hier sind einige der wichtigsten Operationen, die wir auf DataFrames ausführen können:
+
+**Spaltenauswahl**. Wir können einzelne Spalten auswählen, indem wir `df['A']` schreiben - diese Operation gibt eine Series zurück. Wir können auch eine Teilmenge von Spalten in einen anderen DataFrame auswählen, indem wir `df[['B','A']]` schreiben - dies gibt einen anderen DataFrame zurück.
+
+**Filtern** bestimmter Zeilen nach Kriterien. Zum Beispiel, um nur Zeilen mit Spalte `A` größer als 5 zu behalten, können wir `df[df['A']>5]` schreiben.
+
+> **Hinweis**: So funktioniert das Filtern. Der Ausdruck `df['A']<5` gibt eine boolesche Serie zurück, die angibt, ob der Ausdruck für jedes Element der ursprünglichen Serie `df['A']` `True` oder `False` ist. Wenn eine boolesche Serie als Index verwendet wird, gibt sie eine Teilmenge der Zeilen im DataFrame zurück. Daher ist es nicht möglich, beliebige Python-Boolesche Ausdrücke zu verwenden. Zum Beispiel wäre das Schreiben von `df[df['A']>5 and df['A']<7]` falsch. Stattdessen sollten Sie die spezielle `&`-Operation auf booleschen Serien verwenden, indem Sie `df[(df['A']>5) & (df['A']<7)]` schreiben (*Klammern sind hier wichtig*).
+
+**Erstellen neuer berechneter Spalten**. Wir können leicht neue berechnete Spalten für unseren DataFrame erstellen, indem wir intuitive Ausdrücke wie diesen verwenden:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Dieses Beispiel berechnet die Abweichung von A von seinem Mittelwert. Was hier tatsächlich passiert, ist, dass wir eine Serie berechnen und diese dann der linken Seite zuweisen, wodurch eine weitere Spalte erstellt wird. Daher können wir keine Operationen verwenden, die nicht mit Serien kompatibel sind. Zum Beispiel ist der folgende Code falsch:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Das letzte Beispiel, obwohl syntaktisch korrekt, gibt uns ein falsches Ergebnis, da es die Länge der Serie `B` allen Werten in der Spalte zuweist und nicht die Länge der einzelnen Elemente, wie wir beabsichtigt hatten.
+
+Wenn wir komplexe Ausdrücke wie diesen berechnen müssen, können wir die Funktion `apply` verwenden. Das letzte Beispiel kann wie folgt geschrieben werden:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Nach den obigen Operationen erhalten wir den folgenden DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Auswahl von Zeilen basierend auf Zahlen** kann mit der `iloc`-Konstruktion durchgeführt werden. Zum Beispiel, um die ersten 5 Zeilen aus dem DataFrame auszuwählen:
+```python
+df.iloc[:5]
+```
+
+**Gruppierung** wird oft verwendet, um ein Ergebnis ähnlich wie *Pivot-Tabellen* in Excel zu erhalten. Angenommen, wir möchten den Mittelwert der Spalte `A` für jede gegebene Anzahl von `LenB` berechnen. Dann können wir unseren DataFrame nach `LenB` gruppieren und `mean` aufrufen:
+```python
+df.groupby(by='LenB').mean()
+```
+Wenn wir den Mittelwert und die Anzahl der Elemente in der Gruppe berechnen müssen, können wir die komplexere Funktion `aggregate` verwenden:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Dies ergibt die folgende Tabelle:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Daten abrufen
+Wir haben gesehen, wie einfach es ist, Series und DataFrames aus Python-Objekten zu erstellen. Allerdings liegen Daten normalerweise in Form einer Textdatei oder einer Excel-Tabelle vor. Glücklicherweise bietet uns Pandas eine einfache Möglichkeit, Daten von der Festplatte zu laden. Zum Beispiel ist das Lesen einer CSV-Datei so einfach wie hier gezeigt:
+```python
+df = pd.read_csv('file.csv')
+```
+Wir werden weitere Beispiele zum Laden von Daten sehen, einschließlich des Abrufens von externen Websites, im Abschnitt "Challenge".
+
+### Drucken und Plotten
+
+Ein Data Scientist muss oft die Daten erkunden, daher ist es wichtig, sie visualisieren zu können. Wenn ein DataFrame groß ist, möchten wir oft nur sicherstellen, dass wir alles richtig machen, indem wir die ersten paar Zeilen ausgeben. Dies kann durch Aufrufen von `df.head()` erfolgen. Wenn Sie es in einem Jupyter Notebook ausführen, wird der DataFrame in einer schönen tabellarischen Form angezeigt.
+
+Wir haben auch die Verwendung der Funktion `plot` gesehen, um einige Spalten zu visualisieren. Während `plot` für viele Aufgaben sehr nützlich ist und viele verschiedene Diagrammtypen über den Parameter `kind=` unterstützt, können Sie immer die Bibliothek `matplotlib` verwenden, um etwas Komplexeres zu erstellen. Wir werden die Datenvisualisierung in separaten Kurslektionen ausführlich behandeln.
+
+Dieser Überblick deckt die wichtigsten Konzepte von Pandas ab, jedoch ist die Bibliothek sehr umfangreich, und es gibt keine Grenzen, was Sie damit tun können! Wenden wir dieses Wissen nun an, um ein spezifisches Problem zu lösen.
+
+## 🚀 Challenge 1: Analyse der COVID-Ausbreitung
+
+Das erste Problem, auf das wir uns konzentrieren werden, ist die Modellierung der epidemischen Ausbreitung von COVID-19. Dazu verwenden wir die Daten über die Anzahl der infizierten Personen in verschiedenen Ländern, bereitgestellt vom [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) der [Johns Hopkins University](https://jhu.edu/). Der Datensatz ist in diesem [GitHub-Repository](https://github.com/CSSEGISandData/COVID-19) verfügbar.
+
+Da wir demonstrieren möchten, wie man mit Daten umgeht, laden wir Sie ein, [`notebook-covidspread.ipynb`](../../../../2-Working-With-Data/07-python/notebook-covidspread.ipynb) zu öffnen und es von oben nach unten zu lesen. Sie können auch Zellen ausführen und einige Herausforderungen lösen, die wir am Ende für Sie hinterlassen haben.
+
+
+
+> Wenn Sie nicht wissen, wie man Code in Jupyter Notebook ausführt, schauen Sie sich [diesen Artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) an.
+
+## Arbeiten mit unstrukturierten Daten
+
+Während Daten sehr oft in tabellarischer Form vorliegen, müssen wir in einigen Fällen mit weniger strukturierten Daten umgehen, z. B. Text oder Bildern. In diesem Fall müssen wir, um die oben gesehenen Datenverarbeitungstechniken anzuwenden, irgendwie **strukturierte** Daten extrahieren. Hier sind einige Beispiele:
+
+* Extrahieren von Schlüsselwörtern aus Text und Analysieren, wie oft diese Schlüsselwörter vorkommen
+* Verwenden von neuronalen Netzwerken, um Informationen über Objekte auf einem Bild zu extrahieren
+* Ermitteln von Emotionen von Personen in einem Video-Feed
+
+## 🚀 Challenge 2: Analyse von COVID-Fachartikeln
+
+In dieser Challenge bleiben wir beim Thema der COVID-Pandemie und konzentrieren uns auf die Verarbeitung wissenschaftlicher Artikel zu diesem Thema. Es gibt den [CORD-19-Datensatz](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) mit mehr als 7000 (zum Zeitpunkt der Erstellung) Artikeln über COVID, verfügbar mit Metadaten und Abstracts (und für etwa die Hälfte davon ist auch der Volltext verfügbar).
+
+Ein vollständiges Beispiel für die Analyse dieses Datensatzes mit dem kognitiven Dienst [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) wird [in diesem Blogpost](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) beschrieben. Wir werden eine vereinfachte Version dieser Analyse besprechen.
+
+> **NOTE**: Wir stellen keine Kopie des Datensatzes als Teil dieses Repositories bereit. Sie müssen möglicherweise zuerst die Datei [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) aus [diesem Datensatz auf Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) herunterladen. Eine Registrierung bei Kaggle kann erforderlich sein. Alternativ können Sie den Datensatz ohne Registrierung [hier herunterladen](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), aber er wird alle Volltexte zusätzlich zur Metadaten-Datei enthalten.
+
+Öffnen Sie [`notebook-papers.ipynb`](../../../../2-Working-With-Data/07-python/notebook-papers.ipynb) und lesen Sie es von oben nach unten. Sie können auch Zellen ausführen und einige Herausforderungen lösen, die wir am Ende für Sie hinterlassen haben.
+
+
+
+## Verarbeitung von Bilddaten
+
+In letzter Zeit wurden sehr leistungsstarke KI-Modelle entwickelt, die es ermöglichen, Bilder zu verstehen. Es gibt viele Aufgaben, die mit vortrainierten neuronalen Netzwerken oder Cloud-Diensten gelöst werden können. Einige Beispiele sind:
+
+* **Bildklassifikation**, die Ihnen helfen kann, ein Bild in eine der vordefinierten Klassen einzuordnen. Sie können Ihre eigenen Bildklassifikatoren einfach mit Diensten wie [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) trainieren.
+* **Objekterkennung**, um verschiedene Objekte im Bild zu erkennen. Dienste wie [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) können eine Reihe von gängigen Objekten erkennen, und Sie können ein [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)-Modell trainieren, um spezifische Objekte von Interesse zu erkennen.
+* **Gesichtserkennung**, einschließlich Alter, Geschlecht und Emotionserkennung. Dies kann über die [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) erfolgen.
+
+All diese Cloud-Dienste können mit [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) aufgerufen werden und können somit leicht in Ihren Datenexplorations-Workflow integriert werden.
+
+Hier sind einige Beispiele für die Erkundung von Daten aus Bilddatenquellen:
+* Im Blogpost [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) untersuchen wir Instagram-Fotos, um zu verstehen, was Menschen dazu bringt, einem Foto mehr Likes zu geben. Wir extrahieren zunächst so viele Informationen wie möglich aus Bildern mit [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) und verwenden dann [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum), um ein interpretierbares Modell zu erstellen.
+* Im [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) verwenden wir die [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum), um Emotionen von Personen auf Fotos von Veranstaltungen zu extrahieren, um zu verstehen, was Menschen glücklich macht.
+
+## Fazit
+
+Egal, ob Sie bereits strukturierte oder unstrukturierte Daten haben, mit Python können Sie alle Schritte der Datenverarbeitung und -analyse durchführen. Es ist wahrscheinlich die flexibelste Methode zur Datenverarbeitung, und das ist der Grund, warum die Mehrheit der Data Scientists Python als ihr Hauptwerkzeug verwendet. Python gründlich zu lernen, ist wahrscheinlich eine gute Idee, wenn Sie Ihre Reise in die Datenwissenschaft ernsthaft verfolgen möchten!
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Rückblick & Selbststudium
+
+**Bücher**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Online-Ressourcen**
+* Offizielles [10 Minuten zu Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)-Tutorial
+* [Dokumentation zur Pandas-Visualisierung](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Python lernen**
+* [Lernen Sie Python auf unterhaltsame Weise mit Turtle Graphics und Fraktalen](https://github.com/shwars/pycourse)
+* [Machen Sie Ihre ersten Schritte mit Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Lernpfad auf [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Aufgabe
+
+[Führen Sie eine detailliertere Datenanalyse für die oben genannten Herausforderungen durch](assignment.md)
+
+## Credits
+
+Diese Lektion wurde mit ♥️ von [Dmitry Soshnikov](http://soshnikov.com) erstellt.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/07-python/assignment.md b/translations/de/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..cb9caf93
--- /dev/null
+++ b/translations/de/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,35 @@
+
+# Aufgabe zur Datenverarbeitung in Python
+
+In dieser Aufgabe bitten wir Sie, den Code, den wir in unseren Herausforderungen begonnen haben, weiterzuentwickeln. Die Aufgabe besteht aus zwei Teilen:
+
+## Modellierung der Ausbreitung von COVID-19
+
+ - [ ] Erstellen Sie *R* Graphen für 5-6 verschiedene Länder auf einem Diagramm zum Vergleich oder auf mehreren Diagrammen nebeneinander.
+ - [ ] Untersuchen Sie, wie die Anzahl der Todesfälle und Genesungen mit der Anzahl der Infektionsfälle korreliert.
+ - [ ] Finden Sie heraus, wie lange eine typische Krankheit dauert, indem Sie die Infektionsrate und die Sterberate visuell korrelieren und nach Anomalien suchen. Möglicherweise müssen Sie verschiedene Länder betrachten, um dies herauszufinden.
+ - [ ] Berechnen Sie die Sterblichkeitsrate und wie sie sich im Laufe der Zeit verändert. *Sie sollten möglicherweise die Dauer der Krankheit in Tagen berücksichtigen, um eine Zeitreihe zu verschieben, bevor Sie Berechnungen durchführen.*
+
+## Analyse von COVID-19-Publikationen
+
+- [ ] Erstellen Sie eine Co-Occurrence-Matrix für verschiedene Medikamente und untersuchen Sie, welche Medikamente häufig zusammen auftreten (d. h. in einem Abstract erwähnt werden). Sie können den Code zur Erstellung der Co-Occurrence-Matrix für Medikamente und Diagnosen anpassen.
+- [ ] Visualisieren Sie diese Matrix mit einem Heatmap.
+- [ ] Als zusätzliche Herausforderung: Visualisieren Sie die Co-Occurrence von Medikamenten mit einem [Chord-Diagramm](https://en.wikipedia.org/wiki/Chord_diagram). [Diese Bibliothek](https://pypi.org/project/chord/) könnte Ihnen helfen, ein Chord-Diagramm zu erstellen.
+- [ ] Als weitere zusätzliche Herausforderung: Extrahieren Sie Dosierungen verschiedener Medikamente (wie **400mg** in *nehmen Sie täglich 400mg Chloroquin*) mithilfe von regulären Ausdrücken und erstellen Sie ein Dataframe, das verschiedene Dosierungen für verschiedene Medikamente zeigt. **Hinweis**: Berücksichtigen Sie numerische Werte, die sich in der Nähe des Medikamentennamens befinden.
+
+## Bewertungskriterien
+
+Exzellent | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Alle Aufgaben sind abgeschlossen, grafisch dargestellt und erklärt, einschließlich mindestens eines der beiden zusätzlichen Ziele | Mehr als 5 Aufgaben sind abgeschlossen, keine zusätzlichen Ziele wurden versucht, oder die Ergebnisse sind nicht klar | Weniger als 5 (aber mehr als 3) Aufgaben sind abgeschlossen, Visualisierungen helfen nicht, den Punkt zu verdeutlichen
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/08-data-preparation/README.md b/translations/de/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..21661153
--- /dev/null
+++ b/translations/de/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,344 @@
+
+# Arbeiten mit Daten: Datenaufbereitung
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Datenaufbereitung - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Je nach Quelle können Rohdaten Inkonsistenzen enthalten, die bei der Analyse und Modellierung Probleme verursachen. Mit anderen Worten, diese Daten können als "schmutzig" kategorisiert werden und müssen bereinigt werden. Diese Lektion konzentriert sich auf Techniken zur Bereinigung und Transformation von Daten, um Herausforderungen wie fehlende, ungenaue oder unvollständige Daten zu bewältigen. Die behandelten Themen nutzen Python und die Pandas-Bibliothek und werden [im Notebook](../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb) in diesem Verzeichnis demonstriert.
+
+## Die Bedeutung der Datenbereinigung
+
+- **Einfachere Nutzung und Wiederverwendung**: Wenn Daten richtig organisiert und normalisiert sind, lassen sie sich leichter durchsuchen, verwenden und mit anderen teilen.
+
+- **Konsistenz**: Datenwissenschaft erfordert oft die Arbeit mit mehreren Datensätzen, bei denen Datensätze aus verschiedenen Quellen zusammengeführt werden müssen. Die Sicherstellung, dass jeder einzelne Datensatz eine gemeinsame Standardisierung aufweist, garantiert, dass die Daten auch nach der Zusammenführung in einem Datensatz nützlich bleiben.
+
+- **Modellgenauigkeit**: Bereinigte Daten verbessern die Genauigkeit der Modelle, die auf ihnen basieren.
+
+## Häufige Ziele und Strategien der Datenbereinigung
+
+- **Einen Datensatz erkunden**: Die Datenexploration, die in einer [späteren Lektion](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing) behandelt wird, kann helfen, Daten zu entdecken, die bereinigt werden müssen. Das visuelle Beobachten von Werten innerhalb eines Datensatzes kann Erwartungen darüber setzen, wie der Rest aussehen wird, oder eine Vorstellung von den Problemen geben, die gelöst werden können. Exploration kann grundlegende Abfragen, Visualisierungen und Stichproben umfassen.
+
+- **Formatierung**: Je nach Quelle können Daten Inkonsistenzen in ihrer Darstellung aufweisen. Dies kann Probleme beim Suchen und Darstellen von Werten verursachen, bei denen sie zwar im Datensatz vorhanden sind, aber nicht korrekt in Visualisierungen oder Abfrageergebnissen dargestellt werden. Häufige Formatierungsprobleme umfassen das Beheben von Leerzeichen, Datumsangaben und Datentypen. Die Behebung von Formatierungsproblemen liegt typischerweise in der Verantwortung der Personen, die die Daten verwenden. Zum Beispiel können sich Standards zur Darstellung von Daten und Zahlen je nach Land unterscheiden.
+
+- **Duplikate**: Daten, die mehr als einmal vorkommen, können ungenaue Ergebnisse liefern und sollten in der Regel entfernt werden. Dies kann häufig auftreten, wenn zwei oder mehr Datensätze zusammengeführt werden. Es gibt jedoch Fälle, in denen Duplikate in zusammengeführten Datensätzen zusätzliche Informationen enthalten können und möglicherweise erhalten bleiben müssen.
+
+- **Fehlende Daten**: Fehlende Daten können zu Ungenauigkeiten sowie schwachen oder verzerrten Ergebnissen führen. Manchmal können diese durch ein "Neuladen" der Daten, das Auffüllen der fehlenden Werte mit Berechnungen und Code wie Python oder einfach durch Entfernen des Wertes und der entsprechenden Daten gelöst werden. Es gibt zahlreiche Gründe, warum Daten fehlen können, und die Maßnahmen zur Behebung dieser fehlenden Werte hängen davon ab, wie und warum sie ursprünglich verloren gegangen sind.
+
+## Informationen über DataFrames erkunden
+> **Lernziel:** Am Ende dieses Abschnitts sollten Sie in der Lage sein, allgemeine Informationen über die in pandas-DataFrames gespeicherten Daten zu finden.
+
+Sobald Sie Ihre Daten in pandas geladen haben, befinden sie sich höchstwahrscheinlich in einem DataFrame (siehe die vorherige [Lektion](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) für eine detaillierte Übersicht). Wenn der Datensatz in Ihrem DataFrame jedoch 60.000 Zeilen und 400 Spalten umfasst, wie fangen Sie dann an, sich einen Überblick zu verschaffen? Glücklicherweise bietet [pandas](https://pandas.pydata.org/) einige praktische Werkzeuge, um schnell allgemeine Informationen über einen DataFrame sowie die ersten und letzten Zeilen zu betrachten.
+
+Um diese Funktionalität zu erkunden, importieren wir die Python-Bibliothek scikit-learn und verwenden einen ikonischen Datensatz: den **Iris-Datensatz**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |Kelchblattlänge (cm)|Kelchblattbreite (cm)|Kronblattlänge (cm)|Kronblattbreite (cm)|
+|----------------------------------------|--------------------|---------------------|-------------------|--------------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Zu Beginn wird die Methode `info()` verwendet, um eine Zusammenfassung des Inhalts eines `DataFrame` auszugeben. Schauen wir uns diesen Datensatz an, um zu sehen, was wir haben:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Aus diesen Informationen wissen wir, dass der *Iris*-Datensatz 150 Einträge in vier Spalten ohne Nullwerte enthält. Alle Daten sind als 64-Bit-Gleitkommazahlen gespeichert.
+
+- **DataFrame.head()**: Um den tatsächlichen Inhalt des `DataFrame` zu überprüfen, verwenden wir die Methode `head()`. Schauen wir uns die ersten Zeilen unseres `iris_df` an:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Umgekehrt verwenden wir die Methode `tail()`, um die letzten Zeilen des `DataFrame` zu überprüfen:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Fazit:** Schon durch das Betrachten der Metadaten eines DataFrame oder der ersten und letzten Werte kann man sich schnell einen Überblick über die Größe, Form und den Inhalt der Daten verschaffen.
+
+## Umgang mit fehlenden Daten
+> **Lernziel:** Am Ende dieses Abschnitts sollten Sie wissen, wie Sie Nullwerte in DataFrames ersetzen oder entfernen können.
+
+Die meisten Datensätze, die Sie verwenden möchten (oder müssen), enthalten fehlende Werte. Der Umgang mit fehlenden Daten bringt subtile Kompromisse mit sich, die Ihre endgültige Analyse und reale Ergebnisse beeinflussen können.
+
+Pandas behandelt fehlende Werte auf zwei Arten. Die erste haben Sie bereits in früheren Abschnitten gesehen: `NaN`, oder Not a Number. Dies ist ein spezieller Wert, der Teil der IEEE-Gleitkomma-Spezifikation ist und nur verwendet wird, um fehlende Gleitkommawerte anzuzeigen.
+
+Für fehlende Werte, die keine Gleitkommazahlen sind, verwendet pandas das Python-Objekt `None`. Obwohl es verwirrend erscheinen mag, dass Sie zwei verschiedene Arten von Werten sehen, die im Wesentlichen dasselbe aussagen, gibt es programmatische Gründe für diese Designentscheidung. In der Praxis ermöglicht dieser Ansatz pandas, in den meisten Fällen eine gute Balance zu bieten. Dennoch haben sowohl `None` als auch `NaN` Einschränkungen, die Sie im Hinblick auf ihre Verwendung beachten müssen.
+
+Erfahren Sie mehr über `NaN` und `None` im [Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Nullwerte erkennen**: In `pandas` sind die Methoden `isnull()` und `notnull()` Ihre Hauptwerkzeuge, um Nullwerte zu erkennen. Beide geben boolesche Masken über Ihre Daten zurück. Wir werden `numpy` für `NaN`-Werte verwenden:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Schauen Sie sich die Ausgabe genau an. Überrascht Sie etwas? Während `0` ein arithmetisches Null ist, ist es dennoch eine gültige Ganzzahl, und pandas behandelt es entsprechend. `''` ist etwas subtiler. Obwohl wir es in Abschnitt 1 verwendet haben, um einen leeren Zeichenfolgenwert darzustellen, ist es dennoch ein Zeichenfolgenobjekt und keine Darstellung von Null aus Sicht von pandas.
+
+Nun drehen wir das Ganze um und verwenden diese Methoden so, wie Sie sie in der Praxis verwenden würden. Sie können boolesche Masken direkt als ``Series``- oder ``DataFrame``-Index verwenden, was nützlich ist, wenn Sie mit isolierten fehlenden (oder vorhandenen) Werten arbeiten möchten.
+
+> **Fazit**: Sowohl die Methoden `isnull()` als auch `notnull()` liefern ähnliche Ergebnisse, wenn Sie sie in `DataFrame`s verwenden: Sie zeigen die Ergebnisse und den Index dieser Ergebnisse an, was Ihnen enorm helfen wird, wenn Sie mit Ihren Daten arbeiten.
+
+- **Nullwerte entfernen**: Neben der Identifizierung fehlender Werte bietet pandas eine bequeme Möglichkeit, Nullwerte aus `Series` und `DataFrame`s zu entfernen. (Insbesondere bei großen Datensätzen ist es oft ratsamer, fehlende [NA]-Werte einfach aus Ihrer Analyse zu entfernen, anstatt sie auf andere Weise zu behandeln.) Um dies in Aktion zu sehen, kehren wir zu `example1` zurück:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Beachten Sie, dass dies wie Ihre Ausgabe von `example3[example3.notnull()]` aussehen sollte. Der Unterschied hier ist, dass `dropna` diese fehlenden Werte aus der `Series` `example1` entfernt hat, anstatt nur auf die maskierten Werte zuzugreifen.
+
+Da `DataFrame`s zwei Dimensionen haben, bieten sie mehr Optionen zum Entfernen von Daten.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Haben Sie bemerkt, dass pandas zwei der Spalten in Gleitkommazahlen umgewandelt hat, um die `NaN`s zu berücksichtigen?)
+
+Sie können keinen einzelnen Wert aus einem `DataFrame` entfernen, daher müssen Sie ganze Zeilen oder Spalten entfernen. Je nachdem, was Sie tun, möchten Sie möglicherweise das eine oder das andere tun, und pandas gibt Ihnen Optionen für beides. Da in der Datenwissenschaft Spalten im Allgemeinen Variablen und Zeilen Beobachtungen darstellen, entfernen Sie eher Zeilen von Daten; die Standardeinstellung für `dropna()` ist, alle Zeilen zu entfernen, die Nullwerte enthalten:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Falls erforderlich, können Sie NA-Werte aus Spalten entfernen. Verwenden Sie `axis=1`, um dies zu tun:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Beachten Sie, dass dies viele Daten entfernen kann, die Sie möglicherweise behalten möchten, insbesondere bei kleineren Datensätzen. Was ist, wenn Sie nur Zeilen oder Spalten entfernen möchten, die mehrere oder sogar alle Nullwerte enthalten? Sie können diese Einstellungen in `dropna` mit den Parametern `how` und `thresh` angeben.
+
+Standardmäßig ist `how='any'` (wenn Sie dies selbst überprüfen oder sehen möchten, welche anderen Parameter die Methode hat, führen Sie `example4.dropna?` in einer Codezelle aus). Sie könnten alternativ `how='all'` angeben, um nur Zeilen oder Spalten zu entfernen, die ausschließlich Nullwerte enthalten. Lassen Sie uns unser Beispiel-`DataFrame` erweitern, um dies in Aktion zu sehen.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+Der Parameter `thresh` gibt Ihnen eine feinere Kontrolle: Sie legen die Anzahl der *nicht-null* Werte fest, die eine Zeile oder Spalte haben muss, um beibehalten zu werden:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Hier wurden die erste und letzte Zeile entfernt, da sie nur zwei nicht-null Werte enthalten.
+
+- **Nullwerte auffüllen**: Je nach Datensatz kann es manchmal sinnvoller sein, Nullwerte durch gültige Werte zu ersetzen, anstatt sie zu entfernen. Sie könnten `isnull` verwenden, um dies direkt zu tun, aber das kann mühsam sein, insbesondere wenn Sie viele Werte auffüllen müssen. Da dies eine so häufige Aufgabe in der Datenwissenschaft ist, bietet pandas `fillna`, das eine Kopie der `Series` oder des `DataFrame` zurückgibt, bei der die fehlenden Werte durch einen von Ihnen gewählten Wert ersetzt werden. Lassen Sie uns eine weitere Beispiel-`Series` erstellen, um zu sehen, wie dies in der Praxis funktioniert.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Sie können alle Nullwerte durch einen einzigen Wert, wie `0`, ersetzen:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Sie können Nullwerte **vorwärts auffüllen**, indem Sie den letzten gültigen Wert verwenden, um eine Null zu ersetzen:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Sie können auch **rückwärts auffüllen**, um den nächsten gültigen Wert rückwärts zu propagieren und eine Null zu ersetzen:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Wie Sie sich denken können, funktioniert dies genauso mit `DataFrame`s, aber Sie können auch eine `axis` angeben, entlang der Nullwerte aufgefüllt werden sollen. Nehmen wir erneut das zuvor verwendete `example2`:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Beachten Sie, dass, wenn ein vorheriger Wert für das Vorwärtsauffüllen nicht verfügbar ist, der Nullwert bestehen bleibt.
+> **Wichtig:** Es gibt mehrere Möglichkeiten, mit fehlenden Werten in deinen Datensätzen umzugehen. Die spezifische Strategie, die du anwendest (Entfernen, Ersetzen oder wie du sie ersetzt), sollte von den Besonderheiten der Daten abhängen. Je mehr du mit Datensätzen arbeitest und interagierst, desto besser wirst du ein Gefühl dafür entwickeln, wie man mit fehlenden Werten umgeht.
+
+## Entfernen von doppelten Daten
+
+> **Lernziel:** Am Ende dieses Abschnitts solltest du in der Lage sein, doppelte Werte in DataFrames zu identifizieren und zu entfernen.
+
+Neben fehlenden Daten wirst du in realen Datensätzen häufig auf doppelte Daten stoßen. Glücklicherweise bietet `pandas` eine einfache Möglichkeit, doppelte Einträge zu erkennen und zu entfernen.
+
+- **Identifizieren von Duplikaten: `duplicated`**: Mit der Methode `duplicated` in pandas kannst du doppelte Werte leicht erkennen. Sie gibt eine Boolesche Maske zurück, die anzeigt, ob ein Eintrag in einem `DataFrame` ein Duplikat eines früheren Eintrags ist. Lass uns ein weiteres Beispiel-`DataFrame` erstellen, um dies in Aktion zu sehen.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Duplikate entfernen: `drop_duplicates`:** gibt einfach eine Kopie der Daten zurück, bei der alle `duplicated`-Werte `False` sind:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Sowohl `duplicated` als auch `drop_duplicates` berücksichtigen standardmäßig alle Spalten, aber du kannst festlegen, dass sie nur eine Teilmenge der Spalten in deinem `DataFrame` untersuchen:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Wichtig:** Das Entfernen von doppelten Daten ist ein wesentlicher Bestandteil fast jedes Data-Science-Projekts. Doppelte Daten können die Ergebnisse deiner Analysen verändern und dir ungenaue Resultate liefern!
+
+
+## 🚀 Herausforderung
+
+Alle besprochenen Materialien stehen als [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb) zur Verfügung. Zusätzlich gibt es nach jedem Abschnitt Übungen – probiere sie aus!
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Rückblick & Selbststudium
+
+Es gibt viele Möglichkeiten, Daten für Analysen und Modellierungen vorzubereiten, und das Bereinigen der Daten ist ein wichtiger Schritt, der praktische Erfahrung erfordert. Probiere diese Herausforderungen von Kaggle aus, um Techniken zu erkunden, die in dieser Lektion nicht behandelt wurden.
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Aufgabe
+
+[Bewertung von Daten aus einem Formular](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/08-data-preparation/assignment.md b/translations/de/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..8b82f44e
--- /dev/null
+++ b/translations/de/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,26 @@
+
+# Auswertung von Daten aus einem Formular
+
+Ein Kunde hat ein [kleines Formular](../../../../2-Working-With-Data/08-data-preparation/index.html) getestet, um einige grundlegende Daten über seine Kundschaft zu sammeln. Er hat seine Ergebnisse mitgebracht, damit Sie die gesammelten Daten validieren. Sie können die Seite `index.html` im Browser öffnen, um sich das Formular anzusehen.
+
+Ihnen wurde ein [Datensatz mit CSV-Einträgen](../../../../data/form.csv) zur Verfügung gestellt, der Einträge aus dem Formular sowie einige grundlegende Visualisierungen enthält. Der Kunde hat darauf hingewiesen, dass einige der Visualisierungen fehlerhaft aussehen, ist sich jedoch unsicher, wie diese Probleme zu lösen sind. Sie können dies im [Assignment-Notebook](../../../../2-Working-With-Data/08-data-preparation/assignment.ipynb) erkunden.
+
+## Anweisungen
+
+Verwenden Sie die Techniken aus dieser Lektion, um Empfehlungen für das Formular zu geben, damit es genaue und konsistente Informationen erfasst.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | ---
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/2-Working-With-Data/README.md b/translations/de/2-Working-With-Data/README.md
new file mode 100644
index 00000000..0afc5dae
--- /dev/null
+++ b/translations/de/2-Working-With-Data/README.md
@@ -0,0 +1,29 @@
+
+# Arbeiten mit Daten
+
+
+> Foto von Alexander Sinn auf Unsplash
+
+In diesen Lektionen lernst du einige der Möglichkeiten kennen, wie Daten verwaltet, manipuliert und in Anwendungen genutzt werden können. Du wirst etwas über relationale und nicht-relationale Datenbanken erfahren und wie Daten in ihnen gespeichert werden können. Du lernst die Grundlagen der Arbeit mit Python zur Datenverwaltung und entdeckst einige der vielen Möglichkeiten, wie du mit Python Daten verwalten und analysieren kannst.
+
+### Themen
+
+1. [Relationale Datenbanken](05-relational-databases/README.md)
+2. [Nicht-relationale Datenbanken](06-non-relational/README.md)
+3. [Arbeiten mit Python](07-python/README.md)
+4. [Daten vorbereiten](08-data-preparation/README.md)
+
+### Credits
+
+Diese Lektionen wurden mit ❤️ geschrieben von [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) und [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/09-visualization-quantities/README.md b/translations/de/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..b6c2a8ab
--- /dev/null
+++ b/translations/de/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,215 @@
+
+# Visualisierung von Mengen
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisierung von Mengen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+In dieser Lektion wirst du erkunden, wie man eine der vielen verfügbaren Python-Bibliotheken verwendet, um interessante Visualisierungen rund um das Konzept der Menge zu erstellen. Mit einem bereinigten Datensatz über die Vögel von Minnesota kannst du viele interessante Fakten über die lokale Tierwelt lernen.
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Beobachte die Flügelspannweite mit Matplotlib
+
+Eine ausgezeichnete Bibliothek, um sowohl einfache als auch anspruchsvolle Diagramme und Grafiken verschiedener Art zu erstellen, ist [Matplotlib](https://matplotlib.org/stable/index.html). Allgemein umfasst der Prozess des Plottens von Daten mit diesen Bibliotheken das Identifizieren der Teile deines DataFrames, die du anvisieren möchtest, das Durchführen notwendiger Transformationen der Daten, das Zuweisen von x- und y-Achsenwerten, das Entscheiden, welche Art von Diagramm angezeigt werden soll, und schließlich das Anzeigen des Diagramms. Matplotlib bietet eine große Vielfalt an Visualisierungen, aber für diese Lektion konzentrieren wir uns auf die am besten geeigneten für die Visualisierung von Mengen: Liniendiagramme, Streudiagramme und Balkendiagramme.
+
+> ✅ Wähle das beste Diagramm, das zur Struktur deiner Daten und der Geschichte, die du erzählen möchtest, passt.
+> - Um Trends über die Zeit zu analysieren: Linie
+> - Um Werte zu vergleichen: Balken, Säulen, Kreisdiagramm, Streudiagramm
+> - Um zu zeigen, wie Teile zu einem Ganzen gehören: Kreisdiagramm
+> - Um die Verteilung von Daten zu zeigen: Streudiagramm, Balken
+> - Um Trends zu zeigen: Linie, Säule
+> - Um Beziehungen zwischen Werten zu zeigen: Linie, Streudiagramm, Blasendiagramm
+
+Wenn du einen Datensatz hast und herausfinden möchtest, wie viel von einem bestimmten Element enthalten ist, wird eine der ersten Aufgaben sein, die Werte zu inspizieren.
+
+✅ Es gibt sehr gute 'Cheat Sheets' für Matplotlib [hier](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Erstelle ein Liniendiagramm über die Flügelspannweiten von Vögeln
+
+Öffne die Datei `notebook.ipynb` im Stammverzeichnis dieses Lektionenordners und füge eine Zelle hinzu.
+
+> Hinweis: Die Daten befinden sich im Stammverzeichnis dieses Repos im Ordner `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Diese Daten sind eine Mischung aus Text und Zahlen:
+
+| | Name | ScientificName | Category | Order | Family | Genus | ConservationStatus | MinLength | MaxLength | MinBodyMass | MaxBodyMass | MinWingspan | MaxWingspan |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Schwarzbauch-Pfeifgans | Dendrocygna autumnalis | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fuchsrote Pfeifgans | Dendrocygna bicolor | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Schneegans | Anser caerulescens | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Zwerggans | Anser rossii | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Saatgans | Anser albifrons | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Beginnen wir damit, einige der numerischen Daten mit einem einfachen Liniendiagramm zu plotten. Angenommen, du möchtest die maximale Flügelspannweite dieser interessanten Vögel betrachten.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Was fällt dir sofort auf? Es scheint mindestens einen Ausreißer zu geben – das ist eine beeindruckende Flügelspannweite! Eine Flügelspannweite von 2300 Zentimetern entspricht 23 Metern – gibt es Pterodaktylen in Minnesota? Lass uns das untersuchen.
+
+Während du in Excel schnell sortieren könntest, um diese Ausreißer zu finden, die wahrscheinlich Tippfehler sind, setzen wir den Visualisierungsprozess innerhalb des Diagramms fort.
+
+Füge Beschriftungen zur x-Achse hinzu, um zu zeigen, um welche Vogelarten es sich handelt:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Selbst mit einer Drehung der Beschriftungen um 45 Grad sind es zu viele, um sie zu lesen. Versuchen wir eine andere Strategie: Beschrifte nur die Ausreißer und setze die Beschriftungen innerhalb des Diagramms. Du kannst ein Streudiagramm verwenden, um mehr Platz für die Beschriftung zu schaffen:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Was passiert hier? Du hast `tick_params` verwendet, um die unteren Beschriftungen auszublenden, und dann eine Schleife über deinen Vogel-Datensatz erstellt. Indem du das Diagramm mit kleinen runden blauen Punkten (`bo`) geplottet hast, hast du überprüft, ob ein Vogel eine maximale Flügelspannweite von über 500 hat, und falls ja, seinen Namen als Beschriftung neben dem Punkt angezeigt. Du hast die Beschriftungen auf der y-Achse leicht versetzt (`y * (1 - 0.05)`) und den Vogelnamen als Beschriftung verwendet.
+
+Was hast du herausgefunden?
+
+
+## Filtere deine Daten
+
+Sowohl der Weißkopfseeadler als auch der Präriefalke scheinen, obwohl wahrscheinlich sehr große Vögel, falsch beschriftet zu sein, mit einer zusätzlichen `0` in ihrer maximalen Flügelspannweite. Es ist unwahrscheinlich, dass du einem Weißkopfseeadler mit einer Flügelspannweite von 25 Metern begegnest, aber falls doch, lass es uns wissen! Lass uns einen neuen DataFrame ohne diese beiden Ausreißer erstellen:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Durch das Herausfiltern von Ausreißern sind deine Daten jetzt kohärenter und verständlicher.
+
+
+
+Jetzt, da wir einen bereinigten Datensatz zumindest in Bezug auf die Flügelspannweite haben, lass uns mehr über diese Vögel herausfinden.
+
+Während Linien- und Streudiagramme Informationen über Datenwerte und deren Verteilungen anzeigen können, möchten wir über die Werte in diesem Datensatz nachdenken. Du könntest Visualisierungen erstellen, um folgende Fragen zur Menge zu beantworten:
+
+> Wie viele Kategorien von Vögeln gibt es und wie viele gibt es in jeder Kategorie?
+> Wie viele Vögel sind ausgestorben, gefährdet, selten oder häufig?
+> Wie viele gibt es von den verschiedenen Gattungen und Ordnungen in der Terminologie von Linnaeus?
+## Erkunde Balkendiagramme
+
+Balkendiagramme sind praktisch, wenn du Gruppierungen von Daten anzeigen möchtest. Lass uns die Kategorien von Vögeln in diesem Datensatz erkunden, um zu sehen, welche am häufigsten vorkommt.
+
+Erstelle im Notebook eine grundlegende Balkengrafik.
+
+✅ Hinweis: Du kannst entweder die beiden Ausreißer-Vögel, die wir im vorherigen Abschnitt identifiziert haben, herausfiltern, den Tippfehler in ihrer Flügelspannweite korrigieren oder sie für diese Übungen, die nicht von den Flügelspannweiten abhängen, belassen.
+
+Wenn du ein Balkendiagramm erstellen möchtest, kannst du die Daten auswählen, auf die du dich konzentrieren möchtest. Balkendiagramme können aus Rohdaten erstellt werden:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Dieses Balkendiagramm ist jedoch unleserlich, da es zu viele nicht gruppierte Daten gibt. Du musst nur die Daten auswählen, die du plotten möchtest, also lass uns die Länge der Vögel basierend auf ihrer Kategorie betrachten.
+
+Filtere deine Daten, um nur die Kategorie der Vögel einzuschließen.
+
+✅ Beachte, dass du Pandas verwendest, um die Daten zu verwalten, und dann Matplotlib für die Diagrammerstellung verwendest.
+
+Da es viele Kategorien gibt, kannst du dieses Diagramm vertikal anzeigen und seine Höhe anpassen, um alle Daten darzustellen:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Dieses Balkendiagramm zeigt eine gute Übersicht über die Anzahl der Vögel in jeder Kategorie. Auf einen Blick siehst du, dass die größte Anzahl von Vögeln in dieser Region zur Kategorie Enten/Gänse/Wasservögel gehört. Minnesota ist das 'Land der 10.000 Seen', also ist das nicht überraschend!
+
+✅ Probiere einige andere Zählungen in diesem Datensatz aus. Überrascht dich etwas?
+
+## Daten vergleichen
+
+Du kannst verschiedene Vergleiche von gruppierten Daten ausprobieren, indem du neue Achsen erstellst. Probiere einen Vergleich der MaxLength eines Vogels basierend auf seiner Kategorie:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Hier gibt es keine Überraschungen: Kolibris haben die geringste MaxLength im Vergleich zu Pelikanen oder Gänsen. Es ist gut, wenn Daten logisch Sinn ergeben!
+
+Du kannst interessantere Visualisierungen von Balkendiagrammen erstellen, indem du Daten überlagerst. Lass uns die Minimal- und Maximal-Länge einer bestimmten Vogelkategorie überlagern:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+In diesem Diagramm kannst du den Bereich pro Vogelkategorie der Minimal- und Maximal-Länge sehen. Du kannst mit Sicherheit sagen, dass, basierend auf diesen Daten, je größer der Vogel, desto größer sein Längenbereich. Faszinierend!
+
+
+
+## 🚀 Herausforderung
+
+Dieser Vogel-Datensatz bietet eine Fülle von Informationen über verschiedene Vogelarten innerhalb eines bestimmten Ökosystems. Suche im Internet nach anderen vogelbezogenen Datensätzen. Übe das Erstellen von Diagrammen und Grafiken zu diesen Vögeln, um Fakten zu entdecken, die dir vorher nicht bewusst waren.
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Rückblick & Selbststudium
+
+Diese erste Lektion hat dir einige Informationen darüber gegeben, wie man Matplotlib verwendet, um Mengen zu visualisieren. Recherchiere andere Möglichkeiten, mit Datensätzen für Visualisierungen zu arbeiten. [Plotly](https://github.com/plotly/plotly.py) ist eine, die wir in diesen Lektionen nicht behandeln werden, also schau dir an, was sie bieten kann.
+## Aufgabe
+
+[Linien, Streudiagramme und Balken](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/de/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..dd29f55d
--- /dev/null
+++ b/translations/de/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Linien, Streudiagramme und Balken
+
+## Anweisungen
+
+In dieser Lektion hast du mit Liniendiagrammen, Streudiagrammen und Balkendiagrammen gearbeitet, um interessante Fakten über diesen Datensatz darzustellen. In dieser Aufgabe sollst du tiefer in den Datensatz eintauchen, um eine Tatsache über eine bestimmte Vogelart zu entdecken. Erstelle beispielsweise ein Notebook, das alle interessanten Daten über Schneegänse visualisiert. Nutze die drei oben genannten Diagrammtypen, um in deinem Notebook eine Geschichte zu erzählen.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Ein Notebook wird mit guten Anmerkungen, solider Erzählweise und ansprechenden Grafiken präsentiert | Im Notebook fehlt eines dieser Elemente | Im Notebook fehlen zwei dieser Elemente
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/10-visualization-distributions/README.md b/translations/de/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..67a065bb
--- /dev/null
+++ b/translations/de/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,215 @@
+
+# Visualisierung von Verteilungen
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisierung von Verteilungen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Im vorherigen Kapitel hast du einige interessante Fakten über einen Datensatz zu den Vögeln von Minnesota gelernt. Du hast fehlerhafte Daten durch die Visualisierung von Ausreißern entdeckt und die Unterschiede zwischen Vogelkategorien anhand ihrer maximalen Länge betrachtet.
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Erkunde den Vogeldatensatz
+
+Eine weitere Möglichkeit, Daten zu analysieren, besteht darin, ihre Verteilung zu betrachten, also wie die Daten entlang einer Achse organisiert sind. Vielleicht möchtest du beispielsweise die allgemeine Verteilung der maximalen Flügelspannweite oder des maximalen Körpergewichts der Vögel von Minnesota in diesem Datensatz kennenlernen.
+
+Lass uns einige Fakten über die Verteilungen der Daten in diesem Datensatz entdecken. Importiere in der Datei _notebook.ipynb_ im Hauptverzeichnis dieses Kapitelordners Pandas, Matplotlib und deine Daten:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Name | Wissenschaftlicher Name | Kategorie | Ordnung | Familie | Gattung | Schutzstatus | MinLänge | MaxLänge | MinKörpergewicht | MaxKörpergewicht | MinFlügelspannweite | MaxFlügelspannweite |
+| ---: | :--------------------------- | :---------------------- | :-------------------- | :----------- | :------- | :---------- | :------------------- | --------: | --------: | ---------------: | ---------------: | ------------------: | ------------------: |
+| 0 | Schwarzbauch-Pfeifente | Dendrocygna autumnalis | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fahlpfeifente | Dendrocygna bicolor | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Schneegans | Anser caerulescens | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Zwerggans | Anser rossii | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Blässgans | Anser albifrons | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Im Allgemeinen kannst du die Verteilung der Daten schnell mit einem Streudiagramm betrachten, wie wir es im vorherigen Kapitel gemacht haben:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Dies gibt einen Überblick über die allgemeine Verteilung der Körperlänge pro Vogelordnung, ist jedoch nicht die optimale Darstellung für echte Verteilungen. Diese Aufgabe wird normalerweise durch die Erstellung eines Histogramms gelöst.
+
+## Arbeiten mit Histogrammen
+
+Matplotlib bietet sehr gute Möglichkeiten, Datenverteilungen mit Histogrammen zu visualisieren. Diese Art von Diagramm ähnelt einem Balkendiagramm, bei dem die Verteilung durch das Auf und Ab der Balken sichtbar wird. Um ein Histogramm zu erstellen, benötigst du numerische Daten. Um ein Histogramm zu erstellen, kannst du ein Diagramm mit der Art 'hist' für Histogramm zeichnen. Dieses Diagramm zeigt die Verteilung der MaxKörperGewicht-Werte für den gesamten Datensatz. Indem die Daten in kleinere Intervalle (Bins) unterteilt werden, kann die Verteilung der Werte angezeigt werden:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Wie du sehen kannst, fallen die meisten der über 400 Vögel in diesem Datensatz in den Bereich unter 2000 für ihr maximales Körpergewicht. Erhalte mehr Einblicke in die Daten, indem du den `bins`-Parameter auf eine höhere Zahl, beispielsweise 30, änderst:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Dieses Diagramm zeigt die Verteilung etwas detaillierter. Ein weniger nach links verzerrtes Diagramm könnte erstellt werden, indem du sicherstellst, dass du nur Daten innerhalb eines bestimmten Bereichs auswählst:
+
+Filtere deine Daten, um nur die Vögel zu erhalten, deren Körpergewicht unter 60 liegt, und zeige 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Probiere einige andere Filter und Datenpunkte aus. Um die vollständige Verteilung der Daten zu sehen, entferne den `['MaxBodyMass']`-Filter, um beschriftete Verteilungen anzuzeigen.
+
+Das Histogramm bietet auch einige schöne Farb- und Beschriftungsverbesserungen, die du ausprobieren kannst:
+
+Erstelle ein 2D-Histogramm, um die Beziehung zwischen zwei Verteilungen zu vergleichen. Lass uns `MaxBodyMass` mit `MaxLength` vergleichen. Matplotlib bietet eine integrierte Möglichkeit, Konvergenzen mit helleren Farben anzuzeigen:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Es scheint eine erwartete Korrelation zwischen diesen beiden Elementen entlang einer erwarteten Achse zu geben, mit einem besonders starken Konvergenzpunkt:
+
+
+
+Histogramme funktionieren standardmäßig gut für numerische Daten. Was ist, wenn du Verteilungen basierend auf Textdaten sehen möchtest?
+## Erkunde den Datensatz für Verteilungen basierend auf Textdaten
+
+Dieser Datensatz enthält auch gute Informationen über die Vogelkategorie sowie deren Gattung, Art und Familie sowie deren Schutzstatus. Lass uns diese Schutzstatusinformationen genauer betrachten. Wie ist die Verteilung der Vögel nach ihrem Schutzstatus?
+
+> ✅ In dem Datensatz werden mehrere Abkürzungen verwendet, um den Schutzstatus zu beschreiben. Diese Abkürzungen stammen aus den [IUCN Red List Categories](https://www.iucnredlist.org/), einer Organisation, die den Status von Arten katalogisiert.
+>
+> - CR: Kritisch gefährdet
+> - EN: Gefährdet
+> - EX: Ausgestorben
+> - LC: Nicht gefährdet
+> - NT: Potenziell gefährdet
+> - VU: Verletzlich
+
+Diese Werte sind textbasiert, daher musst du eine Transformation durchführen, um ein Histogramm zu erstellen. Verwende den gefiltertenBirds-Datenrahmen, um dessen Schutzstatus zusammen mit der minimalen Flügelspannweite anzuzeigen. Was siehst du?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Es scheint keine gute Korrelation zwischen minimaler Flügelspannweite und Schutzstatus zu geben. Teste andere Elemente des Datensatzes mit dieser Methode. Du kannst auch verschiedene Filter ausprobieren. Findest du eine Korrelation?
+
+## Dichte-Diagramme
+
+Du hast vielleicht bemerkt, dass die Histogramme, die wir bisher betrachtet haben, 'gestuft' sind und nicht glatt in einem Bogen verlaufen. Um ein glatteres Dichte-Diagramm zu zeigen, kannst du ein Dichte-Diagramm ausprobieren.
+
+Um mit Dichte-Diagrammen zu arbeiten, solltest du dich mit einer neuen Plot-Bibliothek vertraut machen, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Lade Seaborn und probiere ein einfaches Dichte-Diagramm aus:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Du kannst sehen, wie das Diagramm das vorherige für die minimale Flügelspannweite widerspiegelt; es ist nur etwas glatter. Laut der Dokumentation von Seaborn "kann KDE im Vergleich zu einem Histogramm ein Diagramm erzeugen, das weniger überladen und besser interpretierbar ist, insbesondere wenn mehrere Verteilungen gezeichnet werden. Es hat jedoch das Potenzial, Verzerrungen einzuführen, wenn die zugrunde liegende Verteilung begrenzt oder nicht glatt ist. Wie bei einem Histogramm hängt die Qualität der Darstellung auch von der Auswahl guter Glättungsparameter ab." [Quelle](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Mit anderen Worten, Ausreißer werden wie immer deine Diagramme negativ beeinflussen.
+
+Wenn du die gezackte MaxKörperGewicht-Linie im zweiten Diagramm, das du erstellt hast, erneut betrachten möchtest, könntest du sie sehr gut glätten, indem du sie mit dieser Methode neu erstellst:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Wenn du eine glatte, aber nicht zu glatte Linie möchtest, bearbeite den `bw_adjust`-Parameter:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Lies über die verfügbaren Parameter für diese Art von Diagramm und experimentiere!
+
+Diese Art von Diagramm bietet wunderschön erklärende Visualisierungen. Mit wenigen Codezeilen kannst du beispielsweise die Dichte des maximalen Körpergewichts pro Vogelordnung anzeigen:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Du kannst auch die Dichte mehrerer Variablen in einem Diagramm abbilden. Teste die maximale und minimale Länge eines Vogels im Vergleich zu seinem Schutzstatus:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Vielleicht lohnt es sich zu untersuchen, ob die Ansammlung von 'Verletzlichen' Vögeln basierend auf ihrer Länge bedeutungsvoll ist oder nicht.
+
+## 🚀 Herausforderung
+
+Histogramme sind eine anspruchsvollere Art von Diagramm als einfache Streudiagramme, Balkendiagramme oder Liniendiagramme. Suche im Internet nach guten Beispielen für die Verwendung von Histogrammen. Wie werden sie verwendet, was zeigen sie und in welchen Bereichen oder Forschungsgebieten werden sie häufig eingesetzt?
+
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Rückblick & Selbststudium
+
+In dieser Lektion hast du Matplotlib verwendet und begonnen, mit Seaborn zu arbeiten, um anspruchsvollere Diagramme zu erstellen. Recherchiere über `kdeplot` in Seaborn, eine "kontinuierliche Wahrscheinlichkeitsdichtekurve in einer oder mehreren Dimensionen". Lies die [Dokumentation](https://seaborn.pydata.org/generated/seaborn.kdeplot.html), um zu verstehen, wie es funktioniert.
+
+## Aufgabe
+
+[Wende deine Fähigkeiten an](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/de/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..4001579a
--- /dev/null
+++ b/translations/de/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Wenden Sie Ihre Fähigkeiten an
+
+## Anweisungen
+
+Bisher haben Sie mit dem Minnesota-Vogel-Datensatz gearbeitet, um Informationen über Vogelmengen und Populationsdichte zu entdecken. Üben Sie die Anwendung dieser Techniken, indem Sie einen anderen Datensatz ausprobieren, vielleicht von [Kaggle](https://www.kaggle.com/) bezogen. Erstellen Sie ein Notebook, um eine Geschichte über diesen Datensatz zu erzählen, und stellen Sie sicher, dass Sie Histogramme verwenden, wenn Sie darüber sprechen.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Ein Notebook wird präsentiert, das Anmerkungen zu diesem Datensatz, einschließlich seiner Quelle, enthält und mindestens 5 Histogramme verwendet, um Fakten über die Daten zu entdecken. | Ein Notebook wird präsentiert, das unvollständige Anmerkungen oder Fehler enthält. | Ein Notebook wird präsentiert, das keine Anmerkungen enthält und Fehler aufweist.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/11-visualization-proportions/README.md b/translations/de/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..fedce604
--- /dev/null
+++ b/translations/de/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,203 @@
+
+# Visualisierung von Proportionen
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisierung von Proportionen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+In dieser Lektion wirst du ein anderes, naturbezogenes Datenset verwenden, um Proportionen zu visualisieren, z. B. wie viele verschiedene Pilzarten in einem Datenset über Pilze vorkommen. Lass uns diese faszinierenden Pilze mit einem Datenset erkunden, das von Audubon stammt und Details zu 23 Arten von Lamellenpilzen aus den Familien Agaricus und Lepiota enthält. Du wirst mit schmackhaften Visualisierungen experimentieren wie:
+
+- Tortendiagramme 🥧
+- Donut-Diagramme 🍩
+- Waffeldiagramme 🧇
+
+> 💡 Ein sehr interessantes Projekt namens [Charticulator](https://charticulator.com) von Microsoft Research bietet eine kostenlose Drag-and-Drop-Oberfläche für Datenvisualisierungen. In einem ihrer Tutorials verwenden sie ebenfalls dieses Pilz-Datenset! So kannst du die Daten erkunden und gleichzeitig die Bibliothek kennenlernen: [Charticulator-Tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Lerne deine Pilze kennen 🍄
+
+Pilze sind sehr interessant. Lass uns ein Datenset importieren, um sie zu untersuchen:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Eine Tabelle wird ausgegeben, die großartige Daten für die Analyse enthält:
+
+| Klasse | Hutform | Hutoberfläche | Hutfarbe | Druckstellen | Geruch | Lamellenansatz | Lamellenabstand | Lamellengröße | Lamellenfarbe | Stielform | Stielbasis | Stieloberfläche über Ring | Stieloberfläche unter Ring | Stielfarbe über Ring | Stielfarbe unter Ring | Schleiertyp | Schleierfarbe | Ringanzahl | Ringtyp | Sporenabdruckfarbe | Population | Lebensraum |
+| --------- | --------- | ------------- | --------- | ------------ | -------- | --------------- | ---------------- | ------------- | ------------- | ----------- | ---------- | ------------------------ | -------------------------- | -------------------- | -------------------- | ----------- | ------------- | ---------- | --------- | ------------------ | ---------- | ---------- |
+| Giftig | Konvex | Glatt | Braun | Druckstellen | Stechend | Frei | Eng | Schmal | Schwarz | Verdickend | Gleich | Glatt | Glatt | Weiß | Weiß | Partiell | Weiß | Eins | Hängend | Schwarz | Vereinzelte | Urban |
+| Essbar | Konvex | Glatt | Gelb | Druckstellen | Mandel | Frei | Eng | Breit | Schwarz | Verdickend | Keulenförmig | Glatt | Glatt | Weiß | Weiß | Partiell | Weiß | Eins | Hängend | Braun | Zahlreich | Wiesen |
+| Essbar | Glockenförmig | Glatt | Weiß | Druckstellen | Anis | Frei | Eng | Breit | Braun | Verdickend | Keulenförmig | Glatt | Glatt | Weiß | Weiß | Partiell | Weiß | Eins | Hängend | Braun | Zahlreich | Wiesen |
+| Giftig | Konvex | Schuppig | Weiß | Druckstellen | Stechend | Frei | Eng | Schmal | Braun | Verdickend | Gleich | Glatt | Glatt | Weiß | Weiß | Partiell | Weiß | Eins | Hängend | Schwarz | Vereinzelte | Urban |
+
+Sofort fällt auf, dass alle Daten textuell sind. Du musst diese Daten umwandeln, um sie in einem Diagramm verwenden zu können. Die meisten Daten sind tatsächlich als Objekte dargestellt:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Die Ausgabe ist:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Nimm diese Daten und konvertiere die Spalte 'class' in eine Kategorie:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Wenn du nun die Pilzdaten ausgibst, siehst du, dass sie nach den Kategorien giftig/essbar gruppiert wurden:
+
+| | Hutform | Hutoberfläche | Hutfarbe | Druckstellen | Geruch | Lamellenansatz | Lamellenabstand | Lamellengröße | Lamellenfarbe | Stielform | ... | Stieloberfläche unter Ring | Stielfarbe über Ring | Stielfarbe unter Ring | Schleiertyp | Schleierfarbe | Ringanzahl | Ringtyp | Sporenabdruckfarbe | Population | Lebensraum |
+| --------- | --------- | ------------- | --------- | ------------ | ------ | --------------- | ---------------- | ------------- | ------------- | ----------- | --- | -------------------------- | -------------------- | -------------------- | ----------- | ------------- | ---------- | --------- | ------------------ | ---------- | ---------- |
+| Klasse | | | | | | | | | | | | | | | | | | | | | |
+| Essbar | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Giftig | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Wenn du die Reihenfolge in dieser Tabelle befolgst, um deine Kategorienamen für die Klasse zu erstellen, kannst du ein Tortendiagramm erstellen:
+
+## Torte!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voilà, ein Tortendiagramm, das die Proportionen dieser Daten entsprechend den beiden Pilzklassen zeigt. Es ist sehr wichtig, die Reihenfolge der Labels korrekt zu setzen, besonders hier, also überprüfe die Reihenfolge, in der das Label-Array erstellt wird!
+
+
+
+## Donuts!
+
+Ein etwas visuell interessanteres Tortendiagramm ist ein Donut-Diagramm, das ein Tortendiagramm mit einem Loch in der Mitte ist. Lass uns unsere Daten auf diese Weise betrachten.
+
+Schau dir die verschiedenen Lebensräume an, in denen Pilze wachsen:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Hier gruppierst du deine Daten nach Lebensraum. Es gibt 7 aufgelistete, also verwende diese als Labels für dein Donut-Diagramm:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Dieser Code zeichnet ein Diagramm und einen mittleren Kreis und fügt diesen dann in das Diagramm ein. Passe die Breite des mittleren Kreises an, indem du `0.40` auf einen anderen Wert änderst.
+
+Donut-Diagramme können auf verschiedene Weise angepasst werden, um die Labels zu verändern. Insbesondere die Labels können für bessere Lesbarkeit hervorgehoben werden. Erfahre mehr in den [Dokumentationen](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Jetzt, da du weißt, wie du deine Daten gruppierst und sie dann als Torte oder Donut darstellst, kannst du andere Diagrammtypen erkunden. Probiere ein Waffeldiagramm, das eine andere Möglichkeit bietet, Mengen zu visualisieren.
+
+## Waffeln!
+
+Ein 'Waffel'-Diagramm ist eine andere Möglichkeit, Mengen als 2D-Array von Quadraten zu visualisieren. Versuche, die verschiedenen Mengen an Pilzhutfarben in diesem Datenset zu visualisieren. Dafür musst du eine Hilfsbibliothek namens [PyWaffle](https://pypi.org/project/pywaffle/) installieren und Matplotlib verwenden:
+
+```python
+pip install pywaffle
+```
+
+Wähle einen Abschnitt deiner Daten aus, um ihn zu gruppieren:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Erstelle ein Waffeldiagramm, indem du Labels erstellst und dann deine Daten gruppierst:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Mit einem Waffeldiagramm kannst du die Proportionen der Hutfarben in diesem Pilz-Datenset deutlich erkennen. Interessanterweise gibt es viele grünhütige Pilze!
+
+
+
+✅ PyWaffle unterstützt Symbole innerhalb der Diagramme, die jedes Symbol aus [Font Awesome](https://fontawesome.com/) verwenden können. Experimentiere, um ein noch interessanteres Waffeldiagramm mit Symbolen anstelle von Quadraten zu erstellen.
+
+In dieser Lektion hast du drei Möglichkeiten gelernt, Proportionen zu visualisieren. Zuerst musst du deine Daten in Kategorien gruppieren und dann entscheiden, welche die beste Möglichkeit ist, die Daten darzustellen – Torte, Donut oder Waffel. Alle sind köstlich und bieten dem Nutzer einen sofortigen Überblick über ein Datenset.
+
+## 🚀 Herausforderung
+
+Versuche, diese schmackhaften Diagramme in [Charticulator](https://charticulator.com) nachzubauen.
+
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Rückblick & Selbststudium
+
+Manchmal ist es nicht offensichtlich, wann man ein Torten-, Donut- oder Waffeldiagramm verwenden sollte. Hier sind einige Artikel zu diesem Thema:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Recherchiere, um mehr Informationen zu dieser kniffligen Entscheidung zu finden.
+
+## Aufgabe
+
+[Probiere es in Excel aus](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/de/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..0ae30c3e
--- /dev/null
+++ b/translations/de/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,23 @@
+
+# Probieren Sie es in Excel aus
+
+## Anweisungen
+
+Wussten Sie, dass Sie in Excel Donut-, Kreis- und Waffeldiagramme erstellen können? Verwenden Sie einen Datensatz Ihrer Wahl, um diese drei Diagramme direkt in einer Excel-Tabelle zu erstellen.
+
+## Bewertungskriterien
+
+| Vorbildlich | Angemessen | Verbesserungswürdig |
+| ------------------------------------------------------- | ------------------------------------------------ | ---------------------------------------------------- |
+| Eine Excel-Tabelle wird mit allen drei Diagrammen präsentiert | Eine Excel-Tabelle wird mit zwei Diagrammen präsentiert | Eine Excel-Tabelle wird mit nur einem Diagramm präsentiert |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/12-visualization-relationships/README.md b/translations/de/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..2cf6c76f
--- /dev/null
+++ b/translations/de/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,184 @@
+
+# Visualisierung von Beziehungen: Alles über Honig 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisierung von Beziehungen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Im Rahmen unseres naturbezogenen Forschungsfokus wollen wir interessante Visualisierungen entdecken, um die Beziehungen zwischen verschiedenen Honigsorten darzustellen. Grundlage ist ein Datensatz des [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Dieser Datensatz mit etwa 600 Einträgen zeigt die Honigproduktion in vielen US-Bundesstaaten. So kann man beispielsweise die Anzahl der Bienenvölker, den Ertrag pro Volk, die Gesamtproduktion, Lagerbestände, den Preis pro Pfund und den Wert des produzierten Honigs in einem bestimmten Bundesstaat von 1998 bis 2012 betrachten, wobei jede Zeile ein Jahr pro Bundesstaat repräsentiert.
+
+Es wäre interessant, die Beziehung zwischen der jährlichen Produktion eines Bundesstaates und beispielsweise dem Honigpreis in diesem Bundesstaat zu visualisieren. Alternativ könnte man die Beziehung zwischen den Erträgen pro Volk in verschiedenen Bundesstaaten darstellen. Dieser Zeitraum umfasst auch das verheerende 'CCD' oder 'Colony Collapse Disorder', das erstmals 2006 beobachtet wurde (http://npic.orst.edu/envir/ccd.html). Ein bewegender Datensatz zum Studieren. 🐝
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+In dieser Lektion kannst du Seaborn verwenden, eine Bibliothek, die du bereits kennst, um Beziehungen zwischen Variablen zu visualisieren. Besonders interessant ist die Funktion `relplot` von Seaborn, die es ermöglicht, mit Streu- und Liniendiagrammen schnell '[statistische Beziehungen](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)' darzustellen. Dies hilft Datenwissenschaftlern, besser zu verstehen, wie Variablen miteinander in Beziehung stehen.
+
+## Streudiagramme
+
+Verwende ein Streudiagramm, um zu zeigen, wie sich der Honigpreis Jahr für Jahr in den einzelnen Bundesstaaten entwickelt hat. Seaborn gruppiert mit `relplot` die Daten der Bundesstaaten und zeigt Datenpunkte sowohl für kategoriale als auch numerische Daten an.
+
+Beginnen wir mit dem Import der Daten und Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Du wirst feststellen, dass die Honigdaten mehrere interessante Spalten enthalten, darunter Jahr und Preis pro Pfund. Lass uns diese Daten erkunden, gruppiert nach US-Bundesstaat:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Erstelle ein einfaches Streudiagramm, um die Beziehung zwischen dem Preis pro Pfund Honig und seinem Ursprungsbundesstaat darzustellen. Mache die `y`-Achse hoch genug, um alle Bundesstaaten anzuzeigen:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Zeige nun dieselben Daten mit einer honigfarbenen Farbpalette, um zu zeigen, wie sich der Preis im Laufe der Jahre entwickelt hat. Dies kannst du tun, indem du einen 'hue'-Parameter hinzufügst, der die Veränderung Jahr für Jahr darstellt:
+
+> ✅ Erfahre mehr über die [Farbpaletten, die du in Seaborn verwenden kannst](https://seaborn.pydata.org/tutorial/color_palettes.html) – probiere eine schöne Regenbogenfarbpalette aus!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Mit dieser Farbänderung kannst du deutlich erkennen, dass es im Laufe der Jahre eine starke Preissteigerung pro Pfund Honig gibt. Wenn du einen bestimmten Bundesstaat wie Arizona als Beispiel nimmst, kannst du ein Muster von Preissteigerungen Jahr für Jahr mit wenigen Ausnahmen erkennen:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Eine andere Möglichkeit, diese Entwicklung darzustellen, ist die Verwendung der Größe anstelle von Farbe. Für farbenblinde Nutzer könnte dies eine bessere Option sein. Bearbeite deine Visualisierung so, dass die Preissteigerung durch eine Zunahme des Punktumfangs dargestellt wird:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Du kannst sehen, wie die Größe der Punkte allmählich zunimmt.
+
+
+
+Ist dies ein einfacher Fall von Angebot und Nachfrage? Aufgrund von Faktoren wie Klimawandel und dem Bienensterben gibt es möglicherweise Jahr für Jahr weniger Honig zu kaufen, was den Preis steigen lässt.
+
+Um eine Korrelation zwischen einigen Variablen in diesem Datensatz zu entdecken, lass uns einige Liniendiagramme untersuchen.
+
+## Liniendiagramme
+
+Frage: Gibt es einen klaren Anstieg des Honigpreises pro Pfund Jahr für Jahr? Dies kannst du am einfachsten mit einem einzigen Liniendiagramm herausfinden:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Antwort: Ja, mit einigen Ausnahmen um das Jahr 2003:
+
+
+
+✅ Da Seaborn die Daten um eine Linie aggregiert, zeigt es "die mehrfachen Messungen an jedem x-Wert, indem es den Mittelwert und das 95%-Konfidenzintervall um den Mittelwert herum darstellt". [Quelle](https://seaborn.pydata.org/tutorial/relational.html). Dieses zeitaufwändige Verhalten kann durch Hinzufügen von `ci=None` deaktiviert werden.
+
+Frage: Kann man im Jahr 2003 auch einen Anstieg des Honigangebots erkennen? Was passiert, wenn du die Gesamtproduktion Jahr für Jahr betrachtest?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Antwort: Nicht wirklich. Wenn du die Gesamtproduktion betrachtest, scheint sie in diesem Jahr tatsächlich gestiegen zu sein, obwohl die Honigproduktion im Allgemeinen in diesen Jahren rückläufig ist.
+
+Frage: Was könnte also den Preisanstieg für Honig um das Jahr 2003 verursacht haben?
+
+Um dies herauszufinden, kannst du ein Facet Grid untersuchen.
+
+## Facet Grids
+
+Facet Grids nehmen eine Facette deines Datensatzes (in unserem Fall kannst du 'Jahr' wählen, um nicht zu viele Facetten zu erzeugen). Seaborn kann dann für jede dieser Facetten deiner gewählten x- und y-Koordinaten ein Diagramm erstellen, um den Vergleich zu erleichtern. Fällt das Jahr 2003 in diesem Vergleich auf?
+
+Erstelle ein Facet Grid, indem du weiterhin `relplot` verwendest, wie in der [Seaborn-Dokumentation](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid) empfohlen.
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+In dieser Visualisierung kannst du den Ertrag pro Volk und die Anzahl der Völker Jahr für Jahr nebeneinander vergleichen, mit einer Wrap-Einstellung von 3 für die Spalten:
+
+
+
+Für diesen Datensatz fällt nichts Besonderes in Bezug auf die Anzahl der Völker und deren Ertrag Jahr für Jahr und Bundesstaat für Bundesstaat auf. Gibt es eine andere Möglichkeit, eine Korrelation zwischen diesen beiden Variablen zu finden?
+
+## Dual-Line-Plots
+
+Versuche ein Mehrlinien-Diagramm, indem du zwei Liniendiagramme übereinanderlegst, Seaborns 'despine' verwendest, um die oberen und rechten Achsen zu entfernen, und `ax.twinx` [aus Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html) nutzt. Twinx ermöglicht es, eine gemeinsame x-Achse zu verwenden und zwei y-Achsen darzustellen. Zeige den Ertrag pro Volk und die Anzahl der Völker übereinandergelegt an:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Auch wenn um das Jahr 2003 nichts ins Auge springt, können wir diese Lektion mit einer etwas positiveren Note beenden: Während die Anzahl der Bienenvölker insgesamt abnimmt, stabilisiert sich ihre Anzahl, auch wenn der Ertrag pro Volk sinkt.
+
+Go, bees, go!
+
+🐝❤️
+## 🚀 Herausforderung
+
+In dieser Lektion hast du mehr über die Verwendung von Streudiagrammen und Linienrastern, einschließlich Facet Grids, gelernt. Fordere dich selbst heraus, ein Facet Grid mit einem anderen Datensatz zu erstellen, vielleicht einem, den du in früheren Lektionen verwendet hast. Beachte, wie lange es dauert, sie zu erstellen, und sei vorsichtig, wie viele Grids du mit diesen Techniken zeichnen möchtest.
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Rückblick & Selbststudium
+
+Liniendiagramme können einfach oder recht komplex sein. Lies ein wenig in der [Seaborn-Dokumentation](https://seaborn.pydata.org/generated/seaborn.lineplot.html) über die verschiedenen Möglichkeiten, wie du sie erstellen kannst. Versuche, die in dieser Lektion erstellten Liniendiagramme mit anderen in der Dokumentation aufgeführten Methoden zu verbessern.
+## Aufgabe
+
+[Abtauchen in den Bienenstock](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/de/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..04fe5d35
--- /dev/null
+++ b/translations/de/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,23 @@
+
+# Tauche in den Bienenstock ein
+
+## Anweisungen
+
+In dieser Lektion hast du begonnen, einen Datensatz über Bienen und ihre Honigproduktion über einen Zeitraum zu betrachten, in dem die Bienenkolonien insgesamt Verluste erlitten haben. Gehe tiefer in diesen Datensatz und erstelle ein Notebook, das die Geschichte der Gesundheit der Bienenpopulation, Bundesstaat für Bundesstaat und Jahr für Jahr, erzählen kann. Entdeckst du etwas Interessantes in diesem Datensatz?
+
+## Bewertungskriterien
+
+| Vorbildlich | Ausreichend | Verbesserungswürdig |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| Ein Notebook wird präsentiert, das eine Geschichte mit mindestens drei verschiedenen Diagrammen erzählt, die Aspekte des Datensatzes, Bundesstaat für Bundesstaat und Jahr für Jahr, zeigen | Das Notebook fehlt in einem dieser Elemente | Das Notebook fehlt in zwei dieser Elemente |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/de/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..e8e96d9f
--- /dev/null
+++ b/translations/de/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,180 @@
+
+# Erstellen von aussagekräftigen Visualisierungen
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Aussagekräftige Visualisierungen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+> "Wenn man Daten lange genug quält, gestehen sie alles." -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Eine der grundlegenden Fähigkeiten eines Data Scientists ist die Fähigkeit, eine aussagekräftige Datenvisualisierung zu erstellen, die hilft, Fragen zu beantworten. Bevor Sie Ihre Daten visualisieren, müssen Sie sicherstellen, dass sie bereinigt und vorbereitet wurden, wie in den vorherigen Lektionen. Danach können Sie entscheiden, wie Sie die Daten am besten präsentieren.
+
+In dieser Lektion werden Sie Folgendes lernen:
+
+1. Wie man den richtigen Diagrammtyp auswählt
+2. Wie man irreführende Diagramme vermeidet
+3. Wie man mit Farben arbeitet
+4. Wie man Diagramme für bessere Lesbarkeit gestaltet
+5. Wie man animierte oder 3D-Diagrammlösungen erstellt
+6. Wie man kreative Visualisierungen entwickelt
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Den richtigen Diagrammtyp auswählen
+
+In den vorherigen Lektionen haben Sie mit Matplotlib und Seaborn verschiedene interessante Datenvisualisierungen erstellt. Im Allgemeinen können Sie den [richtigen Diagrammtyp](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) für die gestellte Frage anhand dieser Tabelle auswählen:
+
+| Ziel | Empfohlenes Diagramm |
+| ---------------------------- | ------------------------------ |
+| Datenverläufe über Zeit zeigen | Linie |
+| Kategorien vergleichen | Balken, Kreisdiagramm |
+| Gesamtsummen vergleichen | Kreisdiagramm, gestapelter Balken |
+| Beziehungen zeigen | Streuung, Linie, Facetten, doppelte Linie |
+| Verteilungen zeigen | Streuung, Histogramm, Boxplot |
+| Proportionen zeigen | Kreisdiagramm, Donut, Waffeldiagramm |
+
+> ✅ Je nach Zusammensetzung Ihrer Daten müssen Sie diese möglicherweise von Text in numerische Werte umwandeln, damit ein bestimmtes Diagramm unterstützt wird.
+
+## Täuschung vermeiden
+
+Selbst wenn ein Data Scientist sorgfältig den richtigen Diagrammtyp für die richtigen Daten auswählt, gibt es viele Möglichkeiten, wie Daten so dargestellt werden können, dass sie eine bestimmte Aussage unterstützen – oft auf Kosten der Datenintegrität. Es gibt viele Beispiele für irreführende Diagramme und Infografiken!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klicken Sie auf das Bild oben für einen Vortrag über irreführende Diagramme
+
+Dieses Diagramm kehrt die X-Achse um, um das Gegenteil der Wahrheit basierend auf dem Datum zu zeigen:
+
+
+
+[Dieses Diagramm](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) ist noch irreführender, da der Blick nach rechts gelenkt wird, um zu schließen, dass die COVID-Fälle in den verschiedenen Bezirken im Laufe der Zeit zurückgegangen sind. Tatsächlich wurden die Daten jedoch so umgeordnet, dass ein täuschender Abwärtstrend entsteht.
+
+
+
+Dieses berüchtigte Beispiel verwendet Farbe UND eine umgekehrte Y-Achse, um zu täuschen: Statt zu zeigen, dass die Zahl der Waffentoten nach der Verabschiedung waffenfreundlicher Gesetze gestiegen ist, wird der Betrachter dazu verleitet, das Gegenteil zu glauben:
+
+
+
+Dieses seltsame Diagramm zeigt, wie Proportionen manipuliert werden können – mit komischem Effekt:
+
+
+
+Das Vergleichen von Unvergleichbarem ist ein weiterer fragwürdiger Trick. Es gibt eine [wunderbare Website](https://tylervigen.com/spurious-correlations), die 'spurious correlations' zeigt – 'Fakten', die Dinge wie die Scheidungsrate in Maine und den Margarineverbrauch korrelieren. Eine Reddit-Gruppe sammelt auch [hässliche Anwendungen](https://www.reddit.com/r/dataisugly/top/?t=all) von Daten.
+
+Es ist wichtig zu verstehen, wie leicht das Auge durch irreführende Diagramme getäuscht werden kann. Selbst wenn die Absicht des Data Scientists gut ist, kann die Wahl eines schlechten Diagrammtyps, wie eines Kreisdiagramms mit zu vielen Kategorien, täuschend sein.
+
+## Farbe
+
+Wie im 'Florida gun violence'-Diagramm oben gesehen, kann Farbe eine zusätzliche Bedeutungsebene zu Diagrammen hinzufügen, insbesondere bei solchen, die nicht mit Bibliotheken wie Matplotlib und Seaborn erstellt wurden, die verschiedene geprüfte Farbpaletten bieten. Wenn Sie ein Diagramm von Hand erstellen, sollten Sie sich ein wenig mit [Farbtheorie](https://colormatters.com/color-and-design/basic-color-theory) beschäftigen.
+
+> ✅ Denken Sie daran, dass Barrierefreiheit ein wichtiger Aspekt der Visualisierung ist. Einige Ihrer Nutzer könnten farbenblind sein – wird Ihr Diagramm auch für Nutzer mit Sehbehinderungen gut dargestellt?
+
+Seien Sie vorsichtig bei der Auswahl von Farben für Ihr Diagramm, da Farben Bedeutungen vermitteln können, die Sie möglicherweise nicht beabsichtigen. Die 'pink ladies' im 'Höhen'-Diagramm oben vermitteln eine deutlich 'feminine' zugeschriebene Bedeutung, die zur Bizarrheit des Diagramms beiträgt.
+
+Während [Farbbedeutungen](https://colormatters.com/color-symbolism/the-meanings-of-colors) in verschiedenen Teilen der Welt unterschiedlich sein können und je nach Farbton variieren, umfassen allgemeine Bedeutungen:
+
+| Farbe | Bedeutung |
+| ------ | -------------------- |
+| rot | Macht |
+| blau | Vertrauen, Loyalität |
+| gelb | Glück, Vorsicht |
+| grün | Ökologie, Glück, Neid|
+| lila | Freude |
+| orange | Lebendigkeit |
+
+Wenn Sie ein Diagramm mit benutzerdefinierten Farben erstellen sollen, stellen Sie sicher, dass Ihre Diagramme sowohl barrierefrei sind als auch die Farben mit der beabsichtigten Bedeutung übereinstimmen.
+
+## Diagramme für bessere Lesbarkeit gestalten
+
+Diagramme sind nicht aussagekräftig, wenn sie nicht lesbar sind! Nehmen Sie sich einen Moment Zeit, um die Breite und Höhe Ihres Diagramms so zu gestalten, dass es gut zu Ihren Daten passt. Wenn eine Variable (wie alle 50 Bundesstaaten) angezeigt werden muss, stellen Sie sie möglichst vertikal auf der Y-Achse dar, um ein horizontal scrollendes Diagramm zu vermeiden.
+
+Beschriften Sie Ihre Achsen, stellen Sie bei Bedarf eine Legende bereit und bieten Sie Tooltips für ein besseres Verständnis der Daten.
+
+Wenn Ihre Daten textlastig und auf der X-Achse ausführlich sind, können Sie den Text für bessere Lesbarkeit schräg stellen. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) bietet 3D-Diagramme, wenn Ihre Daten dies unterstützen. Mit `mpl_toolkits.mplot3d` können anspruchsvolle Datenvisualisierungen erstellt werden.
+
+
+
+## Animation und 3D-Diagrammdarstellung
+
+Einige der besten Datenvisualisierungen heutzutage sind animiert. Shirley Wu hat beeindruckende Beispiele mit D3 erstellt, wie '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', bei denen jede Blume eine Visualisierung eines Films darstellt. Ein weiteres Beispiel für den Guardian ist 'bussed out', eine interaktive Erfahrung, die Visualisierungen mit Greensock und D3 kombiniert und ein Scrollytelling-Artikelformat verwendet, um zu zeigen, wie NYC mit seinem Obdachlosenproblem umgeht, indem Menschen aus der Stadt herausgebracht werden.
+
+
+
+> "Bussed Out: How America Moves its Homeless" vom [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualisierungen von Nadieh Bremer & Shirley Wu
+
+Obwohl diese Lektion nicht ausreicht, um diese leistungsstarken Visualisierungsbibliotheken im Detail zu lehren, können Sie D3 in einer Vue.js-App ausprobieren, um eine Visualisierung des Buches "Gefährliche Liebschaften" als animiertes soziales Netzwerk anzuzeigen.
+
+> "Les Liaisons Dangereuses" ist ein Briefroman, der als eine Reihe von Briefen präsentiert wird. Geschrieben 1782 von Choderlos de Laclos, erzählt er die Geschichte der bösartigen, moralisch bankrotten sozialen Manöver zweier rivalisierender Protagonisten der französischen Aristokratie im späten 18. Jahrhundert, des Vicomte de Valmont und der Marquise de Merteuil. Beide kommen am Ende zu Fall, nicht ohne zuvor erheblichen sozialen Schaden angerichtet zu haben. Der Roman entfaltet sich als eine Reihe von Briefen, die an verschiedene Personen in ihrem Umfeld geschrieben wurden, um Rache zu planen oder einfach Ärger zu machen. Erstellen Sie eine Visualisierung dieser Briefe, um die Hauptakteure der Erzählung visuell zu entdecken.
+
+Sie werden eine Web-App fertigstellen, die eine animierte Ansicht dieses sozialen Netzwerks anzeigt. Sie verwendet eine Bibliothek, die erstellt wurde, um eine [Netzwerkvisualisierung](https://github.com/emiliorizzo/vue-d3-network) mit Vue.js und D3 darzustellen. Wenn die App läuft, können Sie die Knoten auf dem Bildschirm ziehen, um die Daten neu anzuordnen.
+
+
+
+## Projekt: Erstellen Sie ein Diagramm, um ein Netzwerk mit D3.js darzustellen
+
+> Dieser Lektionenordner enthält einen `solution`-Ordner, in dem Sie das fertige Projekt als Referenz finden können.
+
+1. Folgen Sie den Anweisungen in der README.md-Datei im Stammordner des Starterpakets. Stellen Sie sicher, dass NPM und Node.js auf Ihrem Computer laufen, bevor Sie die Abhängigkeiten Ihres Projekts installieren.
+
+2. Öffnen Sie den `starter/src`-Ordner. Sie finden einen `assets`-Ordner, in dem sich eine .json-Datei mit allen Briefen des Romans befindet, nummeriert, mit einer 'to'- und 'from'-Annotation.
+
+3. Vervollständigen Sie den Code in `components/Nodes.vue`, um die Visualisierung zu aktivieren. Suchen Sie nach der Methode `createLinks()` und fügen Sie die folgende verschachtelte Schleife hinzu.
+
+Durchlaufen Sie das .json-Objekt, um die 'to'- und 'from'-Daten für die Briefe zu erfassen, und bauen Sie das `links`-Objekt auf, damit die Visualisierungsbibliothek es verwenden kann:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Führen Sie Ihre App aus dem Terminal aus (npm run serve) und genießen Sie die Visualisierung!
+
+## 🚀 Herausforderung
+
+Machen Sie eine Internet-Tour, um irreführende Visualisierungen zu entdecken. Wie täuscht der Autor den Nutzer, und ist es absichtlich? Versuchen Sie, die Visualisierungen zu korrigieren, um zu zeigen, wie sie aussehen sollten.
+
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Überprüfung & Selbststudium
+
+Hier sind einige Artikel über irreführende Datenvisualisierungen:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Schauen Sie sich diese interessanten Visualisierungen zu historischen Objekten und Artefakten an:
+
+https://handbook.pubpub.org/
+
+Lesen Sie diesen Artikel darüber, wie Animationen Ihre Visualisierungen verbessern können:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Aufgabe
+
+[Erstellen Sie Ihre eigene benutzerdefinierte Visualisierung](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/de/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..ca562086
--- /dev/null
+++ b/translations/de/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,23 @@
+
+# Erstelle deine eigene benutzerdefinierte Visualisierung
+
+## Anweisungen
+
+Nutze das Codebeispiel in diesem Projekt, um ein soziales Netzwerk zu erstellen, und entwirf eigene Daten zu deinen sozialen Interaktionen. Du könntest deine Nutzung von sozialen Medien abbilden oder ein Diagramm deiner Familienmitglieder erstellen. Entwickle eine interessante Web-App, die eine einzigartige Visualisierung eines sozialen Netzwerks zeigt.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Ein GitHub-Repository wird präsentiert, das korrekt funktioniert (versuche, es als statische Web-App zu deployen) und eine kommentierte README-Datei enthält, die das Projekt erklärt | Das Repository funktioniert nicht korrekt oder ist nicht gut dokumentiert | Das Repository funktioniert nicht korrekt und ist nicht gut dokumentiert
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/de/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..75c831a5
--- /dev/null
+++ b/translations/de/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,38 @@
+
+# Datenvisualisierungsprojekt "Gefährliche Liebschaften"
+
+Um loszulegen, müssen Sie sicherstellen, dass NPM und Node auf Ihrem Rechner laufen. Installieren Sie die Abhängigkeiten (npm install) und führen Sie das Projekt anschließend lokal aus (npm run serve):
+
+## Projektsetup
+```
+npm install
+```
+
+### Kompiliert und lädt für die Entwicklung automatisch neu
+```
+npm run serve
+```
+
+### Kompiliert und minimiert für die Produktion
+```
+npm run build
+```
+
+### Überprüft und behebt Dateien
+```
+npm run lint
+```
+
+### Konfiguration anpassen
+Siehe [Konfigurationsreferenz](https://cli.vuejs.org/config/).
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/de/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..b0e1d3d7
--- /dev/null
+++ b/translations/de/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,38 @@
+
+# Datenvisualisierungsprojekt "Gefährliche Liebschaften"
+
+Um loszulegen, stellen Sie sicher, dass NPM und Node auf Ihrem Rechner laufen. Installieren Sie die Abhängigkeiten (npm install) und führen Sie das Projekt anschließend lokal aus (npm run serve):
+
+## Projektsetup
+```
+npm install
+```
+
+### Kompiliert und lädt Änderungen für die Entwicklung automatisch neu
+```
+npm run serve
+```
+
+### Kompiliert und minimiert für die Produktion
+```
+npm run build
+```
+
+### Überprüft und behebt Dateien
+```
+npm run lint
+```
+
+### Konfiguration anpassen
+Siehe [Konfigurationsreferenz](https://cli.vuejs.org/config/).
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/de/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..58d1dfbd
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,228 @@
+
+# Visualisierung von Mengen
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisierung von Mengen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+In dieser Lektion wirst du erkunden, wie du einige der vielen verfügbaren R-Paketbibliotheken nutzen kannst, um interessante Visualisierungen rund um das Konzept der Menge zu erstellen. Mithilfe eines bereinigten Datensatzes über die Vögel von Minnesota kannst du viele interessante Fakten über die lokale Tierwelt erfahren.
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Beobachte die Flügelspannweite mit ggplot2
+Eine ausgezeichnete Bibliothek, um sowohl einfache als auch anspruchsvolle Diagramme und Grafiken verschiedener Art zu erstellen, ist [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Im Allgemeinen umfasst der Prozess des Plotten von Daten mit diesen Bibliotheken die Identifizierung der Teile deines Dataframes, die du anvisieren möchtest, die Durchführung notwendiger Transformationen der Daten, die Zuweisung von x- und y-Achsenwerten, die Entscheidung über die Art des Diagramms und schließlich die Darstellung des Diagramms.
+
+`ggplot2` ist ein System zur deklarativen Erstellung von Grafiken, basierend auf der Grammatik der Grafiken. Die [Grammatik der Grafiken](https://en.wikipedia.org/wiki/Ggplot2) ist ein allgemeines Schema für die Datenvisualisierung, das Diagramme in semantische Komponenten wie Skalen und Ebenen unterteilt. Mit anderen Worten: Die einfache Erstellung von Diagrammen und Grafiken für univariate oder multivariate Daten mit wenig Code macht `ggplot2` zum beliebtesten Paket für Visualisierungen in R. Der Benutzer gibt `ggplot2` an, wie die Variablen auf die Ästhetik abgebildet werden sollen, welche grafischen Primitive verwendet werden sollen, und `ggplot2` kümmert sich um den Rest.
+
+> ✅ Diagramm = Daten + Ästhetik + Geometrie
+> - Daten beziehen sich auf den Datensatz
+> - Ästhetik gibt die zu untersuchenden Variablen an (x- und y-Variablen)
+> - Geometrie bezieht sich auf die Art des Diagramms (Liniendiagramm, Balkendiagramm usw.)
+
+Wähle die beste Geometrie (Art des Diagramms) entsprechend deinen Daten und der Geschichte, die du durch das Diagramm erzählen möchtest.
+
+> - Um Trends zu analysieren: Linie, Säule
+> - Um Werte zu vergleichen: Balken, Säule, Kreisdiagramm, Streudiagramm
+> - Um zu zeigen, wie Teile zu einem Ganzen gehören: Kreisdiagramm
+> - Um die Verteilung von Daten zu zeigen: Streudiagramm, Balken
+> - Um Beziehungen zwischen Werten zu zeigen: Linie, Streudiagramm, Blase
+
+✅ Du kannst auch dieses hilfreiche [Cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) für ggplot2 ansehen.
+
+## Erstelle ein Liniendiagramm über die Flügelspannweite von Vögeln
+
+Öffne die R-Konsole und importiere den Datensatz.
+> Hinweis: Der Datensatz befindet sich im Root dieses Repos im `/data`-Ordner.
+
+Importiere den Datensatz und betrachte die Kopfzeile (die obersten 5 Zeilen) der Daten.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Die Kopfzeile der Daten enthält eine Mischung aus Text und Zahlen:
+
+| | Name | Wissenschaftlicher Name | Kategorie | Ordnung | Familie | Gattung | Erhaltungsstatus | MinLänge | MaxLänge | MinKörpermasse | MaxKörpermasse | MinFlügelspannweite | MaxFlügelspannweite |
+| ---: | :--------------------------- | :---------------------- | :--------------------- | :----------- | :------- | :---------- | :------------------- | --------: | --------: | -------------: | -------------: | ------------------: | ------------------: |
+| 0 | Schwarzbauch-Pfeifente | Dendrocygna autumnalis | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fahlpfeifente | Dendrocygna bicolor | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Schneegans | Anser caerulescens | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Zwerggans | Anser rossii | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Blässgans | Anser albifrons | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Beginnen wir damit, einige der numerischen Daten mit einem einfachen Liniendiagramm zu plotten. Angenommen, du möchtest die maximale Flügelspannweite dieser interessanten Vögel betrachten.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Hier installierst du das `ggplot2`-Paket und importierst es dann in den Arbeitsbereich mit dem Befehl `library("ggplot2")`. Um ein Diagramm in ggplot zu erstellen, wird die Funktion `ggplot()` verwendet, und du gibst den Datensatz sowie die x- und y-Variablen als Attribute an. In diesem Fall verwenden wir die Funktion `geom_line()`, da wir ein Liniendiagramm erstellen möchten.
+
+
+
+Was fällt dir sofort auf? Es scheint mindestens einen Ausreißer zu geben – das ist eine beeindruckende Flügelspannweite! Eine Flügelspannweite von über 2000 Zentimetern entspricht mehr als 20 Metern – gibt es Pterodaktylen in Minnesota? Lass uns das untersuchen.
+
+Während du in Excel schnell sortieren könntest, um diese Ausreißer zu finden, die wahrscheinlich Tippfehler sind, setze den Visualisierungsprozess fort, indem du direkt im Diagramm arbeitest.
+
+Füge der x-Achse Beschriftungen hinzu, um zu zeigen, um welche Vogelarten es sich handelt:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Wir geben den Winkel im `theme` an und spezifizieren die x- und y-Achsenbeschriftungen in `xlab()` und `ylab()`. Der `ggtitle()` gibt dem Diagramm/Plot einen Namen.
+
+
+
+Selbst mit der Drehung der Beschriftungen auf 45 Grad sind es zu viele, um sie zu lesen. Versuchen wir eine andere Strategie: Beschrifte nur die Ausreißer und setze die Beschriftungen direkt ins Diagramm. Du kannst ein Streudiagramm verwenden, um mehr Platz für die Beschriftungen zu schaffen:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Was passiert hier? Du hast die Funktion `geom_point()` verwendet, um Streupunkte zu plotten. Damit hast du Beschriftungen für Vögel hinzugefügt, deren `MaxWingspan > 500` ist, und die Beschriftungen auf der x-Achse ausgeblendet, um das Diagramm zu entschlacken.
+
+Was entdeckst du?
+
+
+
+## Filtere deine Daten
+
+Sowohl der Weißkopfseeadler als auch der Präriefalke, obwohl wahrscheinlich sehr große Vögel, scheinen falsch beschriftet zu sein, mit einer zusätzlichen 0 in ihrer maximalen Flügelspannweite. Es ist unwahrscheinlich, dass du einem Weißkopfseeadler mit einer Flügelspannweite von 25 Metern begegnest, aber falls doch, lass es uns wissen! Lass uns einen neuen Dataframe ohne diese beiden Ausreißer erstellen:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Wir haben einen neuen Dataframe `birds_filtered` erstellt und dann ein Streudiagramm geplottet. Durch das Herausfiltern von Ausreißern sind deine Daten jetzt kohärenter und verständlicher.
+
+
+
+Jetzt, da wir einen bereinigten Datensatz zumindest in Bezug auf die Flügelspannweite haben, lass uns mehr über diese Vögel herausfinden.
+
+Während Linien- und Streudiagramme Informationen über Datenwerte und deren Verteilungen anzeigen können, möchten wir über die Werte in diesem Datensatz nachdenken. Du könntest Visualisierungen erstellen, um die folgenden Fragen zur Menge zu beantworten:
+
+> Wie viele Kategorien von Vögeln gibt es und wie viele gibt es in jeder Kategorie?
+> Wie viele Vögel sind ausgestorben, gefährdet, selten oder häufig?
+> Wie viele gibt es von den verschiedenen Gattungen und Ordnungen in der Terminologie von Linnaeus?
+## Erkunde Balkendiagramme
+
+Balkendiagramme sind praktisch, wenn du Gruppierungen von Daten anzeigen möchtest. Lass uns die Kategorien von Vögeln in diesem Datensatz erkunden, um zu sehen, welche am häufigsten vorkommen.
+Lass uns ein Balkendiagramm mit gefilterten Daten erstellen.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+Im folgenden Code-Snippet installieren wir die Pakete [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) und [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0), um Daten zu manipulieren und zu gruppieren, um ein gestapeltes Balkendiagramm zu erstellen. Zuerst gruppierst du die Daten nach der `Category` der Vögel und fasst die Spalten `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan` zusammen. Anschließend erstellst du das Balkendiagramm mit dem `ggplot2`-Paket und spezifizierst die Farben für die verschiedenen Kategorien und die Beschriftungen.
+
+
+
+Dieses Balkendiagramm ist jedoch unleserlich, da es zu viele nicht gruppierte Daten gibt. Du musst nur die Daten auswählen, die du plotten möchtest. Lass uns die Länge der Vögel basierend auf ihrer Kategorie betrachten.
+
+Filtere deine Daten, um nur die Kategorie der Vögel einzubeziehen.
+
+Da es viele Kategorien gibt, kannst du dieses Diagramm vertikal anzeigen und seine Höhe anpassen, um alle Daten zu berücksichtigen:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Du zählst zuerst die eindeutigen Werte in der Spalte `Category` und sortierst sie in einen neuen Dataframe `birds_count`. Diese sortierten Daten werden dann auf derselben Ebene fakturiert, sodass sie in der sortierten Weise geplottet werden. Mit `ggplot2` plottest du die Daten dann in einem Balkendiagramm. Die Funktion `coord_flip()` erstellt horizontale Balken.
+
+
+
+Dieses Balkendiagramm zeigt eine gute Ansicht der Anzahl der Vögel in jeder Kategorie. Auf einen Blick siehst du, dass die größte Anzahl von Vögeln in dieser Region in der Kategorie Enten/Gänse/Wasservögel liegt. Minnesota ist das 'Land der 10.000 Seen', daher ist das nicht überraschend!
+
+✅ Probiere einige andere Zählungen in diesem Datensatz aus. Gibt es etwas, das dich überrascht?
+
+## Vergleich von Daten
+
+Du kannst verschiedene Vergleiche von gruppierten Daten erstellen, indem du neue Achsen erstellst. Probiere einen Vergleich der MaxLänge eines Vogels basierend auf seiner Kategorie:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Wir gruppieren die `birds_filtered`-Daten nach `Category` und erstellen ein Balkendiagramm.
+
+
+
+Hier gibt es nichts Überraschendes: Kolibris haben die geringste MaxLänge im Vergleich zu Pelikanen oder Gänsen. Es ist gut, wenn Daten logisch Sinn ergeben!
+
+Du kannst interessantere Visualisierungen von Balkendiagrammen erstellen, indem du Daten überlagerst. Lass uns die minimale und maximale Länge einer bestimmten Vogelkategorie überlagern:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Herausforderung
+
+Dieser Vogeldatensatz bietet eine Fülle von Informationen über verschiedene Vogelarten innerhalb eines bestimmten Ökosystems. Suche im Internet nach anderen vogelorientierten Datensätzen. Übe das Erstellen von Diagrammen und Grafiken zu diesen Vögeln, um Fakten zu entdecken, die dir vorher nicht bewusst waren.
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Rückblick & Selbststudium
+
+Diese erste Lektion hat dir einige Informationen darüber gegeben, wie du `ggplot2` verwenden kannst, um Mengen zu visualisieren. Recherchiere andere Möglichkeiten, mit Datensätzen für Visualisierungen zu arbeiten. Suche nach Datensätzen, die du mit anderen Paketen wie [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) und [Plotly](https://github.com/plotly/plotly.R#readme) visualisieren könntest.
+
+## Aufgabe
+[Linien, Streudiagramme und Balken](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/de/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..b322f319
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Linien, Streudiagramme und Balken
+
+## Anweisungen
+
+In dieser Lektion hast du mit Liniendiagrammen, Streudiagrammen und Balkendiagrammen gearbeitet, um interessante Fakten über diesen Datensatz darzustellen. In dieser Aufgabe sollst du tiefer in den Datensatz eintauchen, um eine Tatsache über eine bestimmte Vogelart zu entdecken. Erstelle beispielsweise ein Skript, das alle interessanten Daten visualisiert, die du über Schneegänse herausfinden kannst. Nutze die drei oben genannten Diagrammtypen, um in deinem Notebook eine Geschichte zu erzählen.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Ein Skript wird mit guten Anmerkungen, solider Erzählweise und ansprechenden Grafiken präsentiert | Dem Skript fehlt eines dieser Elemente | Dem Skript fehlen zwei dieser Elemente
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/de/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..0179222d
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,182 @@
+
+# Visualisierung von Verteilungen
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisierung von Verteilungen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+In der vorherigen Lektion hast du einige interessante Fakten über einen Datensatz zu den Vögeln von Minnesota gelernt. Du hast fehlerhafte Daten durch die Visualisierung von Ausreißern entdeckt und die Unterschiede zwischen Vogelkategorien anhand ihrer maximalen Länge betrachtet.
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Erkunde den Vogeldatensatz
+
+Eine weitere Möglichkeit, Daten zu analysieren, besteht darin, ihre Verteilung zu betrachten, also wie die Daten entlang einer Achse organisiert sind. Vielleicht möchtest du beispielsweise die allgemeine Verteilung der maximalen Flügelspannweite oder der maximalen Körpermasse der Vögel von Minnesota in diesem Datensatz untersuchen.
+
+Lass uns einige Fakten über die Verteilungen der Daten in diesem Datensatz entdecken. Importiere in deiner R-Konsole `ggplot2` und die Datenbank. Entferne die Ausreißer aus der Datenbank, wie im vorherigen Thema beschrieben.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Name | Wissenschaftlicher Name | Kategorie | Ordnung | Familie | Gattung | Schutzstatus | MinLänge | MaxLänge | MinKörpermasse | MaxKörpermasse | MinFlügelspannweite | MaxFlügelspannweite |
+| ---: | :--------------------------- | :---------------------- | :-------------------- | :----------- | :------- | :---------- | :------------------- | --------: | --------: | -------------: | -------------: | ------------------: | ------------------: |
+| 0 | Schwarzbauch-Pfeifgans | Dendrocygna autumnalis | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fuchsrote Pfeifgans | Dendrocygna bicolor | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Schneegans | Anser caerulescens | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Zwerggans | Anser rossii | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Blässgans | Anser albifrons | Enten/Gänse/Wasservögel | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Im Allgemeinen kannst du die Verteilung der Daten schnell mit einem Streudiagramm betrachten, wie wir es in der vorherigen Lektion gemacht haben:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Dies gibt einen Überblick über die allgemeine Verteilung der Körperlänge pro Vogelordnung, ist jedoch nicht die optimale Methode, um echte Verteilungen darzustellen. Diese Aufgabe wird normalerweise durch die Erstellung eines Histogramms gelöst.
+
+## Arbeiten mit Histogrammen
+
+`ggplot2` bietet sehr gute Möglichkeiten, die Datenverteilung mit Histogrammen zu visualisieren. Diese Art von Diagramm ähnelt einem Balkendiagramm, bei dem die Verteilung durch das Ansteigen und Abfallen der Balken sichtbar wird. Um ein Histogramm zu erstellen, benötigst du numerische Daten. Um ein Histogramm zu erstellen, kannst du ein Diagramm mit der Art 'hist' für Histogramm zeichnen. Dieses Diagramm zeigt die Verteilung der MaxKörpermasse für den gesamten numerischen Datenbereich des Datensatzes. Indem die Daten in kleinere Intervalle unterteilt werden, kann die Verteilung der Werte dargestellt werden:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Wie du sehen kannst, fallen die meisten der über 400 Vögel in diesem Datensatz in den Bereich unter 2000 für ihre maximale Körpermasse. Erhalte mehr Einblicke in die Daten, indem du den `bins`-Parameter auf eine höhere Zahl, z. B. 30, änderst:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Dieses Diagramm zeigt die Verteilung etwas detaillierter. Ein weniger nach links verzerrtes Diagramm könnte erstellt werden, indem du sicherstellst, dass du nur Daten innerhalb eines bestimmten Bereichs auswählst:
+
+Filtere deine Daten, um nur die Vögel zu erhalten, deren Körpermasse unter 60 liegt, und zeige 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Probiere einige andere Filter und Datenpunkte aus. Um die vollständige Verteilung der Daten zu sehen, entferne den `['MaxBodyMass']`-Filter, um beschriftete Verteilungen anzuzeigen.
+
+Das Histogramm bietet auch einige schöne Farb- und Beschriftungsoptionen, die du ausprobieren kannst:
+
+Erstelle ein 2D-Histogramm, um die Beziehung zwischen zwei Verteilungen zu vergleichen. Lass uns `MaxBodyMass` mit `MaxLength` vergleichen. `ggplot2` bietet eine integrierte Möglichkeit, Konvergenzen mit helleren Farben darzustellen:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Es scheint eine erwartete Korrelation zwischen diesen beiden Elementen entlang einer erwarteten Achse zu geben, mit einem besonders starken Konvergenzpunkt:
+
+
+
+Histogramme funktionieren standardmäßig gut für numerische Daten. Was ist, wenn du Verteilungen basierend auf Textdaten sehen möchtest?
+## Erkunde den Datensatz nach Verteilungen mit Textdaten
+
+Dieser Datensatz enthält auch gute Informationen über die Vogelkategorie sowie deren Gattung, Art und Familie sowie deren Schutzstatus. Lass uns diese Schutzstatus-Informationen genauer betrachten. Wie ist die Verteilung der Vögel nach ihrem Schutzstatus?
+
+> ✅ Im Datensatz werden mehrere Abkürzungen verwendet, um den Schutzstatus zu beschreiben. Diese Abkürzungen stammen von den [IUCN Red List Categories](https://www.iucnredlist.org/), einer Organisation, die den Status von Arten katalogisiert.
+>
+> - CR: Kritisch gefährdet
+> - EN: Gefährdet
+> - EX: Ausgestorben
+> - LC: Geringste Sorge
+> - NT: Potenziell gefährdet
+> - VU: Verletzlich
+
+Da es sich um textbasierte Werte handelt, musst du eine Transformation durchführen, um ein Histogramm zu erstellen. Verwende den `filteredBirds`-Dataframe, um den Schutzstatus zusammen mit der minimalen Flügelspannweite anzuzeigen. Was siehst du?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Es scheint keine gute Korrelation zwischen minimaler Flügelspannweite und Schutzstatus zu geben. Teste andere Elemente des Datensatzes mit dieser Methode. Kannst du eine Korrelation finden?
+
+## Dichteplots
+
+Vielleicht ist dir aufgefallen, dass die Histogramme, die wir bisher betrachtet haben, 'stufig' sind und nicht fließend in einem Bogen verlaufen. Um ein glatteres Dichtediagramm zu zeigen, kannst du einen Dichteplot ausprobieren.
+
+Lass uns jetzt mit Dichteplots arbeiten!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Du kannst sehen, wie der Plot das vorherige Diagramm für die minimale Flügelspannweite widerspiegelt; es ist nur etwas glatter. Wenn du die gezackte MaxKörpermasse-Linie im zweiten Diagramm, das du erstellt hast, glätten möchtest, könntest du dies sehr gut mit dieser Methode tun:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Wenn du eine glatte, aber nicht zu glatte Linie möchtest, bearbeite den `adjust`-Parameter:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Lies über die verfügbaren Parameter für diesen Diagrammtyp und experimentiere!
+
+Diese Art von Diagramm bietet wunderschön erklärende Visualisierungen. Mit nur wenigen Codezeilen kannst du beispielsweise die maximale Körpermassendichte pro Vogelordnung anzeigen:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Herausforderung
+
+Histogramme sind eine anspruchsvollere Art von Diagrammen als einfache Streudiagramme, Balkendiagramme oder Liniendiagramme. Suche im Internet nach guten Beispielen für die Verwendung von Histogrammen. Wie werden sie verwendet, was zeigen sie und in welchen Bereichen oder Forschungsfeldern werden sie häufig eingesetzt?
+
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Rückblick & Selbststudium
+
+In dieser Lektion hast du `ggplot2` verwendet und begonnen, anspruchsvollere Diagramme zu erstellen. Recherchiere zu `geom_density_2d()`, einer "kontinuierlichen Wahrscheinlichkeitsdichtekurve in einer oder mehreren Dimensionen". Lies die [Dokumentation](https://ggplot2.tidyverse.org/reference/geom_density_2d.html), um zu verstehen, wie es funktioniert.
+
+## Aufgabe
+
+[Wende deine Fähigkeiten an](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/de/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..d05ab749
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Wende deine Fähigkeiten an
+
+## Anweisungen
+
+Bisher hast du mit dem Minnesota-Vogel-Datensatz gearbeitet, um Informationen über Vogelmengen und Populationsdichte zu entdecken. Übe die Anwendung dieser Techniken, indem du einen anderen Datensatz ausprobierst, vielleicht aus [Kaggle](https://www.kaggle.com/). Erstelle ein R-Skript, um eine Geschichte über diesen Datensatz zu erzählen, und stelle sicher, dass du Histogramme verwendest, um darüber zu berichten.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Ein Skript wird mit Anmerkungen zu diesem Datensatz, einschließlich seiner Quelle, präsentiert und verwendet mindestens 5 Histogramme, um Fakten über die Daten zu entdecken. | Ein Skript wird mit unvollständigen Anmerkungen oder Fehlern präsentiert. | Ein Skript wird ohne Anmerkungen und mit Fehlern präsentiert.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/de/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..940d4cc3
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,196 @@
+
+# Visualisierung von Proportionen
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisierung von Proportionen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+In dieser Lektion wirst du ein naturbezogenes Datenset verwenden, um Proportionen zu visualisieren, wie z. B. die Anzahl der verschiedenen Pilzarten in einem Datenset über Pilze. Lass uns diese faszinierenden Pilze mit einem Datenset erkunden, das von Audubon stammt und Details zu 23 Arten von Lamellenpilzen aus den Familien Agaricus und Lepiota enthält. Du wirst mit köstlichen Visualisierungen experimentieren, wie:
+
+- Tortendiagramme 🥧
+- Donut-Diagramme 🍩
+- Waffel-Diagramme 🧇
+
+> 💡 Ein sehr interessantes Projekt namens [Charticulator](https://charticulator.com) von Microsoft Research bietet eine kostenlose Drag-and-Drop-Oberfläche für Datenvisualisierungen. In einem ihrer Tutorials verwenden sie ebenfalls dieses Pilz-Datenset! Du kannst also die Daten erkunden und gleichzeitig die Bibliothek kennenlernen: [Charticulator-Tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Lerne deine Pilze kennen 🍄
+
+Pilze sind sehr interessant. Lass uns ein Datenset importieren, um sie zu untersuchen:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Eine Tabelle wird ausgegeben, die großartige Daten für die Analyse enthält:
+
+| Klasse | Hutform | Hutoberfläche | Hutfarbe | Druckstellen | Geruch | Lamellenansatz | Lamellenabstand | Lamellengröße | Lamellenfarbe | Stielform | Stielbasis | Stieloberfläche über dem Ring | Stieloberfläche unter dem Ring | Stielfarbe über dem Ring | Stielfarbe unter dem Ring | Schleierart | Schleierfarbe | Ringanzahl | Ringart | Sporenabdruckfarbe | Population | Lebensraum |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Giftig | Konvex | Glatt | Braun | Druckstellen | Stechend | Frei | Eng | Schmal | Schwarz | Vergrößernd | Gleichmäßig | Glatt | Glatt | Weiß | Weiß | Teilweise | Weiß | Eins | Hängend | Schwarz | Vereinzelt | Urban |
+| Essbar | Konvex | Glatt | Gelb | Druckstellen | Mandel | Frei | Eng | Breit | Schwarz | Vergrößernd | Keulenförmig | Glatt | Glatt | Weiß | Weiß | Teilweise | Weiß | Eins | Hängend | Braun | Zahlreich | Gräser |
+| Essbar | Glockenförmig | Glatt | Weiß | Druckstellen | Anis | Frei | Eng | Breit | Braun | Vergrößernd | Keulenförmig | Glatt | Glatt | Weiß | Weiß | Teilweise | Weiß | Eins | Hängend | Braun | Zahlreich | Wiesen |
+| Giftig | Konvex | Schuppig | Weiß | Druckstellen | Stechend | Frei | Eng | Schmal | Braun | Vergrößernd | Gleichmäßig | Glatt | Glatt | Weiß | Weiß | Teilweise | Weiß | Eins | Hängend | Schwarz | Vereinzelt | Urban |
+| Essbar | Konvex | Glatt | Grün | Keine Druckstellen | Kein Geruch | Frei | Gedrängt | Breit | Schwarz | Verjüngend | Gleichmäßig | Glatt | Glatt | Weiß | Weiß | Teilweise | Weiß | Eins | Vergänglich | Braun | Reichlich | Gräser |
+| Essbar | Konvex | Schuppig | Gelb | Druckstellen | Mandel | Frei | Eng | Breit | Braun | Vergrößernd | Keulenförmig | Glatt | Glatt | Weiß | Weiß | Teilweise | Weiß | Eins | Hängend | Schwarz | Zahlreich | Gräser |
+
+Sofort fällt auf, dass alle Daten textuell sind. Du musst diese Daten umwandeln, um sie in einem Diagramm verwenden zu können. Tatsächlich sind die meisten Daten als Objekt dargestellt:
+
+```r
+names(mushrooms)
+```
+
+Die Ausgabe ist:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Nimm diese Daten und konvertiere die Spalte 'Klasse' in eine Kategorie:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Wenn du nun die Pilzdaten ausgibst, siehst du, dass sie nach den Kategorien giftig/essbar gruppiert wurden:
+```r
+View(grouped)
+```
+
+| Klasse | Anzahl |
+| --------- | --------- |
+| Essbar | 4208 |
+| Giftig | 3916 |
+
+Wenn du die Reihenfolge in dieser Tabelle befolgst, um deine Kategorien für die Klasse zu erstellen, kannst du ein Tortendiagramm erstellen.
+
+## Torte!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voila, ein Tortendiagramm, das die Proportionen dieser Daten entsprechend den beiden Pilzklassen zeigt. Es ist sehr wichtig, die Reihenfolge der Labels korrekt zu setzen, besonders hier, also überprüfe unbedingt die Reihenfolge, in der das Label-Array erstellt wird!
+
+
+
+## Donuts!
+
+Ein optisch etwas interessanteres Tortendiagramm ist ein Donut-Diagramm, ein Tortendiagramm mit einem Loch in der Mitte. Lass uns unsere Daten mit dieser Methode betrachten.
+
+Schau dir die verschiedenen Lebensräume an, in denen Pilze wachsen:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Die Ausgabe ist:
+| Lebensraum | Anzahl |
+| --------- | --------- |
+| Gräser | 2148 |
+| Blätter | 832 |
+| Wiesen | 292 |
+| Wege | 1144 |
+| Urban | 368 |
+| Abfall | 192 |
+| Holz | 3148 |
+
+Hier gruppierst du deine Daten nach Lebensraum. Es gibt 7 gelistete Lebensräume, also verwende diese als Labels für dein Donut-Diagramm:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Dieser Code verwendet die beiden Bibliotheken ggplot2 und webr. Mit der PieDonut-Funktion der webr-Bibliothek können wir ein Donut-Diagramm einfach erstellen!
+
+Donut-Diagramme in R können auch nur mit der ggplot2-Bibliothek erstellt werden. Du kannst mehr darüber [hier](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) erfahren und es selbst ausprobieren.
+
+Jetzt, da du weißt, wie du deine Daten gruppierst und sie als Torte oder Donut darstellst, kannst du andere Diagrammtypen erkunden. Probiere ein Waffel-Diagramm aus, das eine andere Möglichkeit bietet, Mengen darzustellen.
+
+## Waffeln!
+
+Ein 'Waffel'-Diagramm ist eine andere Möglichkeit, Mengen als 2D-Array von Quadraten zu visualisieren. Versuche, die verschiedenen Mengen von Pilzhutfarben in diesem Datenset zu visualisieren. Dazu musst du eine Hilfsbibliothek namens [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) installieren und sie verwenden, um deine Visualisierung zu erstellen:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Wähle einen Abschnitt deiner Daten aus, um ihn zu gruppieren:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Erstelle ein Waffel-Diagramm, indem du Labels erstellst und dann deine Daten gruppierst:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Mit einem Waffel-Diagramm kannst du die Proportionen der Hutfarben in diesem Pilz-Datenset deutlich sehen. Interessanterweise gibt es viele Pilze mit grünen Hüten!
+
+
+
+In dieser Lektion hast du drei Möglichkeiten gelernt, Proportionen zu visualisieren. Zuerst musst du deine Daten in Kategorien gruppieren und dann entscheiden, welche die beste Möglichkeit ist, die Daten darzustellen - Torte, Donut oder Waffel. Alle sind köstlich und bieten dem Benutzer einen sofortigen Überblick über ein Datenset.
+
+## 🚀 Herausforderung
+
+Versuche, diese köstlichen Diagramme in [Charticulator](https://charticulator.com) nachzubilden.
+
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Rückblick & Selbststudium
+
+Manchmal ist es nicht offensichtlich, wann man ein Torten-, Donut- oder Waffel-Diagramm verwenden sollte. Hier sind einige Artikel zu diesem Thema:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Recherchiere, um mehr Informationen zu dieser schwierigen Entscheidung zu finden.
+
+## Aufgabe
+
+[Probiere es in Excel aus](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/de/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..3c57222a
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,175 @@
+
+# Visualisierung von Beziehungen: Alles über Honig 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisierung von Beziehungen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Im Einklang mit dem naturbezogenen Fokus unserer Forschung wollen wir interessante Visualisierungen entdecken, um die Beziehungen zwischen verschiedenen Honigsorten darzustellen, basierend auf einem Datensatz des [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Dieser Datensatz mit etwa 600 Einträgen zeigt die Honigproduktion in vielen US-Bundesstaaten. So kann man beispielsweise die Anzahl der Bienenvölker, den Ertrag pro Volk, die Gesamtproduktion, die Lagerbestände, den Preis pro Pfund und den Wert des produzierten Honigs in einem bestimmten Bundesstaat von 1998 bis 2012 betrachten, wobei jede Zeile ein Jahr pro Bundesstaat repräsentiert.
+
+Es könnte interessant sein, die Beziehung zwischen der jährlichen Produktion eines Bundesstaates und beispielsweise dem Honigpreis in diesem Bundesstaat zu visualisieren. Alternativ könnte man die Beziehung zwischen den Erträgen pro Volk in verschiedenen Bundesstaaten darstellen. Dieser Zeitraum umfasst das verheerende Phänomen des 'CCD' oder 'Colony Collapse Disorder', das erstmals 2006 beobachtet wurde (http://npic.orst.edu/envir/ccd.html), was diesen Datensatz besonders bedeutsam macht. 🐝
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+In dieser Lektion kannst du ggplot2 verwenden, eine Bibliothek, die du bereits kennst, um Beziehungen zwischen Variablen zu visualisieren. Besonders interessant ist die Verwendung der `geom_point`- und `qplot`-Funktionen von ggplot2, die Streu- und Linienplots ermöglichen, um schnell '[statistische Beziehungen](https://ggplot2.tidyverse.org/)' darzustellen. Diese helfen Datenwissenschaftler:innen, besser zu verstehen, wie Variablen miteinander in Beziehung stehen.
+
+## Streudiagramme
+
+Verwende ein Streudiagramm, um zu zeigen, wie sich der Honigpreis Jahr für Jahr in den einzelnen Bundesstaaten entwickelt hat. Mit ggplot2 kannst du mithilfe von `ggplot` und `geom_point` die Daten der Bundesstaaten gruppieren und Datenpunkte für sowohl kategoriale als auch numerische Daten anzeigen.
+
+Beginnen wir mit dem Import der Daten und Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Du wirst feststellen, dass die Honigdaten mehrere interessante Spalten enthalten, darunter Jahr und Preis pro Pfund. Lass uns diese Daten, gruppiert nach US-Bundesstaaten, erkunden:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Erstelle ein einfaches Streudiagramm, um die Beziehung zwischen dem Preis pro Pfund Honig und seinem Herkunftsbundesstaat darzustellen. Mache die `y`-Achse hoch genug, um alle Bundesstaaten anzuzeigen:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Zeige nun dieselben Daten mit einem honigfarbenen Farbschema, um zu verdeutlichen, wie sich der Preis im Laufe der Jahre entwickelt hat. Dies kannst du erreichen, indem du den Parameter 'scale_color_gradientn' hinzufügst, um die Veränderung Jahr für Jahr darzustellen:
+
+> ✅ Erfahre mehr über [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) – probiere ein schönes Regenbogen-Farbschema aus!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Mit dieser Farbänderung kannst du deutlich erkennen, dass es im Laufe der Jahre eine starke Preissteigerung pro Pfund Honig gibt. Wenn du beispielsweise einen bestimmten Bundesstaat wie Arizona betrachtest, kannst du ein Muster von Preissteigerungen Jahr für Jahr erkennen, mit wenigen Ausnahmen:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Eine andere Möglichkeit, diese Entwicklung darzustellen, ist die Verwendung der Größe anstelle von Farben. Für farbenblinde Nutzer:innen könnte dies eine bessere Option sein. Bearbeite deine Visualisierung so, dass die Preissteigerung durch eine Zunahme des Punktumfangs dargestellt wird:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Du kannst sehen, dass die Größe der Punkte allmählich zunimmt.
+
+
+
+Ist dies ein einfacher Fall von Angebot und Nachfrage? Aufgrund von Faktoren wie Klimawandel und dem Zusammenbruch von Bienenvölkern – gibt es Jahr für Jahr weniger Honig zu kaufen, und daher steigen die Preise?
+
+Um eine Korrelation zwischen einigen Variablen in diesem Datensatz zu entdecken, lass uns einige Liniendiagramme untersuchen.
+
+## Liniendiagramme
+
+Frage: Gibt es einen klaren Anstieg des Preises pro Pfund Honig Jahr für Jahr? Dies lässt sich am einfachsten durch ein einzelnes Liniendiagramm herausfinden:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Antwort: Ja, mit einigen Ausnahmen um das Jahr 2003:
+
+
+
+Frage: Gab es im Jahr 2003 auch einen Anstieg des Honigangebots? Was ist, wenn du die Gesamtproduktion Jahr für Jahr betrachtest?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Antwort: Nicht wirklich. Wenn du die Gesamtproduktion betrachtest, scheint sie in diesem Jahr tatsächlich gestiegen zu sein, obwohl die Honigproduktion im Allgemeinen in diesen Jahren rückläufig ist.
+
+Frage: Was könnte in diesem Fall den Preisanstieg für Honig um das Jahr 2003 verursacht haben?
+
+Um dies herauszufinden, kannst du ein Facet Grid untersuchen.
+
+## Facet Grids
+
+Facet Grids nehmen eine Facette deines Datensatzes (in unserem Fall kannst du 'Jahr' wählen, um zu vermeiden, dass zu viele Facetten erstellt werden). Seaborn kann dann für jede dieser Facetten deiner gewählten x- und y-Koordinaten ein Diagramm erstellen, um den Vergleich zu erleichtern. Fällt das Jahr 2003 in diesem Vergleich auf?
+
+Erstelle ein Facet Grid, indem du `facet_wrap` wie in der [ggplot2-Dokumentation](https://ggplot2.tidyverse.org/reference/facet_wrap.html) empfohlen verwendest.
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+In dieser Visualisierung kannst du den Ertrag pro Volk und die Anzahl der Völker Jahr für Jahr nebeneinander vergleichen, wobei die Wrap-Einstellung auf 3 Spalten gesetzt ist:
+
+
+
+Für diesen Datensatz fällt nichts Besonderes in Bezug auf die Anzahl der Völker und deren Ertrag Jahr für Jahr und Bundesstaat für Bundesstaat auf. Gibt es eine andere Möglichkeit, eine Korrelation zwischen diesen beiden Variablen zu finden?
+
+## Dual-Line-Plots
+
+Versuche ein Mehrlinien-Diagramm, indem du zwei Liniendiagramme übereinander legst, mit R's `par`- und `plot`-Funktion. Wir werden das Jahr auf der x-Achse darstellen und zwei y-Achsen anzeigen. Zeige den Ertrag pro Volk und die Anzahl der Völker übereinander:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Auch wenn nichts um das Jahr 2003 ins Auge springt, können wir diese Lektion mit einer etwas erfreulicheren Note beenden: Während die Gesamtzahl der Bienenvölker insgesamt abnimmt, stabilisiert sich die Anzahl der Völker, auch wenn ihr Ertrag pro Volk sinkt.
+
+Go, bees, go!
+
+🐝❤️
+## 🚀 Herausforderung
+
+In dieser Lektion hast du mehr über die Verwendung von Streudiagrammen und Liniengittern, einschließlich Facet Grids, gelernt. Fordere dich selbst heraus, ein Facet Grid mit einem anderen Datensatz zu erstellen, vielleicht einem, den du in früheren Lektionen verwendet hast. Beachte, wie lange sie zur Erstellung benötigen und wie du darauf achten musst, wie viele Gitter du mit diesen Techniken zeichnen möchtest.
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Rückblick & Selbststudium
+
+Liniendiagramme können einfach oder recht komplex sein. Lies ein wenig in der [ggplot2-Dokumentation](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) über die verschiedenen Möglichkeiten, wie du sie erstellen kannst. Versuche, die in dieser Lektion erstellten Liniendiagramme mit anderen in der Dokumentation aufgeführten Methoden zu verbessern.
+## Aufgabe
+
+[Tauche in den Bienenstock ein](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/de/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..3ccbbfa0
--- /dev/null
+++ b/translations/de/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,180 @@
+
+# Sinnvolle Visualisierungen erstellen
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Sinnvolle Visualisierungen - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+> "Wenn man Daten lange genug foltert, gestehen sie alles." -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Eine der grundlegenden Fähigkeiten eines Data Scientists ist es, eine sinnvolle Datenvisualisierung zu erstellen, die dabei hilft, Fragen zu beantworten. Bevor Sie Ihre Daten visualisieren, müssen Sie sicherstellen, dass sie, wie in den vorherigen Lektionen, bereinigt und vorbereitet wurden. Danach können Sie entscheiden, wie Sie die Daten am besten präsentieren.
+
+In dieser Lektion werden Sie Folgendes lernen:
+
+1. Wie man den richtigen Diagrammtyp auswählt
+2. Wie man irreführende Diagramme vermeidet
+3. Wie man mit Farben arbeitet
+4. Wie man Diagramme für bessere Lesbarkeit gestaltet
+5. Wie man animierte oder 3D-Diagrammlösungen erstellt
+6. Wie man kreative Visualisierungen entwickelt
+
+## [Quiz vor der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Den richtigen Diagrammtyp auswählen
+
+In den vorherigen Lektionen haben Sie mit Matplotlib und Seaborn verschiedene interessante Datenvisualisierungen erstellt. Im Allgemeinen können Sie mit Hilfe dieser Tabelle den [richtigen Diagrammtyp](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) für Ihre Fragestellung auswählen:
+
+| Sie möchten: | Verwenden Sie: |
+| -------------------------- | ------------------------------- |
+| Datenverläufe über die Zeit zeigen | Linie |
+| Kategorien vergleichen | Balken, Kreis |
+| Gesamtsummen vergleichen | Kreis, gestapelter Balken |
+| Beziehungen zeigen | Streuung, Linie, Facette, Doppellinie |
+| Verteilungen zeigen | Streuung, Histogramm, Boxplot |
+| Proportionen zeigen | Kreis, Donut, Waffel |
+
+> ✅ Je nach Beschaffenheit Ihrer Daten müssen Sie diese möglicherweise von Text in numerische Werte umwandeln, damit ein bestimmtes Diagramm unterstützt wird.
+
+## Irreführung vermeiden
+
+Selbst wenn ein Data Scientist sorgfältig den richtigen Diagrammtyp für die richtigen Daten auswählt, gibt es viele Möglichkeiten, wie Daten so dargestellt werden können, dass sie eine bestimmte Aussage unterstützen – oft auf Kosten der Datenintegrität. Es gibt viele Beispiele für irreführende Diagramme und Infografiken!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Wie Diagramme lügen")
+
+> 🎥 Klicken Sie auf das Bild oben, um einen Vortrag über irreführende Diagramme anzusehen.
+
+Dieses Diagramm kehrt die X-Achse um, um das Gegenteil der Wahrheit basierend auf dem Datum darzustellen:
+
+
+
+[Dieses Diagramm](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) ist noch irreführender, da das Auge nach rechts gezogen wird, um zu schließen, dass die COVID-Fälle in den verschiedenen Bezirken im Laufe der Zeit zurückgegangen sind. Tatsächlich wurden die Daten jedoch so umgeordnet, dass ein irreführender Abwärtstrend entsteht.
+
+
+
+Dieses berüchtigte Beispiel verwendet Farbe UND eine umgekehrte Y-Achse, um zu täuschen: Statt zu zeigen, dass die Zahl der Waffentoten nach der Verabschiedung waffenfreundlicher Gesetze gestiegen ist, wird das Auge getäuscht, das Gegenteil zu glauben:
+
+
+
+Dieses seltsame Diagramm zeigt, wie Proportionen manipuliert werden können – mit komischem Effekt:
+
+
+
+Das Vergleichen von Unvergleichbarem ist ein weiterer fragwürdiger Trick. Es gibt eine [wunderbare Website](https://tylervigen.com/spurious-correlations), die sich mit "spurious correlations" beschäftigt und "Fakten" zeigt, die Dinge wie die Scheidungsrate in Maine und den Margarineverbrauch korrelieren. Eine Reddit-Gruppe sammelt auch die [hässlichen Anwendungen](https://www.reddit.com/r/dataisugly/top/?t=all) von Daten.
+
+Es ist wichtig zu verstehen, wie leicht das Auge durch irreführende Diagramme getäuscht werden kann. Selbst wenn die Absicht des Data Scientists gut ist, kann die Wahl eines schlechten Diagrammtyps, wie z. B. eines Kreisdiagramms mit zu vielen Kategorien, irreführend sein.
+
+## Farbe
+
+Wie Sie im obigen Diagramm zur "Waffengewalt in Florida" gesehen haben, kann Farbe eine zusätzliche Bedeutungsebene in Diagrammen hinzufügen, insbesondere in solchen, die nicht mit Bibliotheken wie ggplot2 und RColorBrewer erstellt wurden, die verschiedene geprüfte Farbpaletten bieten. Wenn Sie ein Diagramm von Hand erstellen, sollten Sie sich ein wenig mit der [Farblehre](https://colormatters.com/color-and-design/basic-color-theory) beschäftigen.
+
+> ✅ Beachten Sie bei der Gestaltung von Diagrammen, dass Barrierefreiheit ein wichtiger Aspekt der Visualisierung ist. Einige Ihrer Nutzer könnten farbenblind sein – wird Ihr Diagramm für Nutzer mit Sehbehinderungen gut dargestellt?
+
+Seien Sie vorsichtig bei der Auswahl von Farben für Ihr Diagramm, da Farben Bedeutungen vermitteln können, die Sie möglicherweise nicht beabsichtigen. Die "pink ladies" im obigen "Höhen"-Diagramm vermitteln eine deutlich "weibliche" Bedeutung, die zur Absurdität des Diagramms beiträgt.
+
+Während [Farbbedeutungen](https://colormatters.com/color-symbolism/the-meanings-of-colors) in verschiedenen Teilen der Welt unterschiedlich sein können und je nach Farbton variieren, umfassen allgemeine Bedeutungen:
+
+| Farbe | Bedeutung |
+| ------ | -------------------- |
+| rot | Macht |
+| blau | Vertrauen, Loyalität |
+| gelb | Glück, Vorsicht |
+| grün | Ökologie, Glück, Neid|
+| lila | Freude |
+| orange | Lebendigkeit |
+
+Wenn Sie ein Diagramm mit benutzerdefinierten Farben erstellen, stellen Sie sicher, dass Ihre Diagramme sowohl barrierefrei sind als auch die Farben mit der beabsichtigten Bedeutung übereinstimmen.
+
+## Gestaltung Ihrer Diagramme für bessere Lesbarkeit
+
+Diagramme sind nicht sinnvoll, wenn sie nicht lesbar sind! Nehmen Sie sich einen Moment Zeit, um die Breite und Höhe Ihres Diagramms so zu gestalten, dass es gut zu Ihren Daten passt. Wenn eine Variable (z. B. alle 50 Bundesstaaten) angezeigt werden muss, stellen Sie sie nach Möglichkeit vertikal auf der Y-Achse dar, um ein horizontal scrollendes Diagramm zu vermeiden.
+
+Beschriften Sie Ihre Achsen, fügen Sie bei Bedarf eine Legende hinzu und bieten Sie Tooltips für ein besseres Verständnis der Daten.
+
+Wenn Ihre Daten textlastig und ausführlich auf der X-Achse sind, können Sie den Text für eine bessere Lesbarkeit schräg stellen. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) bietet 3D-Diagramme, wenn Ihre Daten dies unterstützen. Mit dieser Bibliothek können anspruchsvolle Datenvisualisierungen erstellt werden.
+
+
+
+## Animation und 3D-Diagramme
+
+Einige der besten Datenvisualisierungen heutzutage sind animiert. Shirley Wu hat beeindruckende Visualisierungen mit D3 erstellt, wie z. B. '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', bei denen jede Blume eine Visualisierung eines Films darstellt. Ein weiteres Beispiel für den Guardian ist 'bussed out', eine interaktive Erfahrung, die Visualisierungen mit Greensock und D3 kombiniert und ein Scrollytelling-Artikel-Format verwendet, um zu zeigen, wie NYC mit seinem Obdachlosenproblem umgeht, indem Menschen aus der Stadt geschickt werden.
+
+
+
+> "Bussed Out: How America Moves its Homeless" vom [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualisierungen von Nadieh Bremer & Shirley Wu
+
+Auch wenn diese Lektion nicht ausreicht, um diese leistungsstarken Visualisierungsbibliotheken im Detail zu lehren, können Sie sich mit D3 in einer Vue.js-App versuchen, indem Sie eine Bibliothek verwenden, um eine Visualisierung des Buches "Gefährliche Liebschaften" als animiertes soziales Netzwerk darzustellen.
+
+> "Les Liaisons Dangereuses" ist ein Briefroman, der als eine Reihe von Briefen präsentiert wird. Geschrieben 1782 von Choderlos de Laclos, erzählt er die Geschichte der bösartigen, moralisch bankrotten sozialen Manöver zweier rivalisierender Protagonisten der französischen Aristokratie im späten 18. Jahrhundert, des Vicomte de Valmont und der Marquise de Merteuil. Beide kommen am Ende zu Fall, aber nicht ohne erheblichen sozialen Schaden anzurichten. Der Roman entfaltet sich als eine Reihe von Briefen, die an verschiedene Personen in ihrem Umfeld geschrieben wurden, um Rache zu planen oder einfach Ärger zu machen. Erstellen Sie eine Visualisierung dieser Briefe, um die Hauptakteure der Erzählung visuell zu entdecken.
+
+Sie werden eine Web-App abschließen, die eine animierte Ansicht dieses sozialen Netzwerks anzeigt. Sie verwendet eine Bibliothek, die erstellt wurde, um ein [Netzwerk zu visualisieren](https://github.com/emiliorizzo/vue-d3-network) mit Vue.js und D3. Wenn die App läuft, können Sie die Knoten auf dem Bildschirm verschieben, um die Daten neu anzuordnen.
+
+
+
+## Projekt: Ein Diagramm zur Darstellung eines Netzwerks mit D3.js erstellen
+
+> Dieser Lektionenordner enthält einen `solution`-Ordner, in dem Sie das abgeschlossene Projekt als Referenz finden können.
+
+1. Folgen Sie den Anweisungen in der README.md-Datei im Stammverzeichnis des Starter-Ordners. Stellen Sie sicher, dass NPM und Node.js auf Ihrem Computer laufen, bevor Sie die Abhängigkeiten Ihres Projekts installieren.
+
+2. Öffnen Sie den Ordner `starter/src`. Dort finden Sie einen `assets`-Ordner mit einer .json-Datei, die alle Briefe des Romans enthält, nummeriert und mit einer 'to'- und 'from'-Annotation versehen.
+
+3. Vervollständigen Sie den Code in `components/Nodes.vue`, um die Visualisierung zu aktivieren. Suchen Sie nach der Methode `createLinks()` und fügen Sie die folgende verschachtelte Schleife hinzu.
+
+Durchlaufen Sie das .json-Objekt, um die 'to'- und 'from'-Daten der Briefe zu erfassen, und bauen Sie das `links`-Objekt auf, damit die Visualisierungsbibliothek es verwenden kann:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Führen Sie Ihre App über das Terminal aus (npm run serve) und genießen Sie die Visualisierung!
+
+## 🚀 Herausforderung
+
+Machen Sie eine Internetrecherche, um irreführende Visualisierungen zu entdecken. Wie täuscht der Autor den Nutzer, und ist dies beabsichtigt? Versuchen Sie, die Visualisierungen zu korrigieren, um zu zeigen, wie sie aussehen sollten.
+
+## [Quiz nach der Lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Überprüfung & Selbststudium
+
+Hier sind einige Artikel über irreführende Datenvisualisierungen:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Schauen Sie sich diese interessanten Visualisierungen historischer Objekte und Artefakte an:
+
+https://handbook.pubpub.org/
+
+Lesen Sie diesen Artikel darüber, wie Animationen Ihre Visualisierungen verbessern können:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Aufgabe
+
+[Erstellen Sie Ihre eigene benutzerdefinierte Visualisierung](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/3-Data-Visualization/README.md b/translations/de/3-Data-Visualization/README.md
new file mode 100644
index 00000000..b21baa2e
--- /dev/null
+++ b/translations/de/3-Data-Visualization/README.md
@@ -0,0 +1,40 @@
+
+# Visualisierungen
+
+
+> Foto von Jenna Lee auf Unsplash
+
+Daten zu visualisieren ist eine der wichtigsten Aufgaben eines Data Scientists. Bilder sagen mehr als tausend Worte, und eine Visualisierung kann Ihnen helfen, alle möglichen interessanten Aspekte Ihrer Daten zu erkennen, wie z. B. Spitzen, Ausreißer, Gruppierungen, Tendenzen und vieles mehr, die Ihnen helfen können, die Geschichte zu verstehen, die Ihre Daten erzählen möchten.
+
+In diesen fünf Lektionen werden Sie Daten aus der Natur erkunden und interessante sowie schöne Visualisierungen mit verschiedenen Techniken erstellen.
+
+| Themen-Nr. | Thema | Verlinkte Lektion | Autor |
+| :---------: | :---: | :---------------: | :----: |
+| 1. | Mengen visualisieren | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Verteilungen visualisieren | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Proportionen visualisieren | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Beziehungen visualisieren | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Bedeutungsvolle Visualisierungen erstellen | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Credits
+
+Diese Visualisierungslektionen wurden mit 🌸 von [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) und [Vidushi Gupta](https://github.com/Vidushi-Gupta) geschrieben.
+
+🍯 Daten zur Honigproduktion in den USA stammen aus Jessica Lis Projekt auf [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). Die [Daten](https://usda.library.cornell.edu/concern/publications/rn301137d) wurden vom [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php) bereitgestellt.
+
+🍄 Daten zu Pilzen stammen ebenfalls von [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset), überarbeitet von Hatteras Dunton. Dieses Datenset enthält Beschreibungen hypothetischer Proben, die 23 Arten von Lamellenpilzen aus der Familie Agaricus und Lepiota entsprechen. Die Pilzdaten stammen aus dem Audubon Society Field Guide to North American Mushrooms (1981). Dieses Datenset wurde 1987 an UCI ML 27 gespendet.
+
+🦆 Daten zu Vögeln aus Minnesota stammen von [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds), gescraped von [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) durch Hannah Collins.
+
+Alle diese Datensets sind unter [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/) lizenziert.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/de/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..968a8b12
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,121 @@
+
+# Einführung in den Lebenszyklus der Datenwissenschaft
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Einführung in den Lebenszyklus der Datenwissenschaft - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz vor der Vorlesung](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+An diesem Punkt haben Sie wahrscheinlich erkannt, dass Datenwissenschaft ein Prozess ist. Dieser Prozess kann in fünf Phasen unterteilt werden:
+
+- Erfassen
+- Verarbeiten
+- Analysieren
+- Kommunizieren
+- Warten
+
+Diese Lektion konzentriert sich auf drei Teile des Lebenszyklus: Erfassen, Verarbeiten und Warten.
+
+
+> Foto von [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Erfassen
+
+Die erste Phase des Lebenszyklus ist sehr wichtig, da die nächsten Phasen davon abhängen. Sie besteht praktisch aus zwei Phasen, die zu einer zusammengefasst sind: Daten erfassen und den Zweck sowie die Probleme definieren, die angegangen werden müssen.
+Das Definieren der Projektziele erfordert ein tieferes Verständnis des Problems oder der Fragestellung. Zunächst müssen wir diejenigen identifizieren und einbeziehen, deren Problem gelöst werden soll. Dies können Stakeholder eines Unternehmens oder Sponsoren des Projekts sein, die dabei helfen können, zu bestimmen, wer oder was von diesem Projekt profitieren wird und was sie benötigen und warum. Ein gut definiertes Ziel sollte messbar und quantifizierbar sein, um ein akzeptables Ergebnis zu definieren.
+
+Fragen, die ein Datenwissenschaftler stellen könnte:
+- Wurde dieses Problem schon einmal angegangen? Was wurde entdeckt?
+- Ist der Zweck und das Ziel allen Beteiligten klar?
+- Gibt es Unklarheiten und wie können diese reduziert werden?
+- Welche Einschränkungen gibt es?
+- Wie könnte das Endergebnis aussehen?
+- Wie viele Ressourcen (Zeit, Personal, Rechenleistung) stehen zur Verfügung?
+
+Als Nächstes geht es darum, die benötigten Daten zu identifizieren, zu sammeln und schließlich zu erkunden, um die definierten Ziele zu erreichen. In diesem Schritt der Datenerfassung müssen Datenwissenschaftler auch die Menge und Qualität der Daten bewerten. Dies erfordert eine gewisse Datenexploration, um sicherzustellen, dass die erfassten Daten das Erreichen des gewünschten Ergebnisses unterstützen.
+
+Fragen, die ein Datenwissenschaftler zu den Daten stellen könnte:
+- Welche Daten stehen mir bereits zur Verfügung?
+- Wer besitzt diese Daten?
+- Welche Datenschutzbedenken gibt es?
+- Habe ich genug Daten, um dieses Problem zu lösen?
+- Sind die Daten von akzeptabler Qualität für dieses Problem?
+- Wenn ich durch diese Daten zusätzliche Informationen entdecke, sollten wir dann die Ziele ändern oder neu definieren?
+
+## Verarbeiten
+
+Die Verarbeitungsphase des Lebenszyklus konzentriert sich darauf, Muster in den Daten zu entdecken sowie Modelle zu erstellen. Einige Techniken, die in der Verarbeitungsphase verwendet werden, erfordern statistische Methoden, um die Muster aufzudecken. Typischerweise wäre dies eine mühsame Aufgabe für einen Menschen bei einem großen Datensatz, weshalb Computer eingesetzt werden, um den Prozess zu beschleunigen. In dieser Phase überschneiden sich Datenwissenschaft und maschinelles Lernen. Wie Sie in der ersten Lektion gelernt haben, ist maschinelles Lernen der Prozess des Erstellens von Modellen, um die Daten zu verstehen. Modelle sind eine Darstellung der Beziehung zwischen Variablen in den Daten, die helfen, Ergebnisse vorherzusagen.
+
+Häufig verwendete Techniken in dieser Phase werden im ML für Anfänger-Curriculum behandelt. Folgen Sie den Links, um mehr darüber zu erfahren:
+
+- [Klassifikation](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organisieren von Daten in Kategorien für eine effizientere Nutzung.
+- [Clustering](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Gruppieren von Daten in ähnliche Gruppen.
+- [Regression](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Bestimmen der Beziehungen zwischen Variablen, um Werte vorherzusagen oder zu prognostizieren.
+
+## Warten
+
+Im Diagramm des Lebenszyklus haben Sie vielleicht bemerkt, dass die Wartung zwischen Erfassen und Verarbeiten liegt. Wartung ist ein fortlaufender Prozess des Verwalten, Speicherns und Sicherens der Daten während des gesamten Projektprozesses und sollte während des gesamten Projekts berücksichtigt werden.
+
+### Daten speichern
+
+Überlegungen dazu, wie und wo die Daten gespeichert werden, können die Kosten der Speicherung sowie die Leistung beeinflussen, wie schnell auf die Daten zugegriffen werden kann. Solche Entscheidungen werden wahrscheinlich nicht allein von einem Datenwissenschaftler getroffen, aber sie könnten Entscheidungen darüber treffen, wie sie mit den Daten arbeiten, basierend darauf, wie sie gespeichert sind.
+
+Hier sind einige Aspekte moderner Datenspeichersysteme, die diese Entscheidungen beeinflussen können:
+
+**On-Premise vs. Off-Premise vs. Public oder Private Cloud**
+
+On-Premise bezieht sich auf das Hosting und Verwalten der Daten auf eigener Hardware, wie z. B. einem Server mit Festplatten, die die Daten speichern, während Off-Premise auf Hardware zurückgreift, die nicht im eigenen Besitz ist, wie z. B. ein Rechenzentrum. Die Public Cloud ist eine beliebte Wahl für die Speicherung von Daten, die keine Kenntnisse darüber erfordert, wie oder wo genau die Daten gespeichert sind, wobei "public" sich auf eine einheitliche zugrunde liegende Infrastruktur bezieht, die von allen Nutzern der Cloud geteilt wird. Einige Organisationen haben strenge Sicherheitsrichtlinien, die erfordern, dass sie vollständigen Zugriff auf die Hardware haben, auf der die Daten gehostet werden, und nutzen daher eine Private Cloud, die eigene Cloud-Dienste bereitstellt. Sie werden mehr über Daten in der Cloud in [späteren Lektionen](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud) lernen.
+
+**Cold vs. Hot Data**
+
+Beim Training Ihrer Modelle benötigen Sie möglicherweise mehr Trainingsdaten. Wenn Sie mit Ihrem Modell zufrieden sind, werden weitere Daten eintreffen, damit das Modell seinen Zweck erfüllen kann. In jedem Fall steigen die Kosten für die Speicherung und den Zugriff auf Daten, je mehr davon angesammelt wird. Das Trennen von selten genutzten Daten, bekannt als Cold Data, von häufig genutzten Hot Data kann eine günstigere Speicheroption durch Hardware- oder Softwaredienste sein. Wenn auf Cold Data zugegriffen werden muss, kann es etwas länger dauern, sie abzurufen, verglichen mit Hot Data.
+
+### Daten verwalten
+
+Während Sie mit Daten arbeiten, könnten Sie feststellen, dass einige der Daten bereinigt werden müssen, indem einige der in der Lektion über [Datenvorbereitung](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) behandelten Techniken angewendet werden, um genaue Modelle zu erstellen. Wenn neue Daten eintreffen, müssen dieselben Anwendungen angewendet werden, um die Konsistenz der Qualität zu erhalten. Einige Projekte beinhalten die Verwendung eines automatisierten Tools zur Bereinigung, Aggregation und Komprimierung, bevor die Daten an ihren endgültigen Speicherort verschoben werden. Azure Data Factory ist ein Beispiel für eines dieser Tools.
+
+### Daten sichern
+
+Eines der Hauptziele der Datensicherung ist sicherzustellen, dass diejenigen, die mit den Daten arbeiten, die Kontrolle darüber haben, was gesammelt wird und in welchem Kontext es verwendet wird. Die Sicherung von Daten umfasst die Einschränkung des Zugriffs auf diejenigen, die ihn benötigen, die Einhaltung lokaler Gesetze und Vorschriften sowie die Wahrung ethischer Standards, wie in der [Ethik-Lektion](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics) behandelt.
+
+Hier sind einige Maßnahmen, die ein Team mit Blick auf die Sicherheit ergreifen könnte:
+- Sicherstellen, dass alle Daten verschlüsselt sind
+- Kunden Informationen darüber bereitstellen, wie ihre Daten verwendet werden
+- Datenzugriff für Personen entfernen, die das Projekt verlassen haben
+- Nur bestimmten Projektmitgliedern erlauben, die Daten zu ändern
+
+## 🚀 Herausforderung
+
+Es gibt viele Versionen des Lebenszyklus der Datenwissenschaft, bei denen jeder Schritt unterschiedliche Namen und eine unterschiedliche Anzahl von Phasen haben kann, aber die gleichen Prozesse enthält, die in dieser Lektion erwähnt wurden.
+
+Erforschen Sie den [Team Data Science Process Lebenszyklus](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) und den [Cross-industry standard process for data mining](https://www.datascience-pm.com/crisp-dm-2/). Nennen Sie drei Gemeinsamkeiten und Unterschiede zwischen den beiden.
+
+|Team Data Science Process (TDSP)|Cross-industry standard process for data mining (CRISP-DM)|
+|--|--|
+| |  |
+| Bild von [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Bild von [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Quiz nach der Vorlesung](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Überprüfung & Selbststudium
+
+Die Anwendung des Lebenszyklus der Datenwissenschaft umfasst mehrere Rollen und Aufgaben, wobei sich einige auf bestimmte Teile jeder Phase konzentrieren können. Der Team Data Science Process bietet einige Ressourcen, die die Arten von Rollen und Aufgaben erklären, die jemand in einem Projekt haben könnte.
+
+* [Team Data Science Process Rollen und Aufgaben](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Datenwissenschaftliche Aufgaben ausführen: Exploration, Modellierung und Bereitstellung](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Aufgabe
+
+[Bewertung eines Datensatzes](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/de/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..49c06949
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,34 @@
+
+# Bewertung eines Datensatzes
+
+Ein Kunde hat sich an Ihr Team gewandt, um Hilfe bei der Untersuchung der saisonalen Ausgabengewohnheiten von Taxikunden in New York City zu erhalten.
+
+Er möchte wissen: **Geben Fahrgäste von gelben Taxis in New York City im Winter oder Sommer höhere Trinkgelder?**
+
+Ihr Team befindet sich in der [Erfassungsphase](Readme.md#Capturing) des Data Science Lifecycle, und Sie sind für die Bearbeitung des Datensatzes verantwortlich. Ihnen wurde ein Notebook und [Daten](../../../../data/taxi.csv) zur Verfügung gestellt, die Sie erkunden sollen.
+
+In diesem Verzeichnis befindet sich ein [Notebook](../../../../4-Data-Science-Lifecycle/14-Introduction/notebook.ipynb), das Python verwendet, um Daten zu Fahrten mit gelben Taxis von der [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) zu laden. Sie können die Taxidatei auch in einem Texteditor oder einer Tabellenkalkulationssoftware wie Excel öffnen.
+
+## Anweisungen
+
+- Bewerten Sie, ob die Daten in diesem Datensatz dabei helfen können, die Frage zu beantworten.
+- Erkunden Sie den [NYC Open Data-Katalog](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identifizieren Sie einen zusätzlichen Datensatz, der möglicherweise hilfreich sein könnte, um die Frage des Kunden zu beantworten.
+- Formulieren Sie 3 Fragen, die Sie dem Kunden stellen würden, um mehr Klarheit und ein besseres Verständnis des Problems zu erhalten.
+
+Beziehen Sie sich auf das [Datenwörterbuch des Datensatzes](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) und den [Benutzerleitfaden](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf), um weitere Informationen über die Daten zu erhalten.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | ---
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/de/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..781ef3cb
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,58 @@
+
+# Der Lebenszyklus der Datenwissenschaft: Analysieren
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Lebenszyklus der Datenwissenschaft: Analysieren - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+## Quiz vor der Vorlesung
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Das Analysieren im Lebenszyklus der Daten bestätigt, dass die Daten die gestellten Fragen beantworten oder ein bestimmtes Problem lösen können. Dieser Schritt konzentriert sich auch darauf, zu bestätigen, dass ein Modell diese Fragen und Probleme korrekt adressiert. Diese Lektion konzentriert sich auf die explorative Datenanalyse (EDA), Techniken zur Definition von Merkmalen und Beziehungen innerhalb der Daten, die zur Vorbereitung der Daten für die Modellierung verwendet werden können.
+
+Wir verwenden ein Beispieldatensatz von [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1), um zu zeigen, wie dies mit Python und der Pandas-Bibliothek angewendet werden kann. Dieser Datensatz enthält eine Zählung einiger häufiger Wörter, die in E-Mails vorkommen, wobei die Quellen dieser E-Mails anonym sind. Verwenden Sie das [Notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) in diesem Verzeichnis, um mitzumachen.
+
+## Explorative Datenanalyse
+
+Die Erfassungsphase des Lebenszyklus ist der Punkt, an dem die Daten gesammelt sowie die Probleme und Fragen definiert werden. Aber wie können wir sicherstellen, dass die Daten das Endergebnis unterstützen können?
+Erinnern Sie sich daran, dass ein Datenwissenschaftler folgende Fragen stellen könnte, wenn er die Daten erhält:
+- Habe ich genug Daten, um dieses Problem zu lösen?
+- Sind die Daten von akzeptabler Qualität für dieses Problem?
+- Wenn ich durch diese Daten zusätzliche Informationen entdecke, sollten wir dann die Ziele ändern oder neu definieren?
+Die explorative Datenanalyse ist der Prozess, die Daten kennenzulernen, und kann verwendet werden, um diese Fragen zu beantworten sowie die Herausforderungen bei der Arbeit mit dem Datensatz zu identifizieren. Lassen Sie uns einige der Techniken betrachten, die dafür verwendet werden.
+
+## Datenprofilierung, deskriptive Statistik und Pandas
+Wie können wir bewerten, ob wir genug Daten haben, um dieses Problem zu lösen? Die Datenprofilierung kann allgemeine Informationen über unseren Datensatz zusammenfassen und sammeln, indem Techniken der deskriptiven Statistik angewendet werden. Die Datenprofilierung hilft uns zu verstehen, was uns zur Verfügung steht, und die deskriptive Statistik hilft uns zu verstehen, wie viele Dinge uns zur Verfügung stehen.
+
+In einigen der vorherigen Lektionen haben wir Pandas verwendet, um einige deskriptive Statistiken mit der [`describe()`-Funktion](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html) bereitzustellen. Sie liefert die Anzahl, Maximal- und Minimalwerte, den Mittelwert, die Standardabweichung und Quantile der numerischen Daten. Die Verwendung von deskriptiven Statistiken wie der `describe()`-Funktion kann Ihnen helfen zu beurteilen, wie viel Sie haben und ob Sie mehr benötigen.
+
+## Sampling und Abfragen
+Das vollständige Erkunden eines großen Datensatzes kann sehr zeitaufwändig sein und ist normalerweise eine Aufgabe, die einem Computer überlassen wird. Sampling ist jedoch ein hilfreiches Werkzeug, um die Daten besser zu verstehen und zu erkennen, was im Datensatz enthalten ist und was er repräsentiert. Mit einer Stichprobe können Sie Wahrscheinlichkeiten und Statistiken anwenden, um allgemeine Schlussfolgerungen über Ihre Daten zu ziehen. Obwohl es keine festgelegte Regel gibt, wie viele Daten Sie sampeln sollten, ist es wichtig zu beachten, dass je mehr Daten Sie sampeln, desto präziser können Sie eine Generalisierung über die Daten machen.
+Pandas hat die [`sample()`-Funktion in seiner Bibliothek](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html), bei der Sie ein Argument über die Anzahl der zufälligen Stichproben, die Sie erhalten möchten, übergeben können.
+
+Allgemeine Abfragen der Daten können Ihnen helfen, einige allgemeine Fragen und Theorien zu beantworten, die Sie haben könnten. Im Gegensatz zum Sampling ermöglichen Abfragen, dass Sie Kontrolle haben und sich auf spezifische Teile der Daten konzentrieren, über die Sie Fragen haben.
+Die [`query()`-Funktion](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) in der Pandas-Bibliothek ermöglicht es Ihnen, Spalten auszuwählen und einfache Antworten über die Daten durch die abgerufenen Zeilen zu erhalten.
+
+## Erkunden mit Visualisierungen
+Sie müssen nicht warten, bis die Daten vollständig bereinigt und analysiert sind, um mit der Erstellung von Visualisierungen zu beginnen. Tatsächlich kann eine visuelle Darstellung während des Erkundens helfen, Muster, Beziehungen und Probleme in den Daten zu identifizieren. Darüber hinaus bieten Visualisierungen eine Möglichkeit der Kommunikation mit Personen, die nicht direkt mit der Datenverwaltung beschäftigt sind, und können eine Gelegenheit sein, zusätzliche Fragen zu klären, die in der Erfassungsphase nicht behandelt wurden. Sehen Sie sich den [Abschnitt über Visualisierungen](../../../../../../../../../3-Data-Visualization) an, um mehr über einige beliebte Möglichkeiten zur visuellen Erkundung zu erfahren.
+
+## Erkunden zur Identifizierung von Inkonsistenzen
+Alle Themen in dieser Lektion können helfen, fehlende oder inkonsistente Werte zu identifizieren, aber Pandas bietet Funktionen, um einige davon zu überprüfen. [isna() oder isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) können fehlende Werte überprüfen. Ein wichtiger Aspekt beim Erkunden dieser Werte in Ihren Daten ist es, zu untersuchen, warum sie überhaupt so geworden sind. Dies kann Ihnen helfen zu entscheiden, welche [Maßnahmen ergriffen werden sollten, um sie zu beheben](../../../../../../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Aufgabe
+
+[Erkunden für Antworten](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/de/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..8f5120f0
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,34 @@
+
+# Antworten erkunden
+
+Dies ist eine Fortsetzung der [Aufgabe](../14-Introduction/assignment.md) aus der vorherigen Lektion, in der wir einen kurzen Blick auf den Datensatz geworfen haben. Jetzt werden wir den Datensatz genauer untersuchen.
+
+Noch einmal die Frage, die der Kunde beantwortet haben möchte: **Geben Fahrgäste von gelben Taxis in New York City im Winter oder Sommer mehr Trinkgeld?**
+
+Ihr Team befindet sich in der [Analyzing](README.md)-Phase des Data Science Lifecycles, in der Sie für die explorative Datenanalyse des Datensatzes verantwortlich sind. Ihnen wurde ein Notebook und ein Datensatz mit 200 Taxitransaktionen aus Januar und Juli 2019 zur Verfügung gestellt.
+
+## Anweisungen
+
+In diesem Verzeichnis finden Sie ein [Notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/assignment.ipynb) und Daten von der [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Weitere Informationen zu den Daten finden Sie im [Datenwörterbuch des Datensatzes](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) und im [Benutzerhandbuch](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf).
+
+Verwenden Sie einige der in dieser Lektion vorgestellten Techniken, um Ihre eigene explorative Datenanalyse im Notebook durchzuführen (fügen Sie bei Bedarf Zellen hinzu) und beantworten Sie die folgenden Fragen:
+
+- Welche anderen Einflüsse in den Daten könnten die Höhe des Trinkgelds beeinflussen?
+- Welche Spalten werden höchstwahrscheinlich nicht benötigt, um die Frage des Kunden zu beantworten?
+- Basierend auf den bisher bereitgestellten Informationen: Liefern die Daten Hinweise auf ein saisonales Trinkgeldverhalten?
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | ---
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/16-communication/README.md b/translations/de/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..04ba8992
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# Der Lebenszyklus der Datenwissenschaft: Kommunikation
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Lebenszyklus der Datenwissenschaft: Kommunikation - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Teste dein Wissen über die Inhalte der kommenden Lektion mit dem Quiz oben!
+
+# Einführung
+
+### Was bedeutet Kommunikation?
+Beginnen wir diese Lektion mit einer Definition: **Kommunizieren bedeutet, Informationen zu übermitteln oder auszutauschen.** Informationen können Ideen, Gedanken, Gefühle, Botschaften, versteckte Signale, Daten – alles, was ein **_Sender_** (jemand, der Informationen sendet) möchte, dass ein **_Empfänger_** (jemand, der Informationen erhält) versteht. In dieser Lektion werden wir Sender als Kommunikatoren und Empfänger als Publikum bezeichnen.
+
+### Datenkommunikation & Geschichtenerzählen
+Wir wissen, dass das Ziel der Kommunikation darin besteht, Informationen zu übermitteln oder auszutauschen. Aber bei der Kommunikation von Daten sollte das Ziel nicht nur darin bestehen, Zahlen weiterzugeben. Das Ziel sollte sein, eine Geschichte zu erzählen, die durch die Daten untermauert wird – effektive Datenkommunikation und Geschichtenerzählen gehen Hand in Hand. Dein Publikum wird sich eher an eine Geschichte erinnern, die du erzählst, als an eine Zahl, die du präsentierst. Später in dieser Lektion werden wir einige Methoden besprechen, wie du durch Geschichtenerzählen deine Daten effektiver kommunizieren kannst.
+
+### Arten der Kommunikation
+In dieser Lektion werden zwei verschiedene Arten der Kommunikation behandelt: Einwegkommunikation und Zweiwegkommunikation.
+
+**Einwegkommunikation** findet statt, wenn ein Sender Informationen an einen Empfänger sendet, ohne dass Feedback oder eine Antwort erfolgt. Beispiele für Einwegkommunikation sehen wir täglich – in Massen-E-Mails, in den Nachrichten, die die neuesten Geschichten liefern, oder in Fernsehwerbung, die uns über die Vorzüge eines Produkts informiert. In all diesen Fällen sucht der Sender keinen Informationsaustausch, sondern möchte lediglich Informationen übermitteln.
+
+**Zweiwegkommunikation** findet statt, wenn alle beteiligten Parteien sowohl als Sender als auch als Empfänger agieren. Ein Sender beginnt mit der Kommunikation an einen Empfänger, und der Empfänger gibt Feedback oder eine Antwort. Zweiwegkommunikation ist das, was wir traditionell unter Kommunikation verstehen – sei es in einem persönlichen Gespräch, einem Telefonat, über soziale Medien oder per Textnachricht.
+
+Bei der Kommunikation von Daten gibt es Situationen, in denen du Einwegkommunikation verwenden wirst (z. B. bei einer Präsentation auf einer Konferenz oder vor einer großen Gruppe, bei der keine direkten Fragen gestellt werden) und Situationen, in denen du Zweiwegkommunikation verwenden wirst (z. B. um Stakeholder zu überzeugen oder einen Teamkollegen davon zu überzeugen, Zeit und Mühe in die Entwicklung eines neuen Projekts zu investieren).
+
+# Effektive Kommunikation
+
+### Deine Verantwortung als Kommunikator
+Beim Kommunizieren liegt es in deiner Verantwortung sicherzustellen, dass deine Empfänger die Informationen aufnehmen, die du vermitteln möchtest. Wenn du Daten kommunizierst, möchtest du nicht nur, dass deine Empfänger Zahlen mitnehmen, sondern eine Geschichte, die durch deine Daten untermauert wird. Ein guter Datenkommunikator ist ein guter Geschichtenerzähler.
+
+Wie erzählst du eine Geschichte mit Daten? Es gibt unendlich viele Möglichkeiten – aber hier sind sechs Strategien, die wir in dieser Lektion besprechen werden:
+1. Verstehe dein Publikum, deinen Kanal und deine Kommunikationsmethode
+2. Beginne mit dem Ende im Kopf
+3. Gehe es wie eine echte Geschichte an
+4. Verwende bedeutungsvolle Worte und Phrasen
+5. Nutze Emotionen
+
+Jede dieser Strategien wird im Folgenden ausführlicher erklärt.
+
+### 1. Verstehe dein Publikum, deinen Kanal und deine Kommunikationsmethode
+Die Art und Weise, wie du mit Familienmitgliedern kommunizierst, unterscheidet sich wahrscheinlich von der Art und Weise, wie du mit Freunden kommunizierst. Du verwendest wahrscheinlich unterschiedliche Worte und Phrasen, die die Personen, mit denen du sprichst, besser verstehen. Du solltest denselben Ansatz bei der Kommunikation von Daten verfolgen. Überlege, mit wem du kommunizierst. Denke über ihre Ziele und den Kontext nach, den sie in Bezug auf die Situation haben, die du ihnen erklärst.
+
+Du kannst dein Publikum wahrscheinlich in eine Kategorie einordnen. In einem Artikel der _Harvard Business Review_ mit dem Titel "[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)" identifiziert Dell Executive Strategist Jim Stikeleather fünf Kategorien von Zielgruppen:
+
+- **Anfänger**: erste Berührung mit dem Thema, möchte aber keine übermäßige Vereinfachung
+- **Generalist**: kennt das Thema, sucht aber nach einem Überblick und den Hauptthemen
+- **Managerial**: tiefgehendes, umsetzbares Verständnis von Details und Zusammenhängen mit Zugang zu weiteren Informationen
+- **Experte**: mehr Exploration und Entdeckung, weniger Geschichtenerzählen, mit großer Detailtiefe
+- **Führungskraft**: hat nur Zeit, die Bedeutung und Schlussfolgerungen von gewichteten Wahrscheinlichkeiten zu erfassen
+
+Diese Kategorien können dir helfen, deine Daten entsprechend zu präsentieren.
+
+Zusätzlich zur Kategorie deines Publikums solltest du auch den Kanal berücksichtigen, über den du mit deinem Publikum kommunizierst. Deine Herangehensweise sollte sich leicht unterscheiden, je nachdem, ob du eine E-Mail schreibst, ein Memo verfasst, ein Meeting abhältst oder auf einer Konferenz präsentierst.
+
+Neben dem Verständnis deines Publikums ist es auch entscheidend zu wissen, wie du mit ihnen kommunizieren wirst (Einwegkommunikation oder Zweiwegkommunikation).
+
+Wenn du mit einem überwiegend Anfänger-Publikum kommunizierst und Einwegkommunikation verwendest, musst du zuerst das Publikum schulen und ihm den richtigen Kontext geben. Dann musst du deine Daten präsentieren und erklären, was sie bedeuten und warum sie wichtig sind. In diesem Fall solltest du dich darauf konzentrieren, Klarheit zu schaffen, da dein Publikum keine direkten Fragen stellen kann.
+
+Wenn du mit einem überwiegend Managerial-Publikum kommunizierst und Zweiwegkommunikation verwendest, musst du dein Publikum wahrscheinlich nicht schulen oder ihm viel Kontext geben. Du kannst direkt in die Diskussion über die gesammelten Daten und deren Bedeutung einsteigen. In diesem Szenario solltest du jedoch auf Timing und die Kontrolle deiner Präsentation achten. Bei Zweiwegkommunikation (insbesondere mit einem Managerial-Publikum, das ein „umsetzbares Verständnis von Details und Zusammenhängen mit Zugang zu weiteren Informationen“ sucht) können während der Interaktion Fragen auftauchen, die die Diskussion in eine Richtung lenken, die nicht zu der Geschichte passt, die du erzählen möchtest. In solchen Fällen kannst du eingreifen und die Diskussion wieder auf deine Geschichte zurückführen.
+
+### 2. Beginne mit dem Ende im Kopf
+Mit dem Ende im Kopf zu beginnen bedeutet, die beabsichtigten Erkenntnisse für dein Publikum zu verstehen, bevor du mit der Kommunikation beginnst. Wenn du dir im Voraus Gedanken darüber machst, was dein Publikum mitnehmen soll, kannst du eine Geschichte entwickeln, der es folgen kann. Mit dem Ende im Kopf zu beginnen, ist sowohl für Einwegkommunikation als auch für Zweiwegkommunikation geeignet.
+
+Wie beginnst du mit dem Ende im Kopf? Schreibe vor der Kommunikation deiner Daten deine wichtigsten Erkenntnisse auf. Dann frage dich bei jedem Schritt, während du die Geschichte vorbereitest, die du mit deinen Daten erzählen möchtest: „Wie fügt sich das in die Geschichte ein, die ich erzählen möchte?“
+
+Sei dir bewusst – während es ideal ist, mit dem Ende im Kopf zu beginnen, solltest du nicht nur die Daten kommunizieren, die deine beabsichtigten Erkenntnisse unterstützen. Dies nennt man Cherry-Picking, wenn ein Kommunikator nur die Daten kommuniziert, die seinen Standpunkt unterstützen, und alle anderen Daten ignoriert.
+
+Wenn alle gesammelten Daten deine beabsichtigten Erkenntnisse klar unterstützen, großartig. Aber wenn es Daten gibt, die deine Erkenntnisse nicht unterstützen oder sogar ein Argument gegen deine wichtigsten Erkenntnisse liefern, solltest du diese Daten ebenfalls kommunizieren. In solchen Fällen sei offen gegenüber deinem Publikum und erkläre, warum du dich trotz der widersprüchlichen Daten für deine Geschichte entscheidest.
+
+### 3. Gehe es wie eine echte Geschichte an
+Eine traditionelle Geschichte verläuft in fünf Phasen. Du hast diese Phasen vielleicht schon als Exposition, steigende Handlung, Höhepunkt, fallende Handlung und Auflösung gehört. Oder einfacher zu merken: Kontext, Konflikt, Höhepunkt, Abschluss, Fazit. Beim Kommunizieren deiner Daten und deiner Geschichte kannst du einen ähnlichen Ansatz verfolgen.
+
+Du kannst mit dem Kontext beginnen, die Bühne bereiten und sicherstellen, dass dein Publikum auf derselben Seite ist. Dann führst du den Konflikt ein. Warum musstest du diese Daten sammeln? Welche Probleme wolltest du lösen? Danach kommt der Höhepunkt. Was sind die Daten? Was bedeuten sie? Welche Lösungen zeigen die Daten auf? Dann kommst du zum Abschluss, wo du das Problem und die vorgeschlagenen Lösungen erneut betonen kannst. Schließlich kommst du zum Fazit, wo du deine wichtigsten Erkenntnisse zusammenfasst und die nächsten Schritte empfiehlst.
+
+### 4. Verwende bedeutungsvolle Worte und Phrasen
+Wenn wir zusammen an einem Produkt arbeiten würden und ich zu dir sagen würde: „Unsere Nutzer brauchen lange, um sich auf unserer Plattform zu registrieren,“ wie lange würdest du „lange“ einschätzen? Eine Stunde? Eine Woche? Es ist schwer zu wissen. Was, wenn ich das einem ganzen Publikum sagen würde? Jeder im Publikum könnte eine andere Vorstellung davon haben, wie lange Nutzer brauchen, um sich zu registrieren.
+
+Stattdessen, was wäre, wenn ich sagen würde: „Unsere Nutzer brauchen durchschnittlich 3 Minuten, um sich zu registrieren und sich auf unserer Plattform anzumelden.“
+
+Diese Botschaft ist klarer. Beim Kommunizieren von Daten kann es leicht passieren, dass man denkt, dass alle im Publikum genauso denken wie man selbst. Aber das ist nicht immer der Fall. Klarheit über deine Daten und deren Bedeutung zu schaffen, ist eine deiner Aufgaben als Kommunikator. Wenn die Daten oder deine Geschichte nicht klar sind, wird es deinem Publikum schwerfallen, zu folgen, und es ist weniger wahrscheinlich, dass es deine wichtigsten Erkenntnisse versteht.
+
+Du kannst Daten klarer kommunizieren, indem du bedeutungsvolle Worte und Phrasen anstelle von vagen verwendest. Hier sind einige Beispiele:
+
+- Wir hatten ein *beeindruckendes* Jahr!
+ - Eine Person könnte denken, dass beeindruckend eine Steigerung von 2 % - 3 % bedeutet, und eine andere könnte denken, dass es 50 % - 60 % bedeutet.
+- Die Erfolgsquote unserer Nutzer ist *dramatisch* gestiegen.
+ - Wie groß ist ein dramatischer Anstieg?
+- Dieses Vorhaben erfordert *erhebliche* Anstrengungen.
+ - Wie viel Anstrengung ist erheblich?
+
+Vage Worte könnten nützlich sein, um eine Einführung in weitere Daten zu geben oder als Zusammenfassung der Geschichte, die du gerade erzählt hast. Aber überlege, ob du sicherstellen kannst, dass jeder Teil deiner Präsentation für dein Publikum klar ist.
+
+### 5. Nutze Emotionen
+Emotionen sind der Schlüssel beim Geschichtenerzählen. Sie sind noch wichtiger, wenn du eine Geschichte mit Daten erzählst. Beim Kommunizieren von Daten dreht sich alles um die Erkenntnisse, die du deinem Publikum vermitteln möchtest. Wenn du bei deinem Publikum Emotionen hervorrufst, hilft das, Empathie zu schaffen und macht es wahrscheinlicher, dass es handelt. Emotionen erhöhen auch die Wahrscheinlichkeit, dass sich ein Publikum an deine Botschaft erinnert.
+
+Du hast das vielleicht schon bei Fernsehwerbung erlebt. Manche Werbespots sind sehr ernst und nutzen eine traurige Emotion, um mit ihrem Publikum in Verbindung zu treten und die präsentierten Daten hervorzuheben. Andere Werbespots sind sehr fröhlich und optimistisch und lassen dich die präsentierten Daten mit einem positiven Gefühl verbinden.
+
+Wie nutzt du Emotionen beim Kommunizieren von Daten? Hier sind ein paar Möglichkeiten:
+
+- Verwende Testimonials und persönliche Geschichten
+ - Versuche, sowohl quantitative als auch qualitative Daten zu sammeln, und integriere beide Arten von Daten in deine Kommunikation. Wenn deine Daten hauptsächlich quantitativ sind, suche nach Geschichten von Einzelpersonen, um mehr über ihre Erfahrungen mit dem zu erfahren, was deine Daten aussagen.
+- Verwende Bilder
+ - Bilder helfen einem Publikum, sich in einer Situation zu sehen. Wenn du Bilder verwendest, kannst du dein Publikum in die Richtung der Emotion lenken, die du für deine Daten als angemessen empfindest.
+- Verwende Farben
+ - Verschiedene Farben rufen unterschiedliche Emotionen hervor. Beliebte Farben und die damit verbundenen Emotionen sind unten aufgeführt. Beachte, dass Farben in verschiedenen Kulturen unterschiedliche Bedeutungen haben können.
+ - Blau ruft oft Gefühle von Frieden und Vertrauen hervor
+ - Grün wird oft mit Natur und Umwelt assoziiert
+ - Rot steht oft für Leidenschaft und Aufregung
+ - Gelb wird oft mit Optimismus und Glück verbunden
+
+# Fallstudie zur Kommunikation
+Emerson ist Produktmanager für eine mobile App. Emerson hat festgestellt, dass Kunden am Wochenende 42 % mehr Beschwerden und Fehlerberichte einreichen. Emerson hat außerdem festgestellt, dass Kunden, deren Beschwerden nach 48 Stunden unbeantwortet bleiben, mit 32 % höherer Wahrscheinlichkeit die App mit 1 oder 2 Sternen im App-Store bewerten.
+
+Nach eingehender Recherche hat Emerson einige Lösungen, die das Problem angehen können. Emerson vereinbart ein 30-minütiges Meeting mit den drei Unternehmensleitern, um die Daten und die vorgeschlagenen Lösungen zu kommunizieren.
+
+Während dieses Meetings ist Emersons Ziel, dass die Unternehmensleiter verstehen, dass die beiden untenstehenden Lösungen die Bewertung der App verbessern können, was sich wahrscheinlich in höheren Einnahmen niederschlägt.
+
+**Lösung 1.** Kundenservice-Mitarbeiter einstellen, die am Wochenende arbeiten
+
+**Lösung 2.** Ein neues Kundenservice-Ticketsystem kaufen, mit dem Kundenservice-Mitarbeiter leicht erkennen können, welche Beschwerden am längsten in der Warteschlange sind – damit sie wissen, welche sie zuerst bearbeiten sollten.
+In der Besprechung verbringt Emerson 5 Minuten damit zu erklären, warum eine niedrige Bewertung im App Store schlecht ist, 10 Minuten, um den Forschungsprozess und die identifizierten Trends zu erläutern, 10 Minuten, um einige der jüngsten Kundenbeschwerden durchzugehen, und die letzten 5 Minuten, um die 2 potenziellen Lösungen oberflächlich zu behandeln.
+
+War dies eine effektive Art für Emerson, während dieser Besprechung zu kommunizieren?
+
+Während der Besprechung fixierte sich ein Unternehmensleiter auf die 10 Minuten der Kundenbeschwerden, die Emerson durchging. Nach der Besprechung waren diese Beschwerden das Einzige, woran sich dieser Teamleiter erinnerte. Ein anderer Unternehmensleiter konzentrierte sich hauptsächlich darauf, wie Emerson den Forschungsprozess beschrieb. Der dritte Unternehmensleiter erinnerte sich zwar an die von Emerson vorgeschlagenen Lösungen, war sich jedoch nicht sicher, wie diese Lösungen umgesetzt werden könnten.
+
+In der oben beschriebenen Situation sieht man, dass es eine erhebliche Diskrepanz zwischen dem gab, was Emerson den Teamleitern vermitteln wollte, und dem, was sie letztendlich aus der Besprechung mitnahmen. Im Folgenden wird ein alternativer Ansatz beschrieben, den Emerson in Betracht ziehen könnte.
+
+Wie könnte Emerson diesen Ansatz verbessern?
+Kontext, Konflikt, Höhepunkt, Abschluss, Fazit
+**Kontext** – Emerson könnte die ersten 5 Minuten damit verbringen, die gesamte Situation vorzustellen und sicherzustellen, dass die Teamleiter verstehen, wie die Probleme wichtige Kennzahlen des Unternehmens, wie z. B. den Umsatz, beeinflussen.
+
+Das könnte so formuliert werden: „Derzeit liegt die Bewertung unserer App im App Store bei 2,5. Bewertungen im App Store sind entscheidend für die App Store-Optimierung, die beeinflusst, wie viele Nutzer unsere App in der Suche sehen und wie potenzielle Nutzer unsere App wahrnehmen. Und natürlich ist die Anzahl der Nutzer direkt mit dem Umsatz verbunden.“
+
+**Konflikt** Emerson könnte dann die nächsten 5 Minuten oder so über den Konflikt sprechen.
+
+Das könnte so aussehen: „Nutzer reichen 42 % mehr Beschwerden und Fehlerberichte an Wochenenden ein. Kunden, die eine Beschwerde einreichen, die nach 48 Stunden unbeantwortet bleibt, geben unserer App mit 32 % geringerer Wahrscheinlichkeit eine Bewertung über 2 im App Store. Wenn wir die Bewertung unserer App im App Store auf 4 verbessern, würde dies unsere Sichtbarkeit um 20–30 % erhöhen, was ich prognostiziere, den Umsatz um 10 % steigern würde.“ Natürlich sollte Emerson bereit sein, diese Zahlen zu begründen.
+
+**Höhepunkt** Nachdem die Grundlagen gelegt wurden, könnte Emerson dann für etwa 5 Minuten zum Höhepunkt übergehen.
+
+Emerson könnte die vorgeschlagenen Lösungen vorstellen, darlegen, wie diese Lösungen die beschriebenen Probleme angehen, wie diese Lösungen in bestehende Arbeitsabläufe integriert werden könnten, wie viel die Lösungen kosten, welchen ROI die Lösungen hätten und vielleicht sogar einige Screenshots oder Wireframes zeigen, wie die Lösungen bei der Umsetzung aussehen würden. Emerson könnte auch Erfahrungsberichte von Nutzern teilen, deren Beschwerden erst nach über 48 Stunden bearbeitet wurden, und sogar ein Statement eines aktuellen Kundenservice-Mitarbeiters des Unternehmens einbringen, der Kommentare zum aktuellen Ticketsystem abgibt.
+
+**Abschluss** Nun kann Emerson 5 Minuten damit verbringen, die Probleme des Unternehmens erneut zusammenzufassen, die vorgeschlagenen Lösungen zu wiederholen und zu erläutern, warum diese Lösungen die richtigen sind.
+
+**Fazit** Da es sich um eine Besprechung mit einigen Stakeholdern handelt, bei der eine zweiseitige Kommunikation stattfinden wird, könnte Emerson planen, 10 Minuten für Fragen einzuplanen, um sicherzustellen, dass alles, was für die Teamleiter unklar war, vor Ende der Besprechung geklärt werden kann.
+
+Wenn Emerson Ansatz #2 wählt, ist es viel wahrscheinlicher, dass die Teamleiter aus der Besprechung genau das mitnehmen, was Emerson beabsichtigt hat – nämlich, dass die Art und Weise, wie Beschwerden und Fehler behandelt werden, verbessert werden könnte, und dass es 2 Lösungen gibt, die umgesetzt werden könnten, um diese Verbesserung zu erreichen. Dieser Ansatz wäre eine viel effektivere Methode, die Daten und die Geschichte, die Emerson vermitteln möchte, zu kommunizieren.
+
+# Fazit
+### Zusammenfassung der Hauptpunkte
+- Kommunikation bedeutet, Informationen zu übermitteln oder auszutauschen.
+- Beim Kommunizieren von Daten sollte Ihr Ziel nicht einfach sein, Zahlen an Ihr Publikum weiterzugeben. Ihr Ziel sollte es sein, eine Geschichte zu erzählen, die von Ihren Daten informiert wird.
+- Es gibt 2 Arten der Kommunikation: Einwegkommunikation (Informationen werden ohne die Absicht einer Antwort übermittelt) und Zweiwegkommunikation (Informationen werden hin und her ausgetauscht).
+- Es gibt viele Strategien, die Sie nutzen können, um mit Ihren Daten eine Geschichte zu erzählen. 5 Strategien, die wir besprochen haben, sind:
+ - Verstehen Sie Ihr Publikum, Ihr Medium und Ihre Kommunikationsmethode
+ - Beginnen Sie mit dem Ende im Kopf
+ - Gehen Sie es wie eine echte Geschichte an
+ - Verwenden Sie bedeutungsvolle Worte und Phrasen
+ - Nutzen Sie Emotionen
+
+### Empfohlene Ressourcen für Selbststudium
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Überprüfen Sie, was Sie gerade gelernt haben, mit dem obigen Quiz!
+
+## Aufgabe
+
+[Marktforschung](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/de/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..29b8263b
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,24 @@
+
+# Erzähle eine Geschichte
+
+## Anweisungen
+
+Data Science dreht sich um das Erzählen von Geschichten. Wähle ein beliebiges Dataset aus und schreibe eine kurze Abhandlung über eine Geschichte, die du darüber erzählen könntest. Was erhoffst du dir, dass dein Dataset offenbart? Was wirst du tun, wenn seine Erkenntnisse problematisch sind? Was, wenn deine Daten ihre Geheimnisse nicht leicht preisgeben? Überlege dir die Szenarien, die dein Dataset präsentieren könnte, und schreibe sie auf.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+
+Ein einseitiger Aufsatz wird im .doc-Format präsentiert, das Dataset wird erklärt, dokumentiert, gewürdigt, und eine zusammenhängende Geschichte wird darüber mit detaillierten Beispielen aus den Daten erzählt.| Ein kürzerer Aufsatz wird in weniger detailliertem Format präsentiert | Der Aufsatz weist Mängel in einem der oben genannten Punkte auf.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/4-Data-Science-Lifecycle/README.md b/translations/de/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..ef00c86b
--- /dev/null
+++ b/translations/de/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,28 @@
+
+# Der Lebenszyklus der Datenwissenschaft
+
+
+> Foto von Headway auf Unsplash
+
+In diesen Lektionen wirst du einige Aspekte des Lebenszyklus der Datenwissenschaft erkunden, einschließlich der Analyse und Kommunikation rund um Daten.
+
+### Themen
+
+1. [Einführung](14-Introduction/README.md)
+2. [Analyse](15-analyzing/README.md)
+3. [Kommunikation](16-communication/README.md)
+
+### Credits
+
+Diese Lektionen wurden mit ❤️ geschrieben von [Jalen McGee](https://twitter.com/JalenMCG) und [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/de/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..75d504f4
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# Einführung in Data Science in der Cloud
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data Science in der Cloud: Einführung - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+In dieser Lektion lernen Sie die grundlegenden Prinzipien der Cloud kennen. Sie erfahren, warum es interessant sein kann, Cloud-Dienste für Ihre Data-Science-Projekte zu nutzen, und wir betrachten einige Beispiele für Data-Science-Projekte, die in der Cloud durchgeführt werden.
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Was ist die Cloud?
+
+Die Cloud, oder Cloud Computing, bezeichnet die Bereitstellung einer Vielzahl von nutzungsbasierten IT-Diensten, die über das Internet auf einer Infrastruktur gehostet werden. Zu den Diensten gehören Lösungen wie Speicher, Datenbanken, Netzwerke, Software, Analysen und intelligente Dienste.
+
+Wir unterscheiden in der Regel zwischen Public, Private und Hybrid Clouds:
+
+* Public Cloud: Eine Public Cloud wird von einem Drittanbieter betrieben, der seine IT-Ressourcen über das Internet der Öffentlichkeit zur Verfügung stellt.
+* Private Cloud: Bezieht sich auf IT-Ressourcen, die ausschließlich von einem Unternehmen oder einer Organisation genutzt werden, wobei die Dienste und die Infrastruktur in einem privaten Netzwerk verwaltet werden.
+* Hybrid Cloud: Ein System, das Public und Private Clouds kombiniert. Nutzer verwenden ein lokales Rechenzentrum, während Daten und Anwendungen auf einer oder mehreren Public Clouds ausgeführt werden können.
+
+Die meisten Cloud-Computing-Dienste lassen sich in drei Kategorien einteilen: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS).
+
+* Infrastructure as a Service (IaaS): Nutzer mieten eine IT-Infrastruktur wie Server, virtuelle Maschinen (VMs), Speicher, Netzwerke und Betriebssysteme.
+* Platform as a Service (PaaS): Nutzer mieten eine Umgebung für die Entwicklung, das Testen, die Bereitstellung und das Management von Softwareanwendungen. Sie müssen sich nicht um die Einrichtung oder Verwaltung der zugrunde liegenden Infrastruktur kümmern.
+* Software as a Service (SaaS): Nutzer erhalten Zugriff auf Softwareanwendungen über das Internet, auf Abruf und in der Regel auf Abonnementbasis. Sie müssen sich nicht um Hosting, Verwaltung oder Wartung der Software kümmern.
+
+Zu den größten Cloud-Anbietern gehören Amazon Web Services, Google Cloud Platform und Microsoft Azure.
+
+## Warum die Cloud für Data Science wählen?
+
+Entwickler und IT-Profis entscheiden sich aus vielen Gründen für die Arbeit mit der Cloud, darunter:
+
+* Innovation: Sie können Ihre Anwendungen durch die Integration innovativer Dienste, die von Cloud-Anbietern bereitgestellt werden, erweitern.
+* Flexibilität: Sie zahlen nur für die Dienste, die Sie benötigen, und können aus einer Vielzahl von Diensten wählen. In der Regel zahlen Sie nach Bedarf und passen Ihre Dienste an Ihre sich ändernden Anforderungen an.
+* Budget: Sie müssen keine Anfangsinvestitionen tätigen, um Hardware und Software zu kaufen, Rechenzentren vor Ort einzurichten und zu betreiben. Sie zahlen nur für das, was Sie nutzen.
+* Skalierbarkeit: Ihre Ressourcen können entsprechend den Anforderungen Ihres Projekts skaliert werden. Das bedeutet, dass Ihre Anwendungen je nach externen Faktoren mehr oder weniger Rechenleistung, Speicherplatz und Bandbreite nutzen können.
+* Produktivität: Sie können sich auf Ihr Geschäft konzentrieren, anstatt Zeit mit Aufgaben zu verbringen, die von anderen verwaltet werden können, wie z. B. die Verwaltung von Rechenzentren.
+* Zuverlässigkeit: Cloud Computing bietet verschiedene Möglichkeiten, Ihre Daten kontinuierlich zu sichern, und Sie können Notfallwiederherstellungspläne einrichten, um Ihr Geschäft und Ihre Dienste auch in Krisenzeiten aufrechtzuerhalten.
+* Sicherheit: Sie profitieren von Richtlinien, Technologien und Kontrollen, die die Sicherheit Ihres Projekts stärken.
+
+Dies sind einige der häufigsten Gründe, warum Menschen sich für die Nutzung von Cloud-Diensten entscheiden. Jetzt, da wir ein besseres Verständnis davon haben, was die Cloud ist und welche Hauptvorteile sie bietet, schauen wir uns genauer an, wie Data Scientists und Entwickler, die mit Daten arbeiten, von der Cloud profitieren können:
+
+* Speicherung großer Datenmengen: Anstatt große Server zu kaufen, zu verwalten und zu schützen, können Sie Ihre Daten direkt in der Cloud speichern, mit Lösungen wie Azure Cosmos DB, Azure SQL Database und Azure Data Lake Storage.
+* Datenintegration durchführen: Datenintegration ist ein wesentlicher Bestandteil von Data Science, der den Übergang von der Datenerfassung zur Handlung ermöglicht. Mit Cloud-Datenintegrationsdiensten können Sie Daten aus verschiedenen Quellen sammeln, transformieren und in ein einziges Data Warehouse integrieren, z. B. mit Data Factory.
+* Datenverarbeitung: Die Verarbeitung großer Datenmengen erfordert viel Rechenleistung, die nicht jedem zur Verfügung steht. Deshalb nutzen viele Menschen direkt die enorme Rechenleistung der Cloud, um ihre Lösungen auszuführen und bereitzustellen.
+* Nutzung von Datenanalysediensten: Cloud-Dienste wie Azure Synapse Analytics, Azure Stream Analytics und Azure Databricks helfen Ihnen, Ihre Daten in umsetzbare Erkenntnisse zu verwandeln.
+* Nutzung von Machine-Learning- und Datenintelligenzdiensten: Anstatt bei null anzufangen, können Sie Machine-Learning-Algorithmen des Cloud-Anbieters nutzen, z. B. mit AzureML. Sie können auch kognitive Dienste wie Sprach-zu-Text, Text-zu-Sprache, Computer Vision und mehr verwenden.
+
+## Beispiele für Data Science in der Cloud
+
+Lassen Sie uns dies anhand einiger Szenarien greifbarer machen.
+
+### Echtzeit-Sentiment-Analyse in sozialen Medien
+
+Wir beginnen mit einem Szenario, das häufig von Personen untersucht wird, die mit Machine Learning beginnen: Sentiment-Analyse in sozialen Medien in Echtzeit.
+
+Angenommen, Sie betreiben eine Nachrichten-Website und möchten Live-Daten nutzen, um zu verstehen, welche Inhalte Ihre Leser interessieren könnten. Um mehr darüber zu erfahren, können Sie ein Programm erstellen, das in Echtzeit eine Sentiment-Analyse von Twitter-Daten zu Themen durchführt, die für Ihre Leser relevant sind.
+
+Die wichtigsten Indikatoren, die Sie betrachten, sind das Volumen der Tweets zu bestimmten Themen (Hashtags) und die Stimmung, die mit Analysetools ermittelt wird, die Sentiment-Analysen zu den angegebenen Themen durchführen.
+
+Die notwendigen Schritte zur Erstellung dieses Projekts sind:
+
+* Erstellen eines Event Hubs für Streaming-Eingaben, der Daten von Twitter sammelt
+* Konfigurieren und Starten einer Twitter-Client-Anwendung, die die Twitter-Streaming-APIs aufruft
+* Erstellen eines Stream-Analytics-Jobs
+* Festlegen der Job-Eingabe und -Abfrage
+* Erstellen eines Ausgabeziels und Festlegen der Job-Ausgabe
+* Starten des Jobs
+
+Um den gesamten Prozess zu sehen, lesen Sie die [Dokumentation](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Analyse wissenschaftlicher Artikel
+
+Betrachten wir ein weiteres Beispiel für ein Projekt, das von [Dmitry Soshnikov](http://soshnikov.com), einem der Autoren dieses Curriculums, erstellt wurde.
+
+Dmitry hat ein Tool entwickelt, das COVID-Artikel analysiert. Durch die Überprüfung dieses Projekts sehen Sie, wie Sie ein Tool erstellen können, das Wissen aus wissenschaftlichen Artikeln extrahiert, Erkenntnisse gewinnt und Forschern hilft, große Sammlungen von Artikeln effizient zu durchsuchen.
+
+Die verschiedenen Schritte sind:
+
+* Extrahieren und Vorverarbeiten von Informationen mit [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* Nutzung von [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) zur Parallelisierung der Verarbeitung
+* Speichern und Abfragen von Informationen mit [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* Erstellen eines interaktiven Dashboards zur Datenexploration und -visualisierung mit Power BI
+
+Um den gesamten Prozess zu sehen, besuchen Sie [Dmitrys Blog](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Wie Sie sehen, können wir Cloud-Dienste auf vielfältige Weise nutzen, um Data Science zu betreiben.
+
+## Fußnote
+
+Quellen:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Quiz nach der Vorlesung
+
+[Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Aufgabe
+
+[Marktforschung](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/de/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..691bb6a7
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,23 @@
+
+# Marktforschung
+
+## Anweisungen
+
+In dieser Lektion haben Sie gelernt, dass es mehrere wichtige Cloud-Anbieter gibt. Führen Sie eine Marktforschung durch, um herauszufinden, was jeder von ihnen einem Data Scientist bieten kann. Sind die Angebote vergleichbar? Schreiben Sie ein Dokument, in dem Sie die Angebote von drei oder mehr dieser Cloud-Anbieter beschreiben.
+
+## Bewertungskriterien
+
+Vorbildlich | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Ein einseitiges Dokument beschreibt die Angebote von drei Cloud-Anbietern für Data Science und hebt die Unterschiede zwischen ihnen hervor. | Ein kürzeres Dokument wird präsentiert. | Ein Dokument wird präsentiert, ohne die Analyse abzuschließen.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/de/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..0e04938d
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,345 @@
+
+# Datenwissenschaft in der Cloud: Der "Low Code/No Code"-Ansatz
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Datenwissenschaft in der Cloud: Low Code - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Inhaltsverzeichnis:
+
+- [Datenwissenschaft in der Cloud: Der "Low Code/No Code"-Ansatz](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz vor der Vorlesung](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Einführung](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Was ist Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Das Projekt zur Vorhersage von Herzinsuffizienz:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Der Herzinsuffizienz-Datensatz:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Low Code/No Code-Modelltraining in Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Erstellen eines Azure ML-Arbeitsbereichs](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Rechenressourcen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Auswahl der richtigen Optionen für Ihre Rechenressourcen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Erstellen eines Compute-Clusters](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Laden des Datensatzes](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Low Code/No Code-Training mit AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Low Code/No Code-Modellbereitstellung und Nutzung von Endpunkten](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Modellbereitstellung](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Nutzung von Endpunkten](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Herausforderung](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz nach der Vorlesung](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Überblick & Selbststudium](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Aufgabe](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Einführung
+### 1.1 Was ist Azure Machine Learning?
+
+Die Azure-Cloud-Plattform umfasst mehr als 200 Produkte und Cloud-Dienste, die Ihnen helfen, neue Lösungen zu entwickeln. Datenwissenschaftler investieren viel Zeit in die Erkundung und Vorverarbeitung von Daten sowie in das Testen verschiedener Modelltrainingsalgorithmen, um präzise Modelle zu erstellen. Diese Aufgaben sind zeitaufwendig und nutzen teure Rechenressourcen oft ineffizient.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) ist eine cloudbasierte Plattform für die Entwicklung und den Betrieb von Machine-Learning-Lösungen in Azure. Sie bietet eine Vielzahl von Funktionen, die Datenwissenschaftler bei der Datenvorbereitung, dem Modelltraining, der Veröffentlichung von Vorhersagediensten und der Überwachung ihrer Nutzung unterstützen. Besonders wichtig ist, dass sie die Effizienz steigert, indem viele zeitaufwendige Aufgaben beim Modelltraining automatisiert werden. Zudem ermöglicht sie die Nutzung skalierbarer Cloud-Ressourcen, um große Datenmengen zu verarbeiten und Kosten nur bei tatsächlicher Nutzung zu verursachen.
+
+Azure ML bietet alle Werkzeuge, die Entwickler und Datenwissenschaftler für ihre Machine-Learning-Workflows benötigen, darunter:
+
+- **Azure Machine Learning Studio**: Ein Webportal in Azure Machine Learning für Low-Code- und No-Code-Optionen zur Modellierung, Bereitstellung, Automatisierung, Nachverfolgung und Verwaltung von Ressourcen. Das Studio integriert sich nahtlos mit dem Azure Machine Learning SDK.
+- **Jupyter Notebooks**: Schnelles Prototyping und Testen von ML-Modellen.
+- **Azure Machine Learning Designer**: Ermöglicht das Drag-and-Drop von Modulen, um Experimente zu erstellen und Pipelines in einer Low-Code-Umgebung bereitzustellen.
+- **Automatisierte Machine-Learning-Oberfläche (AutoML)**: Automatisiert iterative Aufgaben der Modellentwicklung und ermöglicht die Erstellung von ML-Modellen mit hoher Skalierbarkeit, Effizienz und Produktivität, ohne die Modellqualität zu beeinträchtigen.
+- **Datenkennzeichnung**: Ein unterstütztes ML-Tool zur automatischen Kennzeichnung von Daten.
+- **Machine-Learning-Erweiterung für Visual Studio Code**: Bietet eine vollständige Entwicklungsumgebung für die Erstellung und Verwaltung von ML-Projekten.
+- **Machine-Learning-CLI**: Bietet Befehle zur Verwaltung von Azure ML-Ressourcen über die Befehlszeile.
+- **Integration mit Open-Source-Frameworks** wie PyTorch, TensorFlow, Scikit-learn und vielen anderen für das Training, die Bereitstellung und die Verwaltung des gesamten Machine-Learning-Prozesses.
+- **MLflow**: Eine Open-Source-Bibliothek zur Verwaltung des Lebenszyklus Ihrer Machine-Learning-Experimente. **MLFlow Tracking** ist eine Komponente von MLflow, die Ihre Trainingslaufmetriken und Modellartefakte unabhängig von der Umgebung Ihres Experiments protokolliert und nachverfolgt.
+
+### 1.2 Das Projekt zur Vorhersage von Herzinsuffizienz:
+
+Es steht außer Frage, dass das Erstellen von Projekten der beste Weg ist, um Ihre Fähigkeiten und Ihr Wissen zu testen. In dieser Lektion werden wir zwei verschiedene Ansätze zur Erstellung eines Datenwissenschaftsprojekts zur Vorhersage von Herzinsuffizienz in Azure ML Studio untersuchen: den Low Code/No Code-Ansatz und die Nutzung des Azure ML SDK, wie im folgenden Schema dargestellt:
+
+
+
+Jeder Ansatz hat seine eigenen Vor- und Nachteile. Der Low Code/No Code-Ansatz ist einfacher zu starten, da er die Interaktion mit einer grafischen Benutzeroberfläche (GUI) erfordert und keine Vorkenntnisse in Programmierung benötigt. Diese Methode ermöglicht schnelles Testen der Projektumsetzbarkeit und die Erstellung eines Proof of Concept (POC). Wenn das Projekt jedoch wächst und produktionsreif werden soll, ist es nicht praktikabel, Ressourcen über die GUI zu erstellen. Hier wird die programmatische Automatisierung aller Prozesse, von der Ressourcenerstellung bis zur Modellbereitstellung, entscheidend. Dies ist der Punkt, an dem Kenntnisse über das Azure ML SDK unerlässlich werden.
+
+| | Low Code/No Code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Code-Kenntnisse | Nicht erforderlich | Erforderlich |
+| Entwicklungszeit | Schnell und einfach | Abhängig von Code-Kenntnissen |
+| Produktionsreife | Nein | Ja |
+
+### 1.3 Der Herzinsuffizienz-Datensatz:
+
+Kardiovaskuläre Erkrankungen (CVDs) sind weltweit die häufigste Todesursache und machen 31 % aller Todesfälle aus. Umwelt- und Verhaltensrisikofaktoren wie Tabakkonsum, ungesunde Ernährung und Fettleibigkeit, körperliche Inaktivität und schädlicher Alkoholkonsum könnten als Merkmale für Schätzmodelle verwendet werden. Die Fähigkeit, die Wahrscheinlichkeit der Entwicklung einer CVD abzuschätzen, könnte von großem Nutzen sein, um Angriffe bei Hochrisikopersonen zu verhindern.
+
+Kaggle hat einen [Herzinsuffizienz-Datensatz](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) öffentlich zugänglich gemacht, den wir für dieses Projekt verwenden werden. Sie können den Datensatz jetzt herunterladen. Es handelt sich um einen tabellarischen Datensatz mit 13 Spalten (12 Merkmalen und 1 Zielvariable) und 299 Zeilen.
+
+| | Variablenname | Typ | Beschreibung | Beispiel |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numerisch | Alter des Patienten | 25 |
+| 2 | anaemia | boolean | Verringerung der roten Blutkörperchen oder des Hämoglobins | 0 oder 1 |
+| 3 | creatinine_phosphokinase | numerisch | CPK-Enzymgehalt im Blut | 542 |
+| 4 | diabetes | boolean | Ob der Patient Diabetes hat | 0 oder 1 |
+| 5 | ejection_fraction | numerisch | Prozentsatz des Blutes, das bei jeder Kontraktion das Herz verlässt | 45 |
+| 6 | high_blood_pressure | boolean | Ob der Patient Bluthochdruck hat | 0 oder 1 |
+| 7 | platelets | numerisch | Blutplättchen im Blut | 149000 |
+| 8 | serum_creatinine | numerisch | Serumkreatininspiegel im Blut | 0.5 |
+| 9 | serum_sodium | numerisch | Serumnatriumspiegel im Blut | jun |
+| 10 | sex | boolean | Frau oder Mann | 0 oder 1 |
+| 11 | smoking | boolean | Ob der Patient raucht | 0 oder 1 |
+| 12 | time | numerisch | Nachbeobachtungszeitraum (Tage) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Ziel] | boolean | Ob der Patient während des Nachbeobachtungszeitraums stirbt | 0 oder 1 |
+
+Sobald Sie den Datensatz haben, können wir mit dem Projekt in Azure beginnen.
+
+## 2. Low Code/No Code-Modelltraining in Azure ML Studio
+### 2.1 Erstellen eines Azure ML-Arbeitsbereichs
+Um ein Modell in Azure ML zu trainieren, müssen Sie zunächst einen Azure ML-Arbeitsbereich erstellen. Der Arbeitsbereich ist die oberste Ressource für Azure Machine Learning und bietet einen zentralen Ort, um mit allen Artefakten zu arbeiten, die Sie bei der Nutzung von Azure Machine Learning erstellen. Der Arbeitsbereich führt eine Historie aller Trainingsläufe, einschließlich Protokollen, Metriken, Ausgaben und einer Momentaufnahme Ihrer Skripte. Diese Informationen können Sie nutzen, um zu bestimmen, welcher Trainingslauf das beste Modell liefert. [Erfahren Sie mehr](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Es wird empfohlen, den aktuellsten Browser zu verwenden, der mit Ihrem Betriebssystem kompatibel ist. Die folgenden Browser werden unterstützt:
+
+- Microsoft Edge (Die neue Version von Microsoft Edge, nicht die Legacy-Version)
+- Safari (neueste Version, nur Mac)
+- Chrome (neueste Version)
+- Firefox (neueste Version)
+
+Um Azure Machine Learning zu nutzen, erstellen Sie einen Arbeitsbereich in Ihrem Azure-Abonnement. Sie können diesen Arbeitsbereich verwenden, um Daten, Rechenressourcen, Code, Modelle und andere Artefakte zu verwalten, die mit Ihren Machine-Learning-Arbeitslasten zusammenhängen.
+
+> **_HINWEIS:_** Ihr Azure-Abonnement wird für die Datenspeicherung geringfügig belastet, solange der Azure Machine Learning-Arbeitsbereich in Ihrem Abonnement existiert. Daher empfehlen wir, den Arbeitsbereich zu löschen, wenn Sie ihn nicht mehr verwenden.
+
+1. Melden Sie sich im [Azure-Portal](https://ms.portal.azure.com/) mit den Microsoft-Anmeldedaten an, die mit Ihrem Azure-Abonnement verknüpft sind.
+2. Wählen Sie **+Ressource erstellen**
+
+ 
+
+ Suchen Sie nach Machine Learning und wählen Sie die Kachel Machine Learning aus.
+
+ 
+
+ Klicken Sie auf die Schaltfläche "Erstellen".
+
+ 
+
+ Füllen Sie die Einstellungen wie folgt aus:
+ - Abonnement: Ihr Azure-Abonnement
+ - Ressourcengruppe: Erstellen oder wählen Sie eine Ressourcengruppe aus
+ - Arbeitsbereichsname: Geben Sie einen eindeutigen Namen für Ihren Arbeitsbereich ein
+ - Region: Wählen Sie die geografische Region, die Ihnen am nächsten liegt
+ - Speicherkonto: Beachten Sie das standardmäßig neue Speicherkonto, das für Ihren Arbeitsbereich erstellt wird
+ - Schlüssel-Tresor: Beachten Sie den standardmäßig neuen Schlüssel-Tresor, der für Ihren Arbeitsbereich erstellt wird
+ - Application Insights: Beachten Sie die standardmäßig neue Application Insights-Ressource, die für Ihren Arbeitsbereich erstellt wird
+ - Container-Registry: Keine (eine wird automatisch erstellt, wenn Sie zum ersten Mal ein Modell in einem Container bereitstellen)
+
+ 
+
+ - Klicken Sie auf "Erstellen + Überprüfen" und anschließend auf die Schaltfläche "Erstellen".
+3. Warten Sie, bis Ihr Arbeitsbereich erstellt wurde (dies kann einige Minuten dauern). Gehen Sie dann im Portal zu ihm. Sie können ihn über den Azure-Dienst Machine Learning finden.
+4. Auf der Übersichtsseite Ihres Arbeitsbereichs starten Sie Azure Machine Learning Studio (oder öffnen Sie einen neuen Browser-Tab und navigieren Sie zu https://ml.azure.com), und melden Sie sich mit Ihrem Microsoft-Konto bei Azure Machine Learning Studio an. Falls erforderlich, wählen Sie Ihr Azure-Verzeichnis und -Abonnement sowie Ihren Azure Machine Learning-Arbeitsbereich aus.
+
+
+
+5. In Azure Machine Learning Studio können Sie das ☰-Symbol oben links umschalten, um die verschiedenen Seiten der Benutzeroberfläche anzuzeigen. Sie können diese Seiten verwenden, um die Ressourcen in Ihrem Arbeitsbereich zu verwalten.
+
+
+
+Sie können Ihren Arbeitsbereich über das Azure-Portal verwalten, aber für Datenwissenschaftler und Machine-Learning-Betriebsingenieure bietet Azure Machine Learning Studio eine fokussiertere Benutzeroberfläche zur Verwaltung von Arbeitsbereichsressourcen.
+
+### 2.2 Rechenressourcen
+
+Rechenressourcen sind cloudbasierte Ressourcen, auf denen Sie Modelltrainings- und Datenexplorationsprozesse ausführen können. Es gibt vier Arten von Rechenressourcen, die Sie erstellen können:
+
+- **Compute Instances**: Entwicklungsarbeitsstationen, die Datenwissenschaftler nutzen können, um mit Daten und Modellen zu arbeiten. Dies beinhaltet die Erstellung einer virtuellen Maschine (VM) und das Starten einer Notebook-Instanz. Sie können dann ein Modell trainieren, indem Sie einen Compute-Cluster aus dem Notebook aufrufen.
+- **Compute Clusters**: Skalierbare Cluster von VMs für die bedarfsgerechte Verarbeitung von Experimentcode. Sie benötigen diese, wenn Sie ein Modell trainieren. Compute-Cluster können auch spezialisierte GPU- oder CPU-Ressourcen nutzen.
+- **Inference Clusters**: Bereitstellungsziele für Vorhersagedienste, die Ihre trainierten Modelle verwenden.
+- **Angeschlossene Compute-Ressourcen**: Verknüpft mit bestehenden Azure-Compute-Ressourcen, wie virtuellen Maschinen oder Azure-Databricks-Clustern.
+
+#### 2.2.1 Die richtigen Optionen für Ihre Compute-Ressourcen wählen
+
+Es gibt einige wichtige Faktoren, die bei der Erstellung einer Compute-Ressource zu berücksichtigen sind, und diese Entscheidungen können entscheidend sein.
+
+**Benötigen Sie eine CPU oder GPU?**
+
+Eine CPU (Central Processing Unit) ist die elektronische Schaltung, die Anweisungen eines Computerprogramms ausführt. Eine GPU (Graphics Processing Unit) ist eine spezialisierte elektronische Schaltung, die grafikbezogenen Code mit sehr hoher Geschwindigkeit ausführen kann.
+
+Der Hauptunterschied zwischen CPU- und GPU-Architektur besteht darin, dass eine CPU darauf ausgelegt ist, eine Vielzahl von Aufgaben schnell zu erledigen (gemessen an der CPU-Taktgeschwindigkeit), jedoch begrenzt ist in der Anzahl der gleichzeitig laufenden Aufgaben. GPUs sind für paralleles Rechnen konzipiert und daher viel besser für Deep-Learning-Aufgaben geeignet.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Weniger teuer | Teurer |
+| Niedrigere Parallelität | Höhere Parallelität |
+| Langsamer beim Training von Deep-Learning-Modellen | Optimal für Deep Learning |
+
+**Clustergröße**
+
+Größere Cluster sind teurer, bieten jedoch eine bessere Reaktionsfähigkeit. Wenn Sie also Zeit, aber nicht genug Geld haben, sollten Sie mit einem kleinen Cluster beginnen. Umgekehrt, wenn Sie Geld, aber wenig Zeit haben, sollten Sie mit einem größeren Cluster starten.
+
+**VM-Größe**
+
+Je nach Ihren zeitlichen und budgetären Einschränkungen können Sie die Größe Ihres RAMs, der Festplatte, der Anzahl der Kerne und der Taktgeschwindigkeit variieren. Das Erhöhen all dieser Parameter ist kostspieliger, führt jedoch zu einer besseren Leistung.
+
+**Dedizierte oder Low-Priority-Instanzen?**
+
+Eine Low-Priority-Instanz bedeutet, dass sie unterbrechbar ist: Microsoft Azure kann diese Ressourcen nehmen und einer anderen Aufgabe zuweisen, wodurch ein Job unterbrochen wird. Eine dedizierte Instanz, also nicht unterbrechbar, bedeutet, dass der Job niemals ohne Ihre Zustimmung beendet wird. Dies ist eine weitere Überlegung zwischen Zeit und Geld, da unterbrechbare Instanzen günstiger sind als dedizierte.
+
+#### 2.2.2 Erstellen eines Compute-Clusters
+
+Im [Azure ML-Arbeitsbereich](https://ml.azure.com/), den wir zuvor erstellt haben, gehen Sie zu Compute, und Sie können die verschiedenen Compute-Ressourcen sehen, die wir gerade besprochen haben (z. B. Compute-Instanzen, Compute-Cluster, Inferenz-Cluster und angeschlossene Compute-Ressourcen). Für dieses Projekt benötigen wir einen Compute-Cluster für das Modelltraining. Klicken Sie im Studio auf das Menü "Compute", dann auf die Registerkarte "Compute-Cluster" und klicken Sie auf die Schaltfläche "+ Neu", um einen Compute-Cluster zu erstellen.
+
+
+
+1. Wählen Sie Ihre Optionen: Dediziert vs. Low-Priority, CPU oder GPU, VM-Größe und Anzahl der Kerne (Sie können die Standardeinstellungen für dieses Projekt beibehalten).
+2. Klicken Sie auf die Schaltfläche "Weiter".
+
+
+
+3. Geben Sie dem Cluster einen Namen.
+4. Wählen Sie Ihre Optionen: Mindest-/Maximale Anzahl von Knoten, Leerlaufsekunden vor dem Herunterfahren, SSH-Zugriff. Beachten Sie, dass Sie Geld sparen, wenn die Mindestanzahl der Knoten 0 ist und der Cluster im Leerlauf ist. Beachten Sie, dass je höher die maximale Anzahl der Knoten ist, desto kürzer wird das Training. Die empfohlene maximale Anzahl von Knoten beträgt 3.
+5. Klicken Sie auf die Schaltfläche "Erstellen". Dieser Schritt kann einige Minuten dauern.
+
+
+
+Super! Jetzt, da wir einen Compute-Cluster haben, müssen wir die Daten in Azure ML Studio laden.
+
+### 2.3 Laden des Datensatzes
+
+1. Im [Azure ML-Arbeitsbereich](https://ml.azure.com/), den wir zuvor erstellt haben, klicken Sie im linken Menü auf "Datasets" und dann auf die Schaltfläche "+ Dataset erstellen", um einen Datensatz zu erstellen. Wählen Sie die Option "Von lokalen Dateien" und wählen Sie den Kaggle-Datensatz aus, den wir zuvor heruntergeladen haben.
+
+ 
+
+2. Geben Sie Ihrem Datensatz einen Namen, einen Typ und eine Beschreibung. Klicken Sie auf "Weiter". Laden Sie die Daten aus den Dateien hoch. Klicken Sie auf "Weiter".
+
+ 
+
+3. Ändern Sie im Schema den Datentyp zu Boolean für die folgenden Merkmale: Anämie, Diabetes, Bluthochdruck, Geschlecht, Rauchen und DEATH_EVENT. Klicken Sie auf "Weiter" und dann auf "Erstellen".
+
+ 
+
+Großartig! Jetzt, da der Datensatz vorhanden ist und der Compute-Cluster erstellt wurde, können wir mit dem Training des Modells beginnen!
+
+### 2.4 Low-Code/No-Code-Training mit AutoML
+
+Die traditionelle Entwicklung von Machine-Learning-Modellen ist ressourcenintensiv, erfordert umfangreiches Fachwissen und viel Zeit, um Dutzende von Modellen zu erstellen und zu vergleichen. Automatisiertes Machine Learning (AutoML) ist der Prozess der Automatisierung der zeitaufwändigen, iterativen Aufgaben der Entwicklung von Machine-Learning-Modellen. Es ermöglicht Datenwissenschaftlern, Analysten und Entwicklern, ML-Modelle mit hoher Skalierbarkeit, Effizienz und Produktivität zu erstellen, während die Modellqualität erhalten bleibt. Es verkürzt die Zeit, die benötigt wird, um produktionsreife ML-Modelle zu erhalten, mit großer Leichtigkeit und Effizienz. [Erfahren Sie mehr](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. Im [Azure ML-Arbeitsbereich](https://ml.azure.com/), den wir zuvor erstellt haben, klicken Sie im linken Menü auf "Automated ML" und wählen Sie den Datensatz aus, den Sie gerade hochgeladen haben. Klicken Sie auf "Weiter".
+
+ 
+
+2. Geben Sie einen neuen Experimentnamen, die Zielspalte (DEATH_EVENT) und den Compute-Cluster ein, den wir erstellt haben. Klicken Sie auf "Weiter".
+
+ 
+
+3. Wählen Sie "Klassifikation" und klicken Sie auf "Fertigstellen". Dieser Schritt kann zwischen 30 Minuten und 1 Stunde dauern, abhängig von der Größe Ihres Compute-Clusters.
+
+ 
+
+4. Sobald der Lauf abgeschlossen ist, klicken Sie auf die Registerkarte "Automated ML", klicken Sie auf Ihren Lauf und klicken Sie auf den Algorithmus in der Karte "Best model summary".
+
+ 
+
+Hier können Sie eine detaillierte Beschreibung des besten Modells sehen, das AutoML generiert hat. Sie können auch andere Modelle im Tab "Models" erkunden. Nehmen Sie sich ein paar Minuten Zeit, um die Modelle in den Erklärungen (Vorschau-Button) zu erkunden. Sobald Sie das Modell ausgewählt haben, das Sie verwenden möchten (hier wählen wir das beste Modell, das von AutoML ausgewählt wurde), sehen wir, wie wir es bereitstellen können.
+
+## 3. Low-Code/No-Code-Modellbereitstellung und Endpunktverbrauch
+### 3.1 Modellbereitstellung
+
+Die automatisierte Machine-Learning-Oberfläche ermöglicht es Ihnen, das beste Modell in wenigen Schritten als Webdienst bereitzustellen. Die Bereitstellung ist die Integration des Modells, sodass es Vorhersagen basierend auf neuen Daten treffen und potenzielle Chancen identifizieren kann. Für dieses Projekt bedeutet die Bereitstellung als Webdienst, dass medizinische Anwendungen das Modell nutzen können, um Live-Vorhersagen über das Risiko ihrer Patienten für einen Herzinfarkt zu treffen.
+
+In der Beschreibung des besten Modells klicken Sie auf die Schaltfläche "Deploy".
+
+
+
+15. Geben Sie ihm einen Namen, eine Beschreibung, den Computertyp (Azure Container Instance), aktivieren Sie die Authentifizierung und klicken Sie auf "Deploy". Dieser Schritt kann etwa 20 Minuten dauern. Der Bereitstellungsprozess umfasst mehrere Schritte, einschließlich der Registrierung des Modells, der Generierung von Ressourcen und deren Konfiguration für den Webdienst. Eine Statusmeldung erscheint unter "Deploy status". Wählen Sie "Aktualisieren", um den Bereitstellungsstatus regelmäßig zu überprüfen. Es ist bereitgestellt und läuft, wenn der Status "Healthy" ist.
+
+
+
+16. Sobald es bereitgestellt wurde, klicken Sie auf die Registerkarte "Endpoint" und klicken Sie auf den Endpunkt, den Sie gerade bereitgestellt haben. Hier finden Sie alle Details, die Sie über den Endpunkt wissen müssen.
+
+
+
+Fantastisch! Jetzt, da wir ein Modell bereitgestellt haben, können wir mit dem Verbrauch des Endpunkts beginnen.
+
+### 3.2 Endpunktverbrauch
+
+Klicken Sie auf die Registerkarte "Consume". Hier finden Sie den REST-Endpunkt und ein Python-Skript in der Verbrauchsoption. Nehmen Sie sich Zeit, um den Python-Code zu lesen.
+
+Dieses Skript kann direkt von Ihrer lokalen Maschine ausgeführt werden und wird Ihren Endpunkt konsumieren.
+
+
+
+Schauen Sie sich diese zwei Zeilen Code genauer an:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+Die Variable `url` ist der REST-Endpunkt, der im Tab "Consume" zu finden ist, und die Variable `api_key` ist der Primärschlüssel, der ebenfalls im Tab "Consume" zu finden ist (nur, wenn Sie die Authentifizierung aktiviert haben). So kann das Skript den Endpunkt konsumieren.
+
+18. Wenn Sie das Skript ausführen, sollten Sie die folgende Ausgabe sehen:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Das bedeutet, dass die Vorhersage eines Herzversagens für die angegebenen Daten wahr ist. Das ergibt Sinn, da bei genauerem Hinsehen alle Daten, die automatisch im Skript generiert wurden, standardmäßig auf 0 und falsch gesetzt sind. Sie können die Daten mit folgendem Eingabebeispiel ändern:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Das Skript sollte zurückgeben:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Herzlichen Glückwunsch! Sie haben gerade das bereitgestellte Modell konsumiert und es auf Azure ML trainiert!
+
+> **_HINWEIS:_** Sobald Sie mit dem Projekt fertig sind, vergessen Sie nicht, alle Ressourcen zu löschen.
+## 🚀 Herausforderung
+
+Schauen Sie sich die Modellerklärungen und Details an, die AutoML für die besten Modelle generiert hat. Versuchen Sie zu verstehen, warum das beste Modell besser ist als die anderen. Welche Algorithmen wurden verglichen? Was sind die Unterschiede zwischen ihnen? Warum ist das beste Modell in diesem Fall besser?
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Rückblick & Selbststudium
+
+In dieser Lektion haben Sie gelernt, wie Sie ein Modell trainieren, bereitstellen und konsumieren, um das Risiko eines Herzversagens auf eine Low-Code/No-Code-Weise in der Cloud vorherzusagen. Wenn Sie es noch nicht getan haben, tauchen Sie tiefer in die Modellerklärungen ein, die AutoML für die besten Modelle generiert hat, und versuchen Sie zu verstehen, warum das beste Modell besser ist als die anderen.
+
+Sie können weiter in Low-Code/No-Code AutoML eintauchen, indem Sie diese [Dokumentation](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) lesen.
+
+## Aufgabe
+
+[Low-Code/No-Code Data Science Projekt auf Azure ML](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/de/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..e22262db
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,23 @@
+
+# Low-Code/No-Code Data-Science-Projekt auf Azure ML
+
+## Anweisungen
+
+Wir haben gesehen, wie man die Azure ML-Plattform nutzt, um ein Modell auf Low-Code/No-Code-Weise zu trainieren, bereitzustellen und zu verwenden. Jetzt suchen Sie nach einigen Daten, die Sie verwenden könnten, um ein weiteres Modell zu trainieren, bereitzustellen und zu verwenden. Sie können nach Datensätzen auf [Kaggle](https://kaggle.com) und [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) suchen.
+
+## Bewertungskriterien
+
+| Vorbildlich | Angemessen | Verbesserungswürdig |
+|-------------|------------|---------------------|
+|Beim Hochladen der Daten haben Sie darauf geachtet, den Typ der Merkmale bei Bedarf zu ändern. Sie haben die Daten bei Bedarf bereinigt. Sie haben ein Training auf einem Datensatz mit AutoML durchgeführt und die Modellerklärungen überprüft. Sie haben das beste Modell bereitgestellt und konnten es verwenden. | Beim Hochladen der Daten haben Sie darauf geachtet, den Typ der Merkmale bei Bedarf zu ändern. Sie haben ein Training auf einem Datensatz mit AutoML durchgeführt, das beste Modell bereitgestellt und konnten es verwenden. | Sie haben das beste Modell, das von AutoML trainiert wurde, bereitgestellt und konnten es verwenden. |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/de/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..7f5e286c
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,311 @@
+
+# Datenwissenschaft in der Cloud: Der "Azure ML SDK"-Ansatz
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Datenwissenschaft in der Cloud: Azure ML SDK - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Inhaltsverzeichnis:
+
+- [Datenwissenschaft in der Cloud: Der "Azure ML SDK"-Ansatz](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz vor der Vorlesung](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Einführung](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Was ist das Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Einführung in das Projekt und den Datensatz zur Vorhersage von Herzinsuffizienz](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Training eines Modells mit dem Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Erstellen eines Azure ML-Arbeitsbereichs](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Erstellen einer Compute-Instanz](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Laden des Datensatzes](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Erstellen von Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Training eines Modells](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Einrichten von Arbeitsbereich, Experiment, Compute-Cluster und Datensatz](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML-Konfiguration und Training](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Modellbereitstellung und Nutzung des Endpunkts mit dem Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Speichern des besten Modells](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Modellbereitstellung](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Nutzung des Endpunkts](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Herausforderung](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz nach der Vorlesung](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Überblick & Selbststudium](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Aufgabe](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Einführung
+
+### 1.1 Was ist das Azure ML SDK?
+
+Datenwissenschaftler und KI-Entwickler nutzen das Azure Machine Learning SDK, um Workflows für maschinelles Lernen mit dem Azure Machine Learning-Dienst zu erstellen und auszuführen. Sie können in jeder Python-Umgebung mit dem Dienst interagieren, einschließlich Jupyter Notebooks, Visual Studio Code oder Ihrer bevorzugten Python-IDE.
+
+Wichtige Bereiche des SDK umfassen:
+
+- Erkunden, Vorbereiten und Verwalten des Lebenszyklus Ihrer Datensätze, die in Experimenten des maschinellen Lernens verwendet werden.
+- Verwalten von Cloud-Ressourcen für Überwachung, Protokollierung und Organisation Ihrer Experimente.
+- Trainieren von Modellen lokal oder mit Cloud-Ressourcen, einschließlich GPU-beschleunigtem Modelltraining.
+- Nutzen von automatisiertem maschinellen Lernen, das Konfigurationsparameter und Trainingsdaten akzeptiert. Es iteriert automatisch durch Algorithmen und Hyperparameter-Einstellungen, um das beste Modell für Vorhersagen zu finden.
+- Bereitstellen von Webdiensten, um Ihre trainierten Modelle in RESTful-Dienste umzuwandeln, die in jeder Anwendung genutzt werden können.
+
+[Erfahren Sie mehr über das Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+In der [vorherigen Lektion](../18-Low-Code/README.md) haben wir gesehen, wie man ein Modell auf Low-Code/No-Code-Weise trainiert, bereitstellt und nutzt. Wir haben den Herzinsuffizienz-Datensatz verwendet, um ein Vorhersagemodell zu erstellen. In dieser Lektion werden wir genau dasselbe tun, jedoch mit dem Azure Machine Learning SDK.
+
+
+
+### 1.2 Einführung in das Projekt und den Datensatz zur Vorhersage von Herzinsuffizienz
+
+Sehen Sie sich [hier](../18-Low-Code/README.md) die Einführung in das Projekt und den Datensatz zur Vorhersage von Herzinsuffizienz an.
+
+## 2. Training eines Modells mit dem Azure ML SDK
+### 2.1 Erstellen eines Azure ML-Arbeitsbereichs
+
+Der Einfachheit halber arbeiten wir in einem Jupyter Notebook. Das bedeutet, dass Sie bereits einen Arbeitsbereich und eine Compute-Instanz haben. Wenn Sie bereits einen Arbeitsbereich haben, können Sie direkt zum Abschnitt 2.3 Notebook-Erstellung springen.
+
+Falls nicht, folgen Sie bitte den Anweisungen im Abschnitt **2.1 Erstellen eines Azure ML-Arbeitsbereichs** in der [vorherigen Lektion](../18-Low-Code/README.md), um einen Arbeitsbereich zu erstellen.
+
+### 2.2 Erstellen einer Compute-Instanz
+
+Gehen Sie im [Azure ML-Arbeitsbereich](https://ml.azure.com/), den wir zuvor erstellt haben, zum Menü "Compute", und Sie sehen die verschiedenen verfügbaren Compute-Ressourcen.
+
+
+
+Erstellen wir eine Compute-Instanz, um ein Jupyter Notebook bereitzustellen.
+1. Klicken Sie auf die Schaltfläche + Neu.
+2. Geben Sie Ihrer Compute-Instanz einen Namen.
+3. Wählen Sie Ihre Optionen: CPU oder GPU, VM-Größe und Anzahl der Kerne.
+4. Klicken Sie auf die Schaltfläche Erstellen.
+
+Herzlichen Glückwunsch, Sie haben gerade eine Compute-Instanz erstellt! Wir werden diese Compute-Instanz verwenden, um ein Notebook im Abschnitt [Erstellen von Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure) zu erstellen.
+
+### 2.3 Laden des Datensatzes
+Falls Sie den Datensatz noch nicht hochgeladen haben, sehen Sie sich den Abschnitt **2.3 Laden des Datensatzes** in der [vorherigen Lektion](../18-Low-Code/README.md) an.
+
+### 2.4 Erstellen von Notebooks
+
+> **_HINWEIS:_** Für den nächsten Schritt können Sie entweder ein neues Notebook von Grund auf neu erstellen oder das [Notebook, das wir erstellt haben](../../../../5-Data-Science-In-Cloud/19-Azure/notebook.ipynb), in Ihrem Azure ML Studio hochladen. Um es hochzuladen, klicken Sie einfach auf das Menü "Notebook" und laden Sie das Notebook hoch.
+
+Notebooks sind ein wirklich wichtiger Bestandteil des Datenwissenschaftsprozesses. Sie können verwendet werden, um explorative Datenanalysen (EDA) durchzuführen, einen Computer-Cluster aufzurufen, um ein Modell zu trainieren, oder einen Inferenz-Cluster aufzurufen, um einen Endpunkt bereitzustellen.
+
+Um ein Notebook zu erstellen, benötigen wir einen Compute-Knoten, der die Jupyter Notebook-Instanz bereitstellt. Gehen Sie zurück zum [Azure ML-Arbeitsbereich](https://ml.azure.com/) und klicken Sie auf Compute-Instanzen. In der Liste der Compute-Instanzen sollten Sie die [Compute-Instanz sehen, die wir zuvor erstellt haben](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. Klicken Sie im Abschnitt Anwendungen auf die Option Jupyter.
+2. Aktivieren Sie das Kästchen "Ja, ich verstehe" und klicken Sie auf die Schaltfläche Weiter.
+
+3. Dies sollte eine neue Browser-Registerkarte mit Ihrer Jupyter Notebook-Instanz öffnen. Klicken Sie auf die Schaltfläche "Neu", um ein Notebook zu erstellen.
+
+
+
+Jetzt, da wir ein Notebook haben, können wir mit dem Training des Modells mit dem Azure ML SDK beginnen.
+
+### 2.5 Training eines Modells
+
+Falls Sie jemals Zweifel haben, sehen Sie sich die [Azure ML SDK-Dokumentation](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) an. Sie enthält alle notwendigen Informationen, um die Module zu verstehen, die wir in dieser Lektion behandeln werden.
+
+#### 2.5.1 Einrichten von Arbeitsbereich, Experiment, Compute-Cluster und Datensatz
+
+Sie müssen den `workspace` aus der Konfigurationsdatei mit folgendem Code laden:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Dies gibt ein Objekt vom Typ `Workspace` zurück, das den Arbeitsbereich darstellt. Anschließend müssen Sie ein `experiment` erstellen, indem Sie den folgenden Code verwenden:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Um ein Experiment aus einem Arbeitsbereich zu erhalten oder zu erstellen, fordern Sie das Experiment mit dem Experimentnamen an. Der Experimentname muss 3-36 Zeichen lang sein, mit einem Buchstaben oder einer Zahl beginnen und darf nur Buchstaben, Zahlen, Unterstriche und Bindestriche enthalten. Wenn das Experiment im Arbeitsbereich nicht gefunden wird, wird ein neues Experiment erstellt.
+
+Nun müssen Sie einen Compute-Cluster für das Training erstellen, indem Sie den folgenden Code verwenden. Beachten Sie, dass dieser Schritt einige Minuten dauern kann.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Sie können den Datensatz aus dem Arbeitsbereich mit dem Datensatznamen wie folgt abrufen:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 AutoML-Konfiguration und Training
+
+Um die AutoML-Konfiguration festzulegen, verwenden Sie die [AutoMLConfig-Klasse](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Wie in der Dokumentation beschrieben, gibt es viele Parameter, mit denen Sie experimentieren können. Für dieses Projekt verwenden wir die folgenden Parameter:
+
+- `experiment_timeout_minutes`: Die maximale Zeit (in Minuten), die das Experiment laufen darf, bevor es automatisch gestoppt wird und die Ergebnisse verfügbar gemacht werden.
+- `max_concurrent_iterations`: Die maximale Anzahl gleichzeitiger Trainingsiterationen, die für das Experiment erlaubt sind.
+- `primary_metric`: Die Hauptmetrik, die verwendet wird, um den Status des Experiments zu bestimmen.
+- `compute_target`: Das Azure Machine Learning-Compute-Ziel, auf dem das automatisierte maschinelle Lernen-Experiment ausgeführt wird.
+- `task`: Der Typ der Aufgabe, die ausgeführt werden soll. Werte können 'classification', 'regression' oder 'forecasting' sein, je nach Art des zu lösenden automatisierten ML-Problems.
+- `training_data`: Die Trainingsdaten, die im Experiment verwendet werden sollen. Sie sollten sowohl Trainingsmerkmale als auch eine Label-Spalte (optional eine Spalte mit Gewichtungen) enthalten.
+- `label_column_name`: Der Name der Label-Spalte.
+- `path`: Der vollständige Pfad zum Azure Machine Learning-Projektordner.
+- `enable_early_stopping`: Ob eine vorzeitige Beendigung aktiviert werden soll, wenn sich die Punktzahl kurzfristig nicht verbessert.
+- `featurization`: Indikator dafür, ob der Featurization-Schritt automatisch durchgeführt werden soll oder nicht, oder ob eine angepasste Featurization verwendet werden soll.
+- `debug_log`: Die Protokolldatei, in die Debug-Informationen geschrieben werden sollen.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Jetzt, da Ihre Konfiguration festgelegt ist, können Sie das Modell mit folgendem Code trainieren. Dieser Schritt kann je nach Clustergröße bis zu einer Stunde dauern.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Sie können das RunDetails-Widget ausführen, um die verschiedenen Experimente anzuzeigen.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Modellbereitstellung und Nutzung des Endpunkts mit dem Azure ML SDK
+
+### 3.1 Speichern des besten Modells
+
+Das `remote_run` ist ein Objekt vom Typ [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Dieses Objekt enthält die Methode `get_output()`, die den besten Lauf und das entsprechende trainierte Modell zurückgibt.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Sie können die Parameter des besten Modells anzeigen, indem Sie einfach das `fitted_model` ausgeben, und die Eigenschaften des besten Modells mit der Methode [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) einsehen.
+
+```python
+best_run.get_properties()
+```
+
+Registrieren Sie nun das Modell mit der Methode [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Modellbereitstellung
+
+Sobald das beste Modell gespeichert ist, können wir es mit der Klasse [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109) bereitstellen. InferenceConfig repräsentiert die Konfigurationseinstellungen für eine benutzerdefinierte Umgebung, die für die Bereitstellung verwendet wird. Die Klasse [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) repräsentiert ein maschinelles Lernmodell, das als Webdienst-Endpunkt auf Azure Container Instances bereitgestellt wird. Ein bereitgestellter Dienst wird aus einem Modell, einem Skript und zugehörigen Dateien erstellt. Der resultierende Webdienst ist ein lastenausgeglichener HTTP-Endpunkt mit einer REST-API. Sie können Daten an diese API senden und die vom Modell zurückgegebene Vorhersage erhalten.
+
+Das Modell wird mit der Methode [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) bereitgestellt.
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Dieser Schritt sollte einige Minuten dauern.
+
+### 3.3 Nutzung des Endpunkts
+
+Sie nutzen Ihren Endpunkt, indem Sie eine Beispiel-Eingabe erstellen:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+Und dann können Sie diese Eingabe an Ihr Modell senden, um eine Vorhersage zu erhalten:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Dies sollte `'{"result": [false]}'` ausgeben. Das bedeutet, dass die Patienteneingabe, die wir an den Endpunkt gesendet haben, die Vorhersage `false` erzeugt hat, was bedeutet, dass diese Person wahrscheinlich keinen Herzinfarkt erleiden wird.
+
+Herzlichen Glückwunsch! Sie haben gerade das Modell konsumiert, das mit dem Azure ML SDK auf Azure ML bereitgestellt und trainiert wurde!
+
+
+> **_HINWEIS:_** Sobald Sie mit dem Projekt fertig sind, vergessen Sie nicht, alle Ressourcen zu löschen.
+
+## 🚀 Herausforderung
+
+Es gibt viele andere Dinge, die Sie mit dem SDK tun können, leider können wir nicht alles in dieser Lektion behandeln. Aber gute Nachrichten: Wenn Sie lernen, wie Sie die SDK-Dokumentation durchforsten, können Sie auf eigene Faust viel erreichen. Werfen Sie einen Blick in die Azure ML SDK-Dokumentation und suchen Sie die `Pipeline`-Klasse, die es Ihnen ermöglicht, Pipelines zu erstellen. Eine Pipeline ist eine Sammlung von Schritten, die als Workflow ausgeführt werden können.
+
+**TIPP:** Gehen Sie zur [SDK-Dokumentation](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) und geben Sie Schlüsselwörter wie "Pipeline" in die Suchleiste ein. Sie sollten die Klasse `azureml.pipeline.core.Pipeline` in den Suchergebnissen finden.
+
+## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Rückblick & Selbststudium
+
+In dieser Lektion haben Sie gelernt, wie Sie ein Modell trainieren, bereitstellen und konsumieren, um das Risiko eines Herzinfarkts mit dem Azure ML SDK in der Cloud vorherzusagen. Sehen Sie sich diese [Dokumentation](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) für weitere Informationen über das Azure ML SDK an. Versuchen Sie, Ihr eigenes Modell mit dem Azure ML SDK zu erstellen.
+
+## Aufgabe
+
+[Data-Science-Projekt mit Azure ML SDK](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/de/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..b181da4c
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,23 @@
+
+# Data-Science-Projekt mit Azure ML SDK
+
+## Anweisungen
+
+Wir haben gesehen, wie man die Azure ML-Plattform verwendet, um ein Modell mit dem Azure ML SDK zu trainieren, bereitzustellen und zu nutzen. Jetzt suchen Sie nach einigen Daten, die Sie verwenden könnten, um ein anderes Modell zu trainieren, bereitzustellen und zu nutzen. Sie können nach Datensätzen auf [Kaggle](https://kaggle.com) und [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) suchen.
+
+## Bewertungskriterien
+
+| Vorbildlich | Angemessen | Verbesserungswürdig |
+|-------------|------------|---------------------|
+|Bei der AutoML-Konfiguration haben Sie die SDK-Dokumentation durchgesehen, um zu sehen, welche Parameter Sie verwenden könnten. Sie haben ein Training auf einem Datensatz mit AutoML unter Verwendung des Azure ML SDK durchgeführt und die Modellerklärungen überprüft. Sie haben das beste Modell bereitgestellt und konnten es über das Azure ML SDK nutzen. | Sie haben ein Training auf einem Datensatz mit AutoML unter Verwendung des Azure ML SDK durchgeführt und die Modellerklärungen überprüft. Sie haben das beste Modell bereitgestellt und konnten es über das Azure ML SDK nutzen. | Sie haben ein Training auf einem Datensatz mit AutoML unter Verwendung des Azure ML SDK durchgeführt. Sie haben das beste Modell bereitgestellt und konnten es über das Azure ML SDK nutzen. |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/5-Data-Science-In-Cloud/README.md b/translations/de/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..535a811a
--- /dev/null
+++ b/translations/de/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,33 @@
+
+# Datenwissenschaft in der Cloud
+
+
+
+> Foto von [Jelleke Vanooteghem](https://unsplash.com/@ilumire) auf [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Wenn es darum geht, Datenwissenschaft mit großen Datenmengen zu betreiben, kann die Cloud ein echter Wendepunkt sein. In den nächsten drei Lektionen werden wir uns ansehen, was die Cloud ist und warum sie sehr hilfreich sein kann. Außerdem werden wir einen Datensatz zu Herzinsuffizienz untersuchen und ein Modell erstellen, um die Wahrscheinlichkeit einer Herzinsuffizienz zu bewerten. Wir werden die Leistungsfähigkeit der Cloud nutzen, um ein Modell auf zwei verschiedene Arten zu trainieren, bereitzustellen und zu verwenden. Einmal mit einer Benutzeroberfläche im Low-Code/No-Code-Stil und einmal mit dem Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Themen
+
+1. [Warum die Cloud für Datenwissenschaft nutzen?](17-Introduction/README.md)
+2. [Datenwissenschaft in der Cloud: Der "Low-Code/No-Code"-Ansatz](18-Low-Code/README.md)
+3. [Datenwissenschaft in der Cloud: Der "Azure ML SDK"-Ansatz](19-Azure/README.md)
+
+### Credits
+Diese Lektionen wurden mit ☁️ und 💕 geschrieben von [Maud Levy](https://twitter.com/maudstweets) und [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Die Daten für das Herzinsuffizienz-Vorhersageprojekt stammen von [
+Larxel](https://www.kaggle.com/andrewmvd) auf [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Sie sind lizenziert unter der [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/de/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..d0d01d78
--- /dev/null
+++ b/translations/de/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,153 @@
+
+# Datenwissenschaft in der realen Welt
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Datenwissenschaft in der realen Welt - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Wir sind fast am Ende dieser Lernreise angekommen!
+
+Wir haben mit Definitionen von Datenwissenschaft und Ethik begonnen, verschiedene Werkzeuge und Techniken für Datenanalyse und -visualisierung erkundet, den Lebenszyklus der Datenwissenschaft überprüft und uns angesehen, wie man Workflows der Datenwissenschaft mit Cloud-Computing-Diensten skalieren und automatisieren kann. Jetzt fragen Sie sich wahrscheinlich: _"Wie genau kann ich all diese Erkenntnisse auf reale Kontexte anwenden?"_
+
+In dieser Lektion werden wir reale Anwendungen der Datenwissenschaft in verschiedenen Branchen untersuchen und spezifische Beispiele in den Bereichen Forschung, digitale Geisteswissenschaften und Nachhaltigkeit betrachten. Wir werden Möglichkeiten für Studentenprojekte beleuchten und mit nützlichen Ressourcen abschließen, die Ihnen helfen, Ihre Lernreise fortzusetzen!
+
+## Quiz vor der Vorlesung
+
+[Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Datenwissenschaft + Industrie
+
+Dank der Demokratisierung von KI finden Entwickler es jetzt einfacher, KI-gesteuerte Entscheidungsfindung und datengesteuerte Erkenntnisse in Benutzererfahrungen und Entwicklungsworkflows zu integrieren. Hier sind einige Beispiele dafür, wie Datenwissenschaft in der Industrie "angewendet" wird:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) nutzte Datenwissenschaft, um Suchbegriffe mit Grippe-Trends zu korrelieren. Obwohl der Ansatz Schwächen hatte, machte er auf die Möglichkeiten (und Herausforderungen) datengesteuerter Gesundheitsvorhersagen aufmerksam.
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - erklärt, wie UPS Datenwissenschaft und maschinelles Lernen nutzt, um optimale Lieferwege vorherzusagen, unter Berücksichtigung von Wetterbedingungen, Verkehrsaufkommen, Lieferfristen und mehr.
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - Daten, die mithilfe von [Freedom Of Information Laws](https://chriswhong.com/open-data/foil_nyc_taxi/) gesammelt wurden, halfen dabei, einen Tag im Leben von NYC-Taxis zu visualisieren. Dies ermöglicht ein besseres Verständnis dafür, wie sie sich durch die geschäftige Stadt bewegen, wie viel Geld sie verdienen und wie lange ihre Fahrten über einen Zeitraum von 24 Stunden dauern.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - nutzt Daten (zu Abhol- und Absetzorten, Fahrtdauer, bevorzugten Routen usw.), die täglich aus Millionen von Uber-Fahrten gesammelt werden, um ein Datenanalysetool zu entwickeln, das bei Preisgestaltung, Sicherheit, Betrugserkennung und Navigationsentscheidungen hilft.
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - konzentriert sich auf _prädiktive Analysen_ (Team- und Spieleranalysen - denken Sie an [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - und Fanmanagement) und _Datenvisualisierung_ (Team- und Fan-Dashboards, Spiele usw.) mit Anwendungen wie Talentsuche, Sportwetten und Inventar-/Verwaltungsmanagement von Veranstaltungsorten.
+
+ * [Datenwissenschaft im Bankwesen](https://data-flair.training/blogs/data-science-in-banking/) - hebt den Wert der Datenwissenschaft in der Finanzbranche hervor, mit Anwendungen von Risikomodellierung und Betrugserkennung bis hin zu Kundensegmentierung, Echtzeitvorhersagen und Empfehlungssystemen. Prädiktive Analysen treiben auch wichtige Maßnahmen wie [Kreditbewertungen](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit) voran.
+
+ * [Datenwissenschaft im Gesundheitswesen](https://data-flair.training/blogs/data-science-in-healthcare/) - hebt Anwendungen wie medizinische Bildgebung (z. B. MRT, Röntgen, CT-Scan), Genomik (DNA-Sequenzierung), Arzneimittelentwicklung (Risikobewertung, Erfolgsvorhersage), prädiktive Analysen (Patientenversorgung & Logistik), Krankheitsverfolgung und -prävention usw. hervor.
+
+ Bildnachweis: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Die Abbildung zeigt weitere Bereiche und Beispiele für die Anwendung von Datenwissenschaftstechniken. Möchten Sie weitere Anwendungen erkunden? Schauen Sie sich den Abschnitt [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) unten an.
+
+## Datenwissenschaft + Forschung
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Datenwissenschaft & Forschung - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Während reale Anwendungen oft auf groß angelegte Anwendungsfälle in der Industrie abzielen, können _Forschungsprojekte_ aus zwei Perspektiven nützlich sein:
+
+* _Innovationsmöglichkeiten_ - schnelle Prototypenentwicklung fortschrittlicher Konzepte und Tests von Benutzererfahrungen für Anwendungen der nächsten Generation.
+* _Herausforderungen bei der Implementierung_ - Untersuchung potenzieller Schäden oder unbeabsichtigter Folgen von Datenwissenschaftstechnologien in realen Kontexten.
+
+Für Studenten können diese Forschungsprojekte sowohl Lern- als auch Kooperationsmöglichkeiten bieten, die Ihr Verständnis des Themas verbessern und Ihr Bewusstsein und Ihre Interaktion mit relevanten Personen oder Teams in Interessensgebieten erweitern. Wie sehen Forschungsprojekte aus und wie können sie einen Einfluss haben?
+
+Schauen wir uns ein Beispiel an - die [MIT Gender Shades Study](http://gendershades.org/overview.html) von Joy Buolamwini (MIT Media Labs) mit einem [signifikanten Forschungsartikel](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf), der zusammen mit Timnit Gebru (damals bei Microsoft Research) verfasst wurde und sich auf Folgendes konzentrierte:
+
+ * **Was:** Ziel des Forschungsprojekts war es, _Bias in automatisierten Gesichtsanalysealgorithmen und Datensätzen_ basierend auf Geschlecht und Hauttyp zu bewerten.
+ * **Warum:** Gesichtsanalyse wird in Bereichen wie Strafverfolgung, Flughafensicherheit, Einstellungsverfahren und mehr eingesetzt - Kontexte, in denen ungenaue Klassifikationen (z. B. aufgrund von Bias) potenzielle wirtschaftliche und soziale Schäden für betroffene Einzelpersonen oder Gruppen verursachen können. Das Verständnis (und die Beseitigung oder Minderung) von Bias ist entscheidend für Fairness in der Nutzung.
+ * **Wie:** Die Forscher erkannten, dass bestehende Benchmarks überwiegend hellhäutige Personen verwendeten, und kuratierten einen neuen Datensatz (1000+ Bilder), der _ausgewogener_ nach Geschlecht und Hauttyp war. Der Datensatz wurde verwendet, um die Genauigkeit von drei Geschlechtsklassifikationsprodukten (von Microsoft, IBM & Face++) zu bewerten.
+
+Die Ergebnisse zeigten, dass die Gesamtklassifikationsgenauigkeit zwar gut war, es jedoch deutliche Unterschiede in den Fehlerraten zwischen verschiedenen Untergruppen gab - mit **Fehlklassifikationen** häufiger bei Frauen oder Personen mit dunklerer Hautfarbe, was auf Bias hinweist.
+
+**Wichtige Ergebnisse:** Es wurde deutlich, dass die Datenwissenschaft mehr _repräsentative Datensätze_ (ausgewogene Untergruppen) und mehr _inklusive Teams_ (diverse Hintergründe) benötigt, um solche Biases frühzeitig in KI-Lösungen zu erkennen und zu beseitigen oder zu mindern. Forschungsbemühungen wie diese sind auch entscheidend dafür, dass viele Organisationen Prinzipien und Praktiken für _verantwortungsvolle KI_ definieren, um Fairness in ihren KI-Produkten und -Prozessen zu verbessern.
+
+**Möchten Sie mehr über relevante Forschungsbemühungen bei Microsoft erfahren?**
+
+* Schauen Sie sich [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) im Bereich Künstliche Intelligenz an.
+* Erkunden Sie Studentenprojekte von der [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Informieren Sie sich über das [Fairlearn](https://fairlearn.org/) Projekt und die [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) Initiativen.
+
+## Datenwissenschaft + Geisteswissenschaften
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Datenwissenschaft & Digitale Geisteswissenschaften - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Digitale Geisteswissenschaften [werden definiert](https://digitalhumanities.stanford.edu/about-dh-stanford) als "eine Sammlung von Praktiken und Ansätzen, die computergestützte Methoden mit geisteswissenschaftlicher Forschung kombinieren". [Stanford-Projekte](https://digitalhumanities.stanford.edu/projects) wie _"Rebooting History"_ und _"Poetic Thinking"_ veranschaulichen die Verbindung zwischen [Digital Humanities und Datenwissenschaft](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - mit Schwerpunkt auf Techniken wie Netzwerkanalyse, Informationsvisualisierung, räumliche und Textanalyse, die uns helfen können, historische und literarische Datensätze neu zu betrachten, um neue Erkenntnisse und Perspektiven zu gewinnen.
+
+*Möchten Sie ein Projekt in diesem Bereich erkunden und erweitern?*
+
+Schauen Sie sich ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) an - ein großartiges Beispiel von [Jen Looper](https://twitter.com/jenlooper), das fragt, wie wir Datenwissenschaft nutzen können, um bekannte Poesie neu zu betrachten und ihre Bedeutung sowie die Beiträge ihrer Autorin in neuen Kontexten zu bewerten. Zum Beispiel: _Können wir die Jahreszeit vorhersagen, in der ein Gedicht verfasst wurde, indem wir seinen Ton oder seine Stimmung analysieren_ - und was sagt uns das über den Geisteszustand der Autorin in dem relevanten Zeitraum?
+
+Um diese Frage zu beantworten, folgen wir den Schritten des Lebenszyklus der Datenwissenschaft:
+ * [`Datenerfassung`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - um einen relevanten Datensatz für die Analyse zu sammeln. Optionen umfassen die Nutzung einer API (z. B. [Poetry DB API](https://poetrydb.org/index.html)) oder das Scrapen von Webseiten (z. B. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) mit Tools wie [Scrapy](https://scrapy.org/).
+ * [`Datenbereinigung`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - erklärt, wie Text formatiert, bereinigt und vereinfacht werden kann, mit grundlegenden Tools wie Visual Studio Code und Microsoft Excel.
+ * [`Datenanalyse`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - erklärt, wie wir den Datensatz jetzt in "Notebooks" für die Analyse importieren können, mit Python-Paketen (wie pandas, numpy und matplotlib), um die Daten zu organisieren und zu visualisieren.
+ * [`Stimmungsanalyse`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - erklärt, wie wir Cloud-Dienste wie Text Analytics integrieren können, mit Low-Code-Tools wie [Power Automate](https://flow.microsoft.com/en-us/) für automatisierte Datenverarbeitungs-Workflows.
+
+Mit diesem Workflow können wir die saisonalen Auswirkungen auf die Stimmung der Gedichte untersuchen und uns eigene Perspektiven auf die Autorin schaffen. Probieren Sie es selbst aus - erweitern Sie dann das Notebook, um andere Fragen zu stellen oder die Daten auf neue Weise zu visualisieren!
+
+> Sie können einige der Tools im [Digital Humanities Toolkit](https://github.com/Digital-Humanities-Toolkit) nutzen, um diese Forschungsansätze weiterzuverfolgen.
+
+## Datenwissenschaft + Nachhaltigkeit
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Datenwissenschaft & Nachhaltigkeit - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+Die [Agenda 2030 für nachhaltige Entwicklung](https://sdgs.un.org/2030agenda) - 2015 von allen Mitgliedern der Vereinten Nationen verabschiedet - identifiziert 17 Ziele, darunter solche, die sich auf den **Schutz des Planeten** vor Degradierung und den Auswirkungen des Klimawandels konzentrieren. Die [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) Initiative unterstützt diese Ziele, indem sie untersucht, wie technologische Lösungen nachhaltigere Zukünfte fördern und aufbauen können, mit einem [Fokus auf 4 Ziele](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - bis 2030 kohlenstoffnegativ, wasserpositiv, abfallfrei und biodivers zu sein.
+
+Um diese Herausforderungen skalierbar und zeitnah zu bewältigen, ist Cloud-Denken und groß angelegte Daten erforderlich. Die [Planetary Computer](https://planetarycomputer.microsoft.com/) Initiative bietet 4 Komponenten, die Datenwissenschaftler und Entwickler bei dieser Aufgabe unterstützen:
+
+ * [Datenkatalog](https://planetarycomputer.microsoft.com/catalog) - mit Petabytes an Erdsystemdaten (kostenlos & Azure-gehostet).
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - um Nutzern zu helfen, relevante Daten über Raum und Zeit hinweg zu suchen.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - verwaltete Umgebung für Wissenschaftler zur Verarbeitung massiver geospatialer Datensätze.
+ * [Anwendungen](https://planetarycomputer.microsoft.com/applications) - zeigen Anwendungsfälle und Tools für Nachhaltigkeitserkenntnisse.
+**Das Planetary Computer Project befindet sich derzeit in der Vorschau (Stand: September 2021)** – hier erfahren Sie, wie Sie mit Datenwissenschaft zur Entwicklung nachhaltiger Lösungen beitragen können.
+
+* [Zugang beantragen](https://planetarycomputer.microsoft.com/account/request), um mit der Erkundung zu beginnen und sich mit Gleichgesinnten zu vernetzen.
+* [Dokumentation erkunden](https://planetarycomputer.microsoft.com/docs/overview/about), um unterstützte Datensätze und APIs zu verstehen.
+* Anwendungen wie [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) entdecken, um Inspiration für Anwendungsideen zu erhalten.
+
+Denken Sie darüber nach, wie Sie Datenvisualisierung nutzen können, um relevante Erkenntnisse in Bereichen wie Klimawandel und Abholzung sichtbar zu machen oder zu verstärken. Oder überlegen Sie, wie diese Erkenntnisse genutzt werden können, um neue Nutzererfahrungen zu schaffen, die Verhaltensänderungen für ein nachhaltigeres Leben fördern.
+
+## Datenwissenschaft + Studierende
+
+Wir haben über reale Anwendungen in Industrie und Forschung gesprochen und Beispiele für Datenwissenschaftsanwendungen in den digitalen Geisteswissenschaften und der Nachhaltigkeit untersucht. Wie können Sie also als Anfänger in der Datenwissenschaft Ihre Fähigkeiten aufbauen und Ihr Wissen teilen?
+
+Hier sind einige Beispiele für Datenwissenschaftsprojekte von Studierenden, die Sie inspirieren können:
+
+* [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) mit GitHub-[Projekten](https://github.com/msr-ds3), die Themen wie folgende untersuchen:
+ - [Rassistische Vorurteile bei Polizeigewalt](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Zuverlässigkeit des U-Bahn-Systems in NYC](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [Digitalisierung materieller Kultur: Untersuchung sozioökonomischer Verteilungen in Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) – von [Ornella Altunyan](https://twitter.com/ornelladotcom) und ihrem Team in Claremont, unter Verwendung von [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Herausforderung
+
+Suchen Sie nach Artikeln, die anfängerfreundliche Datenwissenschaftsprojekte empfehlen – wie [diese 50 Themenbereiche](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/), [diese 21 Projektideen](https://www.intellspot.com/data-science-project-ideas) oder [diese 16 Projekte mit Quellcode](https://data-flair.training/blogs/data-science-project-ideas/), die Sie analysieren und neu kombinieren können. Und vergessen Sie nicht, über Ihre Lernerfahrungen zu bloggen und Ihre Erkenntnisse mit uns allen zu teilen.
+
+## Quiz nach der Vorlesung
+
+[Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Überprüfung & Selbststudium
+
+Möchten Sie weitere Anwendungsfälle erkunden? Hier sind einige relevante Artikel:
+* [17 Anwendungen und Beispiele für Datenwissenschaft](https://builtin.com/data-science/data-science-applications-examples) – Juli 2021
+* [11 atemberaubende Anwendungen der Datenwissenschaft in der realen Welt](https://myblindbird.com/data-science-applications-real-world/) – Mai 2021
+* [Datenwissenschaft in der realen Welt](https://towardsdatascience.com/data-science-in-the-real-world/home) – Artikelsammlung
+* Datenwissenschaft in: [Bildung](https://data-flair.training/blogs/data-science-in-education/), [Landwirtschaft](https://data-flair.training/blogs/data-science-in-agriculture/), [Finanzen](https://data-flair.training/blogs/data-science-in-finance/), [Filmen](https://data-flair.training/blogs/data-science-at-movies/) und mehr.
+
+## Aufgabe
+
+[Erkunden Sie einen Planetary Computer-Datensatz](assignment.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/de/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..2f0c5dda
--- /dev/null
+++ b/translations/de/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,48 @@
+
+# Erkunde einen Planetary Computer-Datensatz
+
+## Anweisungen
+
+In dieser Lektion haben wir über verschiedene Anwendungsbereiche der Datenwissenschaft gesprochen – mit detaillierten Beispielen aus den Bereichen Forschung, Nachhaltigkeit und digitale Geisteswissenschaften. In dieser Aufgabe wirst du eines dieser Beispiele genauer untersuchen und einige deiner Erkenntnisse zu Datenvisualisierungen und Analysen anwenden, um Einsichten in Nachhaltigkeitsdaten zu gewinnen.
+
+Das [Planetary Computer](https://planetarycomputer.microsoft.com/)-Projekt bietet Datensätze und APIs, die mit einem Konto zugänglich sind – beantrage ein Konto, wenn du den Bonus-Schritt der Aufgabe ausprobieren möchtest. Die Website bietet auch eine [Explorer](https://planetarycomputer.microsoft.com/explore)-Funktion, die du ohne Konto nutzen kannst.
+
+`Schritte:`
+Die Explorer-Oberfläche (im Screenshot unten gezeigt) ermöglicht es dir, einen Datensatz (aus den bereitgestellten Optionen), eine voreingestellte Abfrage (zum Filtern von Daten) und eine Darstellungsoption (zur Erstellung einer relevanten Visualisierung) auszuwählen. Deine Aufgabe in dieser Aufgabe ist es:
+
+ 1. Lies die [Explorer-Dokumentation](https://planetarycomputer.microsoft.com/docs/overview/explorer/) – verstehe die Optionen.
+ 2. Erkunde den Datensatz-[Katalog](https://planetarycomputer.microsoft.com/catalog) – lerne den Zweck jedes Datensatzes kennen.
+ 3. Nutze den Explorer – wähle einen interessanten Datensatz aus, wähle eine relevante Abfrage und eine Darstellungsoption.
+
+
+
+`Deine Aufgabe:`
+Untersuche nun die Visualisierung, die im Browser angezeigt wird, und beantworte die folgenden Fragen:
+ * Welche _Merkmale_ hat der Datensatz?
+ * Welche _Einsichten_ oder Ergebnisse liefert die Visualisierung?
+ * Was sind die _Auswirkungen_ dieser Einsichten auf die Nachhaltigkeitsziele des Projekts?
+ * Was sind die _Einschränkungen_ der Visualisierung (d.h. welche Einsicht hast du nicht erhalten)?
+ * Wenn du die Rohdaten erhalten könntest, welche _alternativen Visualisierungen_ würdest du erstellen und warum?
+
+`Bonus-Punkte:`
+Beantrage ein Konto – und melde dich an, wenn du akzeptiert wirst.
+ * Nutze die Option _Launch Hub_, um die Rohdaten in einem Notebook zu öffnen.
+ * Erkunde die Daten interaktiv und implementiere die alternativen Visualisierungen, die du dir überlegt hast.
+ * Analysiere nun deine benutzerdefinierten Visualisierungen – konntest du die Einsichten gewinnen, die dir zuvor gefehlt haben?
+
+## Bewertungskriterien
+
+Exzellent | Angemessen | Verbesserungswürdig
+--- | --- | -- |
+Alle fünf Kernfragen wurden beantwortet. Der Schüler hat klar herausgearbeitet, wie aktuelle und alternative Visualisierungen Einsichten in Nachhaltigkeitsziele oder -ergebnisse liefern könnten. | Der Schüler hat mindestens die obersten drei Fragen ausführlich beantwortet und gezeigt, dass er praktische Erfahrung mit dem Explorer gesammelt hat. | Der Schüler hat mehrere Fragen nicht beantwortet oder unzureichende Details geliefert – was darauf hinweist, dass keine sinnvolle Auseinandersetzung mit dem Projekt stattgefunden hat. |
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/6-Data-Science-In-Wild/README.md b/translations/de/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..b1403f4c
--- /dev/null
+++ b/translations/de/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,23 @@
+
+# Datenwissenschaft in der Praxis
+
+Anwendungen der Datenwissenschaft in verschiedenen Branchen.
+
+### Themen
+
+1. [Datenwissenschaft in der realen Welt](20-Real-World-Examples/README.md)
+
+### Danksagungen
+
+Geschrieben mit ❤️ von [Nitya Narasimhan](https://twitter.com/nitya)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/CODE_OF_CONDUCT.md b/translations/de/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..4d7a6a9a
--- /dev/null
+++ b/translations/de/CODE_OF_CONDUCT.md
@@ -0,0 +1,21 @@
+
+# Microsoft Open Source Verhaltenskodex
+
+Dieses Projekt hat den [Microsoft Open Source Verhaltenskodex](https://opensource.microsoft.com/codeofconduct/) übernommen.
+
+Ressourcen:
+
+- [Microsoft Open Source Verhaltenskodex](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoft Verhaltenskodex FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+- Kontaktieren Sie [opencode@microsoft.com](mailto:opencode@microsoft.com) bei Fragen oder Anliegen
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/CONTRIBUTING.md b/translations/de/CONTRIBUTING.md
new file mode 100644
index 00000000..073a2280
--- /dev/null
+++ b/translations/de/CONTRIBUTING.md
@@ -0,0 +1,19 @@
+
+# Mitwirken
+
+Dieses Projekt begrüßt Beiträge und Vorschläge. Die meisten Beiträge erfordern, dass Sie einer Contributor License Agreement (CLA) zustimmen, die erklärt, dass Sie das Recht haben und tatsächlich gewähren, uns die Rechte zur Nutzung Ihres Beitrags zu übertragen. Einzelheiten finden Sie unter https://cla.microsoft.com.
+
+Wenn Sie eine Pull-Anfrage einreichen, wird ein CLA-Bot automatisch feststellen, ob Sie eine CLA bereitstellen müssen, und die PR entsprechend kennzeichnen (z. B. Label, Kommentar). Folgen Sie einfach den Anweisungen des Bots. Dies müssen Sie nur einmal für alle Repositories tun, die unsere CLA verwenden.
+
+Dieses Projekt hat den [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/) übernommen. Weitere Informationen finden Sie in den [Code of Conduct FAQ](https://opensource.microsoft.com/codeofconduct/faq/) oder kontaktieren Sie [opencode@microsoft.com](mailto:opencode@microsoft.com) bei zusätzlichen Fragen oder Kommentaren.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/README.md b/translations/de/README.md
new file mode 100644
index 00000000..3cee92cc
--- /dev/null
+++ b/translations/de/README.md
@@ -0,0 +1,161 @@
+
+# Datenwissenschaft für Anfänger - Ein Lehrplan
+
+Azure Cloud Advocates bei Microsoft freuen sich, einen 10-wöchigen, 20-teiligen Lehrplan rund um Datenwissenschaft anzubieten. Jede Lektion enthält Vor- und Nachtests, schriftliche Anleitungen zur Durchführung der Lektion, eine Lösung und eine Aufgabe. Unsere projektbasierte Pädagogik ermöglicht es Ihnen, durch praktisches Arbeiten zu lernen – eine bewährte Methode, um neue Fähigkeiten nachhaltig zu erlernen.
+
+**Ein herzliches Dankeschön an unsere Autoren:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Besonderer Dank 🙏 an unsere [Microsoft Student Ambassadors](https://studentambassadors.microsoft.com/) Autoren, Gutachter und Inhaltsbeiträger,** insbesondere Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Datenwissenschaft für Anfänger - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+## Ankündigung - Neuer Lehrplan zu Generativer KI veröffentlicht!
+
+Wir haben gerade einen 12-teiligen Lehrplan zur Generativen KI veröffentlicht. Lernen Sie Themen wie:
+
+- Prompting und Prompt-Engineering
+- Text- und Bild-App-Generierung
+- Suchanwendungen
+
+Wie gewohnt gibt es Lektionen, Aufgaben, Wissensüberprüfungen und Herausforderungen.
+
+Schauen Sie es sich an:
+
+> https://aka.ms/genai-beginners
+
+# Sind Sie ein Student?
+
+Starten Sie mit den folgenden Ressourcen:
+
+- [Student Hub Seite](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Auf dieser Seite finden Sie Ressourcen für Anfänger, Student Packs und sogar Möglichkeiten, einen kostenlosen Zertifizierungsgutschein zu erhalten. Diese Seite sollten Sie sich als Lesezeichen speichern und regelmäßig besuchen, da wir den Inhalt mindestens monatlich aktualisieren.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Treten Sie einer globalen Gemeinschaft von Studentenbotschaftern bei – dies könnte Ihr Einstieg bei Microsoft sein.
+
+# Erste Schritte
+
+> **Lehrer**: Wir haben [einige Vorschläge](for-teachers.md) hinzugefügt, wie Sie diesen Lehrplan nutzen können. Wir freuen uns über Ihr Feedback [in unserem Diskussionsforum](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Studenten](https://aka.ms/student-page)**: Um diesen Lehrplan eigenständig zu nutzen, forken Sie das gesamte Repository und bearbeiten Sie die Übungen selbstständig, beginnend mit einem Quiz vor der Vorlesung. Lesen Sie dann die Vorlesung und führen Sie die restlichen Aktivitäten durch. Versuchen Sie, die Projekte zu erstellen, indem Sie die Lektionen verstehen, anstatt den Lösungscode zu kopieren; dieser ist jedoch in den /solutions-Ordnern jeder projektorientierten Lektion verfügbar. Eine weitere Idee wäre, eine Lerngruppe mit Freunden zu bilden und den Inhalt gemeinsam durchzugehen. Für weiterführende Studien empfehlen wir [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Lernen Sie das Team kennen
+
+[](https://youtu.be/8mzavjQSMM4 "Promo-Video")
+
+**Gif von** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Klicken Sie auf das Bild oben, um ein Video über das Projekt und die Personen dahinter anzusehen!
+
+## Pädagogik
+
+Wir haben zwei pädagogische Grundsätze bei der Erstellung dieses Lehrplans gewählt: sicherzustellen, dass er projektbasiert ist, und häufige Quizfragen einzubauen. Am Ende dieser Serie werden die Studenten grundlegende Prinzipien der Datenwissenschaft gelernt haben, einschließlich ethischer Konzepte, Datenaufbereitung, verschiedener Arbeitsweisen mit Daten, Datenvisualisierung, Datenanalyse, realer Anwendungsfälle der Datenwissenschaft und mehr.
+
+Darüber hinaus setzt ein niedrigschwelliges Quiz vor einer Klasse die Absicht des Studenten, ein Thema zu lernen, während ein zweites Quiz nach der Klasse die weitere Beibehaltung sicherstellt. Dieser Lehrplan wurde so gestaltet, dass er flexibel und unterhaltsam ist und ganz oder teilweise absolviert werden kann. Die Projekte beginnen klein und werden im Laufe des 10-wöchigen Zyklus zunehmend komplexer.
+
+> Finden Sie unseren [Verhaltenskodex](CODE_OF_CONDUCT.md), [Beitragsrichtlinien](CONTRIBUTING.md), [Übersetzungsrichtlinien](TRANSLATIONS.md). Wir freuen uns über Ihr konstruktives Feedback!
+
+## Jede Lektion enthält:
+
+- Optionale Sketchnote
+- Optionales ergänzendes Video
+- Warm-up-Quiz vor der Lektion
+- Schriftliche Lektion
+- Für projektbasierte Lektionen: Schritt-für-Schritt-Anleitungen zum Erstellen des Projekts
+- Wissensüberprüfungen
+- Eine Herausforderung
+- Ergänzende Lektüre
+- Aufgabe
+- Quiz nach der Lektion
+
+> **Eine Anmerkung zu den Quizfragen**: Alle Quizfragen befinden sich im Quiz-App-Ordner, insgesamt 40 Quizfragen mit jeweils drei Fragen. Sie sind innerhalb der Lektionen verlinkt, aber die Quiz-App kann lokal ausgeführt oder in Azure bereitgestellt werden; folgen Sie den Anweisungen im `quiz-app`-Ordner. Sie werden schrittweise lokalisiert.
+
+## Lektionen
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Datenwissenschaft für Anfänger: Roadmap - _Sketchnote von [@nitya](https://twitter.com/nitya)_ |
+
+| Lektion Nummer | Thema | Lektionseinheit | Lernziele | Verlinkte Lektion | Autor |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definition von Datenwissenschaft | [Einführung](1-Introduction/README.md) | Lernen Sie die grundlegenden Konzepte der Datenwissenschaft und wie sie mit künstlicher Intelligenz, maschinellem Lernen und Big Data zusammenhängt. | [Lektion](1-Introduction/01-defining-data-science/README.md) [Video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Ethik in der Datenwissenschaft | [Einführung](1-Introduction/README.md) | Konzepte, Herausforderungen und Rahmenbedingungen der Datenethik. | [Lektion](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definition von Daten | [Einführung](1-Introduction/README.md) | Wie Daten klassifiziert werden und ihre häufigsten Quellen. | [Lektion](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Einführung in Statistik & Wahrscheinlichkeit | [Einführung](1-Introduction/README.md) | Die mathematischen Techniken der Wahrscheinlichkeit und Statistik, um Daten zu verstehen. | [Lektion](1-Introduction/04-stats-and-probability/README.md) [Video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Arbeiten mit relationalen Daten | [Arbeiten mit Daten](2-Working-With-Data/README.md) | Einführung in relationale Daten und die Grundlagen der Erkundung und Analyse relationaler Daten mit der Structured Query Language, auch bekannt als SQL (ausgesprochen „see-quell“). | [Lektion](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Arbeiten mit NoSQL-Daten | [Arbeiten mit Daten](2-Working-With-Data/README.md) | Einführung in nicht-relationale Daten, ihre verschiedenen Typen und die Grundlagen der Erkundung und Analyse von Dokumentdatenbanken. | [Lektion](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Arbeiten mit Python | [Arbeiten mit Daten](2-Working-With-Data/README.md) | Grundlagen der Nutzung von Python zur Datenexploration mit Bibliotheken wie Pandas. Grundlegendes Verständnis der Python-Programmierung wird empfohlen. | [Lektion](2-Working-With-Data/07-python/README.md) [Video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Datenvorbereitung | [Arbeiten mit Daten](2-Working-With-Data/README.md) | Themen zu Techniken der Datenbereinigung und -transformation, um Herausforderungen wie fehlende, ungenaue oder unvollständige Daten zu bewältigen. | [Lektion](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Mengen visualisieren | [Datenvisualisierung](3-Data-Visualization/README.md) | Lernen Sie, wie Sie mit Matplotlib Vogeldaten 🦆 visualisieren können. | [Lektion](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Verteilungen von Daten visualisieren | [Datenvisualisierung](3-Data-Visualization/README.md) | Beobachtungen und Trends innerhalb eines Intervalls visualisieren. | [Lektion](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Proportionen visualisieren | [Datenvisualisierung](3-Data-Visualization/README.md) | Diskrete und gruppierte Prozentsätze visualisieren. | [Lektion](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Beziehungen visualisieren | [Datenvisualisierung](3-Data-Visualization/README.md) | Verbindungen und Korrelationen zwischen Datensätzen und ihren Variablen visualisieren. | [Lektion](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Sinnvolle Visualisierungen | [Datenvisualisierung](3-Data-Visualization/README.md) | Techniken und Anleitungen, um Ihre Visualisierungen wertvoll für effektive Problemlösungen und Erkenntnisse zu machen. | [Lektion](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Einführung in den Lebenszyklus der Datenwissenschaft | [Lebenszyklus](4-Data-Science-Lifecycle/README.md) | Einführung in den Lebenszyklus der Datenwissenschaft und den ersten Schritt der Datenbeschaffung und -extraktion. | [Lektion](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analysieren | [Lebenszyklus](4-Data-Science-Lifecycle/README.md) | Diese Phase des Lebenszyklus der Datenwissenschaft konzentriert sich auf Techniken zur Datenanalyse. | [Lektion](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Kommunikation | [Lebenszyklus](4-Data-Science-Lifecycle/README.md) | Diese Phase des Lebenszyklus der Datenwissenschaft konzentriert sich darauf, die Erkenntnisse aus den Daten so zu präsentieren, dass Entscheidungsträger sie leichter verstehen können. | [Lektion](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Datenwissenschaft in der Cloud | [Cloud-Daten](5-Data-Science-In-Cloud/README.md) | Diese Serie von Lektionen führt in die Datenwissenschaft in der Cloud und ihre Vorteile ein. | [Lektion](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) und [Maud](https://twitter.com/maudstweets) |
+| 18 | Datenwissenschaft in der Cloud | [Cloud-Daten](5-Data-Science-In-Cloud/README.md) | Modelle mit Low-Code-Tools trainieren. | [Lektion](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) und [Maud](https://twitter.com/maudstweets) |
+| 19 | Datenwissenschaft in der Cloud | [Cloud-Daten](5-Data-Science-In-Cloud/README.md) | Modelle mit Azure Machine Learning Studio bereitstellen. | [Lektion](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) und [Maud](https://twitter.com/maudstweets) |
+| 20 | Datenwissenschaft in der Praxis | [In der Praxis](6-Data-Science-In-Wild/README.md) | Datenwissenschaftsprojekte in der realen Welt. | [Lektion](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Folgen Sie diesen Schritten, um dieses Beispiel in einem Codespace zu öffnen:
+1. Klicken Sie auf das Code-Dropdown-Menü und wählen Sie die Option Mit Codespaces öffnen.
+2. Wählen Sie + Neuer Codespace unten im Fenster.
+Weitere Informationen finden Sie in der [GitHub-Dokumentation](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Folgen Sie diesen Schritten, um dieses Repository in einem Container mit Ihrer lokalen Maschine und VSCode mithilfe der VS Code Remote - Containers-Erweiterung zu öffnen:
+
+1. Wenn Sie zum ersten Mal einen Entwicklungscontainer verwenden, stellen Sie bitte sicher, dass Ihr System die Voraussetzungen erfüllt (z. B. Docker installiert ist), wie in der [Einführungsdokumentation](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started) beschrieben.
+
+Um dieses Repository zu verwenden, können Sie entweder das Repository in einem isolierten Docker-Volume öffnen:
+
+**Hinweis**: Im Hintergrund wird der Remote-Containers-Befehl **Repository in Container-Volume klonen...** verwendet, um den Quellcode in einem Docker-Volume anstelle des lokalen Dateisystems zu klonen. [Volumes](https://docs.docker.com/storage/volumes/) sind das bevorzugte Mechanismus zur Persistierung von Containerdaten.
+
+Oder öffnen Sie eine lokal geklonte oder heruntergeladene Version des Repositorys:
+
+- Klonen Sie dieses Repository auf Ihr lokales Dateisystem.
+- Drücken Sie F1 und wählen Sie den Befehl **Remote-Containers: Ordner im Container öffnen...**.
+- Wählen Sie die geklonte Kopie dieses Ordners aus, warten Sie, bis der Container gestartet ist, und probieren Sie es aus.
+
+## Offline-Zugriff
+
+Sie können diese Dokumentation offline mit [Docsify](https://docsify.js.org/#/) ausführen. Forken Sie dieses Repository, [installieren Sie Docsify](https://docsify.js.org/#/quickstart) auf Ihrem lokalen Rechner, und geben Sie dann im Stammordner dieses Repositorys `docsify serve` ein. Die Website wird auf Port 3000 auf Ihrem localhost bereitgestellt: `localhost:3000`.
+
+> Hinweis: Notebooks werden nicht über Docsify gerendert. Wenn Sie ein Notebook ausführen müssen, tun Sie dies separat in VS Code mit einem Python-Kernel.
+
+## Hilfe gesucht!
+
+Wenn Sie das gesamte Curriculum oder Teile davon übersetzen möchten, folgen Sie bitte unserem [Übersetzungsleitfaden](TRANSLATIONS.md).
+
+## Weitere Curricula
+
+Unser Team erstellt weitere Curricula! Schauen Sie sich an:
+
+- [Generative KI für Anfänger](https://aka.ms/genai-beginners)
+- [Generative KI für Anfänger .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative KI mit JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative KI mit Java](https://aka.ms/genaijava)
+- [KI für Anfänger](https://aka.ms/ai-beginners)
+- [Datenwissenschaft für Anfänger](https://aka.ms/datascience-beginners)
+- [ML für Anfänger](https://aka.ms/ml-beginners)
+- [Cybersicherheit für Anfänger](https://github.com/microsoft/Security-101)
+- [Webentwicklung für Anfänger](https://aka.ms/webdev-beginners)
+- [IoT für Anfänger](https://aka.ms/iot-beginners)
+- [XR-Entwicklung für Anfänger](https://github.com/microsoft/xr-development-for-beginners)
+- [GitHub Copilot für Pair-Programming meistern](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [GitHub Copilot für C#/.NET-Entwickler meistern](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Wählen Sie Ihr eigenes Copilot-Abenteuer](https://github.com/microsoft/CopilotAdventures)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/SECURITY.md b/translations/de/SECURITY.md
new file mode 100644
index 00000000..dfda12b8
--- /dev/null
+++ b/translations/de/SECURITY.md
@@ -0,0 +1,49 @@
+
+## Sicherheit
+
+Microsoft nimmt die Sicherheit seiner Softwareprodukte und -dienstleistungen ernst, einschließlich aller Quellcode-Repositories, die über unsere GitHub-Organisationen verwaltet werden, zu denen [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) und [unsere GitHub-Organisationen](https://opensource.microsoft.com/) gehören.
+
+Wenn Sie glauben, eine Sicherheitslücke in einem von Microsoft verwalteten Repository gefunden zu haben, die [Microsofts Definition einer Sicherheitslücke](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)) erfüllt, melden Sie diese bitte wie unten beschrieben.
+
+## Melden von Sicherheitsproblemen
+
+**Bitte melden Sie Sicherheitslücken nicht über öffentliche GitHub-Issues.**
+
+Stattdessen melden Sie diese bitte dem Microsoft Security Response Center (MSRC) unter [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Falls Sie lieber ohne Anmeldung einreichen möchten, senden Sie eine E-Mail an [secure@microsoft.com](mailto:secure@microsoft.com). Wenn möglich, verschlüsseln Sie Ihre Nachricht mit unserem PGP-Schlüssel; Sie können ihn von der [Microsoft Security Response Center PGP Key-Seite](https://www.microsoft.com/en-us/msrc/pgp-key-msrc) herunterladen.
+
+Sie sollten innerhalb von 24 Stunden eine Antwort erhalten. Falls dies aus irgendeinem Grund nicht geschieht, folgen Sie bitte per E-Mail nach, um sicherzustellen, dass wir Ihre ursprüngliche Nachricht erhalten haben. Weitere Informationen finden Sie unter [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Bitte fügen Sie die unten aufgeführten Informationen (so weit wie möglich) bei, um uns zu helfen, die Art und den Umfang des möglichen Problems besser zu verstehen:
+
+ * Art des Problems (z. B. Buffer Overflow, SQL Injection, Cross-Site Scripting usw.)
+ * Vollständige Pfade der Quellcodedatei(en), die mit dem Problem in Zusammenhang stehen
+ * Der Standort des betroffenen Quellcodes (Tag/Branch/Commit oder direkte URL)
+ * Jegliche spezielle Konfiguration, die erforderlich ist, um das Problem zu reproduzieren
+ * Schritt-für-Schritt-Anleitung zur Reproduktion des Problems
+ * Proof-of-Concept oder Exploit-Code (falls möglich)
+ * Auswirkungen des Problems, einschließlich der möglichen Ausnutzung durch einen Angreifer
+
+Diese Informationen helfen uns, Ihren Bericht schneller zu bearbeiten.
+
+Wenn Sie im Rahmen eines Bug-Bounty-Programms berichten, können vollständigere Berichte zu einer höheren Prämie führen. Besuchen Sie unsere Seite zum [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty) für weitere Details zu unseren aktiven Programmen.
+
+## Bevorzugte Sprachen
+
+Wir bevorzugen alle Kommunikation in Englisch.
+
+## Richtlinie
+
+Microsoft folgt dem Prinzip der [Koordinierten Offenlegung von Sicherheitslücken](https://www.microsoft.com/en-us/msrc/cvd).
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/SUPPORT.md b/translations/de/SUPPORT.md
new file mode 100644
index 00000000..a79b5723
--- /dev/null
+++ b/translations/de/SUPPORT.md
@@ -0,0 +1,22 @@
+
+# Unterstützung
+## So melden Sie Probleme und erhalten Hilfe
+
+Dieses Projekt verwendet GitHub Issues, um Fehler und Funktionsanfragen zu verfolgen. Bitte durchsuchen Sie die vorhandenen Issues, bevor Sie neue erstellen, um Duplikate zu vermeiden. Für neue Issues melden Sie Ihren Fehler oder Ihre Funktionsanfrage als neues Issue.
+
+Für Hilfe und Fragen zur Nutzung dieses Projekts erstellen Sie ein Issue.
+
+## Microsoft-Support-Richtlinie
+
+Die Unterstützung für dieses Repository beschränkt sich auf die oben aufgeführten Ressourcen.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/docs/_sidebar.md b/translations/de/docs/_sidebar.md
new file mode 100644
index 00000000..a097e74e
--- /dev/null
+++ b/translations/de/docs/_sidebar.md
@@ -0,0 +1,38 @@
+
+- Einführung
+ - [Definition von Data Science](../1-Introduction/01-defining-data-science/README.md)
+ - [Ethik in der Data Science](../1-Introduction/02-ethics/README.md)
+ - [Definition von Daten](../1-Introduction/03-defining-data/README.md)
+ - [Wahrscheinlichkeit und Statistik](../1-Introduction/04-stats-and-probability/README.md)
+- Arbeiten mit Daten
+ - [Relationale Datenbanken](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Nicht-relationale Datenbanken](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Datenvorbereitung](../2-Working-With-Data/08-data-preparation/README.md)
+- Datenvisualisierung
+ - [Visualisierung von Mengen](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualisierung von Verteilungen](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualisierung von Proportionen](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualisierung von Beziehungen](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Aussagekräftige Visualisierungen](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Lebenszyklus der Data Science
+ - [Einführung](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analyse](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Kommunikation](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Data Science in der Cloud
+ - [Einführung](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Data Science in freier Wildbahn
+ - [DS in freier Wildbahn](../6-Data-Science-In-Wild/README.md)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mithilfe des KI-Übersetzungsdienstes [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/for-teachers.md b/translations/de/for-teachers.md
new file mode 100644
index 00000000..76627c4e
--- /dev/null
+++ b/translations/de/for-teachers.md
@@ -0,0 +1,76 @@
+
+## Für Lehrkräfte
+
+Möchten Sie dieses Curriculum in Ihrem Unterricht verwenden? Nur zu!
+
+Tatsächlich können Sie es direkt auf GitHub nutzen, indem Sie GitHub Classroom verwenden.
+
+Dazu müssen Sie dieses Repository forken. Sie benötigen ein Repository für jede Lektion, daher müssen Sie jeden Ordner in ein separates Repository extrahieren. Auf diese Weise kann [GitHub Classroom](https://classroom.github.com/classrooms) jede Lektion einzeln erfassen.
+
+Diese [vollständigen Anweisungen](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) geben Ihnen eine Vorstellung davon, wie Sie Ihr Klassenzimmer einrichten können.
+
+## Nutzung des Repositories wie es ist
+
+Wenn Sie dieses Repository in seiner aktuellen Form verwenden möchten, ohne GitHub Classroom zu nutzen, ist das ebenfalls möglich. Sie müssten Ihren Schülern mitteilen, welche Lektion sie gemeinsam durcharbeiten sollen.
+
+In einem Online-Format (Zoom, Teams oder andere) könnten Sie Breakout-Räume für die Quizfragen einrichten und die Schüler unterstützen, damit sie bereit sind zu lernen. Anschließend können Sie die Schüler einladen, die Quizfragen zu bearbeiten und ihre Antworten zu einem bestimmten Zeitpunkt als 'Issues' einzureichen. Dasselbe könnten Sie mit Aufgaben machen, wenn Sie möchten, dass die Schüler offen und kollaborativ arbeiten.
+
+Wenn Sie ein privateres Format bevorzugen, bitten Sie Ihre Schüler, das Curriculum Lektion für Lektion in ihre eigenen privaten GitHub-Repositories zu forken und Ihnen Zugriff zu gewähren. So können sie Quizfragen und Aufgaben privat bearbeiten und diese über Issues in Ihrem Klassen-Repository einreichen.
+
+Es gibt viele Möglichkeiten, dieses Curriculum in einem Online-Klassenformat umzusetzen. Lassen Sie uns wissen, was für Sie am besten funktioniert!
+
+## In diesem Curriculum enthalten:
+
+20 Lektionen, 40 Quizfragen und 20 Aufgaben. Sketchnotes begleiten die Lektionen für visuelle Lerner. Viele Lektionen sind sowohl in Python als auch in R verfügbar und können mit Jupyter-Notebooks in VS Code abgeschlossen werden. Erfahren Sie mehr darüber, wie Sie Ihr Klassenzimmer für diesen Tech-Stack einrichten können: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Alle Sketchnotes, einschließlich eines großformatigen Posters, befinden sich in [diesem Ordner](../../sketchnotes).
+
+Das gesamte Curriculum ist [als PDF](../../pdf/readme.pdf) verfügbar.
+
+Sie können dieses Curriculum auch als eigenständige, offline-freundliche Website ausführen, indem Sie [Docsify](https://docsify.js.org/#/) verwenden. [Installieren Sie Docsify](https://docsify.js.org/#/quickstart) auf Ihrem lokalen Rechner und geben Sie dann im Stammordner Ihrer lokalen Kopie dieses Repositories `docsify serve` ein. Die Website wird auf Port 3000 auf Ihrem localhost bereitgestellt: `localhost:3000`.
+
+Eine offline-freundliche Version des Curriculums wird als eigenständige Webseite geöffnet: https://localhost:3000
+
+Die Lektionen sind in 6 Teile gegliedert:
+
+- 1: Einführung
+ - 1: Definition von Data Science
+ - 2: Ethik
+ - 3: Definition von Daten
+ - 4: Überblick über Wahrscheinlichkeit und Statistik
+- 2: Arbeiten mit Daten
+ - 5: Relationale Datenbanken
+ - 6: Nicht-relationale Datenbanken
+ - 7: Python
+ - 8: Datenvorbereitung
+- 3: Datenvisualisierung
+ - 9: Visualisierung von Mengen
+ - 10: Visualisierung von Verteilungen
+ - 11: Visualisierung von Anteilen
+ - 12: Visualisierung von Beziehungen
+ - 13: Sinnvolle Visualisierungen
+- 4: Lebenszyklus der Datenwissenschaft
+ - 14: Einführung
+ - 15: Analyse
+ - 16: Kommunikation
+- 5: Datenwissenschaft in der Cloud
+ - 17: Einführung
+ - 18: Low-Code-Optionen
+ - 19: Azure
+- 6: Datenwissenschaft in der Praxis
+ - 20: Überblick
+
+## Bitte teilen Sie uns Ihre Meinung mit!
+
+Wir möchten dieses Curriculum für Sie und Ihre Schüler optimal gestalten. Bitte geben Sie uns Feedback in den Diskussionsforen! Sie können gerne einen Klassenbereich in den Diskussionsforen für Ihre Schüler erstellen.
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.
\ No newline at end of file
diff --git a/translations/de/quiz-app/README.md b/translations/de/quiz-app/README.md
new file mode 100644
index 00000000..a445676a
--- /dev/null
+++ b/translations/de/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Quizfragen
+
+Diese Quizfragen sind die Vor- und Nachbereitungsquizfragen für den Data-Science-Lehrplan unter https://aka.ms/datascience-beginners
+
+## Hinzufügen eines übersetzten Quiz-Sets
+
+Fügen Sie eine Quiz-Übersetzung hinzu, indem Sie passende Quiz-Strukturen in den Ordnern `assets/translations` erstellen. Die ursprünglichen Quizfragen befinden sich in `assets/translations/en`. Die Quizfragen sind in mehrere Gruppen unterteilt. Stellen Sie sicher, dass die Nummerierung mit dem entsprechenden Quizabschnitt übereinstimmt. Insgesamt gibt es 40 Quizfragen in diesem Lehrplan, beginnend mit der Nummer 0.
+
+Nachdem Sie die Übersetzungen bearbeitet haben, bearbeiten Sie die Datei `index.js` im Übersetzungsordner, um alle Dateien gemäß den Konventionen in `en` zu importieren.
+
+Bearbeiten Sie die Datei `index.js` in `assets/translations`, um die neuen übersetzten Dateien zu importieren.
+
+Bearbeiten Sie anschließend das Dropdown-Menü in `App.vue` in dieser App, um Ihre Sprache hinzuzufügen. Stimmen Sie die lokalisierte Abkürzung mit dem Ordnernamen für Ihre Sprache ab.
+
+Bearbeiten Sie schließlich alle Quiz-Links in den übersetzten Lektionen, falls vorhanden, um diese Lokalisierung als Abfrageparameter hinzuzufügen: `?loc=fr` zum Beispiel.
+
+
+
+## Projektsetup
+
+```
+npm install
+```
+
+### Kompiliert und lädt für die Entwicklung neu
+
+```
+npm run serve
+```
+
+### Kompiliert und minimiert für die Produktion
+
+```
+npm run build
+```
+
+### Überprüft und behebt Dateien
+
+```
+npm run lint
+```
+
+### Konfiguration anpassen
+
+Siehe [Konfigurationsreferenz](https://cli.vuejs.org/config/).
+
+Credits: Dank an die ursprüngliche Version dieser Quiz-App: https://github.com/arpan45/simple-quiz-vue
+
+## Bereitstellung auf Azure
+
+Hier ist eine Schritt-für-Schritt-Anleitung, die Ihnen den Einstieg erleichtert:
+
+1. Forken Sie ein GitHub-Repository
+Stellen Sie sicher, dass der Code Ihrer statischen Web-App in Ihrem GitHub-Repository ist. Forken Sie dieses Repository.
+
+2. Erstellen Sie eine Azure Static Web App
+- Erstellen Sie ein [Azure-Konto](http://azure.microsoft.com)
+- Gehen Sie zum [Azure-Portal](https://portal.azure.com)
+- Klicken Sie auf „Create a resource“ und suchen Sie nach „Static Web App“.
+- Klicken Sie auf „Create“.
+
+3. Konfigurieren Sie die Static Web App
+- Grundlagen:
+ - Abonnement: Wählen Sie Ihr Azure-Abonnement aus.
+ - Ressourcengruppe: Erstellen Sie eine neue Ressourcengruppe oder verwenden Sie eine vorhandene.
+ - Name: Geben Sie einen Namen für Ihre statische Web-App an.
+ - Region: Wählen Sie die Region, die Ihren Nutzern am nächsten liegt.
+
+- #### Bereitstellungsdetails:
+ - Quelle: Wählen Sie „GitHub“.
+ - GitHub-Konto: Autorisieren Sie Azure, auf Ihr GitHub-Konto zuzugreifen.
+ - Organisation: Wählen Sie Ihre GitHub-Organisation aus.
+ - Repository: Wählen Sie das Repository, das Ihre statische Web-App enthält.
+ - Branch: Wählen Sie den Branch, von dem aus Sie bereitstellen möchten.
+
+- #### Build-Details:
+ - Build-Voreinstellungen: Wählen Sie das Framework aus, mit dem Ihre App erstellt wurde (z. B. React, Angular, Vue usw.).
+ - App-Standort: Geben Sie den Ordner an, der Ihren App-Code enthält (z. B. /, wenn er sich im Root befindet).
+ - API-Standort: Falls Sie eine API haben, geben Sie deren Standort an (optional).
+ - Ausgabe-Standort: Geben Sie den Ordner an, in dem die Build-Ausgabe generiert wird (z. B. build oder dist).
+
+4. Überprüfen und Erstellen
+Überprüfen Sie Ihre Einstellungen und klicken Sie auf „Create“. Azure wird die erforderlichen Ressourcen einrichten und einen GitHub Actions-Workflow in Ihrem Repository erstellen.
+
+5. GitHub Actions Workflow
+Azure erstellt automatisch eine GitHub Actions-Workflow-Datei in Ihrem Repository (.github/workflows/azure-static-web-apps-.yml). Dieser Workflow übernimmt den Build- und Bereitstellungsprozess.
+
+6. Überwachen der Bereitstellung
+Gehen Sie zum Tab „Actions“ in Ihrem GitHub-Repository.
+Sie sollten sehen, dass ein Workflow ausgeführt wird. Dieser Workflow wird Ihre statische Web-App auf Azure erstellen und bereitstellen.
+Sobald der Workflow abgeschlossen ist, ist Ihre App unter der bereitgestellten Azure-URL live.
+
+### Beispiel-Workflow-Datei
+
+Hier ist ein Beispiel, wie die GitHub Actions-Workflow-Datei aussehen könnte:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Zusätzliche Ressourcen
+- [Azure Static Web Apps Dokumentation](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Dokumentation](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/de/sketchnotes/README.md b/translations/de/sketchnotes/README.md
new file mode 100644
index 00000000..666b00b6
--- /dev/null
+++ b/translations/de/sketchnotes/README.md
@@ -0,0 +1,19 @@
+
+Finde alle Sketchnotes hier!
+
+## Credits
+
+Nitya Narasimhan, Künstlerin
+
+
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/01-defining-data-science/README.md b/translations/es/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..acd5f705
--- /dev/null
+++ b/translations/es/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## Tipos de Datos
+
+Como ya hemos mencionado, los datos están en todas partes. ¡Solo necesitamos capturarlos de la manera correcta! Es útil distinguir entre datos **estructurados** y **no estructurados**. Los primeros suelen estar representados en una forma bien organizada, a menudo como una tabla o varias tablas, mientras que los segundos son simplemente una colección de archivos. A veces también podemos hablar de datos **semi-estructurados**, que tienen algún tipo de estructura que puede variar considerablemente.
+
+| Estructurados | Semi-estructurados | No estructurados |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | --------------------------------------- |
+| Lista de personas con sus números de teléfono | Páginas de Wikipedia con enlaces | Texto de la Enciclopedia Británica |
+| Temperatura en todas las habitaciones de un edificio cada minuto durante los últimos 20 años | Colección de artículos científicos en formato JSON con autores, fecha de publicación y resumen | Carpeta compartida con documentos corporativos |
+| Datos de edad y género de todas las personas que ingresan al edificio | Páginas de Internet | Video sin procesar de una cámara de vigilancia |
+
+## Dónde obtener Datos
+
+Existen muchas fuentes posibles de datos, ¡y sería imposible enumerarlas todas! Sin embargo, mencionemos algunos de los lugares típicos donde puedes obtener datos:
+
+* **Estructurados**
+ - **Internet de las Cosas** (IoT), incluyendo datos de diferentes sensores, como sensores de temperatura o presión, que proporcionan muchos datos útiles. Por ejemplo, si un edificio de oficinas está equipado con sensores IoT, podemos controlar automáticamente la calefacción y la iluminación para minimizar costos.
+ - **Encuestas** que pedimos a los usuarios completar después de una compra o tras visitar un sitio web.
+ - **Análisis de comportamiento** puede, por ejemplo, ayudarnos a entender qué tan profundamente navega un usuario en un sitio y cuál es la razón típica para abandonar el sitio.
+* **No estructurados**
+ - **Textos** pueden ser una rica fuente de información, como un puntaje general de **sentimiento**, o la extracción de palabras clave y significado semántico.
+ - **Imágenes** o **Videos**. Un video de una cámara de vigilancia puede ser usado para estimar el tráfico en la carretera e informar a las personas sobre posibles atascos.
+ - **Registros** de servidores web pueden ser utilizados para entender qué páginas de nuestro sitio son las más visitadas y por cuánto tiempo.
+* **Semi-estructurados**
+ - Los gráficos de **Redes Sociales** pueden ser excelentes fuentes de datos sobre personalidades de usuarios y su efectividad potencial para difundir información.
+ - Cuando tenemos un montón de fotografías de una fiesta, podemos intentar extraer datos sobre **Dinámicas de Grupo** construyendo un gráfico de personas que se toman fotos juntas.
+
+Conociendo las diferentes fuentes posibles de datos, puedes pensar en distintos escenarios donde las técnicas de ciencia de datos pueden ser aplicadas para comprender mejor la situación y mejorar los procesos empresariales.
+
+## Qué puedes hacer con los Datos
+
+En Ciencia de Datos, nos enfocamos en los siguientes pasos del recorrido de los datos:
+
+Por supuesto, dependiendo de los datos reales, algunos pasos podrían faltar (por ejemplo, cuando ya tenemos los datos en la base de datos o cuando no necesitamos entrenar un modelo), o algunos pasos podrían repetirse varias veces (como el procesamiento de datos).
+
+## Digitalización y Transformación Digital
+
+En la última década, muchas empresas han comenzado a entender la importancia de los datos al tomar decisiones empresariales. Para aplicar los principios de la ciencia de datos a la gestión de un negocio, primero se necesita recopilar algunos datos, es decir, traducir los procesos empresariales a forma digital. Esto se conoce como **digitalización**. Aplicar técnicas de ciencia de datos a estos datos para guiar decisiones puede llevar a aumentos significativos en la productividad (o incluso a un cambio de dirección en el negocio), lo que se denomina **transformación digital**.
+
+Consideremos un ejemplo. Supongamos que tenemos un curso de ciencia de datos (como este) que impartimos en línea a estudiantes, y queremos usar la ciencia de datos para mejorarlo. ¿Cómo podemos hacerlo?
+
+Podemos comenzar preguntando "¿Qué se puede digitalizar?" La forma más sencilla sería medir el tiempo que cada estudiante tarda en completar cada módulo y evaluar el conocimiento adquirido mediante un examen de opción múltiple al final de cada módulo. Promediando el tiempo de finalización entre todos los estudiantes, podemos identificar qué módulos causan más dificultades y trabajar en simplificarlos.
+> Podrías argumentar que este enfoque no es ideal, porque los módulos pueden tener longitudes diferentes. Probablemente sea más justo dividir el tiempo por la longitud del módulo (en número de caracteres) y comparar esos valores en su lugar.
+Cuando comenzamos a analizar los resultados de pruebas de opción múltiple, podemos intentar determinar qué conceptos les resultan difíciles de entender a los estudiantes y usar esa información para mejorar el contenido. Para lograrlo, necesitamos diseñar las pruebas de manera que cada pregunta se relacione con un concepto o fragmento de conocimiento específico.
+
+Si queremos complicarlo aún más, podemos graficar el tiempo que toma cada módulo en relación con la categoría de edad de los estudiantes. Podríamos descubrir que para algunas categorías de edad toma un tiempo excesivamente largo completar el módulo, o que los estudiantes abandonan antes de terminarlo. Esto puede ayudarnos a proporcionar recomendaciones de edad para el módulo y minimizar la insatisfacción de las personas debido a expectativas equivocadas.
+
+## 🚀 Desafío
+
+En este desafío, intentaremos encontrar conceptos relevantes para el campo de la Ciencia de Datos analizando textos. Tomaremos un artículo de Wikipedia sobre Ciencia de Datos, descargaremos y procesaremos el texto, y luego construiremos una nube de palabras como esta:
+
+
+
+Visita [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') para revisar el código. También puedes ejecutar el código y ver cómo realiza todas las transformaciones de datos en tiempo real.
+
+> Si no sabes cómo ejecutar código en un Jupyter Notebook, consulta [este artículo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Tareas
+
+* **Tarea 1**: Modifica el código anterior para encontrar conceptos relacionados con los campos de **Big Data** y **Machine Learning**.
+* **Tarea 2**: [Reflexiona sobre escenarios de Ciencia de Datos](assignment.md)
+
+## Créditos
+
+Esta lección ha sido creada con ♥️ por [Dmitry Soshnikov](http://soshnikov.com)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/01-defining-data-science/assignment.md b/translations/es/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..eba42809
--- /dev/null
+++ b/translations/es/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,44 @@
+
+# Asignación: Escenarios de Ciencia de Datos
+
+En esta primera asignación, te pedimos que pienses en algún proceso o problema de la vida real en diferentes dominios de problemas, y cómo podrías mejorarlo utilizando el proceso de Ciencia de Datos. Reflexiona sobre lo siguiente:
+
+1. ¿Qué datos puedes recopilar?
+1. ¿Cómo los recopilarías?
+1. ¿Cómo almacenarías los datos? ¿Qué tan grandes podrían ser los datos?
+1. ¿Qué conocimientos podrías obtener de estos datos? ¿Qué decisiones podríamos tomar basándonos en los datos?
+
+Intenta pensar en 3 problemas/procesos diferentes y describe cada uno de los puntos anteriores para cada dominio de problema.
+
+Aquí hay algunos dominios de problemas y problemas que pueden ayudarte a comenzar a pensar:
+
+1. ¿Cómo puedes usar datos para mejorar el proceso educativo de los niños en las escuelas?
+1. ¿Cómo puedes usar datos para controlar la vacunación durante la pandemia?
+1. ¿Cómo puedes usar datos para asegurarte de que estás siendo productivo en el trabajo?
+
+## Instrucciones
+
+Completa la siguiente tabla (sustituye los dominios de problemas sugeridos por los tuyos si es necesario):
+
+| Dominio del Problema | Problema | Qué datos recopilar | Cómo almacenar los datos | Qué conocimientos/decisiones podemos tomar |
+|-----------------------|----------|---------------------|--------------------------|---------------------------------------------|
+| Educación | | | | |
+| Vacunación | | | | |
+| Productividad | | | | |
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Se identificaron fuentes de datos razonables, formas de almacenar los datos y posibles decisiones/conocimientos para todos los dominios de problemas | Algunos aspectos de la solución no están detallados, el almacenamiento de datos no se discute, al menos 2 dominios de problemas están descritos | Solo se describen partes de la solución de datos, solo se considera un dominio de problema.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/es/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..5a94b98a
--- /dev/null
+++ b/translations/es/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,46 @@
+
+# Asignación: Escenarios de Ciencia de Datos
+
+En esta primera asignación, te pedimos que pienses en algún proceso o problema de la vida real en diferentes dominios de problemas, y cómo podrías mejorarlo utilizando el proceso de Ciencia de Datos. Reflexiona sobre lo siguiente:
+
+1. ¿Qué datos puedes recopilar?
+1. ¿Cómo los recopilarías?
+1. ¿Cómo almacenarías los datos? ¿Qué tan grandes podrían ser los datos?
+1. ¿Qué información podrías obtener de estos datos? ¿Qué decisiones podríamos tomar basándonos en los datos?
+
+Intenta pensar en 3 problemas/procesos diferentes y describe cada uno de los puntos anteriores para cada dominio de problema.
+
+Aquí hay algunos dominios de problemas y problemas que pueden ayudarte a comenzar a pensar:
+
+1. ¿Cómo puedes usar datos para mejorar el proceso educativo de los niños en las escuelas?
+1. ¿Cómo puedes usar datos para controlar la vacunación durante la pandemia?
+1. ¿Cómo puedes usar datos para asegurarte de ser productivo en el trabajo?
+
+## Instrucciones
+
+Completa la siguiente tabla (sustituye los dominios de problemas sugeridos por los tuyos si es necesario):
+
+| Dominio del Problema | Problema | Qué datos recopilar | Cómo almacenar los datos | Qué información/decisiones podemos tomar |
+|-----------------------|----------|---------------------|--------------------------|------------------------------------------|
+| Educación | En la universidad, típicamente tenemos baja asistencia a las clases, y tenemos la hipótesis de que los estudiantes que asisten a las clases en promedio obtienen mejores resultados en los exámenes. Queremos estimular la asistencia y probar la hipótesis. | Podemos rastrear la asistencia mediante fotos tomadas por la cámara de seguridad en clase, o rastreando las direcciones bluetooth/wifi de los teléfonos móviles de los estudiantes en clase. Los datos de los exámenes ya están disponibles en la base de datos de la universidad. | En caso de rastrear imágenes de cámaras de seguridad, necesitamos almacenar algunas (5-10) fotografías durante la clase (datos no estructurados), y luego usar IA para identificar las caras de los estudiantes (convertir los datos a forma estructurada). | Podemos calcular datos promedio de asistencia para cada estudiante y ver si hay alguna correlación con las calificaciones de los exámenes. Hablaremos más sobre correlación en la sección de [probabilidad y estadística](../../04-stats-and-probability/README.md). Para estimular la asistencia de los estudiantes, podemos publicar el índice de asistencia semanal en el portal de la escuela y sortear premios entre aquellos con mayor asistencia. |
+| Vacunación | | | | |
+| Productividad | | | | |
+
+> *Proporcionamos solo una respuesta como ejemplo, para que puedas tener una idea de lo que se espera en esta asignación.*
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Se identificaron fuentes de datos razonables, formas de almacenar los datos y posibles decisiones/información para todos los dominios de problemas | Algunos aspectos de la solución no están detallados, el almacenamiento de datos no se discute, al menos 2 dominios de problemas están descritos | Solo se describen partes de la solución de datos, solo se considera un dominio de problema.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/02-ethics/README.md b/translations/es/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..66d0df75
--- /dev/null
+++ b/translations/es/1-Introduction/02-ethics/README.md
@@ -0,0 +1,263 @@
+
+# Introducción a la Ética de los Datos
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Ética en Ciencia de Datos - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Todos somos ciudadanos de datos viviendo en un mundo dataficado.
+
+Las tendencias del mercado indican que para 2022, 1 de cada 3 grandes organizaciones comprará y venderá sus datos a través de [mercados y plataformas de intercambio](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) en línea. Como **desarrolladores de aplicaciones**, nos resultará más fácil y económico integrar conocimientos basados en datos y automatización impulsada por algoritmos en las experiencias diarias de los usuarios. Pero a medida que la IA se vuelve omnipresente, también necesitaremos comprender los posibles daños causados por la [utilización indebida](https://www.youtube.com/watch?v=TQHs8SA1qpk) de estos algoritmos a gran escala.
+
+Las tendencias también indican que crearemos y consumiremos más de [180 zettabytes](https://www.statista.com/statistics/871513/worldwide-data-created/) de datos para 2025. Como **científicos de datos**, esto nos da niveles de acceso sin precedentes a datos personales. Esto significa que podemos construir perfiles de comportamiento de los usuarios e influir en la toma de decisiones de maneras que crean una [ilusión de libre elección](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), mientras potencialmente dirigimos a los usuarios hacia resultados que preferimos. También plantea preguntas más amplias sobre la privacidad de los datos y la protección de los usuarios.
+
+La ética de los datos es ahora un _guardarraíl necesario_ para la ciencia y la ingeniería de datos, ayudándonos a minimizar posibles daños y consecuencias no deseadas de nuestras acciones impulsadas por datos. El [Ciclo de Hype de Gartner para la IA](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifica tendencias relevantes en ética digital, IA responsable y gobernanza de IA como impulsores clave de megatendencias más amplias en torno a la _democratización_ y _industrialización_ de la IA.
+
+
+
+En esta lección, exploraremos el fascinante ámbito de la ética de los datos: desde conceptos y desafíos fundamentales, hasta estudios de caso y conceptos aplicados de IA como la gobernanza, que ayudan a establecer una cultura ética en equipos y organizaciones que trabajan con datos e IA.
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Definiciones Básicas
+
+Comencemos entendiendo la terminología básica.
+
+La palabra "ética" proviene de la [palabra griega "ethikos"](https://en.wikipedia.org/wiki/Ethics) (y su raíz "ethos") que significa _carácter o naturaleza moral_.
+
+**Ética** se refiere a los valores compartidos y principios morales que gobiernan nuestro comportamiento en la sociedad. La ética no se basa en leyes, sino en normas ampliamente aceptadas de lo que es "correcto vs. incorrecto". Sin embargo, las consideraciones éticas pueden influir en iniciativas de gobernanza corporativa y regulaciones gubernamentales que crean más incentivos para el cumplimiento.
+
+**Ética de los Datos** es una [nueva rama de la ética](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) que "estudia y evalúa problemas morales relacionados con _datos, algoritmos y prácticas correspondientes_". Aquí, **"datos"** se enfoca en acciones relacionadas con la generación, registro, curación, procesamiento, difusión, intercambio y uso; **"algoritmos"** se enfoca en IA, agentes, aprendizaje automático y robots; y **"prácticas"** se enfoca en temas como innovación responsable, programación, hacking y códigos de ética.
+
+**Ética Aplicada** es la [aplicación práctica de consideraciones morales](https://en.wikipedia.org/wiki/Applied_ethics). Es el proceso de investigar activamente cuestiones éticas en el contexto de _acciones, productos y procesos del mundo real_, y tomar medidas correctivas para garantizar que permanezcan alineados con nuestros valores éticos definidos.
+
+**Cultura Ética** se refiere a [_operacionalizar_ la ética aplicada](https://hbr.org/2019/05/how-to-design-an-ethical-organization) para garantizar que nuestros principios y prácticas éticas sean adoptados de manera consistente y escalable en toda la organización. Las culturas éticas exitosas definen principios éticos a nivel organizacional, proporcionan incentivos significativos para el cumplimiento y refuerzan las normas éticas alentando y amplificando los comportamientos deseados en todos los niveles de la organización.
+
+## Conceptos de Ética
+
+En esta sección, discutiremos conceptos como **valores compartidos** (principios) y **desafíos éticos** (problemas) para la ética de los datos, y exploraremos **estudios de caso** que te ayudarán a comprender estos conceptos en contextos del mundo real.
+
+### 1. Principios Éticos
+
+Toda estrategia de ética de los datos comienza definiendo _principios éticos_: los "valores compartidos" que describen comportamientos aceptables y guían acciones conformes en nuestros proyectos de datos e IA. Puedes definirlos a nivel individual o de equipo. Sin embargo, la mayoría de las grandes organizaciones los describen en una declaración de misión o marco de trabajo de _IA ética_ definido a nivel corporativo y aplicado de manera consistente en todos los equipos.
+
+**Ejemplo:** La declaración de misión de [IA Responsable](https://www.microsoft.com/en-us/ai/responsible-ai) de Microsoft dice: _"Estamos comprometidos con el avance de la IA impulsada por principios éticos que ponen a las personas primero"_, identificando 6 principios éticos en el marco a continuación:
+
+
+
+Exploremos brevemente estos principios. _Transparencia_ y _responsabilidad_ son valores fundamentales sobre los que se construyen otros principios, así que comencemos por ahí:
+
+* [**Responsabilidad**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) hace que los practicantes sean _responsables_ de sus operaciones de datos e IA, y del cumplimiento de estos principios éticos.
+* [**Transparencia**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) asegura que las acciones de datos e IA sean _comprensibles_ (interpretables) para los usuarios, explicando el qué y el porqué detrás de las decisiones.
+* [**Equidad**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) se enfoca en garantizar que la IA trate a _todas las personas_ de manera justa, abordando cualquier sesgo socio-técnico sistémico o implícito en los datos y sistemas.
+* [**Confiabilidad y Seguridad**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) asegura que la IA se comporte de manera _consistente_ con los valores definidos, minimizando posibles daños o consecuencias no deseadas.
+* [**Privacidad y Seguridad**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) se trata de comprender el linaje de los datos y proporcionar _privacidad de datos y protecciones relacionadas_ a los usuarios.
+* [**Inclusión**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) se trata de diseñar soluciones de IA con intención, adaptándolas para satisfacer una _amplia gama de necesidades y capacidades humanas_.
+
+> 🚨 Piensa en cuál podría ser tu declaración de misión de ética de los datos. Explora marcos de IA ética de otras organizaciones: aquí tienes ejemplos de [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) y [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). ¿Qué valores compartidos tienen en común? ¿Cómo se relacionan estos principios con el producto o la industria de IA en la que operan?
+
+### 2. Desafíos Éticos
+
+Una vez que hemos definido los principios éticos, el siguiente paso es evaluar nuestras acciones de datos e IA para ver si se alinean con esos valores compartidos. Piensa en tus acciones en dos categorías: _recolección de datos_ y _diseño de algoritmos_.
+
+En la recolección de datos, las acciones probablemente involucrarán **datos personales** o información personal identificable (PII) de individuos identificables. Esto incluye [diversos elementos de datos no personales](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) que _colectivamente_ identifican a un individuo. Los desafíos éticos pueden relacionarse con _privacidad de datos_, _propiedad de datos_ y temas relacionados como _consentimiento informado_ y _derechos de propiedad intelectual_ de los usuarios.
+
+En el diseño de algoritmos, las acciones involucrarán la recolección y curación de **conjuntos de datos**, y luego usarlos para entrenar y desplegar **modelos de datos** que predicen resultados o automatizan decisiones en contextos del mundo real. Los desafíos éticos pueden surgir de _sesgos en los conjuntos de datos_, problemas de _calidad de datos_, _injusticias_ y _falsas representaciones_ en los algoritmos, incluyendo algunos problemas que son sistémicos por naturaleza.
+
+En ambos casos, los desafíos éticos destacan áreas donde nuestras acciones pueden entrar en conflicto con nuestros valores compartidos. Para detectar, mitigar, minimizar o eliminar estas preocupaciones, necesitamos hacer preguntas morales de "sí/no" relacionadas con nuestras acciones y luego tomar medidas correctivas según sea necesario. Veamos algunos desafíos éticos y las preguntas morales que plantean:
+
+#### 2.1 Propiedad de los Datos
+
+La recolección de datos a menudo involucra datos personales que pueden identificar a los sujetos de los datos. [La propiedad de los datos](https://permission.io/blog/data-ownership) se refiere al _control_ y [_derechos de los usuarios_](https://permission.io/blog/data-ownership) relacionados con la creación, procesamiento y difusión de datos.
+
+Las preguntas morales que debemos hacernos son:
+ * ¿Quién es el propietario de los datos? (usuario u organización)
+ * ¿Qué derechos tienen los sujetos de los datos? (ej.: acceso, eliminación, portabilidad)
+ * ¿Qué derechos tienen las organizaciones? (ej.: rectificar reseñas maliciosas de usuarios)
+
+#### 2.2 Consentimiento Informado
+
+[El consentimiento informado](https://legaldictionary.net/informed-consent/) define el acto de que los usuarios acepten una acción (como la recolección de datos) con un _entendimiento completo_ de los hechos relevantes, incluyendo el propósito, los posibles riesgos y las alternativas.
+
+Preguntas a explorar aquí son:
+ * ¿El usuario (sujeto de los datos) dio permiso para la captura y uso de datos?
+ * ¿El usuario entendió el propósito para el cual se capturaron esos datos?
+ * ¿El usuario entendió los posibles riesgos de su participación?
+
+#### 2.3 Propiedad Intelectual
+
+[La propiedad intelectual](https://en.wikipedia.org/wiki/Intellectual_property) se refiere a creaciones intangibles resultantes de la iniciativa humana, que pueden _tener valor económico_ para individuos o empresas.
+
+Preguntas a explorar aquí son:
+ * ¿Los datos recolectados tienen valor económico para un usuario o empresa?
+ * ¿El **usuario** tiene propiedad intelectual aquí?
+ * ¿La **organización** tiene propiedad intelectual aquí?
+ * Si existen estos derechos, ¿cómo los estamos protegiendo?
+
+#### 2.4 Privacidad de los Datos
+
+[La privacidad de los datos](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) o privacidad de la información se refiere a la preservación de la privacidad del usuario y la protección de su identidad con respecto a la información personal identificable.
+
+Preguntas a explorar aquí son:
+ * ¿Los datos (personales) de los usuarios están protegidos contra hackeos y filtraciones?
+ * ¿Los datos de los usuarios son accesibles solo para usuarios y contextos autorizados?
+ * ¿Se preserva el anonimato de los usuarios cuando los datos se comparten o difunden?
+ * ¿Se puede desidentificar a un usuario de conjuntos de datos anonimizados?
+
+#### 2.5 Derecho al Olvido
+
+El [Derecho al Olvido](https://en.wikipedia.org/wiki/Right_to_be_forgotten) o [Derecho de Supresión](https://www.gdpreu.org/right-to-be-forgotten/) proporciona protección adicional de datos personales a los usuarios. Específicamente, otorga a los usuarios el derecho a solicitar la eliminación o supresión de datos personales de búsquedas en Internet y otros lugares, _bajo circunstancias específicas_, permitiéndoles un nuevo comienzo en línea sin que se les juzgue por acciones pasadas.
+
+Preguntas a explorar aquí son:
+ * ¿El sistema permite a los sujetos de los datos solicitar la supresión?
+ * ¿Debería el retiro del consentimiento del usuario activar la supresión automática?
+ * ¿Se recolectaron datos sin consentimiento o por medios ilegales?
+ * ¿Cumplimos con las regulaciones gubernamentales sobre privacidad de datos?
+
+#### 2.6 Sesgo en los Conjuntos de Datos
+
+El sesgo en los conjuntos de datos o [sesgo de recolección](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) se refiere a la selección de un subconjunto _no representativo_ de datos para el desarrollo de algoritmos, creando potenciales injusticias en los resultados para diversos grupos. Los tipos de sesgo incluyen sesgo de selección o muestreo, sesgo de voluntarios y sesgo de instrumentos.
+
+Preguntas a explorar aquí son:
+ * ¿Reclutamos un conjunto representativo de sujetos de datos?
+ * ¿Probamos nuestro conjunto de datos recolectado o curado para diversos sesgos?
+ * ¿Podemos mitigar o eliminar los sesgos descubiertos?
+
+#### 2.7 Calidad de los Datos
+
+[La calidad de los datos](https://lakefs.io/data-quality-testing/) evalúa la validez del conjunto de datos curado utilizado para desarrollar nuestros algoritmos, verificando si las características y registros cumplen con los requisitos de precisión y consistencia necesarios para nuestro propósito de IA.
+
+Preguntas a explorar aquí son:
+ * ¿Capturamos características válidas para nuestro caso de uso?
+ * ¿Se capturaron los datos de manera consistente en diversas fuentes?
+ * ¿El conjunto de datos es completo para diversas condiciones o escenarios?
+ * ¿La información capturada refleja con precisión la realidad?
+[Equidad Algorítmica](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) verifica si el diseño del algoritmo discrimina sistemáticamente contra subgrupos específicos de sujetos de datos, lo que puede llevar a [daños potenciales](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) en la _asignación_ (donde se niegan o retienen recursos a ese grupo) y en la _calidad del servicio_ (donde la IA no es tan precisa para algunos subgrupos como lo es para otros).
+
+Preguntas para explorar aquí son:
+ * ¿Evaluamos la precisión del modelo para diversos subgrupos y condiciones?
+ * ¿Examinamos el sistema en busca de posibles daños (por ejemplo, estereotipos)?
+ * ¿Podemos revisar los datos o reentrenar los modelos para mitigar los daños identificados?
+
+Explora recursos como [listas de verificación de equidad en IA](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) para aprender más.
+
+#### 2.9 Representación Errónea
+
+[Representación Errónea de Datos](https://www.sciencedirect.com/topics/computer-science/misrepresentation) se refiere a preguntarnos si estamos comunicando conocimientos de datos reportados de manera honesta, pero de forma engañosa, para respaldar una narrativa deseada.
+
+Preguntas para explorar aquí son:
+ * ¿Estamos reportando datos incompletos o inexactos?
+ * ¿Estamos visualizando datos de una manera que lleva a conclusiones engañosas?
+ * ¿Estamos utilizando técnicas estadísticas selectivas para manipular resultados?
+ * ¿Existen explicaciones alternativas que puedan ofrecer una conclusión diferente?
+
+#### 2.10 Libre Elección
+La [Ilusión de Libre Elección](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ocurre cuando las "arquitecturas de elección" del sistema utilizan algoritmos de toma de decisiones para influir a las personas hacia un resultado preferido, mientras aparentan darles opciones y control. Estos [patrones oscuros](https://www.darkpatterns.org/) pueden causar daños sociales y económicos a los usuarios. Dado que las decisiones de los usuarios impactan los perfiles de comportamiento, estas acciones pueden potencialmente impulsar elecciones futuras que amplifiquen o extiendan el impacto de estos daños.
+
+Preguntas para explorar aquí son:
+ * ¿El usuario entendió las implicaciones de tomar esa decisión?
+ * ¿El usuario estaba al tanto de las opciones (alternativas) y los pros y contras de cada una?
+ * ¿Puede el usuario revertir una decisión automatizada o influenciada más tarde?
+
+### 3. Estudios de Caso
+
+Para contextualizar estos desafíos éticos en el mundo real, es útil observar estudios de caso que destacan los posibles daños y consecuencias para individuos y la sociedad cuando se pasan por alto estas violaciones éticas.
+
+Aquí hay algunos ejemplos:
+
+| Desafío Ético | Estudio de Caso |
+|--- |--- |
+| **Consentimiento Informado** | 1972 - [Estudio de Sífilis de Tuskegee](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - A los hombres afroamericanos que participaron en el estudio se les prometió atención médica gratuita, _pero fueron engañados_ por los investigadores, quienes no informaron a los sujetos sobre su diagnóstico ni sobre la disponibilidad de tratamiento. Muchos murieron y sus parejas o hijos se vieron afectados; el estudio duró 40 años. |
+| **Privacidad de Datos** | 2007 - El [premio de datos de Netflix](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) proporcionó a los investigadores _10 millones de clasificaciones de películas anonimizadas de 50,000 clientes_ para mejorar los algoritmos de recomendación. Sin embargo, los investigadores pudieron correlacionar datos anonimizados con datos personales identificables en _conjuntos de datos externos_ (por ejemplo, comentarios en IMDb), "desanonimizando" efectivamente a algunos suscriptores de Netflix.|
+| **Sesgo en la Recolección de Datos** | 2013 - La ciudad de Boston [desarrolló Street Bump](https://www.boston.gov/transportation/street-bump), una aplicación que permitía a los ciudadanos reportar baches, proporcionando mejores datos sobre carreteras para encontrar y solucionar problemas. Sin embargo, [las personas de grupos de ingresos más bajos tenían menos acceso a automóviles y teléfonos](https://hbr.org/2013/04/the-hidden-biases-in-big-data), haciendo que sus problemas de carreteras fueran invisibles en esta aplicación. Los desarrolladores trabajaron con académicos para abordar _problemas de acceso equitativo y brechas digitales_ por equidad. |
+| **Equidad Algorítmica** | 2018 - El MIT [Estudio Gender Shades](http://gendershades.org/overview.html) evaluó la precisión de productos de IA para clasificación de género, exponiendo brechas en la precisión para mujeres y personas de color. Una [tarjeta de crédito de Apple en 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) parecía ofrecer menos crédito a mujeres que a hombres. Ambos casos ilustraron problemas de sesgo algorítmico que llevaron a daños socioeconómicos.|
+| **Representación Errónea de Datos** | 2020 - El [Departamento de Salud Pública de Georgia publicó gráficos de COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) que parecían engañar a los ciudadanos sobre las tendencias de casos confirmados con un eje x no cronológico. Esto ilustra la representación errónea a través de trucos de visualización. |
+| **Ilusión de Libre Elección** | 2020 - La aplicación educativa [ABCmouse pagó $10 millones para resolver una queja de la FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) donde los padres quedaron atrapados pagando suscripciones que no podían cancelar. Esto ilustra patrones oscuros en arquitecturas de elección, donde los usuarios fueron influenciados hacia decisiones potencialmente dañinas. |
+| **Privacidad de Datos y Derechos de los Usuarios** | 2021 - La [violación de datos de Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) expuso datos de 530 millones de usuarios, resultando en un acuerdo de $5 mil millones con la FTC. Sin embargo, se negó a notificar a los usuarios sobre la violación, violando los derechos de los usuarios en torno a la transparencia y el acceso a los datos. |
+
+¿Quieres explorar más estudios de caso? Consulta estos recursos:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - dilemas éticos en diversas industrias.
+* [Curso de Ética en Ciencia de Datos](https://www.coursera.org/learn/data-science-ethics#syllabus) - estudios de caso destacados.
+* [Dónde las cosas han salido mal](https://deon.drivendata.org/examples/) - lista de verificación de Deon con ejemplos.
+
+> 🚨 Piensa en los estudios de caso que has visto: ¿has experimentado o te has visto afectado por un desafío ético similar en tu vida? ¿Puedes pensar en al menos un estudio de caso adicional que ilustre uno de los desafíos éticos discutidos en esta sección?
+
+## Ética Aplicada
+
+Hemos hablado sobre conceptos éticos, desafíos y estudios de caso en contextos del mundo real. Pero, ¿cómo comenzamos a _aplicar_ principios y prácticas éticas en nuestros proyectos? ¿Y cómo _operacionalizamos_ estas prácticas para una mejor gobernanza? Exploremos algunas soluciones del mundo real:
+
+### 1. Códigos Profesionales
+
+Los Códigos Profesionales ofrecen una opción para que las organizaciones "incentiven" a sus miembros a apoyar sus principios éticos y declaración de misión. Los códigos son _directrices morales_ para el comportamiento profesional, ayudando a los empleados o miembros a tomar decisiones que se alineen con los principios de su organización. Solo son efectivos si los miembros cumplen voluntariamente; sin embargo, muchas organizaciones ofrecen recompensas y sanciones adicionales para motivar el cumplimiento.
+
+Ejemplos incluyen:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Código de Ética
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Código de Conducta (creado en 2013)
+ * [ACM Código de Ética y Conducta Profesional](https://www.acm.org/code-of-ethics) (desde 1993)
+
+> 🚨 ¿Perteneces a una organización profesional de ingeniería o ciencia de datos? Explora su sitio para ver si definen un código profesional de ética. ¿Qué dice esto sobre sus principios éticos? ¿Cómo están "incentivando" a los miembros a seguir el código?
+
+### 2. Listas de Verificación Éticas
+
+Mientras que los códigos profesionales definen el _comportamiento ético_ requerido de los practicantes, [tienen limitaciones conocidas](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) en su aplicación, particularmente en proyectos a gran escala. En cambio, muchos expertos en ciencia de datos [abogan por listas de verificación](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), que pueden **conectar principios con prácticas** de manera más determinista y accionable.
+
+Las listas de verificación convierten preguntas en tareas de "sí/no" que pueden ser operacionalizadas, permitiendo que se rastreen como parte de los flujos de trabajo estándar de lanzamiento de productos.
+
+Ejemplos incluyen:
+ * [Deon](https://deon.drivendata.org/) - una lista de verificación ética de datos de propósito general creada a partir de [recomendaciones de la industria](https://deon.drivendata.org/#checklist-citations) con una herramienta de línea de comandos para fácil integración.
+ * [Lista de Verificación de Auditoría de Privacidad](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - proporciona orientación general para prácticas de manejo de información desde perspectivas legales y sociales.
+ * [Lista de Verificación de Equidad en IA](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - creada por practicantes de IA para apoyar la adopción e integración de verificaciones de equidad en los ciclos de desarrollo de IA.
+ * [22 preguntas para la ética en datos e IA](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - un marco más abierto, estructurado para la exploración inicial de problemas éticos en diseño, implementación y contextos organizacionales.
+
+### 3. Regulaciones Éticas
+
+La ética trata de definir valores compartidos y hacer lo correcto _voluntariamente_. **Cumplimiento** trata de _seguir la ley_ si y donde esté definida. **Gobernanza** abarca todas las formas en que las organizaciones operan para hacer cumplir principios éticos y cumplir con las leyes establecidas.
+
+Hoy en día, la gobernanza toma dos formas dentro de las organizaciones. Primero, se trata de definir principios de **IA ética** y establecer prácticas para operacionalizar la adopción en todos los proyectos relacionados con IA en la organización. Segundo, se trata de cumplir con todas las **regulaciones de protección de datos** impuestas por el gobierno en las regiones donde opera.
+
+Ejemplos de regulaciones de protección de datos y privacidad:
+
+ * `1974`, [Ley de Privacidad de EE. UU.](https://www.justice.gov/opcl/privacy-act-1974) - regula la recolección, uso y divulgación de información personal por parte del _gobierno federal_.
+ * `1996`, [Ley de Portabilidad y Responsabilidad de Seguros de Salud de EE. UU. (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - protege datos personales de salud.
+ * `1998`, [Ley de Protección de la Privacidad Infantil en Línea de EE. UU. (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - protege la privacidad de datos de niños menores de 13 años.
+ * `2018`, [Reglamento General de Protección de Datos (GDPR)](https://gdpr-info.eu/) - proporciona derechos de usuario, protección de datos y privacidad.
+ * `2018`, [Ley de Privacidad del Consumidor de California (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - otorga a los consumidores más _derechos_ sobre sus datos personales.
+ * `2021`, [Ley de Protección de Información Personal de China](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) - una de las regulaciones de privacidad de datos en línea más estrictas del mundo.
+
+> 🚨 El Reglamento General de Protección de Datos (GDPR) definido por la Unión Europea sigue siendo una de las regulaciones de privacidad de datos más influyentes hoy en día. ¿Sabías que también define [8 derechos de usuario](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) para proteger la privacidad digital y los datos personales de los ciudadanos? Aprende cuáles son y por qué son importantes.
+
+### 4. Cultura Ética
+
+Nota que existe una brecha intangible entre el _cumplimiento_ (hacer lo suficiente para cumplir "la letra de la ley") y abordar [problemas sistémicos](https://www.coursera.org/learn/data-science-ethics/home/week/4) (como la osificación, la asimetría de información y la inequidad distributiva) que pueden acelerar la instrumentalización de la IA.
+
+Esto último requiere [enfoques colaborativos para definir culturas éticas](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) que construyan conexiones emocionales y valores compartidos consistentes _a través de las organizaciones_ en la industria. Esto exige más [culturas éticas formalizadas en datos](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) en las organizaciones, permitiendo que _cualquiera_ [tire del cordón Andon](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (para plantear preocupaciones éticas temprano en el proceso) y haciendo que las _evaluaciones éticas_ (por ejemplo, en contrataciones) sean un criterio central en la formación de equipos para proyectos de IA.
+
+---
+## [Cuestionario posterior a la clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Revisión y Autoestudio
+
+Los cursos y libros ayudan a comprender los conceptos éticos fundamentales y los desafíos, mientras que los estudios de caso y herramientas ayudan con las prácticas éticas aplicadas en contextos del mundo real. Aquí hay algunos recursos para comenzar:
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - lección sobre Equidad, de Microsoft.
+* [Principios de IA Responsable](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - ruta de aprendizaje gratuita de Microsoft Learn.
+* [Ética y Ciencia de Datos](https://resources.oreilly.com/examples/0636920203964) - EBook de O'Reilly (M. Loukides, H. Mason et. al).
+* [Ética en la Ciencia de Datos](https://www.coursera.org/learn/data-science-ethics#syllabus) - curso en línea de la Universidad de Michigan.
+* [Ética Desenvuelta](https://ethicsunwrapped.utexas.edu/case-studies) - estudios de caso de la Universidad de Texas.
+
+# Tarea
+
+[Escribe un Estudio de Caso sobre Ética de Datos](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/02-ethics/assignment.md b/translations/es/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..18a4cd17
--- /dev/null
+++ b/translations/es/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,33 @@
+
+## Escribe un Estudio de Caso sobre Ética de Datos
+
+## Instrucciones
+
+Has aprendido sobre varios [Desafíos de Ética de Datos](README.md#2-ethics-challenges) y has visto algunos ejemplos de [Estudios de Caso](README.md#3-case-studies) que reflejan desafíos de ética de datos en contextos del mundo real.
+
+En esta tarea, escribirás tu propio estudio de caso que refleje un desafío de ética de datos basado en tu experiencia personal o en un contexto relevante del mundo real con el que estés familiarizado. Solo sigue estos pasos:
+
+1. `Elige un Desafío de Ética de Datos`. Revisa [los ejemplos de la lección](README.md#2-ethics-challenges) o explora ejemplos en línea como [la Lista de Verificación Deon](https://deon.drivendata.org/examples/) para inspirarte.
+
+2. `Describe un Ejemplo del Mundo Real`. Piensa en una situación que hayas escuchado (noticias, estudio de investigación, etc.) o experimentado (comunidad local), donde ocurrió este desafío específico. Reflexiona sobre las preguntas éticas relacionadas con el desafío y analiza los posibles daños o consecuencias no intencionadas que surgen debido a este problema. Puntos extra: piensa en posibles soluciones o procesos que podrían aplicarse aquí para ayudar a eliminar o mitigar el impacto negativo de este desafío.
+
+3. `Proporciona una Lista de Recursos Relacionados`. Comparte uno o más recursos (enlaces a un artículo, una publicación personal en un blog o imagen, un artículo de investigación en línea, etc.) para demostrar que esto ocurrió en el mundo real. Puntos extra: comparte recursos que también muestren los posibles daños y consecuencias del incidente, o que destaquen pasos positivos tomados para prevenir su recurrencia.
+
+
+
+## Rúbrica
+
+Ejemplar | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Se identifican uno o más desafíos de ética de datos.
El estudio de caso describe claramente un incidente del mundo real que refleja ese desafío y destaca las consecuencias o daños indeseables que causó.
Hay al menos un recurso enlazado para demostrar que esto ocurrió. | Se identifica un desafío de ética de datos.
Al menos un daño o consecuencia relevante se discute brevemente.
Sin embargo, la discusión es limitada o carece de pruebas de que ocurrió en el mundo real. | Se identifica un desafío de datos.
Sin embargo, la descripción o los recursos no reflejan adecuadamente el desafío ni prueban que ocurrió en el mundo real. |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/03-defining-data/README.md b/translations/es/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..17f28a5b
--- /dev/null
+++ b/translations/es/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,83 @@
+
+# Definiendo Datos
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definiendo Datos - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Los datos son hechos, información, observaciones y mediciones que se utilizan para hacer descubrimientos y tomar decisiones informadas. Un punto de datos es una unidad única de datos dentro de un conjunto de datos, que es una colección de puntos de datos. Los conjuntos de datos pueden venir en diferentes formatos y estructuras, y generalmente estarán basados en su fuente, o de dónde provienen los datos. Por ejemplo, las ganancias mensuales de una empresa podrían estar en una hoja de cálculo, pero los datos de frecuencia cardíaca por hora de un reloj inteligente podrían estar en formato [JSON](https://stackoverflow.com/a/383699). Es común que los científicos de datos trabajen con diferentes tipos de datos dentro de un conjunto de datos.
+
+Esta lección se centra en identificar y clasificar los datos según sus características y sus fuentes.
+
+## [Cuestionario Previo a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+
+## Cómo se Describen los Datos
+
+### Datos Crudos
+Los datos crudos son datos que provienen de su fuente en su estado inicial y no han sido analizados ni organizados. Para entender lo que está sucediendo con un conjunto de datos, es necesario organizarlos en un formato que pueda ser comprendido tanto por humanos como por la tecnología que puedan usar para analizarlos más a fondo. La estructura de un conjunto de datos describe cómo está organizado y puede clasificarse como estructurado, no estructurado y semiestructurado. Estos tipos de estructura variarán dependiendo de la fuente, pero en última instancia encajarán en estas tres categorías.
+
+### Datos Cuantitativos
+Los datos cuantitativos son observaciones numéricas dentro de un conjunto de datos y generalmente pueden ser analizados, medidos y utilizados matemáticamente. Algunos ejemplos de datos cuantitativos son: la población de un país, la altura de una persona o las ganancias trimestrales de una empresa. Con un análisis adicional, los datos cuantitativos podrían usarse para descubrir tendencias estacionales del Índice de Calidad del Aire (AQI) o estimar la probabilidad de tráfico en hora punta en un día laboral típico.
+
+### Datos Cualitativos
+Los datos cualitativos, también conocidos como datos categóricos, son datos que no pueden medirse objetivamente como las observaciones de datos cuantitativos. Generalmente son varios formatos de datos subjetivos que capturan la calidad de algo, como un producto o proceso. A veces, los datos cualitativos son numéricos y no se usarían típicamente matemáticamente, como números de teléfono o marcas de tiempo. Algunos ejemplos de datos cualitativos son: comentarios en videos, la marca y modelo de un automóvil o el color favorito de tus amigos más cercanos. Los datos cualitativos podrían usarse para entender qué productos prefieren los consumidores o identificar palabras clave populares en currículums de solicitudes de empleo.
+
+### Datos Estructurados
+Los datos estructurados son datos organizados en filas y columnas, donde cada fila tendrá el mismo conjunto de columnas. Las columnas representan un valor de un tipo particular y se identificarán con un nombre que describe lo que representa el valor, mientras que las filas contienen los valores reales. Las columnas a menudo tendrán un conjunto específico de reglas o restricciones sobre los valores, para garantizar que los valores representen con precisión la columna. Por ejemplo, imagina una hoja de cálculo de clientes donde cada fila debe tener un número de teléfono y los números de teléfono nunca contienen caracteres alfabéticos. Podría haber reglas aplicadas en la columna de números de teléfono para asegurarse de que nunca esté vacía y solo contenga números.
+
+Un beneficio de los datos estructurados es que pueden organizarse de tal manera que puedan relacionarse con otros datos estructurados. Sin embargo, debido a que los datos están diseñados para estar organizados de una manera específica, realizar cambios en su estructura general puede requerir mucho esfuerzo. Por ejemplo, agregar una columna de correo electrónico a la hoja de cálculo de clientes que no puede estar vacía significa que necesitarás averiguar cómo agregar estos valores a las filas existentes de clientes en el conjunto de datos.
+
+Ejemplos de datos estructurados: hojas de cálculo, bases de datos relacionales, números de teléfono, extractos bancarios.
+
+### Datos No Estructurados
+Los datos no estructurados generalmente no pueden categorizarse en filas o columnas y no contienen un formato o conjunto de reglas a seguir. Debido a que los datos no estructurados tienen menos restricciones en su estructura, es más fácil agregar nueva información en comparación con un conjunto de datos estructurado. Si un sensor que captura datos sobre presión barométrica cada 2 minutos ha recibido una actualización que ahora le permite medir y registrar la temperatura, no requiere alterar los datos existentes si son no estructurados. Sin embargo, esto puede hacer que analizar o investigar este tipo de datos tome más tiempo. Por ejemplo, un científico que quiere encontrar la temperatura promedio del mes anterior a partir de los datos del sensor, pero descubre que el sensor registró una "e" en algunos de sus datos para indicar que estaba roto en lugar de un número típico, lo que significa que los datos están incompletos.
+
+Ejemplos de datos no estructurados: archivos de texto, mensajes de texto, archivos de video.
+
+### Datos Semiestructurados
+Los datos semiestructurados tienen características que los convierten en una combinación de datos estructurados y no estructurados. Generalmente no se ajustan a un formato de filas y columnas, pero están organizados de una manera que se considera estructurada y pueden seguir un formato fijo o un conjunto de reglas. La estructura variará entre fuentes, como una jerarquía bien definida o algo más flexible que permita una fácil integración de nueva información. Los metadatos son indicadores que ayudan a decidir cómo se organizan y almacenan los datos y tendrán varios nombres, según el tipo de datos. Algunos nombres comunes para los metadatos son etiquetas, elementos, entidades y atributos. Por ejemplo, un mensaje de correo electrónico típico tendrá un asunto, cuerpo y un conjunto de destinatarios y puede organizarse según quién o cuándo se envió.
+
+Ejemplos de datos semiestructurados: HTML, archivos CSV, JavaScript Object Notation (JSON).
+
+## Fuentes de Datos
+
+Una fuente de datos es la ubicación inicial de donde se generaron los datos, o donde "viven", y variará según cómo y cuándo se recopilaron. Los datos generados por sus usuarios se conocen como datos primarios, mientras que los datos secundarios provienen de una fuente que ha recopilado datos para uso general. Por ejemplo, un grupo de científicos que recopila observaciones en una selva tropical se consideraría primario, y si deciden compartirlo con otros científicos, se consideraría secundario para aquellos que lo utilicen.
+
+Las bases de datos son una fuente común y dependen de un sistema de gestión de bases de datos para alojar y mantener los datos, donde los usuarios utilizan comandos llamados consultas para explorar los datos. Los archivos como fuentes de datos pueden ser archivos de audio, imagen y video, así como hojas de cálculo como Excel. Las fuentes de internet son una ubicación común para alojar datos, donde se pueden encontrar tanto bases de datos como archivos. Las interfaces de programación de aplicaciones, también conocidas como APIs, permiten a los programadores crear formas de compartir datos con usuarios externos a través de internet, mientras que el proceso de web scraping extrae datos de una página web. Las [lecciones en Trabajando con Datos](../../../../../../../../../2-Working-With-Data) se centran en cómo usar diversas fuentes de datos.
+
+## Conclusión
+
+En esta lección hemos aprendido:
+
+- Qué son los datos
+- Cómo se describen los datos
+- Cómo se clasifican y categorizan los datos
+- Dónde se pueden encontrar los datos
+
+## 🚀 Desafío
+
+Kaggle es una excelente fuente de conjuntos de datos abiertos. Utiliza la [herramienta de búsqueda de conjuntos de datos](https://www.kaggle.com/datasets) para encontrar algunos conjuntos de datos interesantes y clasifica de 3 a 5 conjuntos de datos con este criterio:
+
+- ¿Los datos son cuantitativos o cualitativos?
+- ¿Los datos son estructurados, no estructurados o semiestructurados?
+
+## [Cuestionario Posterior a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Revisión y Autoestudio
+
+- Esta unidad de Microsoft Learn, titulada [Clasifica tus Datos](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), tiene un desglose detallado de datos estructurados, semiestructurados y no estructurados.
+
+## Tarea
+
+[Clasificando Conjuntos de Datos](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/03-defining-data/assignment.md b/translations/es/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..638fb32c
--- /dev/null
+++ b/translations/es/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,77 @@
+
+# Clasificación de Conjuntos de Datos
+
+## Instrucciones
+
+Sigue las indicaciones de esta tarea para identificar y clasificar los datos con uno de cada uno de los siguientes tipos de datos:
+
+**Tipos de Estructura**: Estructurado, Semi-Estructurado o No Estructurado
+
+**Tipos de Valor**: Cualitativo o Cuantitativo
+
+**Tipos de Fuente**: Primaria o Secundaria
+
+1. Una empresa ha sido adquirida y ahora tiene una empresa matriz. Los científicos de datos han recibido una hoja de cálculo con números de teléfono de clientes de la empresa matriz.
+
+Tipo de Estructura:
+
+Tipo de Valor:
+
+Tipo de Fuente:
+
+---
+
+2. Un reloj inteligente ha estado recopilando datos de frecuencia cardíaca de su usuario, y los datos sin procesar están en formato JSON.
+
+Tipo de Estructura:
+
+Tipo de Valor:
+
+Tipo de Fuente:
+
+---
+
+3. Una encuesta laboral sobre la moral de los empleados que está almacenada en un archivo CSV.
+
+Tipo de Estructura:
+
+Tipo de Valor:
+
+Tipo de Fuente:
+
+---
+
+4. Astrofísicos están accediendo a una base de datos de galaxias que ha sido recopilada por una sonda espacial. Los datos contienen el número de planetas dentro de cada galaxia.
+
+Tipo de Estructura:
+
+Tipo de Valor:
+
+Tipo de Fuente:
+
+---
+
+5. Una aplicación de finanzas personales utiliza APIs para conectarse a las cuentas financieras de un usuario con el fin de calcular su patrimonio neto. Pueden ver todas sus transacciones en un formato de filas y columnas que se asemeja a una hoja de cálculo.
+
+Tipo de Estructura:
+
+Tipo de Valor:
+
+Tipo de Fuente:
+
+## Rúbrica
+
+Ejemplar | Adecuado | Necesita Mejorar
+--- | --- | --- |
+Identifica correctamente todos los tipos de estructura, valor y fuente | Identifica correctamente 3 tipos de estructura, valor y fuente | Identifica correctamente 2 o menos tipos de estructura, valor y fuente |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/04-stats-and-probability/README.md b/translations/es/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..070124f7
--- /dev/null
+++ b/translations/es/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,274 @@
+
+# Una Breve Introducción a Estadística y Probabilidad
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Estadística y Probabilidad - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+La Teoría de Estadística y Probabilidad son dos áreas de las Matemáticas estrechamente relacionadas y altamente relevantes para la Ciencia de Datos. Es posible trabajar con datos sin un conocimiento profundo de matemáticas, pero siempre es mejor conocer al menos algunos conceptos básicos. Aquí presentaremos una breve introducción que te ayudará a comenzar.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Probabilidad y Variables Aleatorias
+
+**Probabilidad** es un número entre 0 y 1 que expresa cuán probable es que ocurra un **evento**. Se define como el número de resultados positivos (que conducen al evento), dividido por el número total de resultados, suponiendo que todos los resultados son igualmente probables. Por ejemplo, al lanzar un dado, la probabilidad de obtener un número par es 3/6 = 0.5.
+
+Cuando hablamos de eventos, usamos **variables aleatorias**. Por ejemplo, la variable aleatoria que representa el número obtenido al lanzar un dado tomaría valores del 1 al 6. El conjunto de números del 1 al 6 se llama **espacio muestral**. Podemos hablar de la probabilidad de que una variable aleatoria tome un cierto valor, por ejemplo, P(X=3)=1/6.
+
+La variable aleatoria en el ejemplo anterior se llama **discreta**, porque tiene un espacio muestral contable, es decir, hay valores separados que se pueden enumerar. Hay casos en los que el espacio muestral es un rango de números reales o el conjunto completo de números reales. Estas variables se llaman **continuas**. Un buen ejemplo es el tiempo de llegada de un autobús.
+
+## Distribución de Probabilidad
+
+En el caso de variables aleatorias discretas, es fácil describir la probabilidad de cada evento mediante una función P(X). Para cada valor *s* del espacio muestral *S*, dará un número entre 0 y 1, de modo que la suma de todos los valores de P(X=s) para todos los eventos sea 1.
+
+La distribución discreta más conocida es la **distribución uniforme**, en la que hay un espacio muestral de N elementos, con una probabilidad igual de 1/N para cada uno de ellos.
+
+Es más difícil describir la distribución de probabilidad de una variable continua, con valores tomados de algún intervalo [a,b], o del conjunto completo de números reales ℝ. Consideremos el caso del tiempo de llegada de un autobús. De hecho, para cada tiempo exacto de llegada *t*, la probabilidad de que el autobús llegue exactamente en ese momento es 0.
+
+> ¡Ahora sabes que los eventos con probabilidad 0 ocurren, y muy a menudo! ¡Al menos cada vez que llega el autobús!
+
+Solo podemos hablar de la probabilidad de que una variable caiga en un intervalo dado de valores, por ejemplo, P(t1≤X2). En este caso, la distribución de probabilidad se describe mediante una **función de densidad de probabilidad** p(x), tal que
+
+![P(t_1\le X1, x2, ..., xn. Podemos definir el valor de la **media** (o **promedio aritmético**) de la secuencia de la manera tradicional como (x1+x2+xn)/n. A medida que aumentamos el tamaño de la muestra (es decir, tomamos el límite con n→∞), obtendremos la media (también llamada **esperanza**) de la distribución. Denotaremos la esperanza como **E**(x).
+
+> Se puede demostrar que para cualquier distribución discreta con valores {x1, x2, ..., xN} y probabilidades correspondientes p1, p2, ..., pN, la esperanza sería igual a E(X)=x1p1+x2p2+...+xNpN.
+
+Para identificar qué tan dispersos están los valores, podemos calcular la varianza σ2 = ∑(xi - μ)2/n, donde μ es la media de la secuencia. El valor σ se llama **desviación estándar**, y σ2 se llama **varianza**.
+
+## Moda, Mediana y Cuartiles
+
+A veces, la media no representa adecuadamente el valor "típico" de los datos. Por ejemplo, cuando hay algunos valores extremos que están completamente fuera de rango, pueden afectar la media. Otra buena indicación es la **mediana**, un valor tal que la mitad de los puntos de datos son menores que él, y la otra mitad son mayores.
+
+Para ayudarnos a entender la distribución de los datos, es útil hablar de **cuartiles**:
+
+* El primer cuartil, o Q1, es un valor tal que el 25% de los datos están por debajo de él.
+* El tercer cuartil, o Q3, es un valor tal que el 75% de los datos están por debajo de él.
+
+Gráficamente, podemos representar la relación entre la mediana y los cuartiles en un diagrama llamado **diagrama de caja**:
+
+
+
+Aquí también calculamos el **rango intercuartílico** IQR=Q3-Q1, y los llamados **valores atípicos** - valores que están fuera de los límites [Q1-1.5*IQR,Q3+1.5*IQR].
+
+Para una distribución finita que contiene un pequeño número de valores posibles, un buen valor "típico" es aquel que aparece con mayor frecuencia, llamado **moda**. A menudo se aplica a datos categóricos, como colores. Consideremos una situación en la que tenemos dos grupos de personas: algunas que prefieren fuertemente el rojo, y otras que prefieren el azul. Si codificamos los colores con números, el valor promedio para un color favorito estaría en algún lugar del espectro naranja-verde, lo cual no indica la preferencia real de ninguno de los grupos. Sin embargo, la moda sería uno de los colores, o ambos colores, si el número de personas que votan por ellos es igual (en este caso llamamos a la muestra **multimodal**).
+
+## Datos del Mundo Real
+
+Cuando analizamos datos del mundo real, a menudo no son variables aleatorias como tal, en el sentido de que no realizamos experimentos con resultados desconocidos. Por ejemplo, consideremos un equipo de jugadores de béisbol y sus datos corporales, como altura, peso y edad. Esos números no son exactamente aleatorios, pero aún podemos aplicar los mismos conceptos matemáticos. Por ejemplo, una secuencia de pesos de personas puede considerarse como una secuencia de valores tomados de alguna variable aleatoria. A continuación, se muestra la secuencia de pesos de jugadores reales de béisbol de [Major League Baseball](http://mlb.mlb.com/index.jsp), tomada de [este conjunto de datos](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (para tu conveniencia, solo se muestran los primeros 20 valores):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Nota**: Para ver un ejemplo de cómo trabajar con este conjunto de datos, consulta el [notebook asociado](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb). También hay varios desafíos a lo largo de esta lección, y puedes completarlos agregando algo de código a ese notebook. Si no estás seguro de cómo operar con datos, no te preocupes: volveremos a trabajar con datos usando Python más adelante. Si no sabes cómo ejecutar código en Jupyter Notebook, consulta [este artículo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Aquí está el diagrama de caja que muestra la media, mediana y cuartiles de nuestros datos:
+
+
+
+Dado que nuestros datos contienen información sobre diferentes **roles** de jugadores, también podemos hacer el diagrama de caja por rol, lo que nos permitirá tener una idea de cómo varían los valores de los parámetros según los roles. Esta vez consideraremos la altura:
+
+
+
+Este diagrama sugiere que, en promedio, la altura de los jugadores de primera base es mayor que la de los jugadores de segunda base. Más adelante en esta lección aprenderemos cómo podemos probar esta hipótesis de manera más formal y cómo demostrar que nuestros datos son estadísticamente significativos para mostrar esto.
+
+> Al trabajar con datos del mundo real, asumimos que todos los puntos de datos son muestras tomadas de alguna distribución de probabilidad. Esta suposición nos permite aplicar técnicas de aprendizaje automático y construir modelos predictivos funcionales.
+
+Para ver cuál es la distribución de nuestros datos, podemos graficar un **histograma**. El eje X contendrá un número de diferentes intervalos de peso (los llamados **bins**), y el eje vertical mostrará la cantidad de veces que nuestra muestra de variable aleatoria estuvo dentro de un intervalo dado.
+
+
+
+De este histograma puedes ver que todos los valores están centrados alrededor de un cierto peso promedio, y cuanto más nos alejamos de ese peso, menos frecuentemente se encuentran pesos de ese valor. Es decir, es muy improbable que el peso de un jugador de béisbol sea muy diferente del peso promedio. La varianza de los pesos muestra hasta qué punto es probable que los pesos difieran del promedio.
+
+> Si tomamos los pesos de otras personas, no de la liga de béisbol, es probable que la distribución sea diferente. Sin embargo, la forma de la distribución será la misma, pero la media y la varianza cambiarán. Por lo tanto, si entrenamos nuestro modelo con jugadores de béisbol, es probable que dé resultados incorrectos cuando se aplique a estudiantes de una universidad, porque la distribución subyacente es diferente.
+
+## Distribución Normal
+
+La distribución de pesos que hemos visto anteriormente es muy típica, y muchas mediciones del mundo real siguen el mismo tipo de distribución, pero con diferentes medias y varianzas. Esta distribución se llama **distribución normal**, y juega un papel muy importante en estadística.
+
+Usar la distribución normal es una forma correcta de generar pesos aleatorios de posibles jugadores de béisbol. Una vez que conocemos el peso promedio `mean` y la desviación estándar `std`, podemos generar 1000 muestras de peso de la siguiente manera:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Si graficamos el histograma de las muestras generadas, veremos una imagen muy similar a la mostrada anteriormente. Y si aumentamos el número de muestras y el número de bins, podemos generar una imagen de una distribución normal más cercana al ideal:
+
+
+
+*Distribución Normal con media=0 y desviación estándar=1*
+
+## Intervalos de Confianza
+
+Cuando hablamos de los pesos de los jugadores de béisbol, asumimos que existe una **variable aleatoria W** que corresponde a la distribución de probabilidad ideal de los pesos de todos los jugadores de béisbol (la llamada **población**). Nuestra secuencia de pesos corresponde a un subconjunto de todos los jugadores de béisbol que llamamos **muestra**. Una pregunta interesante es: ¿podemos conocer los parámetros de la distribución de W, es decir, la media y la varianza de la población?
+
+La respuesta más sencilla sería calcular la media y la varianza de nuestra muestra. Sin embargo, podría suceder que nuestra muestra aleatoria no represente con precisión a la población completa. Por lo tanto, tiene sentido hablar de **intervalos de confianza**.
+> **Intervalo de confianza** es la estimación del valor medio verdadero de la población dado nuestro muestra, que es precisa con una cierta probabilidad (o **nivel de confianza**).
+Supongamos que tenemos una muestra X1, ..., Xn de nuestra distribución. Cada vez que tomamos una muestra de nuestra distribución, obtendremos un valor medio μ diferente. Por lo tanto, μ puede considerarse una variable aleatoria. Un **intervalo de confianza** con confianza p es un par de valores (Lp,Rp), tal que **P**(Lp≤μ≤Rp) = p, es decir, la probabilidad de que el valor medio medido caiga dentro del intervalo es igual a p.
+
+Va más allá de nuestra breve introducción discutir en detalle cómo se calculan esos intervalos de confianza. Se pueden encontrar más detalles [en Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). En resumen, definimos la distribución de la media de la muestra calculada en relación con la media verdadera de la población, lo que se llama **distribución t de Student**.
+
+> **Dato interesante**: La distribución t de Student lleva ese nombre en honor al matemático William Sealy Gosset, quien publicó su artículo bajo el seudónimo "Student". Trabajaba en la cervecería Guinness y, según una de las versiones, su empleador no quería que el público supiera que estaban utilizando pruebas estadísticas para determinar la calidad de las materias primas.
+
+Si queremos estimar la media μ de nuestra población con confianza p, necesitamos tomar el *percentil (1-p)/2* de una distribución t de Student A, que puede obtenerse de tablas o calcularse usando algunas funciones integradas de software estadístico (por ejemplo, Python, R, etc.). Entonces, el intervalo para μ sería dado por X±A*D/√n, donde X es la media obtenida de la muestra y D es la desviación estándar.
+
+> **Nota**: También omitimos la discusión de un concepto importante de [grados de libertad](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), que es relevante en relación con la distribución t de Student. Puedes consultar libros más completos sobre estadística para entender este concepto en profundidad.
+
+Un ejemplo de cálculo de intervalos de confianza para pesos y alturas se encuentra en los [notebooks adjuntos](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+| p | Media del peso |
+|------|----------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Observa que cuanto mayor es la probabilidad de confianza, más amplio es el intervalo de confianza.
+
+## Pruebas de hipótesis
+
+En nuestro conjunto de datos de jugadores de béisbol, hay diferentes roles de jugadores, que se pueden resumir a continuación (consulta el [notebook adjunto](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) para ver cómo se puede calcular esta tabla):
+
+| Rol | Altura | Peso | Cantidad |
+|--------------------|------------|------------|----------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Podemos notar que la altura media de los primera base es mayor que la de los segunda base. Por lo tanto, podríamos estar tentados a concluir que **los primera base son más altos que los segunda base**.
+
+> Esta afirmación se llama **una hipótesis**, porque no sabemos si el hecho es realmente cierto o no.
+
+Sin embargo, no siempre es obvio si podemos llegar a esta conclusión. Por la discusión anterior, sabemos que cada media tiene un intervalo de confianza asociado, y por lo tanto esta diferencia podría ser solo un error estadístico. Necesitamos una forma más formal de probar nuestra hipótesis.
+
+Calculemos los intervalos de confianza por separado para las alturas de los primera y segunda base:
+
+| Confianza | Primera base | Segunda base |
+|-----------|----------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Podemos ver que en ningún nivel de confianza los intervalos se superponen. Esto prueba nuestra hipótesis de que los primera base son más altos que los segunda base.
+
+Más formalmente, el problema que estamos resolviendo es ver si **dos distribuciones de probabilidad son iguales**, o al menos tienen los mismos parámetros. Dependiendo de la distribución, necesitamos usar diferentes pruebas para ello. Si sabemos que nuestras distribuciones son normales, podemos aplicar el **[t-test de Student](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+En el t-test de Student, calculamos el llamado **valor t**, que indica la diferencia entre las medias, teniendo en cuenta la varianza. Se ha demostrado que el valor t sigue la **distribución t de Student**, lo que nos permite obtener el valor umbral para un nivel de confianza **p** dado (esto puede calcularse o consultarse en tablas numéricas). Luego comparamos el valor t con este umbral para aprobar o rechazar la hipótesis.
+
+En Python, podemos usar el paquete **SciPy**, que incluye la función `ttest_ind` (además de muchas otras funciones estadísticas útiles). Esta función calcula el valor t por nosotros y también realiza la búsqueda inversa del valor de confianza p, de modo que solo necesitamos observar la confianza para sacar una conclusión.
+
+Por ejemplo, nuestra comparación entre las alturas de los primera y segunda base nos da los siguientes resultados:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+En nuestro caso, el valor p es muy bajo, lo que significa que hay una fuerte evidencia que respalda que los primera base son más altos.
+
+También hay otros tipos de hipótesis que podríamos querer probar, por ejemplo:
+* Probar que una muestra dada sigue alguna distribución. En nuestro caso, hemos asumido que las alturas están distribuidas normalmente, pero eso necesita una verificación estadística formal.
+* Probar que el valor medio de una muestra corresponde a un valor predefinido.
+* Comparar las medias de varias muestras (por ejemplo, cuál es la diferencia en los niveles de felicidad entre diferentes grupos de edad).
+
+## Ley de los grandes números y teorema central del límite
+
+Una de las razones por las que la distribución normal es tan importante es el llamado **teorema central del límite**. Supongamos que tenemos una gran muestra de N valores independientes X1, ..., XN, muestreados de cualquier distribución con media μ y varianza σ2. Entonces, para un N suficientemente grande (en otras palabras, cuando N→∞), la media ΣiXi estará distribuida normalmente, con media μ y varianza σ2/N.
+
+> Otra forma de interpretar el teorema central del límite es decir que, independientemente de la distribución, cuando calculas la media de una suma de valores de cualquier variable aleatoria, terminas con una distribución normal.
+
+Del teorema central del límite también se deduce que, cuando N→∞, la probabilidad de que la media de la muestra sea igual a μ se convierte en 1. Esto se conoce como **la ley de los grandes números**.
+
+## Covarianza y correlación
+
+Una de las cosas que hace la ciencia de datos es encontrar relaciones entre los datos. Decimos que dos secuencias **correlacionan** cuando exhiben un comportamiento similar al mismo tiempo, es decir, ambas suben/bajan simultáneamente, o una sube cuando la otra baja y viceversa. En otras palabras, parece haber alguna relación entre las dos secuencias.
+
+> La correlación no necesariamente indica una relación causal entre dos secuencias; a veces ambas variables pueden depender de una causa externa, o puede ser pura casualidad que las dos secuencias correlacionen. Sin embargo, una fuerte correlación matemática es una buena indicación de que dos variables están de alguna manera conectadas.
+
+Matemáticamente, el concepto principal que muestra la relación entre dos variables aleatorias es la **covarianza**, que se calcula así: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Calculamos la desviación de ambas variables respecto a sus valores medios, y luego el producto de esas desviaciones. Si ambas variables se desvían juntas, el producto será siempre un valor positivo, lo que sumará una covarianza positiva. Si ambas variables se desvían de forma desincronizada (es decir, una cae por debajo del promedio cuando la otra sube por encima del promedio), siempre obtendremos números negativos, que sumarán una covarianza negativa. Si las desviaciones no son dependientes, sumarán aproximadamente cero.
+
+El valor absoluto de la covarianza no nos dice mucho sobre cuán grande es la correlación, porque depende de la magnitud de los valores reales. Para normalizarlo, podemos dividir la covarianza por la desviación estándar de ambas variables, para obtener la **correlación**. Lo bueno es que la correlación siempre está en el rango de [-1,1], donde 1 indica una fuerte correlación positiva entre los valores, -1 una fuerte correlación negativa, y 0 ninguna correlación en absoluto (las variables son independientes).
+
+**Ejemplo**: Podemos calcular la correlación entre los pesos y las alturas de los jugadores de béisbol del conjunto de datos mencionado anteriormente:
+```python
+print(np.corrcoef(weights,heights))
+```
+Como resultado, obtenemos una **matriz de correlación** como esta:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> La matriz de correlación C puede calcularse para cualquier número de secuencias de entrada S1, ..., Sn. El valor de Cij es la correlación entre Si y Sj, y los elementos diagonales siempre son 1 (que también es la autocorrelación de Si).
+
+En nuestro caso, el valor 0.53 indica que hay cierta correlación entre el peso y la altura de una persona. También podemos hacer un diagrama de dispersión de un valor contra el otro para ver la relación visualmente:
+
+
+
+> Más ejemplos de correlación y covarianza se pueden encontrar en el [notebook adjunto](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+## Conclusión
+
+En esta sección, hemos aprendido:
+
+* Propiedades estadísticas básicas de los datos, como media, varianza, moda y cuartiles.
+* Diferentes distribuciones de variables aleatorias, incluida la distribución normal.
+* Cómo encontrar la correlación entre diferentes propiedades.
+* Cómo usar un aparato matemático y estadístico sólido para probar algunas hipótesis.
+* Cómo calcular intervalos de confianza para una variable aleatoria dada una muestra de datos.
+
+Aunque esta no es una lista exhaustiva de temas que existen dentro de la probabilidad y la estadística, debería ser suficiente para darte un buen comienzo en este curso.
+
+## 🚀 Desafío
+
+Usa el código de ejemplo en el notebook para probar otras hipótesis:
+1. Los primera base son mayores que los segunda base.
+2. Los primera base son más altos que los tercera base.
+3. Los shortstops son más altos que los segunda base.
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Revisión y autoestudio
+
+La probabilidad y la estadística son temas tan amplios que merecen su propio curso. Si estás interesado en profundizar en la teoría, puedes continuar leyendo algunos de los siguientes libros:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) de la Universidad de Nueva York tiene excelentes notas de clase [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (disponibles en línea).
+1. [Peter y Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[código de ejemplo en R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[código de ejemplo en R](https://github.com/PacktPublishing/Statistics-for-Data-Science)].
+
+## Tarea
+
+[Pequeño estudio sobre diabetes](assignment.md)
+
+## Créditos
+
+Esta lección ha sido creada con ♥️ por [Dmitry Soshnikov](http://soshnikov.com)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/04-stats-and-probability/assignment.md b/translations/es/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..ebd1d3f0
--- /dev/null
+++ b/translations/es/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,38 @@
+
+# Pequeño Estudio sobre Diabetes
+
+En esta tarea, trabajaremos con un pequeño conjunto de datos de pacientes con diabetes tomado de [aquí](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | EDAD | SEXO | IMC | PA | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|------|------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
+
+## Instrucciones
+
+* Abre el [notebook de la tarea](../../../../1-Introduction/04-stats-and-probability/assignment.ipynb) en un entorno de jupyter notebook.
+* Completa todas las tareas listadas en el notebook, a saber:
+ * [ ] Calcular los valores medios y la varianza para todos los valores.
+ * [ ] Graficar diagramas de caja (boxplots) para IMC, PA y Y dependiendo del género.
+ * [ ] ¿Cuál es la distribución de las variables Edad, Sexo, IMC y Y?
+ * [ ] Probar la correlación entre diferentes variables y la progresión de la enfermedad (Y).
+ * [ ] Probar la hipótesis de que el grado de progresión de la diabetes es diferente entre hombres y mujeres.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | --- |
+Todas las tareas requeridas están completas, ilustradas gráficamente y explicadas | La mayoría de las tareas están completas, pero faltan explicaciones o conclusiones de los gráficos y/o valores obtenidos | Solo se completan tareas básicas como el cálculo de media/varianza y gráficos básicos, sin extraer conclusiones de los datos.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/1-Introduction/README.md b/translations/es/1-Introduction/README.md
new file mode 100644
index 00000000..ad0af5a5
--- /dev/null
+++ b/translations/es/1-Introduction/README.md
@@ -0,0 +1,29 @@
+
+# Introducción a la Ciencia de Datos
+
+
+> Foto por Stephen Dawson en Unsplash
+
+En estas lecciones, descubrirás cómo se define la Ciencia de Datos y aprenderás sobre las consideraciones éticas que un científico de datos debe tener en cuenta. También aprenderás cómo se define el dato y conocerás un poco sobre estadística y probabilidad, los dominios académicos fundamentales de la Ciencia de Datos.
+
+### Temas
+
+1. [Definiendo la Ciencia de Datos](01-defining-data-science/README.md)
+2. [Ética en la Ciencia de Datos](02-ethics/README.md)
+3. [Definiendo los Datos](03-defining-data/README.md)
+4. [Introducción a la Estadística y Probabilidad](04-stats-and-probability/README.md)
+
+### Créditos
+
+Estas lecciones fueron escritas con ❤️ por [Nitya Narasimhan](https://twitter.com/nitya) y [Dmitry Soshnikov](https://twitter.com/shwars).
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/05-relational-databases/README.md b/translations/es/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..f394b8d0
--- /dev/null
+++ b/translations/es/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,193 @@
+
+# Trabajando con Datos: Bases de Datos Relacionales
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Trabajando con Datos: Bases de Datos Relacionales - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Es probable que hayas usado una hoja de cálculo en el pasado para almacenar información. Tenías un conjunto de filas y columnas, donde las filas contenían la información (o datos) y las columnas describían la información (a veces llamada metadatos). Una base de datos relacional se basa en este principio central de columnas y filas en tablas, permitiéndote tener información distribuida en múltiples tablas. Esto te permite trabajar con datos más complejos, evitar duplicación y tener flexibilidad en la forma en que exploras los datos. Vamos a explorar los conceptos de una base de datos relacional.
+
+## [Cuestionario previo a la clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Todo comienza con tablas
+
+Una base de datos relacional tiene como núcleo las tablas. Al igual que con la hoja de cálculo, una tabla es una colección de columnas y filas. La fila contiene los datos o información con la que deseamos trabajar, como el nombre de una ciudad o la cantidad de lluvia. Las columnas describen los datos que almacenan.
+
+Comencemos nuestra exploración creando una tabla para almacenar información sobre ciudades. Podríamos empezar con su nombre y país. Podrías almacenar esto en una tabla como la siguiente:
+
+| Ciudad | País |
+| -------- | ------------- |
+| Tokio | Japón |
+| Atlanta | Estados Unidos|
+| Auckland | Nueva Zelanda |
+
+Nota que los nombres de las columnas **ciudad**, **país** y **población** describen los datos que se están almacenando, y cada fila tiene información sobre una ciudad.
+
+## Las limitaciones de un enfoque de tabla única
+
+Es probable que la tabla anterior te parezca relativamente familiar. Comencemos a agregar algunos datos adicionales a nuestra incipiente base de datos: la lluvia anual (en milímetros). Nos enfocaremos en los años 2018, 2019 y 2020. Si lo agregáramos para Tokio, podría verse algo así:
+
+| Ciudad | País | Año | Cantidad |
+| ------ | ------ | ---- | -------- |
+| Tokio | Japón | 2020 | 1690 |
+| Tokio | Japón | 2019 | 1874 |
+| Tokio | Japón | 2018 | 1445 |
+
+¿Qué notas sobre nuestra tabla? Podrías notar que estamos duplicando el nombre y el país de la ciudad una y otra vez. Eso podría ocupar bastante espacio de almacenamiento y es en gran medida innecesario tener múltiples copias. Después de todo, Tokio tiene solo un nombre que nos interesa.
+
+Bien, intentemos algo diferente. Agreguemos nuevas columnas para cada año:
+
+| Ciudad | País | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokio | Japón | 1445 | 1874 | 1690 |
+| Atlanta | Estados Unidos| 1779 | 1111 | 1683 |
+| Auckland | Nueva Zelanda | 1386 | 942 | 1176 |
+
+Aunque esto evita la duplicación de filas, agrega un par de otros desafíos. Tendríamos que modificar la estructura de nuestra tabla cada vez que haya un nuevo año. Además, a medida que nuestros datos crecen, tener los años como columnas hará que sea más complicado recuperar y calcular valores.
+
+Por eso necesitamos múltiples tablas y relaciones. Al dividir nuestros datos podemos evitar la duplicación y tener más flexibilidad en cómo trabajamos con ellos.
+
+## Los conceptos de relaciones
+
+Volvamos a nuestros datos y determinemos cómo queremos dividirlos. Sabemos que queremos almacenar el nombre y el país de nuestras ciudades, así que esto probablemente funcione mejor en una tabla.
+
+| Ciudad | País |
+| -------- | ------------- |
+| Tokio | Japón |
+| Atlanta | Estados Unidos|
+| Auckland | Nueva Zelanda |
+
+Pero antes de crear la siguiente tabla, necesitamos averiguar cómo referenciar cada ciudad. Necesitamos algún tipo de identificador, ID o (en términos técnicos de bases de datos) una clave primaria. Una clave primaria es un valor utilizado para identificar una fila específica en una tabla. Aunque esto podría basarse en un valor en sí mismo (podríamos usar el nombre de la ciudad, por ejemplo), casi siempre debería ser un número u otro identificador. No queremos que el ID cambie nunca, ya que rompería la relación. En la mayoría de los casos, la clave primaria o ID será un número generado automáticamente.
+
+> ✅ La clave primaria se abrevia frecuentemente como PK
+
+### ciudades
+
+| city_id | Ciudad | País |
+| ------- | -------- | ------------- |
+| 1 | Tokio | Japón |
+| 2 | Atlanta | Estados Unidos|
+| 3 | Auckland | Nueva Zelanda |
+
+> ✅ Notarás que usamos los términos "id" y "clave primaria" de manera intercambiable durante esta lección. Los conceptos aquí se aplican a DataFrames, que explorarás más adelante. Los DataFrames no usan la terminología de "clave primaria", sin embargo notarás que se comportan de manera muy similar.
+
+Con nuestra tabla de ciudades creada, almacenemos la lluvia. En lugar de duplicar la información completa sobre la ciudad, podemos usar el ID. También debemos asegurarnos de que la tabla recién creada tenga una columna *id*, ya que todas las tablas deben tener un ID o clave primaria.
+
+### lluvia
+
+| rainfall_id | city_id | Año | Cantidad |
+| ----------- | ------- | ---- | -------- |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Nota la columna **city_id** dentro de la tabla recién creada **lluvia**. Esta columna contiene valores que hacen referencia a los IDs en la tabla **ciudades**. En términos técnicos de datos relacionales, esto se llama **clave foránea**; es una clave primaria de otra tabla. Puedes pensar en ella como una referencia o un puntero. **city_id** 1 hace referencia a Tokio.
+
+> [!NOTE] La clave foránea se abrevia frecuentemente como FK
+
+## Recuperando los datos
+
+Con nuestros datos separados en dos tablas, podrías preguntarte cómo los recuperamos. Si estamos usando una base de datos relacional como MySQL, SQL Server u Oracle, podemos usar un lenguaje llamado Structured Query Language o SQL. SQL (a veces pronunciado "sequel") es un lenguaje estándar utilizado para recuperar y modificar datos en una base de datos relacional.
+
+Para recuperar datos usas el comando `SELECT`. En su núcleo, **seleccionas** las columnas que quieres ver **de** la tabla en la que están contenidas. Si quisieras mostrar solo los nombres de las ciudades, podrías usar lo siguiente:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` es donde enumeras las columnas, y `FROM` es donde enumeras las tablas.
+
+> [NOTE] La sintaxis de SQL no distingue entre mayúsculas y minúsculas, lo que significa que `select` y `SELECT` significan lo mismo. Sin embargo, dependiendo del tipo de base de datos que estés usando, las columnas y tablas podrían ser sensibles a mayúsculas y minúsculas. Como resultado, es una buena práctica tratar siempre todo en programación como si fuera sensible a mayúsculas y minúsculas. Al escribir consultas SQL, la convención común es poner las palabras clave en letras mayúsculas.
+
+La consulta anterior mostrará todas las ciudades. Imaginemos que solo queremos mostrar ciudades en Nueva Zelanda. Necesitamos algún tipo de filtro. La palabra clave de SQL para esto es `WHERE`, o "donde algo es verdadero".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Uniendo datos
+
+Hasta ahora hemos recuperado datos de una sola tabla. Ahora queremos reunir los datos de **ciudades** y **lluvia**. Esto se hace *uniéndolos* juntos. Efectivamente crearás una conexión entre las dos tablas y emparejarás los valores de una columna de cada tabla.
+
+En nuestro ejemplo, emparejaremos la columna **city_id** en **lluvia** con la columna **city_id** en **ciudades**. Esto emparejará el valor de lluvia con su respectiva ciudad. El tipo de unión que realizaremos se llama *inner join*, lo que significa que si alguna fila no coincide con nada de la otra tabla, no se mostrará. En nuestro caso, cada ciudad tiene datos de lluvia, por lo que todo se mostrará.
+
+Recuperemos la lluvia de 2019 para todas nuestras ciudades.
+
+Vamos a hacerlo en pasos. El primer paso es unir los datos indicando las columnas para la conexión - **city_id** como se destacó antes.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Hemos destacado las dos columnas que queremos, y el hecho de que queremos unir las tablas por **city_id**. Ahora podemos agregar la declaración `WHERE` para filtrar solo el año 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Resumen
+
+Las bases de datos relacionales se centran en dividir la información entre múltiples tablas que luego se reúnen para su visualización y análisis. Esto proporciona un alto grado de flexibilidad para realizar cálculos y manipular datos. Has visto los conceptos centrales de una base de datos relacional y cómo realizar una unión entre dos tablas.
+
+## 🚀 Desafío
+
+Existen numerosas bases de datos relacionales disponibles en internet. Puedes explorar los datos utilizando las habilidades que has aprendido anteriormente.
+
+## Cuestionario posterior a la clase
+
+## [Cuestionario posterior a la clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Revisión y Autoestudio
+
+Hay varios recursos disponibles en [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) para que continúes tu exploración de SQL y conceptos de bases de datos relacionales.
+
+- [Describir conceptos de datos relacionales](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Comienza a consultar con Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL es una versión de SQL)
+- [Contenido de SQL en Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Tarea
+
+[Título de la tarea](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/05-relational-databases/assignment.md b/translations/es/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..2905e0de
--- /dev/null
+++ b/translations/es/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,71 @@
+
+# Mostrando datos de aeropuertos
+
+Se te ha proporcionado una [base de datos](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) construida en [SQLite](https://sqlite.org/index.html) que contiene información sobre aeropuertos. El esquema se muestra a continuación. Utilizarás la [extensión SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) en [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) para mostrar información sobre los aeropuertos de diferentes ciudades.
+
+## Instrucciones
+
+Para comenzar con la tarea, necesitarás realizar algunos pasos. Tendrás que instalar algunas herramientas y descargar la base de datos de ejemplo.
+
+### Configura tu sistema
+
+Puedes usar Visual Studio Code y la extensión SQLite para interactuar con la base de datos.
+
+1. Ve a [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) y sigue las instrucciones para instalar Visual Studio Code.
+1. Instala la [extensión SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) como se indica en la página del Marketplace.
+
+### Descarga y abre la base de datos
+
+A continuación, descarga y abre la base de datos.
+
+1. Descarga el [archivo de la base de datos desde GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) y guárdalo en un directorio.
+1. Abre Visual Studio Code.
+1. Abre la base de datos en la extensión SQLite seleccionando **Ctl-Shift-P** (o **Cmd-Shift-P** en una Mac) y escribiendo `SQLite: Open database`.
+1. Selecciona **Choose database from file** y abre el archivo **airports.db** que descargaste previamente.
+1. Después de abrir la base de datos (no verás una actualización en la pantalla), crea una nueva ventana de consulta seleccionando **Ctl-Shift-P** (o **Cmd-Shift-P** en una Mac) y escribiendo `SQLite: New query`.
+
+Una vez abierta, la nueva ventana de consulta se puede usar para ejecutar sentencias SQL contra la base de datos. Puedes usar el comando **Ctl-Shift-Q** (o **Cmd-Shift-Q** en una Mac) para ejecutar consultas contra la base de datos.
+
+> [!NOTE] Para más información sobre la extensión SQLite, puedes consultar la [documentación](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum).
+
+## Esquema de la base de datos
+
+El esquema de una base de datos es el diseño y la estructura de sus tablas. La base de datos **airports** tiene dos tablas, `cities`, que contiene una lista de ciudades en el Reino Unido e Irlanda, y `airports`, que contiene la lista de todos los aeropuertos. Debido a que algunas ciudades pueden tener múltiples aeropuertos, se crearon dos tablas para almacenar la información. En este ejercicio, usarás joins para mostrar información de diferentes ciudades.
+
+| Ciudades |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Aeropuertos |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK a id en **Ciudades**) |
+
+## Tarea
+
+Crea consultas para devolver la siguiente información:
+
+1. todos los nombres de ciudades en la tabla `Cities`.
+1. todas las ciudades en Irlanda en la tabla `Cities`.
+1. todos los nombres de aeropuertos con su ciudad y país.
+1. todos los aeropuertos en Londres, Reino Unido.
+
+## Rúbrica
+
+| Ejemplar | Adecuado | Necesita Mejorar |
+| ---------- | --------- | ---------------- |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/06-non-relational/README.md b/translations/es/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..b34b3013
--- /dev/null
+++ b/translations/es/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,156 @@
+
+# Trabajando con Datos: Datos No Relacionales
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Trabajando con Datos NoSQL - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Cuestionario Previo a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Los datos no están limitados a bases de datos relacionales. Esta lección se centra en datos no relacionales y cubrirá los conceptos básicos de hojas de cálculo y NoSQL.
+
+## Hojas de Cálculo
+
+Las hojas de cálculo son una forma popular de almacenar y explorar datos porque requieren menos trabajo para configurarse y comenzar. En esta lección aprenderás los componentes básicos de una hoja de cálculo, así como fórmulas y funciones. Los ejemplos se ilustrarán con Microsoft Excel, pero la mayoría de las partes y temas tendrán nombres y pasos similares en comparación con otros programas de hojas de cálculo.
+
+
+
+Una hoja de cálculo es un archivo y será accesible en el sistema de archivos de una computadora, dispositivo o sistema de archivos basado en la nube. El software en sí puede ser basado en navegador o una aplicación que debe instalarse en una computadora o descargarse como una app. En Excel, estos archivos también se definen como **libros de trabajo** y esta terminología se usará durante el resto de la lección.
+
+Un libro de trabajo contiene una o más **hojas**, donde cada hoja está etiquetada por pestañas. Dentro de una hoja hay rectángulos llamados **celdas**, que contienen los datos reales. Una celda es la intersección de una fila y una columna, donde las columnas están etiquetadas con caracteres alfabéticos y las filas con números. Algunas hojas de cálculo contienen encabezados en las primeras filas para describir los datos en una celda.
+
+Con estos elementos básicos de un libro de trabajo de Excel, usaremos un ejemplo de [Microsoft Templates](https://templates.office.com/) enfocado en un inventario para recorrer algunas partes adicionales de una hoja de cálculo.
+
+### Gestionando un Inventario
+
+El archivo de hoja de cálculo llamado "InventoryExample" es una hoja de cálculo formateada de artículos dentro de un inventario que contiene tres hojas, donde las pestañas están etiquetadas como "Inventory List", "Inventory Pick List" y "Bin Lookup". La fila 4 de la hoja Inventory List es el encabezado, que describe el valor de cada celda en la columna del encabezado.
+
+
+
+Hay casos en los que una celda depende de los valores de otras celdas para generar su valor. La hoja de cálculo Inventory List realiza un seguimiento del costo de cada artículo en su inventario, pero ¿qué pasa si necesitamos saber el valor de todo el inventario? [**Fórmulas**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) realizan acciones sobre los datos de las celdas y se utilizan para calcular el costo del inventario en este ejemplo. Esta hoja de cálculo utilizó una fórmula en la columna Inventory Value para calcular el valor de cada artículo multiplicando la cantidad bajo el encabezado QTY y su costo por las celdas bajo el encabezado COST. Al hacer doble clic o resaltar una celda se mostrará la fórmula. Notarás que las fórmulas comienzan con un signo igual, seguido del cálculo u operación.
+
+
+
+Podemos usar otra fórmula para sumar todos los valores de Inventory Value y obtener su valor total. Esto podría calcularse sumando cada celda para generar la suma, pero eso puede ser una tarea tediosa. Excel tiene [**funciones**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), o fórmulas predefinidas para realizar cálculos sobre los valores de las celdas. Las funciones requieren argumentos, que son los valores necesarios para realizar estos cálculos. Cuando las funciones requieren más de un argumento, deben enumerarse en un orden particular o la función puede no calcular el valor correcto. Este ejemplo utiliza la función SUM y utiliza los valores de Inventory Value como argumento para generar el total listado bajo la fila 3, columna B (también conocida como B3).
+
+## NoSQL
+
+NoSQL es un término general para las diferentes formas de almacenar datos no relacionales y puede interpretarse como "no-SQL", "no relacional" o "no solo SQL". Estos tipos de sistemas de bases de datos pueden clasificarse en 4 tipos.
+
+
+> Fuente de [Blog de Michał Białecki](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+Las bases de datos [clave-valor](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) emparejan claves únicas, que son un identificador único asociado con un valor. Estos pares se almacenan utilizando una [tabla hash](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) con una función de hash adecuada.
+
+
+> Fuente de [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+Las bases de datos [de grafos](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) describen relaciones en los datos y se representan como una colección de nodos y aristas. Un nodo representa una entidad, algo que existe en el mundo real como un estudiante o un estado de cuenta bancario. Las aristas representan la relación entre dos entidades. Cada nodo y arista tienen propiedades que proporcionan información adicional sobre cada uno.
+
+
+
+Los [almacenes de datos columnar](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) organizan los datos en columnas y filas como una estructura de datos relacional, pero cada columna se divide en grupos llamados familias de columnas, donde todos los datos bajo una columna están relacionados y pueden recuperarse y modificarse como una unidad.
+
+### Almacenes de Datos Documentales con Azure Cosmos DB
+
+Los [almacenes de datos documentales](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) se basan en el concepto de un almacén de datos clave-valor y están compuestos por una serie de campos y objetos. Esta sección explorará las bases de datos documentales con el emulador de Cosmos DB.
+
+Una base de datos de Cosmos DB se ajusta a la definición de "No Solo SQL", donde la base de datos documental de Cosmos DB utiliza SQL para consultar los datos. La [lección anterior](../05-relational-databases/README.md) sobre SQL cubre los conceptos básicos del lenguaje, y podremos aplicar algunas de las mismas consultas a una base de datos documental aquí. Usaremos el emulador de Cosmos DB, que nos permite crear y explorar una base de datos documental localmente en una computadora. Lee más sobre el emulador [aquí](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Un documento es una colección de campos y valores de objetos, donde los campos describen lo que representa el valor del objeto. A continuación se muestra un ejemplo de un documento.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Los campos de interés en este documento son: `firstname`, `id` y `age`. El resto de los campos con guiones bajos fueron generados por Cosmos DB.
+
+#### Explorando Datos con el Emulador de Cosmos DB
+
+Puedes descargar e instalar el emulador [para Windows aquí](https://aka.ms/cosmosdb-emulator). Consulta esta [documentación](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) para opciones sobre cómo ejecutar el emulador en macOS y Linux.
+
+El emulador lanza una ventana del navegador, donde la vista Explorer te permite explorar documentos.
+
+
+
+Si estás siguiendo los pasos, haz clic en "Start with Sample" para generar una base de datos de ejemplo llamada SampleDB. Si expandes SampleDB haciendo clic en la flecha, encontrarás un contenedor llamado `Persons`. Un contenedor contiene una colección de elementos, que son los documentos dentro del contenedor. Puedes explorar los cuatro documentos individuales bajo `Items`.
+
+
+
+#### Consultando Datos Documentales con el Emulador de Cosmos DB
+
+También podemos consultar los datos de ejemplo haciendo clic en el botón de nueva consulta SQL (segundo botón desde la izquierda).
+
+`SELECT * FROM c` devuelve todos los documentos en el contenedor. Agreguemos una cláusula WHERE y encontremos a todos los menores de 40 años.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+La consulta devuelve dos documentos, observa que el valor de edad para cada documento es menor a 40.
+
+#### JSON y Documentos
+
+Si estás familiarizado con JavaScript Object Notation (JSON), notarás que los documentos se parecen a JSON. Hay un archivo `PersonsData.json` en este directorio con más datos que puedes cargar en el contenedor Persons en el emulador mediante el botón `Upload Item`.
+
+En la mayoría de los casos, las API que devuelven datos JSON pueden transferirse directamente y almacenarse en bases de datos documentales. A continuación se muestra otro documento, que representa tweets de la cuenta de Twitter de Microsoft que se recuperaron utilizando la API de Twitter y luego se insertaron en Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Los campos de interés en este documento son: `created_at`, `id` y `text`.
+
+## 🚀 Desafío
+
+Hay un archivo `TwitterData.json` que puedes cargar en la base de datos SampleDB. Se recomienda que lo agregues a un contenedor separado. Esto se puede hacer de la siguiente manera:
+
+1. Haz clic en el botón de nuevo contenedor en la parte superior derecha.
+1. Selecciona la base de datos existente (SampleDB) y crea un id de contenedor para el contenedor.
+1. Establece la clave de partición en `/id`.
+1. Haz clic en OK (puedes ignorar el resto de la información en esta vista ya que este es un conjunto de datos pequeño que se ejecuta localmente en tu máquina).
+1. Abre tu nuevo contenedor y carga el archivo de datos de Twitter con el botón `Upload Item`.
+
+Intenta ejecutar algunas consultas SELECT para encontrar los documentos que tienen la palabra Microsoft en el campo de texto. Pista: intenta usar la [palabra clave LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Cuestionario Posterior a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Revisión y Estudio Personal
+
+- Hay algunos formatos y características adicionales agregados a esta hoja de cálculo que esta lección no cubre. Microsoft tiene una [gran biblioteca de documentación y videos](https://support.microsoft.com/excel) sobre Excel si estás interesado en aprender más.
+
+- Esta documentación arquitectónica detalla las características de los diferentes tipos de datos no relacionales: [Datos No Relacionales y NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Cosmos DB es una base de datos no relacional basada en la nube que también puede almacenar los diferentes tipos de NoSQL mencionados en esta lección. Aprende más sobre estos tipos en este [Módulo de Microsoft Learn sobre Cosmos DB](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Tarea
+
+[Soda Profits](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/06-non-relational/assignment.md b/translations/es/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..fc73a212
--- /dev/null
+++ b/translations/es/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,31 @@
+
+# Beneficios de Soda
+
+## Instrucciones
+
+La [hoja de cálculo de Coca Cola Co](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) tiene algunos cálculos faltantes. Tu tarea es:
+
+1. Calcular los beneficios brutos de los años fiscales '15, '16, '17 y '18.
+ - Beneficio Bruto = Ingresos operativos netos - Costo de bienes vendidos
+1. Calcular el promedio de todos los beneficios brutos. Intenta hacerlo con una función.
+ - Promedio = Suma de los beneficios brutos dividida por el número de años fiscales (10)
+ - Documentación sobre la [función PROMEDIO](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Este es un archivo de Excel, pero debería ser editable en cualquier plataforma de hojas de cálculo.
+
+[Crédito de la fuente de datos a Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejoras
+--- | --- | --- |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/07-python/README.md b/translations/es/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..8abaa604
--- /dev/null
+++ b/translations/es/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,288 @@
+
+# Trabajando con Datos: Python y la Biblioteca Pandas
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Trabajando con Python - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Aunque las bases de datos ofrecen formas muy eficientes de almacenar datos y consultarlos utilizando lenguajes de consulta, la forma más flexible de procesar datos es escribir tu propio programa para manipularlos. En muchos casos, realizar una consulta en una base de datos sería una forma más efectiva. Sin embargo, en algunos casos donde se necesita un procesamiento de datos más complejo, no se puede realizar fácilmente utilizando SQL.
+El procesamiento de datos se puede programar en cualquier lenguaje de programación, pero hay ciertos lenguajes que son de nivel más alto en lo que respecta al trabajo con datos. Los científicos de datos suelen preferir uno de los siguientes lenguajes:
+
+* **[Python](https://www.python.org/)**, un lenguaje de programación de propósito general, que a menudo se considera una de las mejores opciones para principiantes debido a su simplicidad. Python tiene muchas bibliotecas adicionales que pueden ayudarte a resolver muchos problemas prácticos, como extraer tus datos de un archivo ZIP o convertir una imagen a escala de grises. Además de la ciencia de datos, Python también se utiliza frecuentemente para el desarrollo web.
+* **[R](https://www.r-project.org/)** es una herramienta tradicional desarrollada con el procesamiento de datos estadísticos en mente. También contiene un gran repositorio de bibliotecas (CRAN), lo que lo convierte en una buena opción para el procesamiento de datos. Sin embargo, R no es un lenguaje de propósito general y rara vez se utiliza fuera del ámbito de la ciencia de datos.
+* **[Julia](https://julialang.org/)** es otro lenguaje desarrollado específicamente para la ciencia de datos. Está diseñado para ofrecer un mejor rendimiento que Python, lo que lo convierte en una excelente herramienta para la experimentación científica.
+
+En esta lección, nos centraremos en usar Python para un procesamiento de datos simple. Asumiremos un conocimiento básico del lenguaje. Si deseas un recorrido más profundo por Python, puedes consultar uno de los siguientes recursos:
+
+* [Aprende Python de una manera divertida con gráficos de tortuga y fractales](https://github.com/shwars/pycourse) - Curso introductorio rápido basado en GitHub sobre programación en Python
+* [Da tus primeros pasos con Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Ruta de aprendizaje en [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Los datos pueden venir en muchas formas. En esta lección, consideraremos tres formas de datos: **datos tabulares**, **texto** e **imágenes**.
+
+Nos centraremos en algunos ejemplos de procesamiento de datos, en lugar de ofrecerte una visión completa de todas las bibliotecas relacionadas. Esto te permitirá obtener la idea principal de lo que es posible y te dejará con el entendimiento de dónde encontrar soluciones a tus problemas cuando las necesites.
+
+> **El consejo más útil**. Cuando necesites realizar cierta operación en datos que no sabes cómo hacer, intenta buscarla en internet. [Stackoverflow](https://stackoverflow.com/) suele contener muchos ejemplos útiles de código en Python para muchas tareas típicas.
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Datos Tabulares y Dataframes
+
+Ya te has encontrado con datos tabulares cuando hablamos de bases de datos relacionales. Cuando tienes muchos datos y están contenidos en muchas tablas vinculadas diferentes, definitivamente tiene sentido usar SQL para trabajar con ellos. Sin embargo, hay muchos casos en los que tenemos una tabla de datos y necesitamos obtener algún **entendimiento** o **perspectiva** sobre estos datos, como la distribución, la correlación entre valores, etc. En la ciencia de datos, hay muchos casos en los que necesitamos realizar algunas transformaciones de los datos originales, seguidas de visualización. Ambos pasos se pueden realizar fácilmente utilizando Python.
+
+Hay dos bibliotecas más útiles en Python que pueden ayudarte a trabajar con datos tabulares:
+* **[Pandas](https://pandas.pydata.org/)** te permite manipular los llamados **Dataframes**, que son análogos a las tablas relacionales. Puedes tener columnas con nombres y realizar diferentes operaciones en filas, columnas y dataframes en general.
+* **[Numpy](https://numpy.org/)** es una biblioteca para trabajar con **tensores**, es decir, **arreglos** multidimensionales. Un arreglo tiene valores del mismo tipo subyacente y es más simple que un dataframe, pero ofrece más operaciones matemáticas y genera menos sobrecarga.
+
+También hay un par de otras bibliotecas que deberías conocer:
+* **[Matplotlib](https://matplotlib.org/)** es una biblioteca utilizada para la visualización de datos y la creación de gráficos
+* **[SciPy](https://www.scipy.org/)** es una biblioteca con algunas funciones científicas adicionales. Ya nos hemos encontrado con esta biblioteca al hablar de probabilidad y estadística
+
+Aquí hay un fragmento de código que normalmente usarías para importar estas bibliotecas al inicio de tu programa en Python:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas se centra en algunos conceptos básicos.
+
+### Series
+
+**Series** es una secuencia de valores, similar a una lista o un arreglo de numpy. La principal diferencia es que las series también tienen un **índice**, y cuando operamos con series (por ejemplo, las sumamos), el índice se toma en cuenta. El índice puede ser tan simple como el número de fila entero (es el índice utilizado por defecto al crear una serie a partir de una lista o arreglo), o puede tener una estructura compleja, como un intervalo de fechas.
+
+> **Nota**: Hay algo de código introductorio de Pandas en el cuaderno adjunto [`notebook.ipynb`](../../../../2-Working-With-Data/07-python/notebook.ipynb). Solo describimos algunos ejemplos aquí, y definitivamente puedes consultar el cuaderno completo.
+
+Considera un ejemplo: queremos analizar las ventas de nuestro puesto de helados. Generemos una serie de números de ventas (número de artículos vendidos cada día) durante un período de tiempo:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Ahora supongamos que cada semana organizamos una fiesta para amigos y tomamos 10 paquetes adicionales de helado para la fiesta. Podemos crear otra serie, indexada por semana, para demostrar eso:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Cuando sumamos dos series, obtenemos el número total:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Nota** que no estamos utilizando la sintaxis simple `total_items+additional_items`. Si lo hiciéramos, recibiríamos muchos valores `NaN` (*Not a Number*) en la serie resultante. Esto se debe a que hay valores faltantes para algunos puntos del índice en la serie `additional_items`, y sumar `NaN` a cualquier cosa resulta en `NaN`. Por lo tanto, necesitamos especificar el parámetro `fill_value` durante la suma.
+
+Con las series temporales, también podemos **re-muestrear** la serie con diferentes intervalos de tiempo. Por ejemplo, supongamos que queremos calcular el volumen promedio de ventas mensualmente. Podemos usar el siguiente código:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+Un DataFrame es esencialmente una colección de series con el mismo índice. Podemos combinar varias series juntas en un DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Esto creará una tabla horizontal como esta:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+También podemos usar Series como columnas y especificar nombres de columnas utilizando un diccionario:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Esto nos dará una tabla como esta:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Nota** que también podemos obtener este diseño de tabla transponiendo la tabla anterior, por ejemplo, escribiendo
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Aquí `.T` significa la operación de transponer el DataFrame, es decir, cambiar filas y columnas, y la operación `rename` nos permite renombrar columnas para que coincidan con el ejemplo anterior.
+
+Aquí hay algunas de las operaciones más importantes que podemos realizar en DataFrames:
+
+**Selección de columnas**. Podemos seleccionar columnas individuales escribiendo `df['A']` - esta operación devuelve una Serie. También podemos seleccionar un subconjunto de columnas en otro DataFrame escribiendo `df[['B','A']]` - esto devuelve otro DataFrame.
+
+**Filtrar** solo ciertas filas según criterios. Por ejemplo, para dejar solo las filas con la columna `A` mayor que 5, podemos escribir `df[df['A']>5]`.
+
+> **Nota**: La forma en que funciona el filtrado es la siguiente. La expresión `df['A']<5` devuelve una serie booleana, que indica si la expresión es `True` o `False` para cada elemento de la serie original `df['A']`. Cuando se utiliza una serie booleana como índice, devuelve un subconjunto de filas en el DataFrame. Por lo tanto, no es posible usar expresiones booleanas arbitrarias de Python, por ejemplo, escribir `df[df['A']>5 and df['A']<7]` sería incorrecto. En su lugar, debes usar la operación especial `&` en series booleanas, escribiendo `df[(df['A']>5) & (df['A']<7)]` (*los paréntesis son importantes aquí*).
+
+**Crear nuevas columnas calculables**. Podemos crear fácilmente nuevas columnas calculables para nuestro DataFrame utilizando expresiones intuitivas como esta:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Este ejemplo calcula la divergencia de A respecto a su valor promedio. Lo que realmente sucede aquí es que estamos calculando una serie y luego asignando esta serie al lado izquierdo, creando otra columna. Por lo tanto, no podemos usar operaciones que no sean compatibles con series, por ejemplo, el siguiente código es incorrecto:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+El último ejemplo, aunque sintácticamente correcto, nos da un resultado incorrecto porque asigna la longitud de la serie `B` a todos los valores en la columna, y no la longitud de los elementos individuales como pretendíamos.
+
+Si necesitamos calcular expresiones complejas como esta, podemos usar la función `apply`. El último ejemplo se puede escribir de la siguiente manera:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Después de las operaciones anteriores, terminaremos con el siguiente DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Seleccionar filas según números** se puede hacer utilizando la construcción `iloc`. Por ejemplo, para seleccionar las primeras 5 filas del DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Agrupación** se utiliza a menudo para obtener un resultado similar a las *tablas dinámicas* en Excel. Supongamos que queremos calcular el valor promedio de la columna `A` para cada número dado de `LenB`. Entonces podemos agrupar nuestro DataFrame por `LenB` y llamar a `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Si necesitamos calcular el promedio y el número de elementos en el grupo, entonces podemos usar la función más compleja `aggregate`:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Esto nos da la siguiente tabla:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Obtener Datos
+Hemos visto lo fácil que es construir Series y DataFrames a partir de objetos de Python. Sin embargo, los datos suelen venir en forma de un archivo de texto o una tabla de Excel. Afortunadamente, Pandas nos ofrece una manera sencilla de cargar datos desde el disco. Por ejemplo, leer un archivo CSV es tan simple como esto:
+```python
+df = pd.read_csv('file.csv')
+```
+Veremos más ejemplos de cómo cargar datos, incluyendo cómo obtenerlos de sitios web externos, en la sección "Desafío".
+
+### Imprimir y Graficar
+
+Un Científico de Datos a menudo tiene que explorar los datos, por lo que es importante poder visualizarlos. Cuando el DataFrame es grande, muchas veces solo queremos asegurarnos de que estamos haciendo todo correctamente imprimiendo las primeras filas. Esto se puede hacer llamando a `df.head()`. Si lo ejecutas desde Jupyter Notebook, imprimirá el DataFrame en una forma tabular agradable.
+
+También hemos visto el uso de la función `plot` para visualizar algunas columnas. Aunque `plot` es muy útil para muchas tareas y admite muchos tipos de gráficos diferentes mediante el parámetro `kind=`, siempre puedes usar la biblioteca `matplotlib` directamente para graficar algo más complejo. Cubriremos la visualización de datos en detalle en lecciones separadas del curso.
+
+Este resumen cubre los conceptos más importantes de Pandas, sin embargo, la biblioteca es muy rica y no hay límite para lo que puedes hacer con ella. ¡Ahora apliquemos este conocimiento para resolver un problema específico!
+
+## 🚀 Desafío 1: Analizando la Propagación del COVID
+
+El primer problema en el que nos enfocaremos es el modelado de la propagación epidémica del COVID-19. Para ello, utilizaremos los datos sobre el número de personas infectadas en diferentes países, proporcionados por el [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) de la [Universidad Johns Hopkins](https://jhu.edu/). El conjunto de datos está disponible en [este repositorio de GitHub](https://github.com/CSSEGISandData/COVID-19).
+
+Como queremos demostrar cómo manejar datos, te invitamos a abrir [`notebook-covidspread.ipynb`](../../../../2-Working-With-Data/07-python/notebook-covidspread.ipynb) y leerlo de principio a fin. También puedes ejecutar las celdas y realizar algunos desafíos que hemos dejado para ti al final.
+
+
+
+> Si no sabes cómo ejecutar código en Jupyter Notebook, consulta [este artículo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Trabajando con Datos No Estructurados
+
+Aunque los datos suelen venir en forma tabular, en algunos casos necesitamos trabajar con datos menos estructurados, como texto o imágenes. En este caso, para aplicar las técnicas de procesamiento de datos que hemos visto anteriormente, necesitamos de alguna manera **extraer** datos estructurados. Aquí hay algunos ejemplos:
+
+* Extraer palabras clave de un texto y ver con qué frecuencia aparecen.
+* Usar redes neuronales para extraer información sobre objetos en una imagen.
+* Obtener información sobre las emociones de las personas en un video.
+
+## 🚀 Desafío 2: Analizando Artículos sobre COVID
+
+En este desafío, continuaremos con el tema de la pandemia de COVID y nos enfocaremos en procesar artículos científicos sobre el tema. Existe el [Conjunto de Datos CORD-19](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) con más de 7000 (en el momento de escribir esto) artículos sobre COVID, disponible con metadatos y resúmenes (y para aproximadamente la mitad de ellos también se proporciona el texto completo).
+
+Un ejemplo completo de análisis de este conjunto de datos utilizando el servicio cognitivo [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) se describe [en este blog](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Discutiremos una versión simplificada de este análisis.
+
+> **NOTE**: No proporcionamos una copia del conjunto de datos como parte de este repositorio. Es posible que primero necesites descargar el archivo [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) de [este conjunto de datos en Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Es posible que se requiera registrarse en Kaggle. También puedes descargar el conjunto de datos sin registrarte [desde aquí](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), pero incluirá todos los textos completos además del archivo de metadatos.
+
+Abre [`notebook-papers.ipynb`](../../../../2-Working-With-Data/07-python/notebook-papers.ipynb) y léelo de principio a fin. También puedes ejecutar las celdas y realizar algunos desafíos que hemos dejado para ti al final.
+
+
+
+## Procesando Datos de Imágenes
+
+Recientemente, se han desarrollado modelos de IA muy potentes que nos permiten comprender imágenes. Hay muchas tareas que se pueden resolver utilizando redes neuronales preentrenadas o servicios en la nube. Algunos ejemplos incluyen:
+
+* **Clasificación de Imágenes**, que puede ayudarte a categorizar la imagen en una de las clases predefinidas. Puedes entrenar fácilmente tus propios clasificadores de imágenes utilizando servicios como [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum).
+* **Detección de Objetos** para detectar diferentes objetos en la imagen. Servicios como [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) pueden detectar varios objetos comunes, y puedes entrenar un modelo de [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) para detectar objetos específicos de interés.
+* **Detección de Rostros**, incluyendo edad, género y emociones. Esto se puede hacer mediante [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Todos estos servicios en la nube se pueden llamar utilizando [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), y por lo tanto se pueden incorporar fácilmente en tu flujo de trabajo de exploración de datos.
+
+Aquí hay algunos ejemplos de exploración de datos a partir de fuentes de datos de imágenes:
+* En el blog [Cómo Aprender Ciencia de Datos sin Programar](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) exploramos fotos de Instagram, tratando de entender qué hace que las personas den más "me gusta" a una foto. Primero extraemos tanta información como sea posible de las imágenes utilizando [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), y luego usamos [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) para construir un modelo interpretable.
+* En el [Taller de Estudios Faciales](https://github.com/CloudAdvocacy/FaceStudies) usamos [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) para extraer emociones de personas en fotografías de eventos, con el objetivo de entender qué hace felices a las personas.
+
+## Conclusión
+
+Ya sea que tengas datos estructurados o no estructurados, usando Python puedes realizar todos los pasos relacionados con el procesamiento y la comprensión de datos. Probablemente sea la forma más flexible de procesar datos, y esa es la razón por la que la mayoría de los científicos de datos usan Python como su herramienta principal. Aprender Python en profundidad probablemente sea una buena idea si estás serio sobre tu camino en la ciencia de datos.
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Revisión y Estudio Autónomo
+
+**Libros**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Recursos en línea**
+* Tutorial oficial [10 minutos con Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)
+* [Documentación sobre Visualización en Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Aprendiendo Python**
+* [Aprende Python de una manera divertida con gráficos de tortuga y fractales](https://github.com/shwars/pycourse)
+* [Da tus primeros pasos con Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Ruta de aprendizaje en [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Tarea
+
+[Realiza un estudio de datos más detallado para los desafíos anteriores](assignment.md)
+
+## Créditos
+
+Esta lección ha sido creada con ♥️ por [Dmitry Soshnikov](http://soshnikov.com)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/07-python/assignment.md b/translations/es/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..fdac9fc8
--- /dev/null
+++ b/translations/es/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,35 @@
+
+# Asignación para Procesamiento de Datos en Python
+
+En esta asignación, te pediremos que desarrolles el código que hemos comenzado a crear en nuestros desafíos. La asignación consta de dos partes:
+
+## Modelado de la Propagación del COVID-19
+
+ - [ ] Graficar *R* para 5-6 países diferentes en un solo gráfico para comparación, o utilizando varios gráficos lado a lado.
+ - [ ] Analizar cómo el número de muertes y recuperaciones se correlaciona con el número de casos infectados.
+ - [ ] Determinar cuánto dura típicamente una enfermedad correlacionando visualmente la tasa de infección y la tasa de muertes, buscando algunas anomalías. Es posible que necesites observar diferentes países para descubrir esto.
+ - [ ] Calcular la tasa de mortalidad y cómo cambia con el tiempo. *Es posible que desees tener en cuenta la duración de la enfermedad en días para desplazar una serie temporal antes de realizar los cálculos.*
+
+## Análisis de Artículos sobre COVID-19
+
+- [ ] Construir una matriz de co-ocurrencia de diferentes medicamentos y observar qué medicamentos suelen aparecer juntos (es decir, mencionados en un mismo resumen). Puedes modificar el código para construir la matriz de co-ocurrencia de medicamentos y diagnósticos.
+- [ ] Visualizar esta matriz utilizando un mapa de calor.
+- [ ] Como objetivo adicional, visualizar la co-ocurrencia de medicamentos utilizando un [diagrama de cuerdas](https://en.wikipedia.org/wiki/Chord_diagram). [Esta biblioteca](https://pypi.org/project/chord/) puede ayudarte a dibujar un diagrama de cuerdas.
+- [ ] Como otro objetivo adicional, extraer las dosis de diferentes medicamentos (como **400mg** en *tomar 400mg de cloroquina diariamente*) utilizando expresiones regulares, y construir un dataframe que muestre diferentes dosis para diferentes medicamentos. **Nota**: considera valores numéricos que estén en proximidad textual cercana al nombre del medicamento.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Todas las tareas están completas, ilustradas gráficamente y explicadas, incluyendo al menos uno de los dos objetivos adicionales | Más de 5 tareas están completas, no se intentaron objetivos adicionales, o los resultados no son claros | Menos de 5 (pero más de 3) tareas están completas, las visualizaciones no ayudan a demostrar el punto
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/08-data-preparation/README.md b/translations/es/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..ca2bb97d
--- /dev/null
+++ b/translations/es/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,340 @@
+
+# Trabajando con Datos: Preparación de Datos
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Preparación de Datos - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Cuestionario Previo a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Dependiendo de su origen, los datos en bruto pueden contener algunas inconsistencias que generarán desafíos en el análisis y modelado. En otras palabras, estos datos pueden clasificarse como "sucios" y necesitarán ser limpiados. Esta lección se centra en técnicas para limpiar y transformar los datos para manejar los desafíos de datos faltantes, inexactos o incompletos. Los temas cubiertos en esta lección utilizarán Python y la biblioteca Pandas y serán [demostrados en el notebook](../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb) dentro de este directorio.
+
+## La importancia de limpiar los datos
+
+- **Facilidad de uso y reutilización**: Cuando los datos están organizados y normalizados correctamente, es más fácil buscarlos, utilizarlos y compartirlos con otros.
+
+- **Consistencia**: La ciencia de datos a menudo requiere trabajar con más de un conjunto de datos, donde conjuntos de datos de diferentes fuentes necesitan ser combinados. Asegurarse de que cada conjunto de datos individual tenga una estandarización común garantizará que los datos sigan siendo útiles cuando se fusionen en un solo conjunto de datos.
+
+- **Precisión del modelo**: Los datos que han sido limpiados mejoran la precisión de los modelos que dependen de ellos.
+
+## Objetivos y estrategias comunes de limpieza
+
+- **Explorar un conjunto de datos**: La exploración de datos, que se cubre en una [lección posterior](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), puede ayudarte a descubrir datos que necesitan ser limpiados. Observar visualmente los valores dentro de un conjunto de datos puede establecer expectativas sobre cómo será el resto o proporcionar una idea de los problemas que pueden resolverse. La exploración puede incluir consultas básicas, visualizaciones y muestreo.
+
+- **Formato**: Dependiendo de la fuente, los datos pueden tener inconsistencias en cómo se presentan. Esto puede causar problemas al buscar y representar el valor, donde se ve dentro del conjunto de datos pero no se representa correctamente en visualizaciones o resultados de consultas. Los problemas comunes de formato incluyen resolver espacios en blanco, fechas y tipos de datos. Resolver problemas de formato generalmente depende de las personas que están utilizando los datos. Por ejemplo, los estándares sobre cómo se presentan las fechas y los números pueden diferir según el país.
+
+- **Duplicaciones**: Los datos que tienen más de una ocurrencia pueden producir resultados inexactos y generalmente deben eliminarse. Esto puede ser una ocurrencia común al combinar dos o más conjuntos de datos. Sin embargo, hay casos en los que las duplicaciones en conjuntos de datos combinados contienen piezas que pueden proporcionar información adicional y pueden necesitar ser preservadas.
+
+- **Datos faltantes**: Los datos faltantes pueden causar inexactitudes, así como resultados débiles o sesgados. A veces, esto puede resolverse mediante una "recarga" de los datos, rellenando los valores faltantes con cálculos y código como Python, o simplemente eliminando el valor y los datos correspondientes. Hay numerosas razones por las que los datos pueden faltar, y las acciones que se toman para resolver estos valores faltantes pueden depender de cómo y por qué se perdieron en primer lugar.
+
+## Explorando información de DataFrame
+> **Objetivo de aprendizaje:** Al final de esta subsección, deberías sentirte cómodo encontrando información general sobre los datos almacenados en DataFrames de pandas.
+
+Una vez que hayas cargado tus datos en pandas, es probable que estén en un DataFrame (consulta la [lección anterior](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) para una descripción detallada). Sin embargo, si el conjunto de datos en tu DataFrame tiene 60,000 filas y 400 columnas, ¿cómo puedes empezar a entender con qué estás trabajando? Afortunadamente, [pandas](https://pandas.pydata.org/) proporciona herramientas convenientes para observar rápidamente información general sobre un DataFrame, además de las primeras y últimas filas.
+
+Para explorar esta funcionalidad, importaremos la biblioteca Python scikit-learn y utilizaremos un conjunto de datos icónico: el **conjunto de datos Iris**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |longitud del sépalo (cm)|ancho del sépalo (cm)|longitud del pétalo (cm)|ancho del pétalo (cm)|
+|----------------------------------------|-------------------------|---------------------|-------------------------|---------------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Para comenzar, el método `info()` se utiliza para imprimir un resumen del contenido presente en un `DataFrame`. Veamos este conjunto de datos para ver qué tenemos:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+A partir de esto, sabemos que el conjunto de datos *Iris* tiene 150 entradas en cuatro columnas sin entradas nulas. Todos los datos están almacenados como números de punto flotante de 64 bits.
+
+- **DataFrame.head()**: A continuación, para verificar el contenido real del `DataFrame`, usamos el método `head()`. Veamos las primeras filas de nuestro `iris_df`:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Por otro lado, para verificar las últimas filas del `DataFrame`, usamos el método `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Conclusión:** Incluso solo observando los metadatos sobre la información en un DataFrame o las primeras y últimas filas, puedes obtener una idea inmediata sobre el tamaño, la forma y el contenido de los datos con los que estás trabajando.
+
+## Tratando con Datos Faltantes
+> **Objetivo de aprendizaje:** Al final de esta subsección, deberías saber cómo reemplazar o eliminar valores nulos de DataFrames.
+
+La mayoría de las veces, los conjuntos de datos que deseas usar (o tienes que usar) tienen valores faltantes. Cómo se manejan los datos faltantes conlleva sutiles compensaciones que pueden afectar tu análisis final y los resultados en el mundo real.
+
+Pandas maneja los valores faltantes de dos maneras. La primera que has visto antes en secciones anteriores: `NaN`, o Not a Number. Este es un valor especial que forma parte de la especificación de punto flotante IEEE y solo se utiliza para indicar valores faltantes de punto flotante.
+
+Para valores faltantes aparte de los flotantes, pandas utiliza el objeto `None` de Python. Aunque puede parecer confuso encontrarte con dos tipos diferentes de valores que esencialmente dicen lo mismo, hay razones programáticas sólidas para esta elección de diseño y, en la práctica, esta ruta permite que pandas ofrezca un buen compromiso para la gran mayoría de los casos. No obstante, tanto `None` como `NaN` tienen restricciones que debes tener en cuenta con respecto a cómo pueden ser utilizados.
+
+Consulta más sobre `NaN` y `None` en el [notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Detectar valores nulos**: En `pandas`, los métodos `isnull()` y `notnull()` son tus principales herramientas para detectar datos nulos. Ambos devuelven máscaras booleanas sobre tus datos. Usaremos `numpy` para valores `NaN`:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Observa detenidamente el resultado. ¿Algo te sorprende? Aunque `0` es un nulo aritmético, sigue siendo un entero perfectamente válido y pandas lo trata como tal. `''` es un poco más sutil. Aunque lo usamos en la Sección 1 para representar un valor de cadena vacío, sigue siendo un objeto de cadena y no una representación de nulo según pandas.
+
+Ahora, vamos a darle la vuelta y usar estos métodos de una manera más parecida a cómo los usarás en la práctica. Puedes usar máscaras booleanas directamente como un índice de ``Series`` o ``DataFrame``, lo cual puede ser útil al intentar trabajar con valores faltantes (o presentes) aislados.
+
+> **Conclusión**: Tanto los métodos `isnull()` como `notnull()` producen resultados similares cuando los usas en `DataFrame`s: muestran los resultados y el índice de esos resultados, lo que te ayudará enormemente mientras trabajas con tus datos.
+
+- **Eliminar valores nulos**: Más allá de identificar valores faltantes, pandas proporciona un medio conveniente para eliminar valores nulos de `Series` y `DataFrame`s. (Particularmente en conjuntos de datos grandes, a menudo es más aconsejable simplemente eliminar los valores faltantes [NA] de tu análisis que manejarlos de otras maneras). Para ver esto en acción, volvamos a `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Nota que esto debería parecerse a tu salida de `example3[example3.notnull()]`. La diferencia aquí es que, en lugar de simplemente indexar los valores enmascarados, `dropna` ha eliminado esos valores faltantes de la `Series` `example1`.
+
+Dado que los `DataFrame`s tienen dos dimensiones, ofrecen más opciones para eliminar datos.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(¿Notaste que pandas convirtió dos de las columnas a flotantes para acomodar los `NaN`s?)
+
+No puedes eliminar un solo valor de un `DataFrame`, por lo que tienes que eliminar filas o columnas completas. Dependiendo de lo que estés haciendo, podrías querer hacer una u otra, y pandas te da opciones para ambas. Debido a que en la ciencia de datos las columnas generalmente representan variables y las filas representan observaciones, es más probable que elimines filas de datos; la configuración predeterminada para `dropna()` es eliminar todas las filas que contienen cualquier valor nulo:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Si es necesario, puedes eliminar valores NA de columnas. Usa `axis=1` para hacerlo:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Nota que esto puede eliminar muchos datos que podrías querer conservar, particularmente en conjuntos de datos más pequeños. ¿Qué pasa si solo quieres eliminar filas o columnas que contienen varios o incluso todos los valores nulos? Especificas esas configuraciones en `dropna` con los parámetros `how` y `thresh`.
+
+Por defecto, `how='any'` (si deseas verificarlo por ti mismo o ver qué otros parámetros tiene el método, ejecuta `example4.dropna?` en una celda de código). Podrías especificar alternativamente `how='all'` para eliminar solo filas o columnas que contengan todos los valores nulos. Ampliemos nuestro ejemplo `DataFrame` para ver esto en acción.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+El parámetro `thresh` te da un control más detallado: estableces el número de valores *no nulos* que una fila o columna necesita tener para ser conservada:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Aquí, la primera y última fila han sido eliminadas porque contienen solo dos valores no nulos.
+
+- **Rellenar valores nulos**: Dependiendo de tu conjunto de datos, a veces puede tener más sentido rellenar valores nulos con valores válidos en lugar de eliminarlos. Podrías usar `isnull` para hacer esto en el lugar, pero eso puede ser laborioso, particularmente si tienes muchos valores que rellenar. Debido a que esta es una tarea tan común en la ciencia de datos, pandas proporciona `fillna`, que devuelve una copia de la `Series` o `DataFrame` con los valores faltantes reemplazados por uno de tu elección. Creemos otra `Series` de ejemplo para ver cómo funciona esto en la práctica.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Puedes rellenar todas las entradas nulas con un solo valor, como `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Puedes **rellenar hacia adelante** los valores nulos, es decir, usar el último valor válido para rellenar un nulo:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+También puedes **rellenar hacia atrás** para propagar el siguiente valor válido hacia atrás para rellenar un nulo:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Como podrías imaginar, esto funciona igual con `DataFrame`s, pero también puedes especificar un `axis` a lo largo del cual rellenar valores nulos. Usando nuevamente el `example2` previamente utilizado:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Nota que cuando no hay un valor previo disponible para rellenar hacia adelante, el valor nulo permanece.
+> **Conclusión:** Hay múltiples formas de manejar valores faltantes en tus conjuntos de datos. La estrategia específica que utilices (eliminarlos, reemplazarlos o incluso cómo los reemplazas) debe estar dictada por las particularidades de esos datos. Desarrollarás un mejor sentido de cómo tratar los valores faltantes a medida que trabajes e interactúes más con conjuntos de datos.
+
+## Eliminación de datos duplicados
+
+> **Objetivo de aprendizaje:** Al final de esta subsección, deberías sentirte cómodo identificando y eliminando valores duplicados de DataFrames.
+
+Además de los datos faltantes, a menudo encontrarás datos duplicados en conjuntos de datos del mundo real. Afortunadamente, `pandas` proporciona un medio sencillo para detectar y eliminar entradas duplicadas.
+
+- **Identificar duplicados: `duplicated`**: Puedes identificar fácilmente valores duplicados utilizando el método `duplicated` en pandas, que devuelve una máscara booleana indicando si una entrada en un `DataFrame` es un duplicado de una anterior. Vamos a crear otro ejemplo de `DataFrame` para ver esto en acción.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Eliminar duplicados: `drop_duplicates`:** simplemente devuelve una copia de los datos para los cuales todos los valores `duplicated` son `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Tanto `duplicated` como `drop_duplicates` consideran por defecto todas las columnas, pero puedes especificar que examinen solo un subconjunto de columnas en tu `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Conclusión:** Eliminar datos duplicados es una parte esencial de casi todos los proyectos de ciencia de datos. Los datos duplicados pueden alterar los resultados de tus análisis y proporcionarte resultados inexactos.
+
+## 🚀 Desafío
+
+Todo el material discutido está disponible como un [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Además, hay ejercicios al final de cada sección, ¡inténtalos!
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+## Revisión y autoestudio
+
+Existen muchas formas de descubrir y abordar la preparación de tus datos para análisis y modelado, y limpiar los datos es un paso importante que requiere experiencia práctica. Prueba estos desafíos de Kaggle para explorar técnicas que esta lección no cubrió.
+
+- [Desafío de limpieza de datos: Analizar fechas](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Desafío de limpieza de datos: Escalar y normalizar datos](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+## Tarea
+
+[Evaluar datos de un formulario](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/08-data-preparation/assignment.md b/translations/es/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..d24803a6
--- /dev/null
+++ b/translations/es/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,26 @@
+
+# Evaluando Datos de un Formulario
+
+Un cliente ha estado probando un [formulario pequeño](../../../../2-Working-With-Data/08-data-preparation/index.html) para recopilar algunos datos básicos sobre su base de clientes. Han traído sus hallazgos para que valides los datos que han recopilado. Puedes abrir la página `index.html` en el navegador para echar un vistazo al formulario.
+
+Se te ha proporcionado un [conjunto de datos de registros csv](../../../../data/form.csv) que contiene entradas del formulario, así como algunas visualizaciones básicas. El cliente señaló que algunas de las visualizaciones parecen incorrectas, pero no están seguros de cómo resolverlo. Puedes explorarlo en el [notebook de la tarea](../../../../2-Working-With-Data/08-data-preparation/assignment.ipynb).
+
+## Instrucciones
+
+Utiliza las técnicas de esta lección para hacer recomendaciones sobre el formulario, de manera que capture información precisa y consistente.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | --- |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/2-Working-With-Data/README.md b/translations/es/2-Working-With-Data/README.md
new file mode 100644
index 00000000..4b2a76e6
--- /dev/null
+++ b/translations/es/2-Working-With-Data/README.md
@@ -0,0 +1,29 @@
+
+# Trabajando con Datos
+
+
+> Foto de Alexander Sinn en Unsplash
+
+En estas lecciones, aprenderás algunas de las formas en que los datos pueden ser gestionados, manipulados y utilizados en aplicaciones. Aprenderás sobre bases de datos relacionales y no relacionales y cómo los datos pueden ser almacenados en ellas. Conocerás los fundamentos de trabajar con Python para gestionar datos y descubrirás algunas de las muchas maneras en que puedes usar Python para manejar y extraer información de los datos.
+
+### Temas
+
+1. [Bases de datos relacionales](05-relational-databases/README.md)
+2. [Bases de datos no relacionales](06-non-relational/README.md)
+3. [Trabajando con Python](07-python/README.md)
+4. [Preparando datos](08-data-preparation/README.md)
+
+### Créditos
+
+Estas lecciones fueron escritas con ❤️ por [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) y [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/09-visualization-quantities/README.md b/translations/es/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..7ad41795
--- /dev/null
+++ b/translations/es/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,215 @@
+
+# Visualizando Cantidades
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualizando Cantidades - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En esta lección explorarás cómo usar una de las muchas bibliotecas disponibles de Python para aprender a crear visualizaciones interesantes en torno al concepto de cantidad. Usando un conjunto de datos limpio sobre las aves de Minnesota, puedes aprender muchos datos interesantes sobre la fauna local.
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observa la envergadura con Matplotlib
+
+Una excelente biblioteca para crear gráficos y diagramas, tanto simples como sofisticados, de varios tipos es [Matplotlib](https://matplotlib.org/stable/index.html). En términos generales, el proceso de graficar datos usando estas bibliotecas incluye identificar las partes de tu dataframe que deseas analizar, realizar las transformaciones necesarias en esos datos, asignar valores a los ejes x e y, decidir qué tipo de gráfico mostrar y luego mostrar el gráfico. Matplotlib ofrece una gran variedad de visualizaciones, pero para esta lección, enfoquémonos en las más apropiadas para visualizar cantidades: gráficos de líneas, diagramas de dispersión y gráficos de barras.
+
+> ✅ Usa el mejor gráfico que se adapte a la estructura de tus datos y a la historia que deseas contar.
+> - Para analizar tendencias a lo largo del tiempo: línea
+> - Para comparar valores: barra, columna, pastel, dispersión
+> - Para mostrar cómo las partes se relacionan con el todo: pastel
+> - Para mostrar la distribución de datos: dispersión, barra
+> - Para mostrar tendencias: línea, columna
+> - Para mostrar relaciones entre valores: línea, dispersión, burbuja
+
+Si tienes un conjunto de datos y necesitas descubrir cuánto de un elemento dado está incluido, una de las primeras tareas será inspeccionar sus valores.
+
+✅ Hay excelentes 'hojas de referencia' disponibles para Matplotlib [aquí](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Construye un gráfico de líneas sobre los valores de envergadura de las aves
+
+Abre el archivo `notebook.ipynb` en la raíz de esta carpeta de lección y agrega una celda.
+
+> Nota: los datos están almacenados en la raíz de este repositorio en la carpeta `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Estos datos son una mezcla de texto y números:
+
+| | Nombre | NombreCientífico | Categoría | Orden | Familia | Género | EstadoConservación | MinLongitud | MaxLongitud | MinMasaCorporal | MaxMasaCorporal | MinEnvergadura | MaxEnvergadura |
+| ---: | :---------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :------------------ | -----------:| -----------:| ---------------:| ---------------:| --------------:| --------------:|
+| 0 | Pato silbador vientre negro | Dendrocygna autumnalis | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato silbador fulvo | Dendrocygna bicolor | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso de las nieves | Anser caerulescens | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso de Ross | Anser rossii | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso de frente blanca mayor | Anser albifrons | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Comencemos graficando algunos de los datos numéricos usando un gráfico de líneas básico. Supongamos que quieres ver la envergadura máxima de estas interesantes aves.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+¿Qué notas de inmediato? Parece haber al menos un valor atípico: ¡esa es una envergadura impresionante! Una envergadura de 2300 centímetros equivale a 23 metros: ¿hay pterodáctilos rondando Minnesota? Vamos a investigar.
+
+Aunque podrías hacer un ordenamiento rápido en Excel para encontrar esos valores atípicos, que probablemente sean errores tipográficos, continúa el proceso de visualización trabajando desde el gráfico.
+
+Agrega etiquetas al eje x para mostrar qué tipo de aves están en cuestión:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Incluso con la rotación de las etiquetas configurada a 45 grados, hay demasiadas para leer. Probemos una estrategia diferente: etiqueta solo esos valores atípicos y coloca las etiquetas dentro del gráfico. Puedes usar un gráfico de dispersión para hacer más espacio para el etiquetado:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+¿Qué está pasando aquí? Usaste `tick_params` para ocultar las etiquetas inferiores y luego creaste un bucle sobre tu conjunto de datos de aves. Graficando el gráfico con pequeños puntos redondos azules usando `bo`, verificaste si alguna ave tenía una envergadura máxima superior a 500 y, si era así, mostrabas su etiqueta junto al punto. Desplazaste las etiquetas un poco en el eje y (`y * (1 - 0.05)`) y usaste el nombre del ave como etiqueta.
+
+¿Qué descubriste?
+
+
+## Filtra tus datos
+
+Tanto el Águila Calva como el Halcón de las Praderas, aunque probablemente sean aves muy grandes, parecen estar mal etiquetados, con un `0` extra añadido a su envergadura máxima. Es poco probable que encuentres un Águila Calva con una envergadura de 25 metros, pero si lo haces, ¡por favor avísanos! Creemos un nuevo dataframe sin esos dos valores atípicos:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Al filtrar los valores atípicos, tus datos ahora son más coherentes y comprensibles.
+
+
+
+Ahora que tenemos un conjunto de datos más limpio al menos en términos de envergadura, descubramos más sobre estas aves.
+
+Aunque los gráficos de líneas y dispersión pueden mostrar información sobre los valores de los datos y sus distribuciones, queremos pensar en los valores inherentes a este conjunto de datos. Podrías crear visualizaciones para responder las siguientes preguntas sobre cantidad:
+
+> ¿Cuántas categorías de aves hay y cuáles son sus números?
+> ¿Cuántas aves están extintas, en peligro, son raras o comunes?
+> ¿Cuántas hay de los diversos géneros y órdenes en la terminología de Linneo?
+## Explora gráficos de barras
+
+Los gráficos de barras son prácticos cuando necesitas mostrar agrupaciones de datos. Exploremos las categorías de aves que existen en este conjunto de datos para ver cuál es la más común por número.
+
+En el archivo del notebook, crea un gráfico de barras básico.
+
+✅ Nota, puedes filtrar las dos aves atípicas que identificamos en la sección anterior, editar el error tipográfico en su envergadura o dejarlas para estos ejercicios que no dependen de los valores de envergadura.
+
+Si deseas crear un gráfico de barras, puedes seleccionar los datos en los que deseas enfocarte. Los gráficos de barras pueden crearse a partir de datos sin procesar:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Este gráfico de barras, sin embargo, es ilegible porque hay demasiados datos no agrupados. Necesitas seleccionar solo los datos que deseas graficar, así que veamos la longitud de las aves según su categoría.
+
+Filtra tus datos para incluir solo la categoría de las aves.
+
+✅ Nota que usas Pandas para gestionar los datos y luego dejas que Matplotlib haga el gráfico.
+
+Dado que hay muchas categorías, puedes mostrar este gráfico verticalmente y ajustar su altura para incluir todos los datos:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Este gráfico de barras muestra una buena vista del número de aves en cada categoría. De un vistazo, ves que el mayor número de aves en esta región pertenece a la categoría de Patos/Gansos/Aves acuáticas. Minnesota es la 'tierra de los 10,000 lagos', ¡así que esto no es sorprendente!
+
+✅ Prueba algunos otros conteos en este conjunto de datos. ¿Hay algo que te sorprenda?
+
+## Comparando datos
+
+Puedes intentar diferentes comparaciones de datos agrupados creando nuevos ejes. Prueba una comparación de la MaxLongitud de un ave, basada en su categoría:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Nada sorprendente aquí: los colibríes tienen la menor MaxLongitud en comparación con los pelícanos o los gansos. ¡Es bueno cuando los datos tienen sentido lógico!
+
+Puedes crear visualizaciones más interesantes de gráficos de barras superponiendo datos. Superpongamos la Longitud Mínima y Máxima en una categoría de aves dada:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+En este gráfico, puedes ver el rango por categoría de aves de la Longitud Mínima y Máxima. Puedes decir con seguridad que, según estos datos, cuanto más grande es el ave, mayor es su rango de longitud. ¡Fascinante!
+
+
+
+## 🚀 Desafío
+
+Este conjunto de datos de aves ofrece una gran cantidad de información sobre diferentes tipos de aves dentro de un ecosistema particular. Busca en internet y ve si puedes encontrar otros conjuntos de datos orientados a aves. Practica construyendo gráficos y diagramas sobre estas aves para descubrir datos que no conocías.
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Revisión y Autoestudio
+
+Esta primera lección te ha dado información sobre cómo usar Matplotlib para visualizar cantidades. Investiga otras formas de trabajar con conjuntos de datos para visualización. [Plotly](https://github.com/plotly/plotly.py) es una que no cubriremos en estas lecciones, así que échale un vistazo a lo que puede ofrecer.
+## Tarea
+
+[Líneas, Dispersión y Barras](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/es/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..d70d4a2c
--- /dev/null
+++ b/translations/es/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Líneas, Dispersión y Barras
+
+## Instrucciones
+
+En esta lección, trabajaste con gráficos de líneas, diagramas de dispersión y gráficos de barras para mostrar datos interesantes sobre este conjunto de datos. En esta tarea, profundiza en el conjunto de datos para descubrir un hecho sobre un tipo específico de ave. Por ejemplo, crea un cuaderno visualizando todos los datos interesantes que puedas encontrar sobre los gansos nivales. Usa los tres gráficos mencionados anteriormente para contar una historia en tu cuaderno.
+
+## Rúbrica
+
+Ejemplar | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Se presenta un cuaderno con buenas anotaciones, una narrativa sólida y gráficos atractivos | Al cuaderno le falta uno de estos elementos | Al cuaderno le faltan dos de estos elementos
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/10-visualization-distributions/README.md b/translations/es/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..63c32e67
--- /dev/null
+++ b/translations/es/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,215 @@
+
+# Visualizando Distribuciones
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualizando Distribuciones - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En la lección anterior, aprendiste algunos datos interesantes sobre un conjunto de datos acerca de las aves de Minnesota. Encontraste datos erróneos visualizando valores atípicos y observaste las diferencias entre las categorías de aves según su longitud máxima.
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Explora el conjunto de datos de aves
+
+Otra forma de analizar los datos es observando su distribución, o cómo los datos están organizados a lo largo de un eje. Tal vez, por ejemplo, te gustaría aprender sobre la distribución general, para este conjunto de datos, de la envergadura máxima o la masa corporal máxima de las aves de Minnesota.
+
+Descubramos algunos datos sobre las distribuciones de los datos en este conjunto. En el archivo _notebook.ipynb_ en la raíz de esta carpeta de lección, importa Pandas, Matplotlib y tus datos:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Nombre | NombreCientífico | Categoría | Orden | Familia | Género | EstadoConservación | MinLongitud | MaxLongitud | MinMasaCorporal | MaxMasaCorporal | MinEnvergadura | MaxEnvergadura |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Pato silbador vientre negro | Dendrocygna autumnalis | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato silbador fulvo | Dendrocygna bicolor | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso de las nieves | Anser caerulescens | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso de Ross | Anser rossii | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso de frente blanca mayor | Anser albifrons | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+En general, puedes observar rápidamente cómo se distribuyen los datos utilizando un gráfico de dispersión como hicimos en la lección anterior:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Esto da una visión general de la distribución de la longitud corporal por orden de ave, pero no es la forma óptima de mostrar distribuciones reales. Esa tarea generalmente se maneja creando un histograma.
+
+## Trabajando con histogramas
+
+Matplotlib ofrece muy buenas formas de visualizar la distribución de datos utilizando histogramas. Este tipo de gráfico es como un gráfico de barras donde la distribución se puede observar a través del aumento y la caída de las barras. Para construir un histograma, necesitas datos numéricos. Para construir un histograma, puedes graficar un gráfico definiendo el tipo como 'hist' para histograma. Este gráfico muestra la distribución de MaxBodyMass para el rango completo de datos numéricos del conjunto de datos. Dividiendo el arreglo de datos en pequeños intervalos, puede mostrar la distribución de los valores de los datos:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Como puedes ver, la mayoría de las más de 400 aves en este conjunto de datos caen en el rango de menos de 2000 para su masa corporal máxima. Obtén más información sobre los datos cambiando el parámetro `bins` a un número mayor, algo como 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Este gráfico muestra la distribución de manera un poco más granular. Un gráfico menos sesgado hacia la izquierda podría crearse asegurándote de seleccionar solo datos dentro de un rango dado:
+
+Filtra tus datos para obtener solo aquellas aves cuya masa corporal sea menor a 60, y muestra 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Prueba algunos otros filtros y puntos de datos. Para ver la distribución completa de los datos, elimina el filtro `['MaxBodyMass']` para mostrar distribuciones etiquetadas.
+
+El histograma ofrece algunas mejoras agradables de color y etiquetado para probar también:
+
+Crea un histograma 2D para comparar la relación entre dos distribuciones. Comparemos `MaxBodyMass` vs. `MaxLength`. Matplotlib ofrece una forma integrada de mostrar convergencia utilizando colores más brillantes:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Parece haber una correlación esperada entre estos dos elementos a lo largo de un eje esperado, con un punto particularmente fuerte de convergencia:
+
+
+
+Los histogramas funcionan bien por defecto para datos numéricos. ¿Qué pasa si necesitas ver distribuciones según datos de texto?
+## Explora el conjunto de datos para distribuciones usando datos de texto
+
+Este conjunto de datos también incluye buena información sobre la categoría de las aves y su género, especie y familia, así como su estado de conservación. Analicemos esta información de conservación. ¿Cuál es la distribución de las aves según su estado de conservación?
+
+> ✅ En el conjunto de datos, se utilizan varios acrónimos para describir el estado de conservación. Estos acrónimos provienen de las [Categorías de la Lista Roja de la UICN](https://www.iucnredlist.org/), una organización que cataloga el estado de las especies.
+>
+> - CR: En Peligro Crítico
+> - EN: En Peligro
+> - EX: Extinto
+> - LC: Preocupación Menor
+> - NT: Casi Amenazado
+> - VU: Vulnerable
+
+Estos son valores basados en texto, por lo que necesitarás hacer una transformación para crear un histograma. Usando el dataframe filteredBirds, muestra su estado de conservación junto con su envergadura mínima. ¿Qué observas?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+No parece haber una buena correlación entre la envergadura mínima y el estado de conservación. Prueba otros elementos del conjunto de datos utilizando este método. También puedes probar diferentes filtros. ¿Encuentras alguna correlación?
+
+## Gráficos de densidad
+
+Es posible que hayas notado que los histogramas que hemos visto hasta ahora son 'escalonados' y no fluyen suavemente en un arco. Para mostrar un gráfico de densidad más suave, puedes probar un gráfico de densidad.
+
+Para trabajar con gráficos de densidad, familiarízate con una nueva biblioteca de gráficos, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Cargando Seaborn, prueba un gráfico de densidad básico:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Puedes ver cómo el gráfico refleja el anterior para los datos de envergadura mínima; es solo un poco más suave. Según la documentación de Seaborn, "En comparación con un histograma, KDE puede producir un gráfico menos desordenado y más interpretable, especialmente al dibujar múltiples distribuciones. Pero tiene el potencial de introducir distorsiones si la distribución subyacente está limitada o no es suave. Al igual que un histograma, la calidad de la representación también depende de la selección de buenos parámetros de suavizado." [fuente](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) En otras palabras, los valores atípicos, como siempre, harán que tus gráficos se comporten mal.
+
+Si quisieras revisar esa línea irregular de MaxBodyMass en el segundo gráfico que construiste, podrías suavizarla muy bien recreándola usando este método:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Si quisieras una línea suave, pero no demasiado suave, edita el parámetro `bw_adjust`:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Lee sobre los parámetros disponibles para este tipo de gráfico y experimenta.
+
+Este tipo de gráfico ofrece visualizaciones explicativas muy atractivas. Con unas pocas líneas de código, por ejemplo, puedes mostrar la densidad de masa corporal máxima por orden de ave:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+También puedes mapear la densidad de varias variables en un solo gráfico. Prueba la longitud máxima y mínima de un ave en comparación con su estado de conservación:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Tal vez valga la pena investigar si el grupo de aves 'Vulnerables' según sus longitudes es significativo o no.
+
+## 🚀 Desafío
+
+Los histogramas son un tipo de gráfico más sofisticado que los gráficos de dispersión, gráficos de barras o gráficos de líneas básicos. Busca en internet buenos ejemplos del uso de histogramas. ¿Cómo se utilizan, qué demuestran y en qué campos o áreas de investigación tienden a utilizarse?
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Repaso y Autoestudio
+
+En esta lección, utilizaste Matplotlib y comenzaste a trabajar con Seaborn para mostrar gráficos más sofisticados. Investiga sobre `kdeplot` en Seaborn, una "curva de densidad de probabilidad continua en una o más dimensiones". Lee la [documentación](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) para entender cómo funciona.
+
+## Tarea
+
+[Aplica tus habilidades](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/es/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..39393be8
--- /dev/null
+++ b/translations/es/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Aplica tus habilidades
+
+## Instrucciones
+
+Hasta ahora, has trabajado con el conjunto de datos de aves de Minnesota para descubrir información sobre cantidades de aves y densidad de población. Practica la aplicación de estas técnicas utilizando un conjunto de datos diferente, tal vez obtenido de [Kaggle](https://www.kaggle.com/). Crea un notebook para contar una historia sobre este conjunto de datos y asegúrate de usar histogramas al analizarlo.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | --- |
+Se presenta un notebook con anotaciones sobre este conjunto de datos, incluyendo su fuente, y utiliza al menos 5 histogramas para descubrir hechos sobre los datos. | Se presenta un notebook con anotaciones incompletas o errores. | Se presenta un notebook sin anotaciones y con errores.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/11-visualization-proportions/README.md b/translations/es/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..cc3ff2a3
--- /dev/null
+++ b/translations/es/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,203 @@
+
+# Visualizando Proporciones
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualizando Proporciones - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En esta lección, usarás un conjunto de datos enfocado en la naturaleza para visualizar proporciones, como cuántos tipos diferentes de hongos están presentes en un conjunto de datos sobre setas. Vamos a explorar estos fascinantes hongos utilizando un conjunto de datos obtenido de Audubon que detalla 23 especies de hongos con laminillas de las familias Agaricus y Lepiota. Experimentarás con visualizaciones interesantes como:
+
+- Gráficos de pastel 🥧
+- Gráficos de dona 🍩
+- Gráficos de waffle 🧇
+
+> 💡 Un proyecto muy interesante llamado [Charticulator](https://charticulator.com) de Microsoft Research ofrece una interfaz gratuita de arrastrar y soltar para visualizaciones de datos. ¡En uno de sus tutoriales también usan este conjunto de datos de hongos! Así que puedes explorar los datos y aprender a usar la biblioteca al mismo tiempo: [Tutorial de Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Conoce tus hongos 🍄
+
+Los hongos son muy interesantes. Importemos un conjunto de datos para estudiarlos:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Se imprime una tabla con datos excelentes para analizar:
+
+
+| clase | forma-sombrero | superficie-sombrero | color-sombrero | magulladuras | olor | unión-laminillas | espaciado-laminillas | tamaño-laminillas | color-laminillas | forma-tallo | raíz-tallo | superficie-tallo-encima-anillo | superficie-tallo-debajo-anillo | color-tallo-encima-anillo | color-tallo-debajo-anillo | tipo-velo | color-velo | número-anillos | tipo-anillo | color-esporas | población | hábitat |
+| ---------- | -------------- | ------------------- | -------------- | ------------ | -------- | ---------------- | -------------------- | ----------------- | ---------------- | ----------- | ---------- | ----------------------------- | ----------------------------- | ------------------------- | ------------------------- | --------- | ---------- | -------------- | ----------- | ------------- | ----------- | ------- |
+| Venenoso | Convexo | Liso | Marrón | Magulladuras | Punzante | Libre | Cerrado | Estrecho | Negro | Ensanchado | Igual | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Negro | Disperso | Urbano |
+| Comestible | Convexo | Liso | Amarillo | Magulladuras | Almendra | Libre | Cerrado | Ancho | Negro | Ensanchado | Club | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Marrón | Numeroso | Pastos |
+| Comestible | Campana | Liso | Blanco | Magulladuras | Anís | Libre | Cerrado | Ancho | Marrón | Ensanchado | Club | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Marrón | Numeroso | Praderas |
+| Venenoso | Convexo | Escamoso | Blanco | Magulladuras | Punzante | Libre | Cerrado | Estrecho | Marrón | Ensanchado | Igual | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Negro | Disperso | Urbano |
+
+De inmediato, notas que todos los datos son textuales. Tendrás que convertir estos datos para poder usarlos en un gráfico. De hecho, la mayoría de los datos están representados como un objeto:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+El resultado es:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Toma estos datos y convierte la columna 'class' en una categoría:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Ahora, si imprimes los datos de los hongos, puedes ver que se han agrupado en categorías según la clase venenoso/comestible:
+
+
+| | forma-sombrero | superficie-sombrero | color-sombrero | magulladuras | olor | unión-laminillas | espaciado-laminillas | tamaño-laminillas | color-laminillas | forma-tallo | ... | superficie-tallo-debajo-anillo | color-tallo-encima-anillo | color-tallo-debajo-anillo | tipo-velo | color-velo | número-anillos | tipo-anillo | color-esporas | población | hábitat |
+| --------- | -------------- | ------------------- | -------------- | ------------ | ---- | ---------------- | -------------------- | ----------------- | ---------------- | ----------- | --- | ----------------------------- | ------------------------- | ------------------------- | --------- | ---------- | -------------- | ----------- | ------------- | --------- | ------- |
+| clase | | | | | | | | | | | | | | | | | | | | | |
+| Comestible| 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Venenoso | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Si sigues el orden presentado en esta tabla para crear las etiquetas de la categoría 'class', puedes construir un gráfico de pastel:
+
+## ¡Pastel!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voilà, un gráfico de pastel que muestra las proporciones de estos datos según estas dos clases de hongos. Es muy importante obtener el orden correcto de las etiquetas, especialmente aquí, así que asegúrate de verificar el orden con el que se construye el arreglo de etiquetas.
+
+
+
+## ¡Donas!
+
+Un gráfico de dona, que es un gráfico de pastel con un agujero en el medio, es una forma visualmente más interesante de mostrar los datos. Veamos nuestros datos usando este método.
+
+Observa los diversos hábitats donde crecen los hongos:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Aquí, estás agrupando tus datos por hábitat. Hay 7 listados, así que usa esos como etiquetas para tu gráfico de dona:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Este código dibuja un gráfico y un círculo central, luego agrega ese círculo central al gráfico. Edita el ancho del círculo central cambiando `0.40` por otro valor.
+
+Los gráficos de dona se pueden ajustar de varias maneras para cambiar las etiquetas. Las etiquetas, en particular, se pueden resaltar para mejorar la legibilidad. Aprende más en los [documentos](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Ahora que sabes cómo agrupar tus datos y luego mostrarlos como un gráfico de pastel o de dona, puedes explorar otros tipos de gráficos. Prueba un gráfico de waffle, que es solo una forma diferente de explorar cantidades.
+## ¡Waffles!
+
+Un gráfico tipo 'waffle' es una forma diferente de visualizar cantidades como una matriz 2D de cuadrados. Intenta visualizar las diferentes cantidades de colores de sombreros de hongos en este conjunto de datos. Para hacerlo, necesitas instalar una biblioteca auxiliar llamada [PyWaffle](https://pypi.org/project/pywaffle/) y usar Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Selecciona un segmento de tus datos para agrupar:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Crea un gráfico de waffle creando etiquetas y luego agrupando tus datos:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Usando un gráfico de waffle, puedes ver claramente las proporciones de colores de sombreros en este conjunto de datos de hongos. Curiosamente, ¡hay muchos hongos con sombreros verdes!
+
+
+
+✅ PyWaffle admite íconos dentro de los gráficos que usan cualquier ícono disponible en [Font Awesome](https://fontawesome.com/). Haz algunos experimentos para crear un gráfico de waffle aún más interesante usando íconos en lugar de cuadrados.
+
+En esta lección, aprendiste tres formas de visualizar proporciones. Primero, necesitas agrupar tus datos en categorías y luego decidir cuál es la mejor manera de mostrar los datos: pastel, dona o waffle. Todos son deliciosos y ofrecen al usuario una instantánea instantánea de un conjunto de datos.
+
+## 🚀 Desafío
+
+Intenta recrear estos gráficos deliciosos en [Charticulator](https://charticulator.com).
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Revisión y Autoestudio
+
+A veces no es obvio cuándo usar un gráfico de pastel, dona o waffle. Aquí hay algunos artículos para leer sobre este tema:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Investiga más para encontrar información adicional sobre esta decisión.
+
+## Tarea
+
+[Prueba en Excel](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/es/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..c528d081
--- /dev/null
+++ b/translations/es/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,23 @@
+
+# Pruébalo en Excel
+
+## Instrucciones
+
+¿Sabías que puedes crear gráficos de dona, pastel y waffle en Excel? Usando un conjunto de datos de tu elección, crea estos tres gráficos directamente en una hoja de cálculo de Excel.
+
+## Criterios de evaluación
+
+| Ejemplar | Adecuado | Necesita mejora |
+| ------------------------------------------------------- | ------------------------------------------------ | ---------------------------------------------------- |
+| Se presenta una hoja de cálculo de Excel con los tres gráficos | Se presenta una hoja de cálculo de Excel con dos gráficos | Se presenta una hoja de cálculo de Excel con solo un gráfico |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/12-visualization-relationships/README.md b/translations/es/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..bbbc4081
--- /dev/null
+++ b/translations/es/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,184 @@
+
+# Visualizando Relaciones: Todo Sobre la Miel 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualizando Relaciones - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Continuando con el enfoque en la naturaleza de nuestra investigación, descubramos visualizaciones interesantes para mostrar las relaciones entre varios tipos de miel, según un conjunto de datos derivado del [Departamento de Agricultura de los Estados Unidos](https://www.nass.usda.gov/About_NASS/index.php).
+
+Este conjunto de datos, que incluye alrededor de 600 elementos, muestra la producción de miel en muchos estados de EE. UU. Por ejemplo, puedes observar el número de colonias, el rendimiento por colonia, la producción total, las existencias, el precio por libra y el valor de la miel producida en un estado determinado desde 1998 hasta 2012, con una fila por año para cada estado.
+
+Será interesante visualizar la relación entre la producción anual de un estado y, por ejemplo, el precio de la miel en ese estado. Alternativamente, podrías visualizar la relación entre el rendimiento de miel por colonia en diferentes estados. Este período abarca el devastador 'CCD' o 'Desorden del Colapso de Colonias', que se observó por primera vez en 2006 (http://npic.orst.edu/envir/ccd.html), por lo que es un conjunto de datos conmovedor para estudiar. 🐝
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+En esta lección, puedes usar Seaborn, que ya has utilizado antes, como una buena biblioteca para visualizar relaciones entre variables. Particularmente interesante es el uso de la función `relplot` de Seaborn, que permite gráficos de dispersión y gráficos de líneas para visualizar rápidamente '[relaciones estadísticas](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', lo que permite al científico de datos comprender mejor cómo se relacionan las variables entre sí.
+
+## Gráficos de dispersión
+
+Usa un gráfico de dispersión para mostrar cómo ha evolucionado el precio de la miel, año tras año, por estado. Seaborn, utilizando `relplot`, agrupa convenientemente los datos de los estados y muestra puntos de datos tanto para datos categóricos como numéricos.
+
+Comencemos importando los datos y Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Notarás que los datos de la miel tienen varias columnas interesantes, incluyendo el año y el precio por libra. Exploremos estos datos, agrupados por estado de EE. UU.:
+
+| estado | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ------ | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Crea un gráfico de dispersión básico para mostrar la relación entre el precio por libra de miel y su estado de origen en EE. UU. Haz que el eje `y` sea lo suficientemente alto para mostrar todos los estados:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Ahora, muestra los mismos datos con un esquema de colores de miel para mostrar cómo evoluciona el precio a lo largo de los años. Puedes hacerlo agregando un parámetro 'hue' para mostrar el cambio, año tras año:
+
+> ✅ Aprende más sobre las [paletas de colores que puedes usar en Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - ¡prueba un hermoso esquema de colores arcoíris!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Con este cambio de esquema de colores, puedes ver que hay una progresión evidente a lo largo de los años en términos de precio de la miel por libra. De hecho, si observas un conjunto de muestra en los datos para verificar (elige un estado, Arizona por ejemplo), puedes ver un patrón de aumento de precios año tras año, con pocas excepciones:
+
+| estado | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ------ | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Otra forma de visualizar esta progresión es usar tamaño en lugar de color. Para usuarios con daltonismo, esta podría ser una mejor opción. Edita tu visualización para mostrar un aumento de precio mediante un aumento en la circunferencia de los puntos:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Puedes ver que el tamaño de los puntos aumenta gradualmente.
+
+
+
+¿Es este un caso simple de oferta y demanda? Debido a factores como el cambio climático y el colapso de colonias, ¿hay menos miel disponible para la compra año tras año, y por lo tanto el precio aumenta?
+
+Para descubrir una correlación entre algunas de las variables en este conjunto de datos, exploremos algunos gráficos de líneas.
+
+## Gráficos de líneas
+
+Pregunta: ¿Hay un aumento claro en el precio de la miel por libra año tras año? Puedes descubrirlo fácilmente creando un único gráfico de líneas:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Respuesta: Sí, con algunas excepciones alrededor del año 2003:
+
+
+
+✅ Debido a que Seaborn está agregando datos alrededor de una línea, muestra "las múltiples mediciones en cada valor de x trazando la media y el intervalo de confianza del 95% alrededor de la media". [Fuente](https://seaborn.pydata.org/tutorial/relational.html). Este comportamiento que consume tiempo puede desactivarse agregando `ci=None`.
+
+Pregunta: Bueno, en 2003, ¿también podemos ver un aumento en el suministro de miel? ¿Qué pasa si observas la producción total año tras año?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Respuesta: No realmente. Si observas la producción total, parece haber aumentado en ese año en particular, aunque en general la cantidad de miel producida está en declive durante estos años.
+
+Pregunta: En ese caso, ¿qué podría haber causado ese aumento en el precio de la miel alrededor de 2003?
+
+Para descubrir esto, puedes explorar una cuadrícula de facetas.
+
+## Cuadrículas de facetas
+
+Las cuadrículas de facetas toman un aspecto de tu conjunto de datos (en nuestro caso, puedes elegir 'año' para evitar producir demasiadas facetas). Seaborn puede entonces hacer un gráfico para cada una de esas facetas de tus coordenadas x e y elegidas para una comparación más fácil. ¿Destaca el año 2003 en este tipo de comparación?
+
+Crea una cuadrícula de facetas continuando con el uso de `relplot` como se recomienda en la [documentación de Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+En esta visualización, puedes comparar el rendimiento por colonia y el número de colonias año tras año, lado a lado con un ajuste de envoltura de 3 para las columnas:
+
+
+
+Para este conjunto de datos, nada particularmente destaca con respecto al número de colonias y su rendimiento, año tras año y estado tras estado. ¿Hay una forma diferente de buscar una correlación entre estas dos variables?
+
+## Gráficos de líneas duales
+
+Prueba un gráfico de líneas múltiples superponiendo dos gráficos de líneas uno encima del otro, usando el método 'despine' de Seaborn para eliminar las espinas superior y derecha, y usando `ax.twinx` [derivado de Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx permite que un gráfico comparta el eje x y muestre dos ejes y. Entonces, muestra el rendimiento por colonia y el número de colonias, superpuestos:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Aunque nada salta a la vista alrededor del año 2003, esto nos permite terminar esta lección con una nota un poco más feliz: aunque hay un número decreciente de colonias en general, el número de colonias se está estabilizando incluso si su rendimiento por colonia está disminuyendo.
+
+¡Vamos, abejas, vamos!
+
+🐝❤️
+## 🚀 Desafío
+
+En esta lección, aprendiste un poco más sobre otros usos de gráficos de dispersión y cuadrículas de líneas, incluyendo cuadrículas de facetas. Desafíate a ti mismo para crear una cuadrícula de facetas usando un conjunto de datos diferente, tal vez uno que hayas usado antes en estas lecciones. Nota cuánto tiempo tardan en crearse y cómo necesitas ser cuidadoso con la cantidad de cuadrículas que necesitas dibujar usando estas técnicas.
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Revisión y Autoestudio
+
+Los gráficos de líneas pueden ser simples o bastante complejos. Haz un poco de lectura en la [documentación de Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) sobre las diversas formas en que puedes construirlos. Intenta mejorar los gráficos de líneas que construiste en esta lección con otros métodos listados en la documentación.
+## Tarea
+
+[Sumérgete en la colmena](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/es/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..90ed117c
--- /dev/null
+++ b/translations/es/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,23 @@
+
+# Sumérgete en la colmena
+
+## Instrucciones
+
+En esta lección comenzaste a explorar un conjunto de datos sobre las abejas y su producción de miel a lo largo de un período de tiempo que registró pérdidas en la población de colonias de abejas en general. Profundiza en este conjunto de datos y crea un cuaderno que pueda contar la historia de la salud de la población de abejas, estado por estado y año por año. ¿Descubres algo interesante en este conjunto de datos?
+
+## Criterios de evaluación
+
+| Ejemplar | Adecuado | Necesita Mejorar |
+| -------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| Se presenta un cuaderno con una historia anotada con al menos tres gráficos diferentes que muestran aspectos del conjunto de datos, estado por estado y año por año | Al cuaderno le falta uno de estos elementos | Al cuaderno le faltan dos de estos elementos |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/es/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..e024f32f
--- /dev/null
+++ b/translations/es/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,180 @@
+
+# Creando Visualizaciones Significativas
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Visualizaciones Significativas - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+> "Si torturas los datos lo suficiente, confesarán cualquier cosa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Una de las habilidades básicas de un científico de datos es la capacidad de crear una visualización de datos significativa que ayude a responder preguntas. Antes de visualizar tus datos, debes asegurarte de que hayan sido limpiados y preparados, como hiciste en lecciones anteriores. Después de eso, puedes comenzar a decidir cómo presentar mejor los datos.
+
+En esta lección, revisarás:
+
+1. Cómo elegir el tipo de gráfico adecuado
+2. Cómo evitar gráficos engañosos
+3. Cómo trabajar con el color
+4. Cómo estilizar tus gráficos para mejorar la legibilidad
+5. Cómo construir soluciones de gráficos animados o en 3D
+6. Cómo crear una visualización creativa
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Elige el tipo de gráfico adecuado
+
+En lecciones anteriores, experimentaste con la creación de todo tipo de visualizaciones de datos interesantes utilizando Matplotlib y Seaborn. En general, puedes seleccionar el [tipo de gráfico adecuado](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) para la pregunta que estás haciendo utilizando esta tabla:
+
+| Necesitas: | Deberías usar: |
+| -------------------------- | ------------------------------- |
+| Mostrar tendencias en el tiempo | Línea |
+| Comparar categorías | Barra, Pastel |
+| Comparar totales | Pastel, Barra apilada |
+| Mostrar relaciones | Dispersión, Línea, Faceta, Línea dual |
+| Mostrar distribuciones | Dispersión, Histograma, Caja |
+| Mostrar proporciones | Pastel, Donut, Waffle |
+
+> ✅ Dependiendo de la composición de tus datos, es posible que necesites convertirlos de texto a numérico para que un gráfico determinado los soporte.
+
+## Evita el engaño
+
+Incluso si un científico de datos es cuidadoso al elegir el gráfico adecuado para los datos, hay muchas formas en que los datos pueden ser mostrados para probar un punto, a menudo a costa de socavar los datos mismos. ¡Existen muchos ejemplos de gráficos e infografías engañosos!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Cómo los gráficos engañan")
+
+> 🎥 Haz clic en la imagen de arriba para ver una charla sobre gráficos engañosos
+
+Este gráfico invierte el eje X para mostrar lo opuesto a la verdad, basado en la fecha:
+
+
+
+[Este gráfico](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) es aún más engañoso, ya que el ojo se dirige hacia la derecha para concluir que, con el tiempo, los casos de COVID han disminuido en los diversos condados. De hecho, si miras de cerca las fechas, encontrarás que han sido reorganizadas para dar esa tendencia descendente engañosa.
+
+
+
+Este ejemplo notorio utiliza color Y un eje Y invertido para engañar: en lugar de concluir que las muertes por armas aumentaron después de la aprobación de una legislación favorable a las armas, de hecho el ojo es engañado para pensar que ocurrió lo contrario:
+
+
+
+Este gráfico extraño muestra cómo la proporción puede ser manipulada, con un efecto hilarante:
+
+
+
+Comparar lo incomparable es otra táctica dudosa. Existe un [sitio web maravilloso](https://tylervigen.com/spurious-correlations) sobre 'correlaciones espurias' que muestra 'hechos' correlacionando cosas como la tasa de divorcio en Maine y el consumo de margarina. Un grupo de Reddit también recopila los [usos feos](https://www.reddit.com/r/dataisugly/top/?t=all) de los datos.
+
+Es importante entender lo fácil que es engañar al ojo con gráficos engañosos. Incluso si la intención del científico de datos es buena, la elección de un mal tipo de gráfico, como un gráfico de pastel que muestra demasiadas categorías, puede ser engañosa.
+
+## Color
+
+Viste en el gráfico de 'violencia con armas en Florida' cómo el color puede proporcionar una capa adicional de significado a los gráficos, especialmente aquellos que no están diseñados utilizando bibliotecas como Matplotlib y Seaborn, que vienen con diversas bibliotecas y paletas de colores verificadas. Si estás creando un gráfico manualmente, estudia un poco sobre [teoría del color](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Ten en cuenta, al diseñar gráficos, que la accesibilidad es un aspecto importante de la visualización. Algunos de tus usuarios podrían ser daltónicos: ¿tu gráfico se muestra bien para usuarios con discapacidades visuales?
+
+Ten cuidado al elegir colores para tu gráfico, ya que el color puede transmitir un significado que no pretendes. Las 'damas rosadas' en el gráfico de 'altura' arriba transmiten un significado distintivamente 'femenino' que añade a lo extraño del gráfico en sí.
+
+Aunque el [significado del color](https://colormatters.com/color-symbolism/the-meanings-of-colors) puede ser diferente en distintas partes del mundo y tiende a cambiar según su tonalidad, generalmente los significados incluyen:
+
+| Color | Significado |
+| ------ | ------------------- |
+| rojo | poder |
+| azul | confianza, lealtad |
+| amarillo | felicidad, precaución |
+| verde | ecología, suerte, envidia |
+| púrpura | felicidad |
+| naranja | vitalidad |
+
+Si se te asigna la tarea de crear un gráfico con colores personalizados, asegúrate de que tus gráficos sean accesibles y que el color que elijas coincida con el significado que intentas transmitir.
+
+## Estilizando tus gráficos para mejorar la legibilidad
+
+Los gráficos no son significativos si no son legibles. Tómate un momento para considerar el estilo del ancho y alto de tu gráfico para que se ajuste bien a tus datos. Si una variable (como los 50 estados) necesita ser mostrada, muéstralos verticalmente en el eje Y si es posible para evitar un gráfico con desplazamiento horizontal.
+
+Etiqueta tus ejes, proporciona una leyenda si es necesario y ofrece información emergente para una mejor comprensión de los datos.
+
+Si tus datos son textuales y extensos en el eje X, puedes inclinar el texto para mejorar la legibilidad. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) ofrece gráficos en 3D si tus datos lo permiten. Se pueden producir visualizaciones de datos sofisticadas utilizando `mpl_toolkits.mplot3d`.
+
+
+
+## Animación y visualización de gráficos en 3D
+
+Algunas de las mejores visualizaciones de datos hoy en día son animadas. Shirley Wu tiene ejemplos increíbles hechos con D3, como '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', donde cada flor es una visualización de una película. Otro ejemplo para el Guardian es 'bussed out', una experiencia interactiva que combina visualizaciones con Greensock y D3 más un formato de artículo narrativo para mostrar cómo Nueva York maneja su problema de personas sin hogar enviándolas fuera de la ciudad.
+
+
+
+> "Bussed Out: Cómo Estados Unidos mueve a sus personas sin hogar" del [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualizaciones por Nadieh Bremer & Shirley Wu
+
+Aunque esta lección no es suficiente para profundizar en estas poderosas bibliotecas de visualización, intenta usar D3 en una aplicación Vue.js utilizando una biblioteca para mostrar una visualización del libro "Las Amistades Peligrosas" como una red social animada.
+
+> "Les Liaisons Dangereuses" es una novela epistolar, o una novela presentada como una serie de cartas. Escrita en 1782 por Choderlos de Laclos, cuenta la historia de las maniobras sociales viciosas y moralmente corruptas de dos protagonistas enfrentados de la aristocracia francesa del siglo XVIII, el Vizconde de Valmont y la Marquesa de Merteuil. Ambos encuentran su final trágico, pero no sin causar un gran daño social. La novela se desarrolla como una serie de cartas escritas a varias personas en sus círculos, tramando venganzas o simplemente causando problemas. Crea una visualización de estas cartas para descubrir los principales personajes de la narrativa, de manera visual.
+
+Completarás una aplicación web que mostrará una vista animada de esta red social. Utiliza una biblioteca creada para generar una [visualización de una red](https://github.com/emiliorizzo/vue-d3-network) usando Vue.js y D3. Cuando la aplicación esté funcionando, puedes mover los nodos en la pantalla para reorganizar los datos.
+
+
+
+## Proyecto: Construye un gráfico para mostrar una red usando D3.js
+
+> Esta carpeta de lección incluye una carpeta `solution` donde puedes encontrar el proyecto completo como referencia.
+
+1. Sigue las instrucciones en el archivo README.md en la carpeta raíz del starter. Asegúrate de tener NPM y Node.js funcionando en tu máquina antes de instalar las dependencias de tu proyecto.
+
+2. Abre la carpeta `starter/src`. Descubrirás una carpeta `assets` donde puedes encontrar un archivo .json con todas las cartas de la novela, numeradas, con una anotación de 'para' y 'de'.
+
+3. Completa el código en `components/Nodes.vue` para habilitar la visualización. Busca el método llamado `createLinks()` y añade el siguiente bucle anidado.
+
+Recorre el objeto .json para capturar los datos de 'para' y 'de' de las cartas y construye el objeto `links` para que la biblioteca de visualización pueda consumirlo:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Ejecuta tu aplicación desde la terminal (npm run serve) y disfruta de la visualización.
+
+## 🚀 Desafío
+
+Haz un recorrido por internet para descubrir visualizaciones engañosas. ¿Cómo engaña el autor al usuario y es intencional? Intenta corregir las visualizaciones para mostrar cómo deberían verse.
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Revisión y autoestudio
+
+Aquí hay algunos artículos para leer sobre visualización de datos engañosa:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Echa un vistazo a estas visualizaciones interesantes sobre activos y artefactos históricos:
+
+https://handbook.pubpub.org/
+
+Revisa este artículo sobre cómo la animación puede mejorar tus visualizaciones:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Tarea
+
+[Construye tu propia visualización personalizada](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/es/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..055888cc
--- /dev/null
+++ b/translations/es/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,23 @@
+
+# Crea tu propia visualización personalizada
+
+## Instrucciones
+
+Usando el ejemplo de código en este proyecto para crear una red social, crea datos simulados de tus propias interacciones sociales. Podrías mapear tu uso de las redes sociales o hacer un diagrama de los miembros de tu familia. Crea una aplicación web interesante que muestre una visualización única de una red social.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | --- |
+Se presenta un repositorio de GitHub con código que funciona correctamente (intenta desplegarlo como una aplicación web estática) y tiene un README anotado que explica el proyecto | El repositorio no funciona correctamente o no está bien documentado | El repositorio no funciona correctamente y no está bien documentado
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/es/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..d8c6f2f6
--- /dev/null
+++ b/translations/es/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,38 @@
+
+# Proyecto de visualización de datos Dangerous Liaisons
+
+Para comenzar, asegúrate de tener NPM y Node funcionando en tu máquina. Instala las dependencias (npm install) y luego ejecuta el proyecto localmente (npm run serve):
+
+## Configuración del proyecto
+```
+npm install
+```
+
+### Compila y recarga automáticamente para desarrollo
+```
+npm run serve
+```
+
+### Compila y minimiza para producción
+```
+npm run build
+```
+
+### Analiza y corrige archivos
+```
+npm run lint
+```
+
+### Personalizar configuración
+Consulta [Referencia de Configuración](https://cli.vuejs.org/config/).
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/es/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..2dcd3923
--- /dev/null
+++ b/translations/es/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,38 @@
+
+# Proyecto de visualización de datos Dangerous Liaisons
+
+Para comenzar, asegúrate de tener NPM y Node funcionando en tu máquina. Instala las dependencias (npm install) y luego ejecuta el proyecto localmente (npm run serve):
+
+## Configuración del proyecto
+```
+npm install
+```
+
+### Compila y recarga automáticamente para desarrollo
+```
+npm run serve
+```
+
+### Compila y minimiza para producción
+```
+npm run build
+```
+
+### Analiza y corrige archivos
+```
+npm run lint
+```
+
+### Personalizar configuración
+Consulta [Referencia de Configuración](https://cli.vuejs.org/config/).
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/es/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..d295d0d8
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,229 @@
+
+# Visualizando Cantidades
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualizando Cantidades - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En esta lección explorarás cómo usar algunas de las muchas bibliotecas de paquetes disponibles en R para aprender a crear visualizaciones interesantes en torno al concepto de cantidad. Usando un conjunto de datos limpio sobre las aves de Minnesota, puedes aprender muchos datos interesantes sobre la fauna local.
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observa la envergadura con ggplot2
+Una biblioteca excelente para crear gráficos y diagramas, tanto simples como sofisticados, de varios tipos es [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). En términos generales, el proceso de graficar datos usando estas bibliotecas incluye identificar las partes de tu dataframe que deseas analizar, realizar las transformaciones necesarias en esos datos, asignar valores a los ejes x e y, decidir qué tipo de gráfico mostrar y luego mostrar el gráfico.
+
+`ggplot2` es un sistema para crear gráficos de manera declarativa, basado en The Grammar of Graphics. La [Gramática de los Gráficos](https://en.wikipedia.org/wiki/Ggplot2) es un esquema general para la visualización de datos que divide los gráficos en componentes semánticos como escalas y capas. En otras palabras, la facilidad para crear gráficos y diagramas para datos univariados o multivariados con poco código hace que `ggplot2` sea el paquete más popular para visualizaciones en R. El usuario indica a `ggplot2` cómo mapear las variables a las estéticas, los elementos gráficos a usar, y `ggplot2` se encarga del resto.
+
+> ✅ Gráfico = Datos + Estéticas + Geometría
+> - Los datos se refieren al conjunto de datos
+> - Las estéticas indican las variables a estudiar (variables x e y)
+> - La geometría se refiere al tipo de gráfico (gráfico de líneas, gráfico de barras, etc.)
+
+Elige la mejor geometría (tipo de gráfico) según tus datos y la historia que deseas contar a través del gráfico.
+
+> - Para analizar tendencias: línea, columna
+> - Para comparar valores: barra, columna, pastel, dispersión
+> - Para mostrar cómo las partes se relacionan con el todo: pastel
+> - Para mostrar la distribución de datos: dispersión, barra
+> - Para mostrar relaciones entre valores: línea, dispersión, burbuja
+
+✅ También puedes consultar este descriptivo [cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) para ggplot2.
+
+## Construye un gráfico de líneas sobre los valores de envergadura de las aves
+
+Abre la consola de R e importa el conjunto de datos.
+> Nota: El conjunto de datos está almacenado en la raíz de este repositorio en la carpeta `/data`.
+
+Importemos el conjunto de datos y observemos las primeras filas (top 5) de los datos.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Las primeras filas de los datos tienen una mezcla de texto y números:
+
+| | Nombre | NombreCientífico | Categoría | Orden | Familia | Género | EstadoConservación | MinLongitud | MaxLongitud | MinMasaCorporal | MaxMasaCorporal | MinEnvergadura | MaxEnvergadura |
+| ---: | :---------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | -----------:| -----------:| ---------------:| ---------------:| ---------------:| ---------------:|
+| 0 | Pato silbador vientre negro | Dendrocygna autumnalis | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato silbador fulvo | Dendrocygna bicolor | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso de las nieves | Anser caerulescens | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso de Ross | Anser rossii | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso de frente blanca mayor | Anser albifrons | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Comencemos graficando algunos de los datos numéricos usando un gráfico de líneas básico. Supongamos que deseas ver la envergadura máxima de estas interesantes aves.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Aquí, instalas el paquete `ggplot2` y luego lo importas al espacio de trabajo usando el comando `library("ggplot2")`. Para graficar cualquier gráfico en ggplot, se utiliza la función `ggplot()` y especificas el conjunto de datos, las variables x e y como atributos. En este caso, usamos la función `geom_line()` ya que buscamos graficar un gráfico de líneas.
+
+
+
+¿Qué notas de inmediato? Parece haber al menos un valor atípico: ¡vaya envergadura! Una envergadura de más de 2000 centímetros equivale a más de 20 metros: ¿hay pterodáctilos rondando Minnesota? Investiguemos.
+
+Aunque podrías hacer un ordenamiento rápido en Excel para encontrar esos valores atípicos, que probablemente sean errores tipográficos, continúa el proceso de visualización trabajando desde el gráfico.
+
+Agrega etiquetas al eje x para mostrar qué tipo de aves están en cuestión:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Especificamos el ángulo en el `theme` y especificamos las etiquetas de los ejes x e y en `xlab()` y `ylab()` respectivamente. El `ggtitle()` da un nombre al gráfico.
+
+
+
+Incluso con la rotación de las etiquetas configurada a 45 grados, hay demasiadas para leer. Probemos una estrategia diferente: etiquetar solo los valores atípicos y establecer las etiquetas dentro del gráfico. Puedes usar un gráfico de dispersión para hacer más espacio para el etiquetado:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+¿Qué está pasando aquí? Usaste la función `geom_point()` para graficar puntos de dispersión. Con esto, agregaste etiquetas para las aves que tenían su `MaxWingspan > 500` y también ocultaste las etiquetas en el eje x para despejar el gráfico.
+
+¿Qué descubres?
+
+
+
+## Filtra tus datos
+
+Tanto el Águila Calva como el Halcón de las Praderas, aunque probablemente sean aves muy grandes, parecen estar mal etiquetados, con un cero extra agregado a su envergadura máxima. Es poco probable que encuentres un Águila Calva con una envergadura de 25 metros, pero si lo haces, ¡por favor avísanos! Creemos un nuevo dataframe sin esos dos valores atípicos:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Creamos un nuevo dataframe `birds_filtered` y luego graficamos un gráfico de dispersión. Al filtrar los valores atípicos, tus datos ahora son más cohesivos y comprensibles.
+
+
+
+Ahora que tenemos un conjunto de datos más limpio al menos en términos de envergadura, descubramos más sobre estas aves.
+
+Mientras que los gráficos de líneas y dispersión pueden mostrar información sobre los valores de los datos y sus distribuciones, queremos pensar en los valores inherentes a este conjunto de datos. Podrías crear visualizaciones para responder las siguientes preguntas sobre cantidad:
+
+> ¿Cuántas categorías de aves hay y cuáles son sus números?
+> ¿Cuántas aves están extintas, en peligro, son raras o comunes?
+> ¿Cuántas hay de los diversos géneros y órdenes en la terminología de Linneo?
+
+## Explora gráficos de barras
+
+Los gráficos de barras son prácticos cuando necesitas mostrar agrupaciones de datos. Exploremos las categorías de aves que existen en este conjunto de datos para ver cuál es la más común por número.
+Creemos un gráfico de barras con datos filtrados.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+En el siguiente fragmento, instalamos los paquetes [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) y [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) para ayudar a manipular y agrupar datos con el fin de graficar un gráfico de barras apiladas. Primero, agrupas los datos por la `Categoría` de ave y luego resumes las columnas `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Luego, graficas el gráfico de barras usando el paquete `ggplot2` y especificas los colores para las diferentes categorías y las etiquetas.
+
+
+
+Este gráfico de barras, sin embargo, es ilegible porque hay demasiados datos no agrupados. Necesitas seleccionar solo los datos que deseas graficar, así que veamos la longitud de las aves según su categoría.
+
+Filtra tus datos para incluir solo la categoría de las aves.
+
+Dado que hay muchas categorías, puedes mostrar este gráfico verticalmente y ajustar su altura para incluir todos los datos:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Primero cuentas los valores únicos en la columna `Category` y luego los ordenas en un nuevo dataframe `birds_count`. Estos datos ordenados se factorizan en el mismo nivel para que se grafiquen de manera ordenada. Usando `ggplot2` luego graficas los datos en un gráfico de barras. El `coord_flip()` grafica barras horizontales.
+
+
+
+Este gráfico de barras muestra una buena vista del número de aves en cada categoría. De un vistazo, ves que el mayor número de aves en esta región pertenece a la categoría de Patos/Gansos/Aves acuáticas. Minnesota es la 'tierra de los 10,000 lagos', ¡así que esto no es sorprendente!
+
+✅ Prueba algunos otros conteos en este conjunto de datos. ¿Hay algo que te sorprenda?
+
+## Comparando datos
+
+Puedes probar diferentes comparaciones de datos agrupados creando nuevos ejes. Prueba una comparación de la MaxLength de un ave, basada en su categoría:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Agrupamos los datos `birds_filtered` por `Category` y luego graficamos un gráfico de barras.
+
+
+
+Nada sorprendente aquí: los colibríes tienen la menor MaxLength en comparación con los pelícanos o los gansos. ¡Es bueno cuando los datos tienen sentido lógico!
+
+Puedes crear visualizaciones más interesantes de gráficos de barras superponiendo datos. Superpongamos la Longitud Mínima y Máxima en una categoría de ave dada:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Desafío
+
+Este conjunto de datos de aves ofrece una gran cantidad de información sobre diferentes tipos de aves dentro de un ecosistema particular. Busca en internet y ve si puedes encontrar otros conjuntos de datos orientados a aves. Practica construyendo gráficos y diagramas sobre estas aves para descubrir datos que no conocías.
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Revisión y Autoestudio
+
+Esta primera lección te ha dado información sobre cómo usar `ggplot2` para visualizar cantidades. Investiga otras formas de trabajar con conjuntos de datos para visualización. Investiga y busca conjuntos de datos que puedas visualizar usando otros paquetes como [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) y [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Tarea
+[Gráficos de Líneas, Dispersión y Barras](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/es/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..60c1c707
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Líneas, Dispersión y Barras
+
+## Instrucciones
+
+En esta lección, trabajaste con gráficos de líneas, diagramas de dispersión y gráficos de barras para mostrar datos interesantes de este conjunto. En esta tarea, profundiza en el conjunto de datos para descubrir un hecho sobre un tipo específico de ave. Por ejemplo, crea un script que visualice todos los datos interesantes que puedas encontrar sobre los gansos nivales. Usa los tres gráficos mencionados anteriormente para contar una historia en tu cuaderno.
+
+## Rúbrica
+
+Ejemplar | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Se presenta un script con buenas anotaciones, una narrativa sólida y gráficos atractivos | Al script le falta uno de estos elementos | Al script le faltan dos de estos elementos
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/es/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..9b8d351a
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,183 @@
+
+# Visualizando Distribuciones
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualizando Distribuciones - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En la lección anterior, aprendiste algunos datos interesantes sobre un conjunto de datos acerca de las aves de Minnesota. Encontraste datos erróneos visualizando valores atípicos y observaste las diferencias entre las categorías de aves según su longitud máxima.
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Explora el conjunto de datos de aves
+
+Otra forma de analizar los datos es observando su distribución, o cómo los datos están organizados a lo largo de un eje. Tal vez, por ejemplo, te gustaría aprender sobre la distribución general, para este conjunto de datos, de la envergadura máxima o la masa corporal máxima de las aves de Minnesota.
+
+Descubramos algunos datos sobre las distribuciones de los datos en este conjunto. En tu consola de R, importa `ggplot2` y la base de datos. Elimina los valores atípicos de la base de datos tal como hiciste en el tema anterior.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Nombre | NombreCientífico | Categoría | Orden | Familia | Género | EstadoConservación | MinLongitud | MaxLongitud | MinMasaCorporal | MaxMasaCorporal | MinEnvergadura | MaxEnvergadura |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :------------------ | -----------:| -----------:| ---------------:| ---------------:| ---------------:| ---------------:|
+| 0 | Pato silbador vientre negro | Dendrocygna autumnalis | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato silbador fulvo | Dendrocygna bicolor | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso de las nieves | Anser caerulescens | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso de Ross | Anser rossii | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso de frente blanca mayor | Anser albifrons | Patos/Gansos/Aves acuáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+En general, puedes observar rápidamente cómo se distribuyen los datos utilizando un gráfico de dispersión como hicimos en la lección anterior:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Esto da una visión general de la distribución de la longitud corporal por Orden de aves, pero no es la forma óptima de mostrar distribuciones reales. Esa tarea generalmente se realiza creando un Histograma.
+
+## Trabajando con histogramas
+
+`ggplot2` ofrece muy buenas formas de visualizar la distribución de datos utilizando Histogramas. Este tipo de gráfico es como un gráfico de barras donde la distribución se puede observar a través del aumento y la caída de las barras. Para construir un histograma, necesitas datos numéricos. Para construir un Histograma, puedes graficar un gráfico definiendo el tipo como 'hist' para Histograma. Este gráfico muestra la distribución de MaxBodyMass para el rango completo de datos numéricos del conjunto de datos. Dividiendo el conjunto de datos en intervalos más pequeños, puede mostrar la distribución de los valores de los datos:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Como puedes ver, la mayoría de las más de 400 aves en este conjunto de datos caen en el rango de menos de 2000 para su Masa Corporal Máxima. Obtén más información sobre los datos cambiando el parámetro `bins` a un número mayor, algo como 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Este gráfico muestra la distribución de manera un poco más detallada. Un gráfico menos sesgado hacia la izquierda podría crearse asegurándote de seleccionar solo datos dentro de un rango dado:
+
+Filtra tus datos para obtener solo aquellas aves cuya masa corporal sea menor a 60, y muestra 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Prueba algunos otros filtros y puntos de datos. Para ver la distribución completa de los datos, elimina el filtro `['MaxBodyMass']` para mostrar distribuciones etiquetadas.
+
+El histograma ofrece algunas mejoras agradables de color y etiquetado para probar también:
+
+Crea un histograma 2D para comparar la relación entre dos distribuciones. Comparemos `MaxBodyMass` vs. `MaxLength`. `ggplot2` ofrece una forma integrada de mostrar convergencia utilizando colores más brillantes:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Parece haber una correlación esperada entre estos dos elementos a lo largo de un eje esperado, con un punto particularmente fuerte de convergencia:
+
+
+
+Los histogramas funcionan bien por defecto para datos numéricos. ¿Qué pasa si necesitas ver distribuciones según datos de texto?
+
+## Explora el conjunto de datos para distribuciones usando datos de texto
+
+Este conjunto de datos también incluye buena información sobre la categoría de las aves y su género, especie y familia, así como su estado de conservación. Exploremos esta información de conservación. ¿Cuál es la distribución de las aves según su estado de conservación?
+
+> ✅ En el conjunto de datos, se utilizan varios acrónimos para describir el estado de conservación. Estos acrónimos provienen de las [Categorías de la Lista Roja de la UICN](https://www.iucnredlist.org/), una organización que cataloga el estado de las especies.
+>
+> - CR: En Peligro Crítico
+> - EN: En Peligro
+> - EX: Extinto
+> - LC: Preocupación Menor
+> - NT: Casi Amenazado
+> - VU: Vulnerable
+
+Estos son valores basados en texto, por lo que necesitarás hacer una transformación para crear un histograma. Usando el dataframe filteredBirds, muestra su estado de conservación junto con su Envergadura Mínima. ¿Qué observas?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+No parece haber una buena correlación entre la envergadura mínima y el estado de conservación. Prueba otros elementos del conjunto de datos utilizando este método. También puedes probar diferentes filtros. ¿Encuentras alguna correlación?
+
+## Gráficos de densidad
+
+Es posible que hayas notado que los histogramas que hemos visto hasta ahora son 'escalonados' y no fluyen suavemente en un arco. Para mostrar un gráfico de densidad más suave, puedes probar un gráfico de densidad.
+
+¡Trabajemos ahora con gráficos de densidad!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Puedes ver cómo el gráfico refleja el anterior para los datos de Envergadura Mínima; es solo un poco más suave. Si quisieras revisar esa línea irregular de MaxBodyMass en el segundo gráfico que construiste, podrías suavizarla muy bien recreándola usando este método:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Si quisieras una línea suave, pero no demasiado suave, edita el parámetro `adjust`:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Lee sobre los parámetros disponibles para este tipo de gráfico y experimenta.
+
+Este tipo de gráfico ofrece visualizaciones explicativas muy atractivas. Con unas pocas líneas de código, por ejemplo, puedes mostrar la densidad de masa corporal máxima por Orden de aves:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Desafío
+
+Los histogramas son un tipo de gráfico más sofisticado que los gráficos de dispersión, gráficos de barras o gráficos de líneas básicos. Busca en internet buenos ejemplos del uso de histogramas. ¿Cómo se utilizan, qué demuestran y en qué campos o áreas de investigación tienden a utilizarse?
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Repaso y Autoestudio
+
+En esta lección, utilizaste `ggplot2` y comenzaste a trabajar para mostrar gráficos más sofisticados. Investiga sobre `geom_density_2d()`, una "curva de densidad de probabilidad continua en una o más dimensiones". Lee la [documentación](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) para entender cómo funciona.
+
+## Tarea
+
+[Aplica tus habilidades](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/es/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..4eff1d4c
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Aplica tus habilidades
+
+## Instrucciones
+
+Hasta ahora, has trabajado con el conjunto de datos de aves de Minnesota para descubrir información sobre cantidades de aves y densidad de población. Practica la aplicación de estas técnicas utilizando un conjunto de datos diferente, quizás obtenido de [Kaggle](https://www.kaggle.com/). Crea un script en R para contar una historia sobre este conjunto de datos y asegúrate de usar histogramas al analizarlo.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | --- |
+Se presenta un script con anotaciones sobre este conjunto de datos, incluyendo su fuente, y utiliza al menos 5 histogramas para descubrir hechos sobre los datos. | Se presenta un script con anotaciones incompletas o errores. | Se presenta un script sin anotaciones y con errores.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/es/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..6b703898
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,197 @@
+
+# Visualizando Proporciones
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualizando Proporciones - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En esta lección, usarás un conjunto de datos enfocado en la naturaleza para visualizar proporciones, como cuántos tipos diferentes de hongos se encuentran en un conjunto de datos sobre setas. Vamos a explorar estos fascinantes hongos utilizando un conjunto de datos obtenido de Audubon que detalla 23 especies de hongos con branquias de las familias Agaricus y Lepiota. Experimentarás con visualizaciones interesantes como:
+
+- Gráficos de pastel 🥧
+- Gráficos de dona 🍩
+- Gráficos de waffle 🧇
+
+> 💡 Un proyecto muy interesante llamado [Charticulator](https://charticulator.com) de Microsoft Research ofrece una interfaz gratuita de arrastrar y soltar para visualizaciones de datos. En uno de sus tutoriales también utilizan este conjunto de datos de hongos. Así que puedes explorar los datos y aprender la biblioteca al mismo tiempo: [Tutorial de Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Conoce tus hongos 🍄
+
+Los hongos son muy interesantes. Importemos un conjunto de datos para estudiarlos:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Se imprime una tabla con algunos datos excelentes para análisis:
+
+
+| clase | forma del sombrero | superficie del sombrero | color del sombrero | magulladuras | olor | unión de las branquias | espacio entre branquias | tamaño de las branquias | color de las branquias | forma del tallo | raíz del tallo | superficie del tallo sobre el anillo | superficie del tallo bajo el anillo | color del tallo sobre el anillo | color del tallo bajo el anillo | tipo de velo | color del velo | número de anillos | tipo de anillo | color de impresión de esporas | población | hábitat |
+| --------- | ------------------ | ----------------------- | ------------------ | ------------ | ------- | ---------------------- | ----------------------- | ----------------------- | ---------------------- | --------------- | ------------- | ---------------------------------- | ---------------------------------- | ------------------------------ | ------------------------------ | ----------- | ------------- | ----------------- | ------------- | ---------------------------- | ---------- | ------- |
+| Venenoso | Convexo | Liso | Marrón | Magulladuras | Pungente | Libre | Cerrado | Estrecho | Negro | Ensanchado | Igual | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Negro | Disperso | Urbano |
+| Comestible| Convexo | Liso | Amarillo | Magulladuras | Almendra| Libre | Cerrado | Ancho | Negro | Ensanchado | Club | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Marrón | Numeroso | Pastos |
+| Comestible| Campana | Liso | Blanco | Magulladuras | Anís | Libre | Cerrado | Ancho | Marrón | Ensanchado | Club | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Marrón | Numeroso | Praderas|
+| Venenoso | Convexo | Escamoso | Blanco | Magulladuras | Pungente | Libre | Cerrado | Estrecho | Marrón | Ensanchado | Igual | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Negro | Disperso | Urbano |
+| Comestible| Convexo | Liso | Verde | Sin magulladuras| Ninguno| Libre | Aglomerado | Ancho | Negro | Estrechado | Igual | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Evanescente | Marrón | Abundante | Pastos |
+| Comestible| Convexo | Escamoso | Amarillo | Magulladuras | Almendra| Libre | Cerrado | Ancho | Marrón | Ensanchado | Club | Liso | Liso | Blanco | Blanco | Parcial | Blanco | Uno | Colgante | Negro | Numeroso | Pastos |
+
+De inmediato, notas que todos los datos son textuales. Tendrás que convertir estos datos para poder usarlos en un gráfico. De hecho, la mayoría de los datos están representados como un objeto:
+
+```r
+names(mushrooms)
+```
+
+El resultado es:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Toma estos datos y convierte la columna 'clase' en una categoría:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Ahora, si imprimes los datos de los hongos, puedes ver que se han agrupado en categorías según la clase venenoso/comestible:
+```r
+View(grouped)
+```
+
+| clase | cantidad |
+| --------- | --------- |
+| Comestible | 4208 |
+| Venenoso | 3916 |
+
+Si sigues el orden presentado en esta tabla para crear tus etiquetas de categoría de clase, puedes construir un gráfico de pastel.
+
+## ¡Pastel!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voila, un gráfico de pastel que muestra las proporciones de estos datos según estas dos clases de hongos. Es bastante importante obtener el orden correcto de las etiquetas, especialmente aquí, así que asegúrate de verificar el orden con el que se construye el arreglo de etiquetas.
+
+
+
+## ¡Donas!
+
+Un gráfico de pastel algo más visualmente interesante es un gráfico de dona, que es un gráfico de pastel con un agujero en el medio. Veamos nuestros datos usando este método.
+
+Observa los diversos hábitats donde crecen los hongos:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+El resultado es:
+| hábitat | cantidad |
+| --------- | --------- |
+| Pastos | 2148 |
+| Hojas | 832 |
+| Praderas | 292 |
+| Caminos | 1144 |
+| Urbano | 368 |
+| Residuos | 192 |
+| Madera | 3148 |
+
+Aquí, estás agrupando tus datos por hábitat. Hay 7 listados, así que usa esos como etiquetas para tu gráfico de dona:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Este código utiliza dos bibliotecas: ggplot2 y webr. Usando la función PieDonut de la biblioteca webr, podemos crear un gráfico de dona fácilmente.
+
+Los gráficos de dona en R también se pueden hacer usando solo la biblioteca ggplot2. Puedes aprender más sobre esto [aquí](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) y probarlo tú mismo.
+
+Ahora que sabes cómo agrupar tus datos y luego mostrarlos como un gráfico de pastel o dona, puedes explorar otros tipos de gráficos. Prueba un gráfico de waffle, que es solo una forma diferente de explorar cantidades.
+
+## ¡Waffles!
+
+Un gráfico tipo 'waffle' es una forma diferente de visualizar cantidades como una matriz 2D de cuadrados. Intenta visualizar las diferentes cantidades de colores de sombrero de hongos en este conjunto de datos. Para hacerlo, necesitas instalar una biblioteca auxiliar llamada [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) y usarla para generar tu visualización:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Selecciona un segmento de tus datos para agrupar:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Crea un gráfico de waffle creando etiquetas y luego agrupando tus datos:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Usando un gráfico de waffle, puedes ver claramente las proporciones de colores de sombrero en este conjunto de datos de hongos. Curiosamente, ¡hay muchos hongos con sombreros verdes!
+
+
+
+En esta lección, aprendiste tres formas de visualizar proporciones. Primero, necesitas agrupar tus datos en categorías y luego decidir cuál es la mejor manera de mostrar los datos: pastel, dona o waffle. Todos son deliciosos y gratifican al usuario con una instantánea instantánea de un conjunto de datos.
+
+## 🚀 Desafío
+
+Intenta recrear estos gráficos deliciosos en [Charticulator](https://charticulator.com).
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Revisión y Autoestudio
+
+A veces no es obvio cuándo usar un gráfico de pastel, dona o waffle. Aquí hay algunos artículos para leer sobre este tema:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Investiga un poco para encontrar más información sobre esta decisión complicada.
+
+## Tarea
+
+[Inténtalo en Excel](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/es/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..3a2253c2
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,175 @@
+
+# Visualizando Relaciones: Todo Sobre la Miel 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualizando Relaciones - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Continuando con el enfoque en la naturaleza de nuestra investigación, descubramos visualizaciones interesantes para mostrar las relaciones entre varios tipos de miel, según un conjunto de datos derivado del [Departamento de Agricultura de los Estados Unidos](https://www.nass.usda.gov/About_NASS/index.php).
+
+Este conjunto de datos, que incluye alrededor de 600 elementos, muestra la producción de miel en muchos estados de EE. UU. Por ejemplo, puedes observar el número de colonias, el rendimiento por colonia, la producción total, las existencias, el precio por libra y el valor de la miel producida en un estado determinado desde 1998 hasta 2012, con una fila por año para cada estado.
+
+Será interesante visualizar la relación entre la producción anual de un estado y, por ejemplo, el precio de la miel en ese estado. Alternativamente, podrías visualizar la relación entre el rendimiento de miel por colonia en diferentes estados. Este período abarca el devastador 'CCD' o 'Desorden del Colapso de Colonias', que se observó por primera vez en 2006 (http://npic.orst.edu/envir/ccd.html), por lo que es un conjunto de datos conmovedor para estudiar. 🐝
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+En esta lección, puedes usar ggplot2, que ya has utilizado antes, como una buena biblioteca para visualizar relaciones entre variables. Es particularmente interesante el uso de las funciones `geom_point` y `qplot` de ggplot2, que permiten crear gráficos de dispersión y gráficos de líneas para visualizar rápidamente '[relaciones estadísticas](https://ggplot2.tidyverse.org/)', lo que ayuda al científico de datos a comprender mejor cómo se relacionan las variables entre sí.
+
+## Gráficos de dispersión
+
+Usa un gráfico de dispersión para mostrar cómo ha evolucionado el precio de la miel, año tras año, por estado. ggplot2, utilizando `ggplot` y `geom_point`, agrupa convenientemente los datos de los estados y muestra puntos de datos tanto para datos categóricos como numéricos.
+
+Comencemos importando los datos y Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Notarás que los datos de miel tienen varias columnas interesantes, incluyendo el año y el precio por libra. Exploremos estos datos, agrupados por estado de EE. UU.:
+
+| estado | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ------ | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Crea un gráfico de dispersión básico para mostrar la relación entre el precio por libra de miel y su estado de origen en EE. UU. Haz que el eje `y` sea lo suficientemente alto para mostrar todos los estados:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Ahora, muestra los mismos datos con un esquema de colores de miel para mostrar cómo evoluciona el precio a lo largo de los años. Puedes hacerlo agregando un parámetro 'scale_color_gradientn' para mostrar el cambio, año tras año:
+
+> ✅ Aprende más sobre [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - ¡prueba un hermoso esquema de colores arcoíris!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Con este cambio de esquema de colores, puedes ver que hay una progresión evidente a lo largo de los años en términos de precio de la miel por libra. De hecho, si observas un conjunto de muestra en los datos para verificar (elige un estado, Arizona por ejemplo), puedes ver un patrón de aumento de precios año tras año, con pocas excepciones:
+
+| estado | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ------ | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Otra forma de visualizar esta progresión es usar tamaño en lugar de color. Para usuarios con daltonismo, esta podría ser una mejor opción. Edita tu visualización para mostrar un aumento de precio mediante un aumento en la circunferencia de los puntos:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Puedes ver que el tamaño de los puntos aumenta gradualmente.
+
+
+
+¿Es este un caso simple de oferta y demanda? Debido a factores como el cambio climático y el colapso de colonias, ¿hay menos miel disponible para la compra año tras año, y por eso el precio aumenta?
+
+Para descubrir una correlación entre algunas de las variables en este conjunto de datos, exploremos algunos gráficos de líneas.
+
+## Gráficos de líneas
+
+Pregunta: ¿Hay un aumento claro en el precio de la miel por libra año tras año? Puedes descubrirlo fácilmente creando un gráfico de líneas único:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Respuesta: Sí, con algunas excepciones alrededor del año 2003:
+
+
+
+Pregunta: Bueno, ¿en 2003 también podemos ver un aumento en el suministro de miel? ¿Qué pasa si observas la producción total año tras año?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Respuesta: No realmente. Si observas la producción total, parece haber aumentado en ese año en particular, aunque en general la cantidad de miel producida está en declive durante estos años.
+
+Pregunta: En ese caso, ¿qué podría haber causado ese aumento en el precio de la miel alrededor de 2003?
+
+Para descubrir esto, puedes explorar una cuadrícula de facetas.
+
+## Cuadrículas de facetas
+
+Las cuadrículas de facetas toman un aspecto de tu conjunto de datos (en nuestro caso, puedes elegir 'año' para evitar producir demasiadas facetas). Seaborn puede entonces hacer un gráfico para cada una de esas facetas de tus coordenadas x e y elegidas para una comparación visual más sencilla. ¿Destaca el año 2003 en este tipo de comparación?
+
+Crea una cuadrícula de facetas usando `facet_wrap` como se recomienda en la [documentación de ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+En esta visualización, puedes comparar el rendimiento por colonia y el número de colonias año tras año, lado a lado con un ajuste de envoltura de 3 para las columnas:
+
+
+
+Para este conjunto de datos, nada particularmente destaca con respecto al número de colonias y su rendimiento, año tras año y estado por estado. ¿Hay una forma diferente de buscar una correlación entre estas dos variables?
+
+## Gráficos de líneas duales
+
+Prueba un gráfico de líneas múltiples superponiendo dos gráficos de líneas uno encima del otro, usando las funciones `par` y `plot` de R. Estaremos graficando el año en el eje x y mostrando dos ejes y. Así, muestra el rendimiento por colonia y el número de colonias, superpuestos:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Aunque nada salta a la vista alrededor del año 2003, esto nos permite terminar esta lección con una nota un poco más feliz: aunque hay un número decreciente de colonias en general, el número de colonias se está estabilizando, incluso si su rendimiento por colonia está disminuyendo.
+
+¡Vamos, abejas, vamos!
+
+🐝❤️
+## 🚀 Desafío
+
+En esta lección, aprendiste un poco más sobre otros usos de los gráficos de dispersión y las cuadrículas de líneas, incluyendo las cuadrículas de facetas. Desafíate a crear una cuadrícula de facetas usando un conjunto de datos diferente, tal vez uno que hayas usado antes en estas lecciones. Nota cuánto tiempo tardan en crearse y cómo necesitas ser cuidadoso con la cantidad de cuadrículas que necesitas dibujar usando estas técnicas.
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Revisión y Autoestudio
+
+Los gráficos de líneas pueden ser simples o bastante complejos. Investiga un poco en la [documentación de ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) sobre las diversas formas en que puedes construirlos. Intenta mejorar los gráficos de líneas que construiste en esta lección con otros métodos listados en la documentación.
+## Tarea
+
+[Sumérgete en la colmena](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/es/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..9120409e
--- /dev/null
+++ b/translations/es/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,180 @@
+
+# Creando Visualizaciones Significativas
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Visualizaciones Significativas - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+> "Si torturas los datos lo suficiente, confesarán cualquier cosa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Una de las habilidades básicas de un científico de datos es la capacidad de crear una visualización de datos significativa que ayude a responder preguntas. Antes de visualizar tus datos, debes asegurarte de que hayan sido limpiados y preparados, como lo hiciste en lecciones anteriores. Después de eso, puedes comenzar a decidir cómo presentar mejor los datos.
+
+En esta lección, revisarás:
+
+1. Cómo elegir el tipo de gráfico adecuado
+2. Cómo evitar gráficos engañosos
+3. Cómo trabajar con el color
+4. Cómo estilizar tus gráficos para mejorar la legibilidad
+5. Cómo construir soluciones de gráficos animados o en 3D
+6. Cómo crear una visualización creativa
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Elegir el tipo de gráfico adecuado
+
+En lecciones anteriores, experimentaste con la creación de todo tipo de visualizaciones de datos interesantes utilizando Matplotlib y Seaborn para gráficos. En general, puedes seleccionar el [tipo de gráfico adecuado](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) para la pregunta que estás haciendo utilizando esta tabla:
+
+| Necesitas: | Deberías usar: |
+| -------------------------- | ------------------------------- |
+| Mostrar tendencias en el tiempo | Línea |
+| Comparar categorías | Barra, Pastel |
+| Comparar totales | Pastel, Barra apilada |
+| Mostrar relaciones | Dispersión, Línea, Faceta, Línea dual |
+| Mostrar distribuciones | Dispersión, Histograma, Caja |
+| Mostrar proporciones | Pastel, Donut, Waffle |
+
+> ✅ Dependiendo de la composición de tus datos, es posible que necesites convertirlos de texto a numérico para que un gráfico determinado los soporte.
+
+## Evitar el engaño
+
+Incluso si un científico de datos es cuidadoso al elegir el gráfico adecuado para los datos correctos, hay muchas maneras en que los datos pueden ser mostrados para probar un punto, a menudo a costa de socavar los datos mismos. ¡Existen muchos ejemplos de gráficos e infografías engañosos!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Cómo los gráficos engañan")
+
+> 🎥 Haz clic en la imagen de arriba para ver una charla sobre gráficos engañosos
+
+Este gráfico invierte el eje X para mostrar lo opuesto a la verdad, basado en la fecha:
+
+
+
+[Este gráfico](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) es aún más engañoso, ya que el ojo se dirige hacia la derecha para concluir que, con el tiempo, los casos de COVID han disminuido en los diversos condados. De hecho, si miras de cerca las fechas, encontrarás que han sido reorganizadas para dar esa engañosa tendencia descendente.
+
+
+
+Este ejemplo notorio utiliza color Y un eje Y invertido para engañar: en lugar de concluir que las muertes por armas aumentaron después de la aprobación de legislación favorable a las armas, de hecho el ojo es engañado para pensar que lo opuesto es cierto:
+
+
+
+Este extraño gráfico muestra cómo la proporción puede ser manipulada, con un efecto hilarante:
+
+
+
+Comparar lo incomparable es otra táctica dudosa. Hay un [sitio web maravilloso](https://tylervigen.com/spurious-correlations) dedicado a 'correlaciones espurias' que muestra 'hechos' correlacionando cosas como la tasa de divorcio en Maine y el consumo de margarina. Un grupo de Reddit también recopila los [usos feos](https://www.reddit.com/r/dataisugly/top/?t=all) de los datos.
+
+Es importante entender lo fácil que es engañar al ojo con gráficos engañosos. Incluso si la intención del científico de datos es buena, la elección de un mal tipo de gráfico, como un gráfico de pastel que muestra demasiadas categorías, puede ser engañosa.
+
+## Color
+
+Viste en el gráfico de 'violencia con armas en Florida' cómo el color puede proporcionar una capa adicional de significado a los gráficos, especialmente aquellos que no están diseñados utilizando bibliotecas como ggplot2 y RColorBrewer, que vienen con varias bibliotecas y paletas de colores verificadas. Si estás creando un gráfico manualmente, estudia un poco sobre [teoría del color](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Ten en cuenta, al diseñar gráficos, que la accesibilidad es un aspecto importante de la visualización. Algunos de tus usuarios podrían ser daltónicos: ¿tu gráfico se muestra bien para usuarios con discapacidades visuales?
+
+Ten cuidado al elegir colores para tu gráfico, ya que el color puede transmitir un significado que no pretendes. Las 'damas rosadas' en el gráfico de 'altura' arriba transmiten un significado distintivamente 'femenino' que añade a lo extraño del gráfico en sí.
+
+Aunque el [significado del color](https://colormatters.com/color-symbolism/the-meanings-of-colors) puede ser diferente en distintas partes del mundo y tiende a cambiar según su tono, generalmente los significados de los colores incluyen:
+
+| Color | Significado |
+| ------ | ------------------- |
+| rojo | poder |
+| azul | confianza, lealtad |
+| amarillo | felicidad, precaución |
+| verde | ecología, suerte, envidia |
+| púrpura | felicidad |
+| naranja | vitalidad |
+
+Si se te asigna la tarea de construir un gráfico con colores personalizados, asegúrate de que tus gráficos sean accesibles y que el color que elijas coincida con el significado que intentas transmitir.
+
+## Estilizar tus gráficos para mejorar la legibilidad
+
+Los gráficos no son significativos si no son legibles. Tómate un momento para considerar el estilo del ancho y la altura de tu gráfico para que se escale bien con tus datos. Si una variable (como los 50 estados) necesita ser mostrada, muéstralos verticalmente en el eje Y si es posible para evitar un gráfico con desplazamiento horizontal.
+
+Etiqueta tus ejes, proporciona una leyenda si es necesario y ofrece información emergente para una mejor comprensión de los datos.
+
+Si tus datos son textuales y extensos en el eje X, puedes inclinar el texto para mejorar la legibilidad. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) ofrece gráficos en 3D, si tus datos lo permiten. Se pueden producir visualizaciones de datos sofisticadas utilizando esta herramienta.
+
+
+
+## Animación y visualización de gráficos en 3D
+
+Algunas de las mejores visualizaciones de datos hoy en día son animadas. Shirley Wu tiene ejemplos increíbles hechos con D3, como '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', donde cada flor es una visualización de una película. Otro ejemplo para The Guardian es 'bussed out', una experiencia interactiva que combina visualizaciones con Greensock y D3 más un formato de artículo narrativo para mostrar cómo Nueva York maneja su problema de personas sin hogar enviándolas fuera de la ciudad.
+
+
+
+> "Bussed Out: Cómo Estados Unidos mueve a sus personas sin hogar" de [The Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualizaciones por Nadieh Bremer & Shirley Wu
+
+Aunque esta lección no es suficiente para profundizar en estas poderosas bibliotecas de visualización, intenta usar D3 en una aplicación Vue.js utilizando una biblioteca para mostrar una visualización del libro "Las amistades peligrosas" como una red social animada.
+
+> "Les Liaisons Dangereuses" es una novela epistolar, o una novela presentada como una serie de cartas. Escrita en 1782 por Choderlos de Laclos, cuenta la historia de las maniobras sociales viciosas y moralmente corruptas de dos protagonistas enfrentados de la aristocracia francesa del siglo XVIII, el Vizconde de Valmont y la Marquesa de Merteuil. Ambos encuentran su final trágico, pero no sin causar un gran daño social. La novela se desarrolla como una serie de cartas escritas a varias personas en sus círculos, tramando venganzas o simplemente causando problemas. Crea una visualización de estas cartas para descubrir los principales personajes de la narrativa, de manera visual.
+
+Completarás una aplicación web que mostrará una vista animada de esta red social. Utiliza una biblioteca que fue creada para generar una [visualización de una red](https://github.com/emiliorizzo/vue-d3-network) usando Vue.js y D3. Cuando la aplicación esté funcionando, puedes mover los nodos en la pantalla para reorganizar los datos.
+
+
+
+## Proyecto: Construir un gráfico para mostrar una red usando D3.js
+
+> Esta carpeta de lección incluye una carpeta `solution` donde puedes encontrar el proyecto completo como referencia.
+
+1. Sigue las instrucciones en el archivo README.md en la carpeta raíz del proyecto inicial. Asegúrate de tener NPM y Node.js funcionando en tu máquina antes de instalar las dependencias del proyecto.
+
+2. Abre la carpeta `starter/src`. Encontrarás una carpeta `assets` donde puedes encontrar un archivo .json con todas las cartas de la novela, numeradas, con una anotación de 'to' y 'from'.
+
+3. Completa el código en `components/Nodes.vue` para habilitar la visualización. Busca el método llamado `createLinks()` y añade el siguiente bucle anidado.
+
+Recorre el objeto .json para capturar los datos de 'to' y 'from' de las cartas y construye el objeto `links` para que la biblioteca de visualización pueda consumirlo:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Ejecuta tu aplicación desde la terminal (npm run serve) y disfruta de la visualización.
+
+## 🚀 Desafío
+
+Haz un recorrido por internet para descubrir visualizaciones engañosas. ¿Cómo engaña el autor al usuario y es intencional? Intenta corregir las visualizaciones para mostrar cómo deberían verse.
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Revisión y autoestudio
+
+Aquí hay algunos artículos para leer sobre visualización de datos engañosa:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Echa un vistazo a estas visualizaciones interesantes de activos y artefactos históricos:
+
+https://handbook.pubpub.org/
+
+Revisa este artículo sobre cómo la animación puede mejorar tus visualizaciones:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Tarea
+
+[Construye tu propia visualización personalizada](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/3-Data-Visualization/README.md b/translations/es/3-Data-Visualization/README.md
new file mode 100644
index 00000000..429a34fc
--- /dev/null
+++ b/translations/es/3-Data-Visualization/README.md
@@ -0,0 +1,40 @@
+
+# Visualizaciones
+
+
+> Foto por Jenna Lee en Unsplash
+
+Visualizar datos es una de las tareas más importantes de un científico de datos. Las imágenes valen más que mil palabras, y una visualización puede ayudarte a identificar todo tipo de aspectos interesantes de tus datos, como picos, valores atípicos, agrupaciones, tendencias y más, que te ayudarán a entender la historia que tus datos intentan contar.
+
+En estas cinco lecciones, explorarás datos provenientes de la naturaleza y crearás visualizaciones interesantes y hermosas utilizando diversas técnicas.
+
+| Número de Tema | Tema | Lección Vinculada | Autor |
+| :-----------: | :--: | :---------------: | :----: |
+| 1. | Visualización de cantidades | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Visualización de distribuciones | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Visualización de proporciones | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Visualización de relaciones | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Creando visualizaciones significativas | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Créditos
+
+Estas lecciones de visualización fueron escritas con 🌸 por [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) y [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Los datos sobre la producción de miel en EE.UU. provienen del proyecto de Jessica Li en [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). Los [datos](https://usda.library.cornell.edu/concern/publications/rn301137d) son derivados del [Departamento de Agricultura de los Estados Unidos](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Los datos sobre hongos también provienen de [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) revisados por Hatteras Dunton. Este conjunto de datos incluye descripciones de muestras hipotéticas correspondientes a 23 especies de hongos con branquias de las familias Agaricus y Lepiota. Los hongos fueron extraídos de The Audubon Society Field Guide to North American Mushrooms (1981). Este conjunto de datos fue donado a UCI ML 27 en 1987.
+
+🦆 Los datos sobre aves de Minnesota provienen de [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) recopilados de [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) por Hannah Collins.
+
+Todos estos conjuntos de datos están licenciados como [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/es/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..2039dda9
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,121 @@
+
+# Introducción al Ciclo de Vida de la Ciencia de Datos
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Introducción al Ciclo de Vida de la Ciencia de Datos - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Cuestionario Previo a la Clase](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+A estas alturas, probablemente te hayas dado cuenta de que la ciencia de datos es un proceso. Este proceso puede dividirse en 5 etapas:
+
+- Captura
+- Procesamiento
+- Análisis
+- Comunicación
+- Mantenimiento
+
+Esta lección se centra en 3 partes del ciclo de vida: captura, procesamiento y mantenimiento.
+
+
+> Foto por [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Captura
+
+La primera etapa del ciclo de vida es muy importante, ya que las siguientes etapas dependen de ella. Es prácticamente dos etapas combinadas en una: adquirir los datos y definir el propósito y los problemas que deben abordarse.
+Definir los objetivos del proyecto requerirá un contexto más profundo sobre el problema o la pregunta. Primero, necesitamos identificar y contactar a quienes necesitan resolver su problema. Estos pueden ser partes interesadas en un negocio o patrocinadores del proyecto, quienes pueden ayudar a identificar quién o qué se beneficiará de este proyecto, así como qué necesitan y por qué lo necesitan. Un objetivo bien definido debe ser medible y cuantificable para definir un resultado aceptable.
+
+Preguntas que un científico de datos podría hacerse:
+- ¿Se ha abordado este problema antes? ¿Qué se descubrió?
+- ¿El propósito y el objetivo son comprendidos por todos los involucrados?
+- ¿Hay ambigüedad y cómo reducirla?
+- ¿Cuáles son las limitaciones?
+- ¿Cómo podría ser el resultado final?
+- ¿Cuántos recursos (tiempo, personas, computación) están disponibles?
+
+El siguiente paso es identificar, recopilar y finalmente explorar los datos necesarios para alcanzar estos objetivos definidos. En esta etapa de adquisición, los científicos de datos también deben evaluar la cantidad y calidad de los datos. Esto requiere cierta exploración de datos para confirmar que lo que se ha adquirido ayudará a alcanzar el resultado deseado.
+
+Preguntas que un científico de datos podría hacerse sobre los datos:
+- ¿Qué datos ya están disponibles para mí?
+- ¿Quién es el propietario de estos datos?
+- ¿Cuáles son las preocupaciones de privacidad?
+- ¿Tengo suficiente para resolver este problema?
+- ¿Los datos tienen una calidad aceptable para este problema?
+- Si descubro información adicional a través de estos datos, ¿deberíamos considerar cambiar o redefinir los objetivos?
+
+## Procesamiento
+
+La etapa de procesamiento del ciclo de vida se centra en descubrir patrones en los datos, así como en la modelización. Algunas técnicas utilizadas en esta etapa requieren métodos estadísticos para identificar patrones. Normalmente, esta sería una tarea tediosa para un humano con un conjunto de datos grande, por lo que se confía en las computadoras para acelerar el proceso. Esta etapa también es donde la ciencia de datos y el aprendizaje automático se cruzan. Como aprendiste en la primera lección, el aprendizaje automático es el proceso de construir modelos para comprender los datos. Los modelos son una representación de la relación entre variables en los datos que ayudan a predecir resultados.
+
+Las técnicas comunes utilizadas en esta etapa se cubren en el plan de estudios de ML para Principiantes. Sigue los enlaces para aprender más sobre ellas:
+
+- [Clasificación](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organizar datos en categorías para un uso más eficiente.
+- [Clustering](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Agrupar datos en grupos similares.
+- [Regresión](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Determinar las relaciones entre variables para predecir o pronosticar valores.
+
+## Mantenimiento
+
+En el diagrama del ciclo de vida, habrás notado que el mantenimiento se encuentra entre la captura y el procesamiento. El mantenimiento es un proceso continuo de gestión, almacenamiento y seguridad de los datos a lo largo del proyecto y debe considerarse durante todo el proyecto.
+
+### Almacenamiento de Datos
+
+Las decisiones sobre cómo y dónde se almacenan los datos pueden influir en el costo de su almacenamiento, así como en el rendimiento de la velocidad con la que se pueden acceder. Estas decisiones no suelen ser tomadas únicamente por un científico de datos, pero pueden influir en cómo trabajar con los datos según cómo estén almacenados.
+
+Aquí hay algunos aspectos de los sistemas modernos de almacenamiento de datos que pueden afectar estas decisiones:
+
+**En las instalaciones vs fuera de las instalaciones vs nube pública o privada**
+
+"En las instalaciones" se refiere a gestionar los datos en tu propio equipo, como poseer un servidor con discos duros que almacenan los datos, mientras que "fuera de las instalaciones" depende de equipos que no posees, como un centro de datos. La nube pública es una opción popular para almacenar datos que no requiere conocimiento de cómo o dónde exactamente se almacenan los datos, donde "pública" se refiere a una infraestructura subyacente unificada compartida por todos los que usan la nube. Algunas organizaciones tienen políticas de seguridad estrictas que requieren acceso completo al equipo donde se alojan los datos y dependerán de una nube privada que proporcione sus propios servicios en la nube. Aprenderás más sobre datos en la nube en [lecciones posteriores](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Datos fríos vs datos calientes**
+
+Al entrenar tus modelos, puedes necesitar más datos de entrenamiento. Si estás satisfecho con tu modelo, llegarán más datos para que el modelo cumpla su propósito. En cualquier caso, el costo de almacenar y acceder a los datos aumentará a medida que acumules más. Separar los datos que se usan raramente, conocidos como datos fríos, de los datos que se acceden con frecuencia, conocidos como datos calientes, puede ser una opción más económica de almacenamiento a través de hardware o servicios de software. Si se necesita acceder a datos fríos, puede tomar un poco más de tiempo recuperarlos en comparación con los datos calientes.
+
+### Gestión de Datos
+
+A medida que trabajas con datos, puedes descubrir que algunos de ellos necesitan ser limpiados utilizando algunas de las técnicas cubiertas en la lección sobre [preparación de datos](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) para construir modelos precisos. Cuando lleguen nuevos datos, necesitarán algunas de las mismas aplicaciones para mantener la consistencia en la calidad. Algunos proyectos implicarán el uso de una herramienta automatizada para limpieza, agregación y compresión antes de que los datos se muevan a su ubicación final. Azure Data Factory es un ejemplo de una de estas herramientas.
+
+### Seguridad de los Datos
+
+Uno de los principales objetivos de la seguridad de los datos es garantizar que quienes trabajan con ellos tengan control sobre lo que se recopila y en qué contexto se utiliza. Mantener los datos seguros implica limitar el acceso solo a quienes lo necesitan, cumplir con las leyes y regulaciones locales, así como mantener estándares éticos, como se cubre en la [lección de ética](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Aquí hay algunas cosas que un equipo puede hacer teniendo en cuenta la seguridad:
+- Confirmar que todos los datos están encriptados
+- Proporcionar a los clientes información sobre cómo se utilizan sus datos
+- Eliminar el acceso a los datos de quienes han dejado el proyecto
+- Permitir que solo ciertos miembros del proyecto modifiquen los datos
+
+## 🚀 Desafío
+
+Existen muchas versiones del Ciclo de Vida de la Ciencia de Datos, donde cada paso puede tener diferentes nombres y un número distinto de etapas, pero contendrán los mismos procesos mencionados en esta lección.
+
+Explora el [Ciclo de Vida del Proceso de Ciencia de Datos en Equipo](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) y el [Proceso estándar de la industria para la minería de datos](https://www.datascience-pm.com/crisp-dm-2/). Nombra 3 similitudes y diferencias entre ambos.
+
+|Proceso de Ciencia de Datos en Equipo (TDSP)|Proceso estándar de la industria para la minería de datos (CRISP-DM)|
+|--|--|
+| |  |
+| Imagen por [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Imagen por [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Cuestionario Posterior a la Clase](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Revisión y Autoestudio
+
+Aplicar el Ciclo de Vida de la Ciencia de Datos implica múltiples roles y tareas, donde algunos pueden centrarse en partes particulares de cada etapa. El Proceso de Ciencia de Datos en Equipo proporciona algunos recursos que explican los tipos de roles y tareas que alguien puede tener en un proyecto.
+
+* [Roles y tareas del Proceso de Ciencia de Datos en Equipo](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Ejecutar tareas de ciencia de datos: exploración, modelado y despliegue](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Tarea
+
+[Evaluando un Conjunto de Datos](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/es/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..e4e989c9
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,35 @@
+
+# Evaluando un Conjunto de Datos
+
+Un cliente se ha acercado a tu equipo para solicitar ayuda en la investigación de los hábitos de gasto estacionales de los clientes de taxis en la ciudad de Nueva York.
+
+Quieren saber: **¿Los pasajeros de taxis amarillos en la ciudad de Nueva York dan más propinas a los conductores en invierno o en verano?**
+
+Tu equipo se encuentra en la etapa de [Captura](Readme.md#Capturing) del Ciclo de Vida de Ciencia de Datos, y tú estás a cargo de manejar el conjunto de datos. Se te ha proporcionado un cuaderno y [datos](../../../../data/taxi.csv) para explorar.
+
+En este directorio hay un [cuaderno](../../../../4-Data-Science-Lifecycle/14-Introduction/notebook.ipynb) que utiliza Python para cargar datos de viajes en taxis amarillos del [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+También puedes abrir el archivo de datos de taxis en un editor de texto o en software de hojas de cálculo como Excel.
+
+## Instrucciones
+
+- Evalúa si los datos en este conjunto de datos pueden ayudar a responder la pregunta.
+- Explora el [catálogo de Datos Abiertos de NYC](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identifica un conjunto de datos adicional que podría ser útil para responder a la pregunta del cliente.
+- Escribe 3 preguntas que le harías al cliente para obtener más aclaraciones y una mejor comprensión del problema.
+
+Consulta el [diccionario del conjunto de datos](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) y la [guía del usuario](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) para obtener más información sobre los datos.
+
+## Rúbrica
+
+Ejemplar | Adecuado | Necesita Mejorar
+--- | --- | --- |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/es/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..0fe8e557
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,60 @@
+
+# El Ciclo de Vida de la Ciencia de Datos: Analizando
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Ciclo de Vida de la Ciencia de Datos: Analizando - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## Cuestionario Previo a la Clase
+
+## [Cuestionario Previo a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+El análisis en el ciclo de vida de los datos confirma que los datos pueden responder a las preguntas planteadas o resolver un problema en particular. Este paso también puede centrarse en confirmar que un modelo aborda correctamente estas preguntas y problemas. Esta lección se enfoca en el Análisis Exploratorio de Datos o EDA, que son técnicas para definir características y relaciones dentro de los datos y que pueden usarse para preparar los datos para el modelado.
+
+Usaremos un conjunto de datos de ejemplo de [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) para mostrar cómo se puede aplicar esto con Python y la biblioteca Pandas. Este conjunto de datos contiene un conteo de algunas palabras comunes encontradas en correos electrónicos, cuyas fuentes son anónimas. Usa el [notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) en este directorio para seguir el ejemplo.
+
+## Análisis Exploratorio de Datos
+
+La fase de captura del ciclo de vida es donde se adquieren los datos, así como los problemas y preguntas a abordar, pero ¿cómo sabemos si los datos pueden ayudar a respaldar el resultado final?
+Recuerda que un científico de datos puede hacerse las siguientes preguntas al adquirir los datos:
+- ¿Tengo suficientes datos para resolver este problema?
+- ¿Los datos tienen una calidad aceptable para este problema?
+- Si descubro información adicional a través de estos datos, ¿deberíamos considerar cambiar o redefinir los objetivos?
+
+El Análisis Exploratorio de Datos es el proceso de conocer los datos y puede usarse para responder estas preguntas, así como para identificar los desafíos de trabajar con el conjunto de datos. Centrémonos en algunas de las técnicas utilizadas para lograr esto.
+
+## Perfilado de Datos, Estadísticas Descriptivas y Pandas
+¿Cómo evaluamos si tenemos suficientes datos para resolver este problema? El perfilado de datos puede resumir y recopilar información general sobre nuestro conjunto de datos a través de técnicas de estadísticas descriptivas. El perfilado de datos nos ayuda a entender qué está disponible para nosotros, y las estadísticas descriptivas nos ayudan a entender cuántas cosas están disponibles.
+
+En algunas de las lecciones anteriores, hemos usado Pandas para proporcionar algunas estadísticas descriptivas con la [`función describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Esta función proporciona el conteo, los valores máximos y mínimos, la media, la desviación estándar y los cuantiles de los datos numéricos. Usar estadísticas descriptivas como la función `describe()` puede ayudarte a evaluar cuánto tienes y si necesitas más.
+
+## Muestreo y Consultas
+Explorar todo en un conjunto de datos grande puede ser muy laborioso y es una tarea que generalmente se deja a una computadora. Sin embargo, el muestreo es una herramienta útil para comprender los datos y nos permite tener una mejor idea de lo que contiene el conjunto de datos y lo que representa. Con una muestra, puedes aplicar probabilidad y estadísticas para llegar a algunas conclusiones generales sobre tus datos. Aunque no hay una regla definida sobre cuántos datos deberías muestrear, es importante notar que cuanto más datos muestrees, más precisa será la generalización que puedas hacer sobre los datos.
+
+Pandas tiene la [`función sample()` en su biblioteca](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html), donde puedes pasar un argumento indicando cuántas muestras aleatorias deseas recibir y usar.
+
+Las consultas generales de los datos pueden ayudarte a responder algunas preguntas y teorías generales que puedas tener. En contraste con el muestreo, las consultas te permiten tener control y enfocarte en partes específicas de los datos sobre las que tienes preguntas.
+La [`función query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) en la biblioteca Pandas te permite seleccionar columnas y recibir respuestas simples sobre los datos a través de las filas recuperadas.
+
+## Exploración con Visualizaciones
+No tienes que esperar hasta que los datos estén completamente limpios y analizados para comenzar a crear visualizaciones. De hecho, tener una representación visual mientras exploras puede ayudar a identificar patrones, relaciones y problemas en los datos. Además, las visualizaciones proporcionan un medio de comunicación con aquellos que no están involucrados en la gestión de los datos y pueden ser una oportunidad para compartir y aclarar preguntas adicionales que no se abordaron en la etapa de captura. Consulta la [sección sobre Visualizaciones](../../../../../../../../../3-Data-Visualization) para aprender más sobre algunas formas populares de explorar visualmente.
+
+## Exploración para identificar inconsistencias
+Todos los temas de esta lección pueden ayudar a identificar valores faltantes o inconsistentes, pero Pandas proporciona funciones para verificar algunos de estos. [isna() o isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) pueden verificar valores faltantes. Una parte importante de explorar estos valores dentro de tus datos es investigar por qué terminaron de esa manera en primer lugar. Esto puede ayudarte a decidir qué [acciones tomar para resolverlos](../../../../../../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Cuestionario Previo a la Clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Tarea
+
+[Explorando para obtener respuestas](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/es/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..b56953d8
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,34 @@
+
+# Explorando respuestas
+
+Esta es una continuación de la [tarea](../14-Introduction/assignment.md) de la lección anterior, donde examinamos brevemente el conjunto de datos. Ahora profundizaremos más en los datos.
+
+De nuevo, la pregunta que el cliente quiere responder es: **¿Los pasajeros de taxis amarillos en la ciudad de Nueva York dan más propinas a los conductores en invierno o en verano?**
+
+Tu equipo se encuentra en la etapa de [Análisis](README.md) del Ciclo de Vida de Ciencia de Datos, donde son responsables de realizar un análisis exploratorio de datos en el conjunto de datos. Se te ha proporcionado un notebook y un conjunto de datos que contiene 200 transacciones de taxis de enero y julio de 2019.
+
+## Instrucciones
+
+En este directorio hay un [notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/assignment.ipynb) y datos de la [Comisión de Taxis y Limusinas](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Consulta el [diccionario del conjunto de datos](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) y la [guía del usuario](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) para obtener más información sobre los datos.
+
+Usa algunas de las técnicas de esta lección para realizar tu propio análisis exploratorio de datos en el notebook (puedes agregar celdas si lo deseas) y responde las siguientes preguntas:
+
+- ¿Qué otros factores en los datos podrían influir en el monto de la propina?
+- ¿Qué columnas probablemente no serán necesarias para responder a las preguntas del cliente?
+- Según lo que se ha proporcionado hasta ahora, ¿los datos parecen ofrecer alguna evidencia de un comportamiento estacional en las propinas?
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | ---
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/16-communication/README.md b/translations/es/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..ddf867bd
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# El Ciclo de Vida de la Ciencia de Datos: Comunicación
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Ciclo de Vida de la Ciencia de Datos: Comunicación - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Cuestionario Previo a la Lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+¡Pon a prueba tus conocimientos sobre lo que viene con el cuestionario previo a la lección!
+
+# Introducción
+
+### ¿Qué es la Comunicación?
+Comencemos esta lección definiendo qué significa comunicar. **Comunicar es transmitir o intercambiar información.** La información puede ser ideas, pensamientos, sentimientos, mensajes, señales encubiertas, datos – cualquier cosa que un **_emisor_** (alguien que envía información) quiera que un **_receptor_** (alguien que recibe información) entienda. En esta lección, nos referiremos a los emisores como comunicadores y a los receptores como la audiencia.
+
+### Comunicación de Datos y Narración
+Entendemos que al comunicar, el objetivo es transmitir o intercambiar información. Pero al comunicar datos, tu objetivo no debería ser simplemente pasar números a tu audiencia. Tu objetivo debería ser comunicar una historia informada por tus datos: la comunicación efectiva de datos y la narración van de la mano. Tu audiencia es más propensa a recordar una historia que cuentes que un número que des. Más adelante en esta lección, repasaremos algunas formas en las que puedes usar la narración para comunicar tus datos de manera más efectiva.
+
+### Tipos de Comunicación
+A lo largo de esta lección se discutirán dos tipos diferentes de comunicación: Comunicación Unidireccional y Comunicación Bidireccional.
+
+**La comunicación unidireccional** ocurre cuando un emisor envía información a un receptor, sin recibir retroalimentación o respuesta. Vemos ejemplos de comunicación unidireccional todos los días: en correos masivos, cuando las noticias informan sobre las historias más recientes, o incluso cuando aparece un comercial de televisión y te informa por qué su producto es excelente. En cada uno de estos casos, el emisor no busca un intercambio de información, solo busca transmitir o entregar información.
+
+**La comunicación bidireccional** ocurre cuando todas las partes involucradas actúan como emisores y receptores. Un emisor comienza comunicándose con un receptor, y el receptor proporciona retroalimentación o una respuesta. La comunicación bidireccional es lo que tradicionalmente pensamos cuando hablamos de comunicación. Usualmente pensamos en personas conversando, ya sea en persona, por teléfono, en redes sociales o por mensaje de texto.
+
+Al comunicar datos, habrá casos en los que usarás comunicación unidireccional (piensa en presentar en una conferencia o ante un grupo grande donde no se harán preguntas directamente después) y habrá casos en los que usarás comunicación bidireccional (piensa en usar datos para persuadir a algunos interesados clave o convencer a un compañero de equipo de que vale la pena dedicar tiempo y esfuerzo a construir algo nuevo).
+
+# Comunicación Efectiva
+
+### Tus Responsabilidades como Comunicador
+Al comunicar, es tu responsabilidad asegurarte de que tu(s) receptor(es) comprendan la información que deseas transmitir. Cuando comunicas datos, no solo quieres que tus receptores se queden con números, quieres que se lleven una historia informada por tus datos. Un buen comunicador de datos es un buen narrador.
+
+¿Cómo cuentas una historia con datos? Hay infinitas maneras, pero a continuación se presentan 6 estrategias que discutiremos en esta lección:
+1. Comprende a tu audiencia, tu canal y tu método de comunicación.
+2. Comienza con el final en mente.
+3. Enfócalo como una historia real.
+4. Usa palabras y frases significativas.
+5. Usa emoción.
+
+Cada una de estas estrategias se explica con más detalle a continuación.
+
+### 1. Comprende a tu Audiencia, tu Canal y tu Método de Comunicación
+La forma en que te comunicas con miembros de tu familia probablemente sea diferente a cómo te comunicas con tus amigos. Probablemente uses palabras y frases diferentes que las personas con las que hablas puedan entender mejor. Deberías adoptar el mismo enfoque al comunicar datos. Piensa en quién es tu audiencia. Reflexiona sobre sus objetivos y el contexto que tienen sobre la situación que les estás explicando.
+
+Es probable que puedas agrupar a la mayoría de tu audiencia dentro de una categoría. En un artículo de _Harvard Business Review_, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” (Cómo contar una historia con datos), el estratega ejecutivo de Dell, Jim Stikeleather, identifica cinco categorías de audiencias:
+
+- **Principiante**: primera exposición al tema, pero no quiere una explicación demasiado simplificada.
+- **Generalista**: consciente del tema, pero busca una comprensión general y los temas principales.
+- **Gerencial**: comprensión profunda y accionable de las complejidades y relaciones interconectadas, con acceso a detalles.
+- **Experto**: más exploración y descubrimiento, menos narración, con gran detalle.
+- **Ejecutivo**: solo tiene tiempo para captar la importancia y las conclusiones de probabilidades ponderadas.
+
+Estas categorías pueden informar la forma en que presentas datos a tu audiencia.
+
+Además de pensar en la categoría de tu audiencia, también deberías considerar el canal que estás utilizando para comunicarte con ellos. Tu enfoque debería ser ligeramente diferente si estás escribiendo un memorando o correo electrónico, en comparación con tener una reunión o presentar en una conferencia.
+
+Además de comprender a tu audiencia, saber cómo te comunicarás con ellos (usando comunicación unidireccional o bidireccional) también es fundamental.
+
+Si te estás comunicando con una audiencia mayoritariamente principiante y estás usando comunicación unidireccional, primero debes educar a la audiencia y darles el contexto adecuado. Luego, debes presentarles tus datos y explicarles qué significan y por qué son importantes. En este caso, es posible que desees enfocarte en lograr claridad, ya que tu audiencia no podrá hacerte preguntas directas.
+
+Si te estás comunicando con una audiencia mayoritariamente gerencial y estás usando comunicación bidireccional, probablemente no necesites educar a tu audiencia ni proporcionarles mucho contexto. Es posible que puedas ir directamente a discutir los datos que has recopilado y por qué son importantes. En este escenario, sin embargo, deberías enfocarte en el tiempo y en controlar tu presentación. Cuando usas comunicación bidireccional (especialmente con una audiencia gerencial que busca una "comprensión accionable de las complejidades y relaciones interconectadas con acceso a detalles"), pueden surgir preguntas durante tu interacción que desvíen la discusión de la historia que estás tratando de contar. Cuando esto suceda, puedes tomar medidas para redirigir la discusión hacia tu historia.
+
+### 2. Comienza con el Final en Mente
+Comenzar con el final en mente significa entender los mensajes clave que deseas que tu audiencia se lleve antes de empezar a comunicarte con ellos. Ser reflexivo sobre lo que quieres que tu audiencia entienda de antemano puede ayudarte a construir una historia que puedan seguir. Comenzar con el final en mente es apropiado tanto para la comunicación unidireccional como para la bidireccional.
+
+¿Cómo comienzas con el final en mente? Antes de comunicar tus datos, escribe tus mensajes clave. Luego, en cada paso mientras preparas la historia que deseas contar con tus datos, pregúntate: "¿Cómo se integra esto en la historia que estoy contando?"
+
+Ten cuidado: aunque comenzar con el final en mente es ideal, no deberías comunicar solo los datos que respaldan tus mensajes clave. Hacer esto se llama sesgo de confirmación, que ocurre cuando un comunicador solo presenta datos que respaldan el punto que intenta demostrar e ignora todos los demás datos.
+
+Si todos los datos que recopilaste respaldan claramente tus mensajes clave, excelente. Pero si hay datos que recopilaste que no respaldan tus mensajes clave, o incluso respaldan un argumento en contra de ellos, también deberías comunicar esos datos. Si esto sucede, sé honesto con tu audiencia y explícales por qué eliges mantener tu historia, incluso si todos los datos no la respaldan completamente.
+
+### 3. Enfócalo como una Historia Real
+Una historia tradicional ocurre en 5 fases. Es posible que hayas escuchado estas fases expresadas como Exposición, Acción Ascendente, Clímax, Acción Descendente y Desenlace. O de manera más fácil de recordar: Contexto, Conflicto, Clímax, Resolución y Conclusión. Al comunicar tus datos y tu historia, puedes adoptar un enfoque similar.
+
+Puedes comenzar con el contexto, establecer el escenario y asegurarte de que tu audiencia esté en la misma página. Luego, introduce el conflicto. ¿Por qué necesitaste recopilar estos datos? ¿Qué problemas estabas tratando de resolver? Después de eso, el clímax. ¿Cuáles son los datos? ¿Qué significan? ¿Qué soluciones sugieren los datos? Luego llegas a la resolución, donde puedes reiterar el problema y las soluciones propuestas. Por último, llegamos a la conclusión, donde puedes resumir tus mensajes clave y los próximos pasos que recomiendas.
+
+### 4. Usa Palabras y Frases Significativas
+Si tú y yo estuviéramos trabajando juntos en un producto, y yo te dijera: "Nuestros usuarios tardan mucho en registrarse en nuestra plataforma", ¿cuánto tiempo estimarías que es "mucho tiempo"? ¿Una hora? ¿Una semana? Es difícil saberlo. ¿Y si le dijera eso a toda una audiencia? Cada persona en la audiencia podría tener una idea diferente de cuánto tiempo tardan los usuarios en registrarse en nuestra plataforma.
+
+En cambio, ¿qué pasaría si dijera: "Nuestros usuarios tardan, en promedio, 3 minutos en registrarse y comenzar a usar nuestra plataforma"?
+
+Ese mensaje es más claro. Al comunicar datos, puede ser fácil pensar que todos en tu audiencia están pensando como tú. Pero eso no siempre es el caso. Lograr claridad en torno a tus datos y lo que significan es una de tus responsabilidades como comunicador. Si los datos o tu historia no son claros, tu audiencia tendrá dificultades para seguirte, y será menos probable que comprendan tus mensajes clave.
+
+Puedes comunicar datos de manera más clara cuando usas palabras y frases significativas, en lugar de vagas. A continuación, algunos ejemplos:
+
+- Tuvimos un año *impresionante*.
+ - Una persona podría pensar que "impresionante" significa un aumento del 2%-3% en ingresos, y otra podría pensar que significa un aumento del 50%-60%.
+- Las tasas de éxito de nuestros usuarios aumentaron *dramáticamente*.
+ - ¿Qué tan grande es un aumento "dramático"?
+- Este proyecto requerirá un esfuerzo *significativo*.
+ - ¿Cuánto esfuerzo es "significativo"?
+
+Usar palabras vagas podría ser útil como introducción a más datos que están por venir, o como un resumen de la historia que acabas de contar. Pero considera asegurarte de que cada parte de tu presentación sea clara para tu audiencia.
+
+### 5. Usa Emoción
+La emoción es clave en la narración. Es aún más importante cuando estás contando una historia con datos. Al comunicar datos, todo se centra en los mensajes clave que deseas que tu audiencia se lleve. Evocar una emoción en tu audiencia les ayuda a empatizar y los hace más propensos a actuar. La emoción también aumenta la probabilidad de que tu audiencia recuerde tu mensaje.
+
+Es posible que hayas experimentado esto antes con comerciales de televisión. Algunos comerciales son muy sombríos y usan una emoción triste para conectar con su audiencia y hacer que los datos que presentan realmente destaquen. Otros comerciales son muy alegres y felices, lo que puede hacer que asocies sus datos con una sensación positiva.
+
+¿Cómo usas la emoción al comunicar datos? A continuación, algunas formas:
+
+- Usa Testimonios e Historias Personales
+ - Al recopilar datos, intenta recopilar tanto datos cuantitativos como cualitativos, e integra ambos tipos de datos al comunicarte. Si tus datos son principalmente cuantitativos, busca historias de individuos para aprender más sobre su experiencia con lo que tus datos están diciendo.
+- Usa Imágenes
+ - Las imágenes ayudan a una audiencia a verse a sí misma en una situación. Cuando usas imágenes, puedes guiar a tu audiencia hacia la emoción que crees que deberían tener sobre tus datos.
+- Usa Colores
+ - Los diferentes colores evocan diferentes emociones. Algunos colores populares y las emociones que evocan son:
+ - Azul: suele evocar emociones de paz y confianza.
+ - Verde: generalmente se relaciona con la naturaleza y el medio ambiente.
+ - Rojo: suele representar pasión y emoción.
+ - Amarillo: generalmente optimismo y felicidad.
+
+# Estudio de Caso de Comunicación
+Emerson es un Gerente de Producto para una aplicación móvil. Emerson ha notado que los clientes envían un 42% más de quejas y reportes de errores los fines de semana. También notó que los clientes que envían una queja que no se responde después de 48 horas tienen un 32% más de probabilidades de calificar la aplicación con 1 o 2 estrellas en la tienda de aplicaciones.
+
+Después de investigar, Emerson tiene un par de soluciones para abordar el problema. Emerson organiza una reunión de 30 minutos con los 3 líderes de la empresa para comunicar los datos y las soluciones propuestas.
+
+Durante esta reunión, el objetivo de Emerson es que los líderes de la empresa comprendan que las 2 soluciones a continuación pueden mejorar la calificación de la aplicación, lo que probablemente se traduzca en mayores ingresos.
+
+**Solución 1.** Contratar representantes de servicio al cliente para trabajar los fines de semana.
+
+**Solución 2.** Adquirir un nuevo sistema de tickets de servicio al cliente donde los representantes puedan identificar fácilmente qué quejas han estado más tiempo en la cola, para saber cuáles atender de inmediato.
+En la reunión, Emerson dedica 5 minutos a explicar por qué tener una calificación baja en la tienda de aplicaciones es perjudicial, 10 minutos explicando el proceso de investigación y cómo se identificaron las tendencias, 10 minutos revisando algunas de las quejas recientes de los clientes, y los últimos 5 minutos mencionando brevemente las 2 posibles soluciones.
+
+¿Fue esta una forma efectiva de comunicar durante esta reunión?
+
+Durante la reunión, un líder de la empresa se enfocó únicamente en los 10 minutos de quejas de clientes que Emerson revisó. Después de la reunión, estas quejas fueron lo único que este líder recordó. Otro líder de la empresa se centró principalmente en la descripción del proceso de investigación por parte de Emerson. El tercer líder sí recordó las soluciones propuestas por Emerson, pero no estaba seguro de cómo podrían implementarse esas soluciones.
+
+En la situación anterior, se puede observar que hubo una brecha significativa entre lo que Emerson quería que los líderes de equipo entendieran y lo que realmente se llevaron de la reunión. A continuación, se presenta otro enfoque que Emerson podría considerar.
+
+¿Cómo podría Emerson mejorar este enfoque?
+Contexto, Conflicto, Clímax, Cierre, Conclusión
+**Contexto** - Emerson podría dedicar los primeros 5 minutos a presentar toda la situación y asegurarse de que los líderes de equipo comprendan cómo los problemas afectan métricas críticas para la empresa, como los ingresos.
+
+Podría plantearlo de esta manera: "Actualmente, la calificación de nuestra aplicación en la tienda de aplicaciones es de 2.5. Las calificaciones en la tienda de aplicaciones son fundamentales para la optimización de la tienda de aplicaciones, lo que impacta cuántos usuarios ven nuestra aplicación en las búsquedas y cómo nuestra aplicación es percibida por los usuarios potenciales. Y, por supuesto, el número de usuarios que tenemos está directamente relacionado con los ingresos."
+
+**Conflicto** Emerson podría dedicar los siguientes 5 minutos a hablar sobre el conflicto.
+
+Podría decir algo como: “Los usuarios envían un 42% más de quejas y reportes de errores los fines de semana. Los clientes que envían una queja que no se responde en un plazo de 48 horas tienen un 32% menos de probabilidades de dar a nuestra aplicación una calificación superior a 2 en la tienda de aplicaciones. Mejorar la calificación de nuestra aplicación en la tienda de aplicaciones a un 4 aumentaría nuestra visibilidad entre un 20-30%, lo que proyectaría un incremento en los ingresos del 10%." Por supuesto, Emerson debería estar preparado para justificar estos números.
+
+**Clímax** Después de establecer las bases, Emerson podría pasar al clímax durante unos 5 minutos.
+
+Emerson podría presentar las soluciones propuestas, explicar cómo estas soluciones abordarían los problemas descritos, cómo podrían integrarse en los flujos de trabajo existentes, cuánto costarían las soluciones, cuál sería el retorno de inversión (ROI) de las soluciones, e incluso mostrar capturas de pantalla o prototipos de cómo se verían las soluciones si se implementaran. Emerson también podría compartir testimonios de usuarios que esperaron más de 48 horas para que se atendiera su queja, e incluso un testimonio de un representante de servicio al cliente actual dentro de la empresa que comente sobre el sistema de tickets actual.
+
+**Cierre** Ahora Emerson puede dedicar 5 minutos a reiterar los problemas que enfrenta la empresa, repasar las soluciones propuestas y revisar por qué esas soluciones son las adecuadas.
+
+**Conclusión** Dado que esta es una reunión con algunos interesados donde se utilizará comunicación bidireccional, Emerson podría planear dejar 10 minutos para preguntas, para asegurarse de que cualquier cosa que haya sido confusa para los líderes de equipo pueda aclararse antes de que termine la reunión.
+
+Si Emerson adoptara el enfoque #2, es mucho más probable que los líderes de equipo se lleven de la reunión exactamente lo que Emerson quería que entendieran: que la forma en que se manejan las quejas y los errores podría mejorarse, y que hay 2 soluciones que podrían implementarse para lograr esa mejora. Este enfoque sería una forma mucho más efectiva de comunicar los datos y la historia que Emerson quiere transmitir.
+
+# Conclusión
+### Resumen de los puntos principales
+- Comunicar es transmitir o intercambiar información.
+- Al comunicar datos, tu objetivo no debería ser simplemente pasar números a tu audiencia. Tu objetivo debería ser contar una historia informada por tus datos.
+- Hay 2 tipos de comunicación: Comunicación Unidireccional (la información se comunica sin intención de recibir una respuesta) y Comunicación Bidireccional (la información se comunica de ida y vuelta).
+- Existen muchas estrategias que puedes usar para contar una historia con tus datos. Las 5 estrategias que revisamos son:
+ - Comprender a tu audiencia, tu medio y tu método de comunicación
+ - Comenzar con el objetivo final en mente
+ - Abordarlo como una historia real
+ - Usar palabras y frases significativas
+ - Usar emoción
+
+### Recursos recomendados para autoestudio
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+¡Revisa lo que acabas de aprender con el cuestionario posterior a la conferencia arriba!
+
+## Tarea
+
+[Market Research](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/es/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..1ef9b0fe
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,24 @@
+
+# Cuenta una historia
+
+## Instrucciones
+
+La ciencia de datos trata de contar historias. Elige cualquier conjunto de datos y escribe un breve artículo sobre una historia que podrías contar con él. ¿Qué esperas que tu conjunto de datos pueda revelar? ¿Qué harás si sus revelaciones resultan problemáticas? ¿Qué pasa si tus datos no revelan fácilmente sus secretos? Piensa en los escenarios que tu conjunto de datos podría presentar y escríbelos.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejora
+--- | --- | -- |
+
+Se presenta un ensayo de una página en formato .doc con el conjunto de datos explicado, documentado, acreditado y se presenta una historia coherente sobre él con ejemplos detallados de los datos.| Se presenta un ensayo más corto en un formato menos detallado | El ensayo carece de uno de los detalles mencionados anteriormente.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/4-Data-Science-Lifecycle/README.md b/translations/es/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..c21465e1
--- /dev/null
+++ b/translations/es/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,28 @@
+
+# El Ciclo de Vida de la Ciencia de Datos
+
+
+> Foto de Headway en Unsplash
+
+En estas lecciones, explorarás algunos de los aspectos del ciclo de vida de la Ciencia de Datos, incluyendo el análisis y la comunicación en torno a los datos.
+
+### Temas
+
+1. [Introducción](14-Introduction/README.md)
+2. [Análisis](15-analyzing/README.md)
+3. [Comunicación](16-communication/README.md)
+
+### Créditos
+
+Estas lecciones fueron escritas con ❤️ por [Jalen McGee](https://twitter.com/JalenMCG) y [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/es/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..7c9a8ea6
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# Introducción a la Ciencia de Datos en la Nube
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Ciencia de Datos en la Nube: Introducción - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+En esta lección, aprenderás los principios fundamentales de la Nube, luego verás por qué puede ser interesante utilizar servicios en la Nube para ejecutar tus proyectos de ciencia de datos y revisaremos algunos ejemplos de proyectos de ciencia de datos realizados en la Nube.
+
+## [Cuestionario previo a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## ¿Qué es la Nube?
+
+La Nube, o Computación en la Nube, es la entrega de una amplia gama de servicios de computación bajo demanda, alojados en una infraestructura a través de internet. Los servicios incluyen soluciones como almacenamiento, bases de datos, redes, software, análisis y servicios inteligentes.
+
+Normalmente diferenciamos entre Nube Pública, Privada e Híbrida de la siguiente manera:
+
+* Nube pública: una nube pública es propiedad y está operada por un proveedor de servicios en la nube de terceros que entrega sus recursos de computación a través de Internet al público.
+* Nube privada: se refiere a recursos de computación en la nube utilizados exclusivamente por una sola empresa u organización, con servicios e infraestructura mantenidos en una red privada.
+* Nube híbrida: la nube híbrida es un sistema que combina nubes públicas y privadas. Los usuarios optan por un centro de datos local, mientras permiten que los datos y las aplicaciones se ejecuten en una o más nubes públicas.
+
+La mayoría de los servicios de computación en la nube se dividen en tres categorías: Infraestructura como Servicio (IaaS), Plataforma como Servicio (PaaS) y Software como Servicio (SaaS).
+
+* Infraestructura como Servicio (IaaS): los usuarios alquilan una infraestructura de TI como servidores y máquinas virtuales (VMs), almacenamiento, redes, sistemas operativos.
+* Plataforma como Servicio (PaaS): los usuarios alquilan un entorno para desarrollar, probar, entregar y gestionar aplicaciones de software. Los usuarios no necesitan preocuparse por configurar o gestionar la infraestructura subyacente de servidores, almacenamiento, redes y bases de datos necesarias para el desarrollo.
+* Software como Servicio (SaaS): los usuarios obtienen acceso a aplicaciones de software a través de Internet, bajo demanda y típicamente mediante una suscripción. Los usuarios no necesitan preocuparse por alojar y gestionar la aplicación de software, la infraestructura subyacente o el mantenimiento, como actualizaciones de software y parches de seguridad.
+
+Algunos de los mayores proveedores de servicios en la nube son Amazon Web Services, Google Cloud Platform y Microsoft Azure.
+
+## ¿Por qué elegir la Nube para la Ciencia de Datos?
+
+Los desarrolladores y profesionales de TI eligen trabajar con la Nube por muchas razones, entre ellas:
+
+* Innovación: puedes potenciar tus aplicaciones integrando servicios innovadores creados por los proveedores de la Nube directamente en tus aplicaciones.
+* Flexibilidad: solo pagas por los servicios que necesitas y puedes elegir entre una amplia gama de servicios. Normalmente pagas según el uso y adaptas tus servicios según tus necesidades cambiantes.
+* Presupuesto: no necesitas hacer inversiones iniciales para comprar hardware y software, configurar y operar centros de datos locales, y solo pagas por lo que utilizas.
+* Escalabilidad: tus recursos pueden escalar según las necesidades de tu proyecto, lo que significa que tus aplicaciones pueden usar más o menos potencia de computación, almacenamiento y ancho de banda, adaptándose a factores externos en cualquier momento.
+* Productividad: puedes concentrarte en tu negocio en lugar de dedicar tiempo a tareas que pueden ser gestionadas por otros, como administrar centros de datos.
+* Fiabilidad: la computación en la nube ofrece varias formas de respaldar continuamente tus datos y puedes configurar planes de recuperación ante desastres para mantener tu negocio y servicios funcionando, incluso en tiempos de crisis.
+* Seguridad: puedes beneficiarte de políticas, tecnologías y controles que fortalecen la seguridad de tu proyecto.
+
+Estas son algunas de las razones más comunes por las que las personas eligen usar servicios en la Nube. Ahora que tenemos una mejor comprensión de qué es la Nube y cuáles son sus principales beneficios, veamos más específicamente los trabajos de los científicos de datos y desarrolladores que trabajan con datos, y cómo la Nube puede ayudarlos con varios desafíos que podrían enfrentar:
+
+* Almacenar grandes cantidades de datos: en lugar de comprar, gestionar y proteger grandes servidores, puedes almacenar tus datos directamente en la nube, con soluciones como Azure Cosmos DB, Azure SQL Database y Azure Data Lake Storage.
+* Realizar integración de datos: la integración de datos es una parte esencial de la Ciencia de Datos, que te permite hacer la transición de la recopilación de datos a la toma de decisiones. Con los servicios de integración de datos ofrecidos en la nube, puedes recopilar, transformar e integrar datos de diversas fuentes en un único almacén de datos, con Data Factory.
+* Procesar datos: procesar grandes cantidades de datos requiere mucha potencia de computación, y no todos tienen acceso a máquinas lo suficientemente potentes para ello, por lo que muchas personas optan por aprovechar directamente la enorme potencia de computación de la nube para ejecutar y desplegar sus soluciones.
+* Usar servicios de análisis de datos: servicios en la nube como Azure Synapse Analytics, Azure Stream Analytics y Azure Databricks te ayudan a convertir tus datos en información procesable.
+* Usar servicios de aprendizaje automático e inteligencia de datos: en lugar de empezar desde cero, puedes usar algoritmos de aprendizaje automático ofrecidos por el proveedor de la nube, con servicios como AzureML. También puedes usar servicios cognitivos como conversión de voz a texto, texto a voz, visión por computadora y más.
+
+## Ejemplos de Ciencia de Datos en la Nube
+
+Hagamos esto más tangible revisando un par de escenarios.
+
+### Análisis de sentimiento en redes sociales en tiempo real
+
+Comenzaremos con un escenario comúnmente estudiado por personas que inician con el aprendizaje automático: análisis de sentimiento en redes sociales en tiempo real.
+
+Supongamos que diriges un sitio web de noticias y quieres aprovechar datos en vivo para entender qué contenido podría interesar a tus lectores. Para saber más sobre esto, puedes construir un programa que realice análisis de sentimiento en tiempo real de datos provenientes de publicaciones en Twitter, sobre temas relevantes para tus lectores.
+
+Los indicadores clave que observarás son el volumen de tweets sobre temas específicos (hashtags) y el sentimiento, que se establece utilizando herramientas de análisis que realizan análisis de sentimiento sobre los temas especificados.
+
+Los pasos necesarios para crear este proyecto son los siguientes:
+
+* Crear un centro de eventos para la entrada de streaming, que recolectará datos de Twitter.
+* Configurar y iniciar una aplicación cliente de Twitter, que llamará a las APIs de Streaming de Twitter.
+* Crear un trabajo de Stream Analytics.
+* Especificar la entrada y consulta del trabajo.
+* Crear un destino de salida y especificar la salida del trabajo.
+* Iniciar el trabajo.
+
+Para ver el proceso completo, consulta la [documentación](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Análisis de artículos científicos
+
+Tomemos otro ejemplo de un proyecto creado por [Dmitry Soshnikov](http://soshnikov.com), uno de los autores de este currículo.
+
+Dmitry creó una herramienta que analiza artículos sobre COVID. Al revisar este proyecto, verás cómo puedes crear una herramienta que extraiga conocimiento de artículos científicos, obtenga información y ayude a los investigadores a navegar eficientemente a través de grandes colecciones de artículos.
+
+Veamos los diferentes pasos utilizados para esto:
+
+* Extraer y preprocesar información con [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Usar [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) para paralelizar el procesamiento.
+* Almacenar y consultar información con [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Crear un panel interactivo para la exploración y visualización de datos usando Power BI.
+
+Para ver el proceso completo, visita el [blog de Dmitry](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Como puedes ver, podemos aprovechar los servicios en la Nube de muchas maneras para realizar Ciencia de Datos.
+
+## Nota al pie
+
+Fuentes:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Cuestionario posterior a la lección
+
+[Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Tarea
+
+[Investigación de mercado](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/es/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..9dead6f2
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,23 @@
+
+# Investigación de Mercado
+
+## Instrucciones
+
+En esta lección aprendiste que existen varios proveedores importantes de servicios en la nube. Realiza una investigación de mercado para descubrir lo que cada uno puede ofrecer al Científico de Datos. ¿Son comparables las ofertas? Escribe un informe para describir las ofertas de tres o más de estos proveedores de servicios en la nube.
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Un informe de una página describe las ofertas de ciencia de datos de tres proveedores de servicios en la nube y las diferencia entre sí. | Se presenta un informe más corto | Se presenta un informe sin completar el análisis
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/es/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..33566333
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,348 @@
+
+# Ciencia de Datos en la Nube: El enfoque "Low code/No code"
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Ciencia de Datos en la Nube: Low Code - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Tabla de contenidos:
+
+- [Ciencia de Datos en la Nube: El enfoque "Low code/No code"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Cuestionario previo a la clase](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Introducción](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 ¿Qué es Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 El Proyecto de Predicción de Insuficiencia Cardíaca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 El Conjunto de Datos de Insuficiencia Cardíaca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Entrenamiento Low code/No code de un modelo en Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Crear un espacio de trabajo en Azure ML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Recursos de Cómputo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Elegir las opciones correctas para tus recursos de cómputo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Crear un clúster de cómputo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Cargar el conjunto de datos](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Entrenamiento Low code/No code con AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Despliegue del modelo Low code/No code y consumo del endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Despliegue del modelo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Consumo del endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Desafío](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Cuestionario posterior a la clase](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Revisión y Autoestudio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Tarea](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Cuestionario previo a la clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Introducción
+### 1.1 ¿Qué es Azure Machine Learning?
+
+La plataforma en la nube de Azure incluye más de 200 productos y servicios diseñados para ayudarte a dar vida a nuevas soluciones. Los científicos de datos dedican mucho esfuerzo a explorar y preprocesar datos, y a probar varios tipos de algoritmos de entrenamiento de modelos para producir modelos precisos. Estas tareas consumen tiempo y, a menudo, hacen un uso ineficiente de hardware de cómputo costoso.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) es una plataforma basada en la nube para construir y operar soluciones de aprendizaje automático en Azure. Incluye una amplia gama de características y capacidades que ayudan a los científicos de datos a preparar datos, entrenar modelos, publicar servicios predictivos y monitorear su uso. Lo más importante es que les ayuda a aumentar su eficiencia al automatizar muchas de las tareas que consumen tiempo asociadas con el entrenamiento de modelos; y les permite usar recursos de cómputo basados en la nube que escalan de manera efectiva para manejar grandes volúmenes de datos, incurriendo en costos solo cuando realmente se utilizan.
+
+Azure ML proporciona todas las herramientas que los desarrolladores y científicos de datos necesitan para sus flujos de trabajo de aprendizaje automático. Estas incluyen:
+
+- **Azure Machine Learning Studio**: un portal web en Azure Machine Learning para opciones de bajo código y sin código para entrenamiento de modelos, despliegue, automatización, seguimiento y gestión de activos. El estudio se integra con el SDK de Azure Machine Learning para una experiencia fluida.
+- **Jupyter Notebooks**: prototipado rápido y pruebas de modelos de ML.
+- **Azure Machine Learning Designer**: permite arrastrar y soltar módulos para construir experimentos y luego desplegar pipelines en un entorno de bajo código.
+- **Interfaz de AutoML**: automatiza tareas iterativas del desarrollo de modelos de aprendizaje automático, permitiendo construir modelos de ML con alta escala, eficiencia y productividad, manteniendo la calidad del modelo.
+- **Etiquetado de datos**: una herramienta asistida de ML para etiquetar datos automáticamente.
+- **Extensión de aprendizaje automático para Visual Studio Code**: proporciona un entorno de desarrollo completo para construir y gestionar proyectos de ML.
+- **CLI de aprendizaje automático**: comandos para gestionar recursos de Azure ML desde la línea de comandos.
+- **Integración con frameworks de código abierto** como PyTorch, TensorFlow, Scikit-learn y muchos más para entrenar, desplegar y gestionar el proceso de aprendizaje automático de principio a fin.
+- **MLflow**: una biblioteca de código abierto para gestionar el ciclo de vida de tus experimentos de aprendizaje automático. **MLFlow Tracking** es un componente de MLflow que registra y rastrea las métricas de tus ejecuciones de entrenamiento y artefactos de modelos, independientemente del entorno de tu experimento.
+
+### 1.2 El Proyecto de Predicción de Insuficiencia Cardíaca:
+
+No hay duda de que crear y construir proyectos es la mejor manera de poner a prueba tus habilidades y conocimientos. En esta lección, vamos a explorar dos formas diferentes de construir un proyecto de ciencia de datos para la predicción de ataques de insuficiencia cardíaca en Azure ML Studio, a través de Low code/No code y mediante el SDK de Azure ML, como se muestra en el siguiente esquema:
+
+
+
+Cada enfoque tiene sus propios pros y contras. El enfoque Low code/No code es más fácil para comenzar, ya que implica interactuar con una interfaz gráfica (GUI), sin necesidad de conocimientos previos de programación. Este método permite probar rápidamente la viabilidad del proyecto y crear un POC (Prueba de Concepto). Sin embargo, a medida que el proyecto crece y necesita estar listo para producción, no es factible crear recursos a través de la GUI. Necesitamos automatizar todo programáticamente, desde la creación de recursos hasta el despliegue de un modelo. Aquí es donde saber cómo usar el SDK de Azure ML se vuelve crucial.
+
+| | Low code/No code | SDK de Azure ML |
+|-------------------|------------------|---------------------------|
+| Experiencia en código | No requerida | Requerida |
+| Tiempo de desarrollo | Rápido y fácil | Depende de la experiencia en código |
+| Listo para producción | No | Sí |
+
+### 1.3 El Conjunto de Datos de Insuficiencia Cardíaca:
+
+Las enfermedades cardiovasculares (ECV) son la principal causa de muerte a nivel mundial, representando el 31% de todas las muertes en el mundo. Factores de riesgo ambientales y conductuales como el uso de tabaco, dieta poco saludable y obesidad, inactividad física y consumo nocivo de alcohol podrían usarse como características para modelos de estimación. Poder estimar la probabilidad de desarrollar una ECV podría ser de gran utilidad para prevenir ataques en personas de alto riesgo.
+
+Kaggle ha puesto a disposición pública un [conjunto de datos de insuficiencia cardíaca](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) que vamos a usar para este proyecto. Puedes descargar el conjunto de datos ahora. Este es un conjunto de datos tabular con 13 columnas (12 características y 1 variable objetivo) y 299 filas.
+
+| | Nombre de la variable | Tipo | Descripción | Ejemplo |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numérico | Edad del paciente | 25 |
+| 2 | anaemia | booleano | Disminución de glóbulos rojos o hemoglobina | 0 o 1 |
+| 3 | creatinine_phosphokinase | numérico | Nivel de la enzima CPK en la sangre | 542 |
+| 4 | diabetes | booleano | Si el paciente tiene diabetes | 0 o 1 |
+| 5 | ejection_fraction | numérico | Porcentaje de sangre que sale del corazón en cada contracción | 45 |
+| 6 | high_blood_pressure | booleano | Si el paciente tiene hipertensión | 0 o 1 |
+| 7 | platelets | numérico | Plaquetas en la sangre | 149000 |
+| 8 | serum_creatinine | numérico | Nivel de creatinina sérica en la sangre | 0.5 |
+| 9 | serum_sodium | numérico | Nivel de sodio sérico en la sangre | jun |
+| 10 | sex | booleano | Mujer u hombre | 0 o 1 |
+| 11 | smoking | booleano | Si el paciente fuma | 0 o 1 |
+| 12 | time | numérico | Período de seguimiento (días) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Objetivo] | booleano | Si el paciente muere durante el período de seguimiento | 0 o 1 |
+
+Una vez que tengas el conjunto de datos, podemos comenzar el proyecto en Azure.
+
+## 2. Entrenamiento Low code/No code de un modelo en Azure ML Studio
+### 2.1 Crear un espacio de trabajo en Azure ML
+Para entrenar un modelo en Azure ML, primero necesitas crear un espacio de trabajo en Azure ML. El espacio de trabajo es el recurso de nivel superior para Azure Machine Learning, proporcionando un lugar centralizado para trabajar con todos los artefactos que creas al usar Azure Machine Learning. El espacio de trabajo mantiene un historial de todas las ejecuciones de entrenamiento, incluidos registros, métricas, resultados y una instantánea de tus scripts. Usas esta información para determinar qué ejecución de entrenamiento produce el mejor modelo. [Aprende más](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Se recomienda usar el navegador más actualizado que sea compatible con tu sistema operativo. Los siguientes navegadores son compatibles:
+
+- Microsoft Edge (El nuevo Microsoft Edge, última versión. No Microsoft Edge legacy)
+- Safari (última versión, solo Mac)
+- Chrome (última versión)
+- Firefox (última versión)
+
+Para usar Azure Machine Learning, crea un espacio de trabajo en tu suscripción de Azure. Luego puedes usar este espacio de trabajo para gestionar datos, recursos de cómputo, código, modelos y otros artefactos relacionados con tus cargas de trabajo de aprendizaje automático.
+
+> **_NOTA:_** Tu suscripción de Azure se cobrará una pequeña cantidad por almacenamiento de datos mientras el espacio de trabajo de Azure Machine Learning exista en tu suscripción, por lo que te recomendamos eliminar el espacio de trabajo de Azure Machine Learning cuando ya no lo estés utilizando.
+
+1. Inicia sesión en el [portal de Azure](https://ms.portal.azure.com/) usando las credenciales de Microsoft asociadas con tu suscripción de Azure.
+2. Selecciona **+Crear un recurso**
+
+ 
+
+ Busca Machine Learning y selecciona el mosaico de Machine Learning.
+
+ 
+
+ Haz clic en el botón de crear.
+
+ 
+
+ Completa la configuración como sigue:
+ - Suscripción: Tu suscripción de Azure
+ - Grupo de recursos: Crea o selecciona un grupo de recursos
+ - Nombre del espacio de trabajo: Ingresa un nombre único para tu espacio de trabajo
+ - Región: Selecciona la región geográfica más cercana a ti
+ - Cuenta de almacenamiento: Nota la nueva cuenta de almacenamiento predeterminada que se creará para tu espacio de trabajo
+ - Key vault: Nota el nuevo key vault predeterminado que se creará para tu espacio de trabajo
+ - Application insights: Nota el nuevo recurso de application insights predeterminado que se creará para tu espacio de trabajo
+ - Registro de contenedor: Ninguno (se creará automáticamente la primera vez que despliegues un modelo en un contenedor)
+
+ 
+
+ - Haz clic en crear + revisar y luego en el botón de crear.
+3. Espera a que se cree tu espacio de trabajo (esto puede tardar unos minutos). Luego ve a él en el portal. Puedes encontrarlo a través del servicio de Azure Machine Learning.
+4. En la página de resumen de tu espacio de trabajo, lanza Azure Machine Learning Studio (o abre una nueva pestaña del navegador y navega a https://ml.azure.com), e inicia sesión en Azure Machine Learning Studio usando tu cuenta de Microsoft. Si se te solicita, selecciona tu directorio y suscripción de Azure, y tu espacio de trabajo de Azure Machine Learning.
+
+
+
+5. En Azure Machine Learning Studio, alterna el ícono ☰ en la parte superior izquierda para ver las diferentes páginas de la interfaz. Puedes usar estas páginas para gestionar los recursos en tu espacio de trabajo.
+
+
+
+Puedes gestionar tu espacio de trabajo usando el portal de Azure, pero para los científicos de datos e ingenieros de operaciones de aprendizaje automático, Azure Machine Learning Studio proporciona una interfaz de usuario más enfocada para gestionar los recursos del espacio de trabajo.
+
+### 2.2 Recursos de Cómputo
+
+Los recursos de cómputo son recursos basados en la nube en los que puedes ejecutar procesos de entrenamiento de modelos y exploración de datos. Hay cuatro tipos de recursos de cómputo que puedes crear:
+
+- **Instancias de cómputo**: Estaciones de trabajo de desarrollo que los científicos de datos pueden usar para trabajar con datos y modelos. Esto implica la creación de una máquina virtual (VM) y el lanzamiento de una instancia de notebook. Luego puedes entrenar un modelo llamando a un clúster de cómputo desde el notebook.
+- **Clústeres de cómputo**: Clústeres escalables de máquinas virtuales para el procesamiento bajo demanda de código de experimentos. Los necesitarás al entrenar un modelo. Los clústeres de cómputo también pueden emplear recursos especializados de GPU o CPU.
+- **Clústeres de inferencia**: Objetivos de despliegue para servicios predictivos que usan tus modelos entrenados.
+- **Compute adjunto**: Enlaza con recursos de cómputo existentes en Azure, como Máquinas Virtuales o clústeres de Azure Databricks.
+
+#### 2.2.1 Elegir las opciones correctas para tus recursos de cómputo
+
+Hay algunos factores clave a considerar al crear un recurso de cómputo, y esas decisiones pueden ser críticas.
+
+**¿Necesitas CPU o GPU?**
+
+Una CPU (Unidad Central de Procesamiento) es el circuito electrónico que ejecuta las instrucciones de un programa de computadora. Una GPU (Unidad de Procesamiento Gráfico) es un circuito electrónico especializado que puede ejecutar código relacionado con gráficos a una velocidad muy alta.
+
+La principal diferencia entre la arquitectura de CPU y GPU es que una CPU está diseñada para manejar una amplia gama de tareas rápidamente (medido por la velocidad del reloj de la CPU), pero está limitada en la concurrencia de tareas que pueden ejecutarse. Las GPUs están diseñadas para la computación paralela y, por lo tanto, son mucho mejores para tareas de aprendizaje profundo.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Menos costosa | Más costosa |
+| Menor nivel de concurrencia | Mayor nivel de concurrencia |
+| Más lenta en entrenar modelos de aprendizaje profundo | Óptima para aprendizaje profundo |
+
+**Tamaño del clúster**
+
+Los clústeres más grandes son más costosos, pero ofrecen mejor capacidad de respuesta. Por lo tanto, si tienes tiempo pero no suficiente dinero, deberías comenzar con un clúster pequeño. Por el contrario, si tienes dinero pero no mucho tiempo, deberías comenzar con un clúster más grande.
+
+**Tamaño de la VM**
+
+Dependiendo de tus restricciones de tiempo y presupuesto, puedes variar el tamaño de tu RAM, disco, número de núcleos y velocidad del reloj. Incrementar todos esos parámetros será más costoso, pero resultará en un mejor rendimiento.
+
+**¿Instancias dedicadas o de baja prioridad?**
+
+Una instancia de baja prioridad significa que es interrumpible: esencialmente, Microsoft Azure puede tomar esos recursos y asignarlos a otra tarea, interrumpiendo así un trabajo. Una instancia dedicada, o no interrumpible, significa que el trabajo nunca será terminado sin tu permiso.
+Esta es otra consideración de tiempo vs dinero, ya que las instancias interrumpibles son menos costosas que las dedicadas.
+
+#### 2.2.2 Crear un clúster de cómputo
+
+En el [espacio de trabajo de Azure ML](https://ml.azure.com/) que creamos anteriormente, ve a la sección de cómputo y podrás ver los diferentes recursos de cómputo que acabamos de discutir (es decir, instancias de cómputo, clústeres de cómputo, clústeres de inferencia y cómputo adjunto). Para este proyecto, necesitaremos un clúster de cómputo para entrenar el modelo. En el Studio, haz clic en el menú "Compute", luego en la pestaña "Compute cluster" y haz clic en el botón "+ New" para crear un clúster de cómputo.
+
+
+
+1. Elige tus opciones: Dedicado vs Baja prioridad, CPU o GPU, tamaño de la VM y número de núcleos (puedes mantener la configuración predeterminada para este proyecto).
+2. Haz clic en el botón Next.
+
+
+
+3. Asigna un nombre al clúster de cómputo.
+4. Elige tus opciones: Número mínimo/máximo de nodos, segundos de inactividad antes de reducir el tamaño, acceso SSH. Ten en cuenta que si el número mínimo de nodos es 0, ahorrarás dinero cuando el clúster esté inactivo. Ten en cuenta que mientras mayor sea el número máximo de nodos, más corto será el tiempo de entrenamiento. El número máximo de nodos recomendado es 3.
+5. Haz clic en el botón "Create". Este paso puede tardar unos minutos.
+
+
+
+¡Genial! Ahora que tenemos un clúster de cómputo, necesitamos cargar los datos en Azure ML Studio.
+
+### 2.3 Cargar el conjunto de datos
+
+1. En el [espacio de trabajo de Azure ML](https://ml.azure.com/) que creamos anteriormente, haz clic en "Datasets" en el menú de la izquierda y haz clic en el botón "+ Create dataset" para crear un conjunto de datos. Elige la opción "From local files" y selecciona el conjunto de datos de Kaggle que descargamos anteriormente.
+
+ 
+
+2. Asigna un nombre, un tipo y una descripción a tu conjunto de datos. Haz clic en Next. Sube los datos desde los archivos. Haz clic en Next.
+
+ 
+
+3. En el esquema, cambia el tipo de datos a Boolean para las siguientes características: anaemia, diabetes, high blood pressure, sex, smoking y DEATH_EVENT. Haz clic en Next y luego en Create.
+
+ 
+
+¡Perfecto! Ahora que el conjunto de datos está listo y el clúster de cómputo está creado, podemos comenzar el entrenamiento del modelo.
+
+### 2.4 Entrenamiento con poco o ningún código usando AutoML
+
+El desarrollo tradicional de modelos de aprendizaje automático consume muchos recursos, requiere un conocimiento significativo del dominio y tiempo para producir y comparar docenas de modelos.
+El aprendizaje automático automatizado (AutoML) es el proceso de automatizar las tareas iterativas y que consumen tiempo del desarrollo de modelos de aprendizaje automático. Permite a científicos de datos, analistas y desarrolladores construir modelos de ML con gran escala, eficiencia y productividad, manteniendo la calidad del modelo. Reduce el tiempo necesario para obtener modelos de ML listos para producción, con gran facilidad y eficiencia. [Más información](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. En el [espacio de trabajo de Azure ML](https://ml.azure.com/) que creamos anteriormente, haz clic en "Automated ML" en el menú de la izquierda y selecciona el conjunto de datos que acabas de cargar. Haz clic en Next.
+
+ 
+
+2. Introduce un nuevo nombre para el experimento, la columna objetivo (DEATH_EVENT) y el clúster de cómputo que creamos. Haz clic en Next.
+
+ 
+
+3. Elige "Classification" y haz clic en Finish. Este paso puede tardar entre 30 minutos y 1 hora, dependiendo del tamaño de tu clúster de cómputo.
+
+ 
+
+4. Una vez que la ejecución esté completa, haz clic en la pestaña "Automated ML", selecciona tu ejecución y haz clic en el algoritmo en la tarjeta "Best model summary".
+
+ 
+
+Aquí puedes ver una descripción detallada del mejor modelo que AutoML generó. También puedes explorar otros modelos generados en la pestaña Models. Tómate unos minutos para explorar los modelos en el botón Explanations (vista previa). Una vez que hayas elegido el modelo que deseas usar (aquí elegiremos el mejor modelo seleccionado por AutoML), veremos cómo podemos implementarlo.
+
+## 3. Implementación del modelo con poco o ningún código y consumo del endpoint
+### 3.1 Implementación del modelo
+
+La interfaz de aprendizaje automático automatizado te permite implementar el mejor modelo como un servicio web en unos pocos pasos. La implementación es la integración del modelo para que pueda hacer predicciones basadas en nuevos datos e identificar posibles áreas de oportunidad. Para este proyecto, la implementación como un servicio web significa que las aplicaciones médicas podrán consumir el modelo para hacer predicciones en vivo sobre el riesgo de ataque cardíaco de sus pacientes.
+
+En la descripción del mejor modelo, haz clic en el botón "Deploy".
+
+
+
+15. Asigna un nombre, una descripción, el tipo de cómputo (Azure Container Instance), habilita la autenticación y haz clic en Deploy. Este paso puede tardar unos 20 minutos en completarse. El proceso de implementación incluye varios pasos, como registrar el modelo, generar recursos y configurarlos para el servicio web. Aparecerá un mensaje de estado bajo Deploy status. Selecciona Refresh periódicamente para verificar el estado de la implementación. Estará implementado y en ejecución cuando el estado sea "Healthy".
+
+
+
+16. Una vez implementado, haz clic en la pestaña Endpoint y selecciona el endpoint que acabas de implementar. Aquí puedes encontrar todos los detalles que necesitas saber sobre el endpoint.
+
+
+
+¡Increíble! Ahora que tenemos un modelo implementado, podemos comenzar a consumir el endpoint.
+
+### 3.2 Consumo del endpoint
+
+Haz clic en la pestaña "Consume". Aquí puedes encontrar el endpoint REST y un script de Python en la opción de consumo. Tómate un momento para leer el código de Python.
+
+Este script se puede ejecutar directamente desde tu máquina local y consumirá tu endpoint.
+
+
+
+Tómate un momento para revisar estas 2 líneas de código:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+La variable `url` es el endpoint REST que se encuentra en la pestaña de consumo y la variable `api_key` es la clave primaria que también se encuentra en la pestaña de consumo (solo en caso de que hayas habilitado la autenticación). Así es como el script puede consumir el endpoint.
+
+18. Al ejecutar el script, deberías ver el siguiente resultado:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Esto significa que la predicción de insuficiencia cardíaca para los datos proporcionados es verdadera. Esto tiene sentido porque si observas más de cerca los datos generados automáticamente en el script, todo está en 0 y falso por defecto. Puedes cambiar los datos con la siguiente muestra de entrada:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+El script debería devolver:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+¡Felicidades! Acabas de consumir el modelo implementado y entrenado en Azure ML.
+
+> **_NOTA:_** Una vez que termines el proyecto, no olvides eliminar todos los recursos.
+
+## 🚀 Desafío
+
+Observa detenidamente las explicaciones y detalles del modelo que AutoML generó para los mejores modelos. Intenta entender por qué el mejor modelo es mejor que los otros. ¿Qué algoritmos se compararon? ¿Cuáles son las diferencias entre ellos? ¿Por qué el mejor modelo tiene un mejor rendimiento en este caso?
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Revisión y autoestudio
+
+En esta lección, aprendiste cómo entrenar, implementar y consumir un modelo para predecir el riesgo de insuficiencia cardíaca de manera sencilla, sin necesidad de mucho código, en la nube. Si aún no lo has hecho, profundiza en las explicaciones del modelo que AutoML generó para los mejores modelos e intenta entender por qué el mejor modelo es mejor que los demás.
+
+Puedes profundizar más en AutoML con poco o ningún código leyendo esta [documentación](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Tarea
+
+[Proyecto de Ciencia de Datos con poco o ningún código en Azure ML](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/es/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..e5702dfe
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,23 @@
+
+# Proyecto de Ciencia de Datos Low code/No code en Azure ML
+
+## Instrucciones
+
+Vimos cómo usar la plataforma de Azure ML para entrenar, implementar y consumir un modelo de manera Low code/No code. Ahora busca algunos datos que puedas usar para entrenar otro modelo, implementarlo y consumirlo. Puedes buscar conjuntos de datos en [Kaggle](https://kaggle.com) y [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Rúbrica
+
+| Ejemplar | Adecuado | Necesita Mejoras |
+|----------|----------|------------------|
+|Al cargar los datos, te aseguraste de cambiar el tipo de las características si era necesario. También limpiaste los datos si era necesario. Realizaste un entrenamiento en un conjunto de datos a través de AutoML y revisaste las explicaciones del modelo. Implementaste el mejor modelo y fuiste capaz de consumirlo. | Al cargar los datos, te aseguraste de cambiar el tipo de las características si era necesario. Realizaste un entrenamiento en un conjunto de datos a través de AutoML, implementaste el mejor modelo y fuiste capaz de consumirlo. | Has implementado el mejor modelo entrenado por AutoML y fuiste capaz de consumirlo. |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/es/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..2a9b975b
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,310 @@
+
+# Ciencia de Datos en la Nube: El enfoque "Azure ML SDK"
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Ciencia de Datos en la Nube: Azure ML SDK - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Tabla de contenidos:
+
+- [Ciencia de Datos en la Nube: El enfoque "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Cuestionario previo a la clase](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Introducción](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 ¿Qué es Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Introducción al proyecto de predicción de insuficiencia cardíaca y al conjunto de datos](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Entrenamiento de un modelo con Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Crear un espacio de trabajo de Azure ML](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Crear una instancia de cómputo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Cargar el conjunto de datos](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Crear Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Entrenar un modelo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Configurar espacio de trabajo, experimento, clúster de cómputo y conjunto de datos](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 Configuración de AutoML y entrenamiento](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Despliegue del modelo y consumo del endpoint con Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Guardar el mejor modelo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Despliegue del modelo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Consumo del endpoint](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Desafío](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Cuestionario posterior a la clase](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Revisión y autoestudio](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Tarea](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Cuestionario previo a la clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Introducción
+
+### 1.1 ¿Qué es Azure ML SDK?
+
+Los científicos de datos y desarrolladores de IA utilizan el SDK de Azure Machine Learning para construir y ejecutar flujos de trabajo de aprendizaje automático con el servicio Azure Machine Learning. Puedes interactuar con el servicio en cualquier entorno de Python, incluyendo Jupyter Notebooks, Visual Studio Code o tu IDE de Python favorito.
+
+Áreas clave del SDK incluyen:
+
+- Explorar, preparar y gestionar el ciclo de vida de tus conjuntos de datos utilizados en experimentos de aprendizaje automático.
+- Administrar recursos en la nube para monitoreo, registro y organización de tus experimentos de aprendizaje automático.
+- Entrenar modelos localmente o utilizando recursos en la nube, incluyendo entrenamiento acelerado por GPU.
+- Usar aprendizaje automático automatizado, que acepta parámetros de configuración y datos de entrenamiento. Itera automáticamente a través de algoritmos y configuraciones de hiperparámetros para encontrar el mejor modelo para realizar predicciones.
+- Desplegar servicios web para convertir tus modelos entrenados en servicios RESTful que pueden ser consumidos en cualquier aplicación.
+
+[Aprende más sobre el SDK de Azure Machine Learning](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+En la [lección anterior](../18-Low-Code/README.md), vimos cómo entrenar, desplegar y consumir un modelo de manera Low code/No code. Usamos el conjunto de datos de insuficiencia cardíaca para generar un modelo de predicción de insuficiencia cardíaca. En esta lección, vamos a hacer exactamente lo mismo pero utilizando el SDK de Azure Machine Learning.
+
+
+
+### 1.2 Introducción al proyecto de predicción de insuficiencia cardíaca y al conjunto de datos
+
+Consulta [aquí](../18-Low-Code/README.md) la introducción al proyecto de predicción de insuficiencia cardíaca y al conjunto de datos.
+
+## 2. Entrenamiento de un modelo con Azure ML SDK
+### 2.1 Crear un espacio de trabajo de Azure ML
+
+Para simplificar, vamos a trabajar en un notebook de Jupyter. Esto implica que ya tienes un espacio de trabajo y una instancia de cómputo. Si ya tienes un espacio de trabajo, puedes saltar directamente a la sección 2.3 Creación de Notebook.
+
+Si no, sigue las instrucciones en la sección **2.1 Crear un espacio de trabajo de Azure ML** en la [lección anterior](../18-Low-Code/README.md) para crear un espacio de trabajo.
+
+### 2.2 Crear una instancia de cómputo
+
+En el [espacio de trabajo de Azure ML](https://ml.azure.com/) que creamos anteriormente, ve al menú de cómputo y verás los diferentes recursos de cómputo disponibles.
+
+
+
+Vamos a crear una instancia de cómputo para provisionar un notebook de Jupyter.
+1. Haz clic en el botón + Nuevo.
+2. Asigna un nombre a tu instancia de cómputo.
+3. Elige tus opciones: CPU o GPU, tamaño de VM y número de núcleos.
+4. Haz clic en el botón Crear.
+
+¡Felicidades, acabas de crear una instancia de cómputo! Usaremos esta instancia de cómputo para crear un Notebook en la sección [Creación de Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Cargar el conjunto de datos
+Consulta la [lección anterior](../18-Low-Code/README.md) en la sección **2.3 Cargar el conjunto de datos** si aún no has subido el conjunto de datos.
+
+### 2.4 Crear Notebooks
+
+> **_NOTA:_** Para el siguiente paso puedes crear un nuevo notebook desde cero, o puedes subir el [notebook que creamos](../../../../5-Data-Science-In-Cloud/19-Azure/notebook.ipynb) en tu Azure ML Studio. Para subirlo, simplemente haz clic en el menú "Notebook" y sube el archivo.
+
+Los notebooks son una parte realmente importante del proceso de ciencia de datos. Pueden ser utilizados para realizar análisis exploratorio de datos (EDA), llamar a un clúster de cómputo para entrenar un modelo, o llamar a un clúster de inferencia para desplegar un endpoint.
+
+Para crear un Notebook, necesitamos un nodo de cómputo que esté sirviendo la instancia de notebook de Jupyter. Regresa al [espacio de trabajo de Azure ML](https://ml.azure.com/) y haz clic en Instancias de cómputo. En la lista de instancias de cómputo deberías ver la [instancia de cómputo que creamos anteriormente](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. En la sección de Aplicaciones, haz clic en la opción Jupyter.
+2. Marca la casilla "Sí, entiendo" y haz clic en el botón Continuar.
+
+3. Esto debería abrir una nueva pestaña del navegador con tu instancia de notebook de Jupyter como se muestra. Haz clic en el botón "Nuevo" para crear un notebook.
+
+
+
+Ahora que tenemos un Notebook, podemos comenzar a entrenar el modelo con Azure ML SDK.
+
+### 2.5 Entrenar un modelo
+
+Primero que nada, si alguna vez tienes dudas, consulta la [documentación del SDK de Azure ML](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Contiene toda la información necesaria para entender los módulos que vamos a ver en esta lección.
+
+#### 2.5.1 Configurar espacio de trabajo, experimento, clúster de cómputo y conjunto de datos
+
+Necesitas cargar el `workspace` desde el archivo de configuración utilizando el siguiente código:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Esto devuelve un objeto de tipo `Workspace` que representa el espacio de trabajo. Luego necesitas crear un `experiment` utilizando el siguiente código:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Para obtener o crear un experimento desde un espacio de trabajo, solicitas el experimento utilizando el nombre del experimento. El nombre del experimento debe tener entre 3 y 36 caracteres, comenzar con una letra o un número, y solo puede contener letras, números, guiones bajos y guiones. Si el experimento no se encuentra en el espacio de trabajo, se crea uno nuevo.
+
+Ahora necesitas crear un clúster de cómputo para el entrenamiento utilizando el siguiente código. Ten en cuenta que este paso puede tardar unos minutos.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Puedes obtener el conjunto de datos desde el espacio de trabajo utilizando el nombre del conjunto de datos de la siguiente manera:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 Configuración de AutoML y entrenamiento
+
+Para configurar AutoML, utiliza la clase [AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Como se describe en la documentación, hay muchos parámetros con los que puedes jugar. Para este proyecto, utilizaremos los siguientes parámetros:
+
+- `experiment_timeout_minutes`: El tiempo máximo (en minutos) que se permite que el experimento se ejecute antes de que se detenga automáticamente y los resultados estén disponibles automáticamente.
+- `max_concurrent_iterations`: El número máximo de iteraciones de entrenamiento concurrentes permitidas para el experimento.
+- `primary_metric`: La métrica principal utilizada para determinar el estado del experimento.
+- `compute_target`: El objetivo de cómputo de Azure Machine Learning para ejecutar el experimento de aprendizaje automático automatizado.
+- `task`: El tipo de tarea a ejecutar. Los valores pueden ser 'classification', 'regression' o 'forecasting' dependiendo del tipo de problema de aprendizaje automático automatizado a resolver.
+- `training_data`: Los datos de entrenamiento que se utilizarán dentro del experimento. Debe contener tanto características de entrenamiento como una columna de etiquetas (opcionalmente una columna de pesos de muestra).
+- `label_column_name`: El nombre de la columna de etiquetas.
+- `path`: La ruta completa a la carpeta del proyecto de Azure Machine Learning.
+- `enable_early_stopping`: Si se habilita la terminación anticipada si la puntuación no mejora a corto plazo.
+- `featurization`: Indicador de si el paso de featurización debe realizarse automáticamente o no, o si se debe utilizar una featurización personalizada.
+- `debug_log`: El archivo de registro para escribir información de depuración.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Ahora que tienes tu configuración lista, puedes entrenar el modelo utilizando el siguiente código. Este paso puede tardar hasta una hora dependiendo del tamaño de tu clúster.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Puedes ejecutar el widget RunDetails para mostrar los diferentes experimentos.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Despliegue del modelo y consumo del endpoint con Azure ML SDK
+
+### 3.1 Guardar el mejor modelo
+
+El `remote_run` es un objeto de tipo [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Este objeto contiene el método `get_output()` que devuelve la mejor ejecución y el modelo ajustado correspondiente.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Puedes ver los parámetros utilizados para el mejor modelo simplemente imprimiendo el `fitted_model` y ver las propiedades del mejor modelo utilizando el método [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Ahora registra el modelo con el método [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Despliegue del modelo
+
+Una vez que el mejor modelo está guardado, podemos desplegarlo con la clase [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). InferenceConfig representa la configuración de un entorno personalizado utilizado para el despliegue. La clase [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) representa un modelo de aprendizaje automático desplegado como un endpoint de servicio web en Azure Container Instances. Un servicio desplegado se crea a partir de un modelo, un script y archivos asociados. El servicio web resultante es un endpoint HTTP balanceado con una API REST. Puedes enviar datos a esta API y recibir la predicción devuelta por el modelo.
+
+El modelo se despliega utilizando el método [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Este paso debería tardar unos minutos.
+
+### 3.3 Consumo del endpoint
+
+Puedes consumir tu endpoint creando una entrada de muestra:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+Y luego puedes enviar esta entrada a tu modelo para obtener una predicción:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Esto debería generar `'{"result": [false]}'`. Esto significa que la entrada del paciente que enviamos al endpoint generó la predicción `false`, lo que indica que esta persona no es propensa a sufrir un ataque al corazón.
+
+¡Felicidades! Acabas de consumir el modelo desplegado y entrenado en Azure ML con el Azure ML SDK.
+
+> **_NOTE:_** Una vez que termines el proyecto, no olvides eliminar todos los recursos.
+
+## 🚀 Desafío
+
+Hay muchas otras cosas que puedes hacer a través del SDK, pero desafortunadamente no podemos verlas todas en esta lección. Pero buenas noticias, aprender a explorar la documentación del SDK puede llevarte muy lejos por tu cuenta. Echa un vistazo a la documentación del Azure ML SDK y encuentra la clase `Pipeline` que te permite crear pipelines. Un Pipeline es una colección de pasos que pueden ejecutarse como un flujo de trabajo.
+
+**PISTA:** Ve a la [documentación del SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) y escribe palabras clave en la barra de búsqueda como "Pipeline". Deberías encontrar la clase `azureml.pipeline.core.Pipeline` en los resultados de búsqueda.
+
+## [Cuestionario posterior a la lección](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Revisión y autoestudio
+
+En esta lección, aprendiste cómo entrenar, desplegar y consumir un modelo para predecir el riesgo de insuficiencia cardíaca con el Azure ML SDK en la nube. Consulta esta [documentación](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) para obtener más información sobre el Azure ML SDK. Intenta crear tu propio modelo con el Azure ML SDK.
+
+## Tarea
+
+[Proyecto de Ciencia de Datos usando Azure ML SDK](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/es/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..08ffaff7
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,23 @@
+
+# Proyecto de Ciencia de Datos usando Azure ML SDK
+
+## Instrucciones
+
+Vimos cómo usar la plataforma de Azure ML para entrenar, implementar y consumir un modelo con Azure ML SDK. Ahora busca algunos datos que puedas usar para entrenar otro modelo, implementarlo y consumirlo. Puedes buscar conjuntos de datos en [Kaggle](https://kaggle.com) y [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Criterios de evaluación
+
+| Ejemplar | Adecuado | Necesita Mejorar |
+|----------|----------|------------------|
+|Al configurar AutoML, revisaste la documentación del SDK para ver qué parámetros podías usar. Realizaste un entrenamiento en un conjunto de datos a través de AutoML usando Azure ML SDK y verificaste las explicaciones del modelo. Implementaste el mejor modelo y pudiste consumirlo a través de Azure ML SDK. | Realizaste un entrenamiento en un conjunto de datos a través de AutoML usando Azure ML SDK y verificaste las explicaciones del modelo. Implementaste el mejor modelo y pudiste consumirlo a través de Azure ML SDK. | Realizaste un entrenamiento en un conjunto de datos a través de AutoML usando Azure ML SDK. Implementaste el mejor modelo y pudiste consumirlo a través de Azure ML SDK. |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/5-Data-Science-In-Cloud/README.md b/translations/es/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..25c4caa2
--- /dev/null
+++ b/translations/es/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,32 @@
+
+# Ciencia de Datos en la Nube
+
+
+
+> Foto de [Jelleke Vanooteghem](https://unsplash.com/@ilumire) en [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Cuando se trata de hacer ciencia de datos con grandes volúmenes de datos, la nube puede marcar una gran diferencia. En las próximas tres lecciones, veremos qué es la nube y por qué puede ser muy útil. También exploraremos un conjunto de datos sobre insuficiencia cardíaca y construiremos un modelo para ayudar a evaluar la probabilidad de que alguien sufra una insuficiencia cardíaca. Usaremos el poder de la nube para entrenar, implementar y consumir un modelo de dos maneras diferentes. Una forma utilizando únicamente la interfaz de usuario en un enfoque de bajo código/sin código, y la otra utilizando el Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Temas
+
+1. [¿Por qué usar la nube para la Ciencia de Datos?](17-Introduction/README.md)
+2. [Ciencia de Datos en la Nube: La forma de "Bajo código/Sin código"](18-Low-Code/README.md)
+3. [Ciencia de Datos en la Nube: La forma de "Azure ML SDK"](19-Azure/README.md)
+
+### Créditos
+Estas lecciones fueron escritas con ☁️ y 💕 por [Maud Levy](https://twitter.com/maudstweets) y [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Los datos para el proyecto de Predicción de Insuficiencia Cardíaca provienen de [Larxel](https://www.kaggle.com/andrewmvd) en [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Están licenciados bajo la [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/).
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/es/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..b6a8c941
--- /dev/null
+++ b/translations/es/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,153 @@
+
+# Ciencia de Datos en el Mundo Real
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Ciencia de Datos en el Mundo Real - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+¡Estamos casi al final de este viaje de aprendizaje!
+
+Comenzamos con definiciones de ciencia de datos y ética, exploramos diversas herramientas y técnicas para el análisis y la visualización de datos, revisamos el ciclo de vida de la ciencia de datos y analizamos cómo escalar y automatizar flujos de trabajo de ciencia de datos con servicios de computación en la nube. Entonces, probablemente te estés preguntando: _"¿Cómo aplico todo este aprendizaje en contextos del mundo real?"_
+
+En esta lección, exploraremos aplicaciones reales de la ciencia de datos en la industria y profundizaremos en ejemplos específicos en los contextos de investigación, humanidades digitales y sostenibilidad. También veremos oportunidades para proyectos estudiantiles y concluiremos con recursos útiles para continuar tu viaje de aprendizaje.
+
+## Cuestionario Previo a la Clase
+
+[Cuestionario previo a la clase](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Ciencia de Datos + Industria
+
+Gracias a la democratización de la IA, los desarrolladores ahora encuentran más fácil diseñar e integrar decisiones impulsadas por IA y conocimientos basados en datos en experiencias de usuario y flujos de trabajo de desarrollo. Aquí hay algunos ejemplos de cómo la ciencia de datos se "aplica" a casos reales en la industria:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) utilizó la ciencia de datos para correlacionar términos de búsqueda con tendencias de gripe. Aunque el enfoque tenía fallas, generó conciencia sobre las posibilidades (y desafíos) de las predicciones de salud basadas en datos.
+
+ * [Predicciones de Rutas de UPS](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - explica cómo UPS utiliza la ciencia de datos y el aprendizaje automático para predecir rutas óptimas de entrega, considerando condiciones climáticas, patrones de tráfico, plazos de entrega y más.
+
+ * [Visualización de Rutas de Taxis en NYC](http://chriswhong.github.io/nyctaxi/) - datos recopilados mediante [Leyes de Libertad de Información](https://chriswhong.com/open-data/foil_nyc_taxi/) ayudaron a visualizar un día en la vida de los taxis de NYC, permitiéndonos entender cómo navegan por la ciudad, cuánto dinero generan y la duración de los viajes en un período de 24 horas.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - utiliza datos (sobre ubicaciones de recogida y destino, duración de viajes, rutas preferidas, etc.) recopilados de millones de viajes diarios para construir una herramienta de análisis de datos que ayuda con precios, seguridad, detección de fraudes y decisiones de navegación.
+
+ * [Analítica Deportiva](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - se centra en _analítica predictiva_ (análisis de equipos y jugadores - piensa en [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - y gestión de fanáticos) y _visualización de datos_ (tableros de equipos y fanáticos, juegos, etc.) con aplicaciones como búsqueda de talentos, apuestas deportivas y gestión de inventarios/estadios.
+
+ * [Ciencia de Datos en la Banca](https://data-flair.training/blogs/data-science-in-banking/) - destaca el valor de la ciencia de datos en la industria financiera con aplicaciones que van desde modelado de riesgos y detección de fraudes, hasta segmentación de clientes, predicción en tiempo real y sistemas de recomendación. La analítica predictiva también impulsa medidas críticas como [puntuaciones de crédito](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Ciencia de Datos en la Salud](https://data-flair.training/blogs/data-science-in-healthcare/) - destaca aplicaciones como imágenes médicas (por ejemplo, MRI, rayos X, tomografías), genómica (secuenciación de ADN), desarrollo de medicamentos (evaluación de riesgos, predicción de éxito), analítica predictiva (cuidado de pacientes y logística de suministros), seguimiento y prevención de enfermedades, entre otros.
+
+ Crédito de la Imagen: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+La figura muestra otros dominios y ejemplos para aplicar técnicas de ciencia de datos. ¿Quieres explorar otras aplicaciones? Consulta la sección [Revisión y Autoestudio](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) a continuación.
+
+## Ciencia de Datos + Investigación
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Ciencia de Datos e Investigación - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Mientras que las aplicaciones del mundo real a menudo se centran en casos de uso industrial a gran escala, las aplicaciones y proyectos de _investigación_ pueden ser útiles desde dos perspectivas:
+
+* _Oportunidades de innovación_ - explorar prototipos rápidos de conceptos avanzados y probar experiencias de usuario para aplicaciones de próxima generación.
+* _Desafíos de implementación_ - investigar posibles daños o consecuencias no intencionadas de las tecnologías de ciencia de datos en contextos del mundo real.
+
+Para los estudiantes, estos proyectos de investigación pueden proporcionar tanto oportunidades de aprendizaje como de colaboración que mejoren su comprensión del tema y amplíen su conciencia e interacción con personas o equipos relevantes que trabajan en áreas de interés. ¿Cómo lucen los proyectos de investigación y cómo pueden tener impacto?
+
+Veamos un ejemplo: el [Estudio Gender Shades del MIT](http://gendershades.org/overview.html) de Joy Buolamwini (MIT Media Labs) con un [artículo de investigación destacado](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) coescrito con Timnit Gebru (entonces en Microsoft Research) que se centró en:
+
+ * **Qué:** El objetivo del proyecto de investigación era _evaluar el sesgo presente en algoritmos y conjuntos de datos de análisis facial automatizado_ basado en género y tipo de piel.
+ * **Por qué:** El análisis facial se utiliza en áreas como la aplicación de la ley, la seguridad aeroportuaria, los sistemas de contratación y más, contextos donde clasificaciones inexactas (por ejemplo, debido a sesgos) pueden causar daños económicos y sociales a individuos o grupos afectados. Comprender (y eliminar o mitigar) los sesgos es clave para la equidad en el uso.
+ * **Cómo:** Los investigadores reconocieron que los puntos de referencia existentes utilizaban predominantemente sujetos de piel más clara y crearon un nuevo conjunto de datos (más de 1000 imágenes) que estaba _más equilibrado_ por género y tipo de piel. Este conjunto de datos se utilizó para evaluar la precisión de tres productos de clasificación de género (de Microsoft, IBM y Face++).
+
+Los resultados mostraron que, aunque la precisión general de la clasificación era buena, había una diferencia notable en las tasas de error entre varios subgrupos, con **errores de clasificación de género** más altos para mujeres o personas con tonos de piel más oscuros, lo que indicaba sesgo.
+
+**Resultados Clave:** Generó conciencia de que la ciencia de datos necesita más _conjuntos de datos representativos_ (subgrupos equilibrados) y más _equipos inclusivos_ (antecedentes diversos) para reconocer y eliminar o mitigar dichos sesgos en etapas tempranas de las soluciones de IA. Esfuerzos de investigación como este también son fundamentales para que muchas organizaciones definan principios y prácticas para una _IA responsable_ que mejore la equidad en sus productos y procesos de IA.
+
+**¿Quieres aprender sobre esfuerzos de investigación relevantes en Microsoft?**
+
+* Consulta [Proyectos de Investigación de Microsoft](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) en Inteligencia Artificial.
+* Explora proyectos estudiantiles de la [Escuela de Verano de Ciencia de Datos de Microsoft Research](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Consulta el proyecto [Fairlearn](https://fairlearn.org/) y las iniciativas de [IA Responsable](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6).
+
+## Ciencia de Datos + Humanidades
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Ciencia de Datos y Humanidades Digitales - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Las Humanidades Digitales [se han definido](https://digitalhumanities.stanford.edu/about-dh-stanford) como "una colección de prácticas y enfoques que combinan métodos computacionales con la investigación humanística". Los [proyectos de Stanford](https://digitalhumanities.stanford.edu/projects) como _"rebooting history"_ y _"poetic thinking"_ ilustran el vínculo entre [Humanidades Digitales y Ciencia de Datos](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science), enfatizando técnicas como análisis de redes, visualización de información, análisis espacial y de texto que pueden ayudarnos a revisar conjuntos de datos históricos y literarios para derivar nuevas perspectivas.
+
+*¿Quieres explorar y ampliar un proyecto en este ámbito?*
+
+Consulta ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671), un gran ejemplo de [Jen Looper](https://twitter.com/jenlooper) que plantea cómo podemos usar la ciencia de datos para revisar poesía familiar y reevaluar su significado y las contribuciones de su autora en nuevos contextos. Por ejemplo, _¿podemos predecir la estación en la que se escribió un poema analizando su tono o sentimiento_ y qué nos dice esto sobre el estado de ánimo de la autora durante ese período?
+
+Para responder a esa pregunta, seguimos los pasos del ciclo de vida de la ciencia de datos:
+ * [`Adquisición de Datos`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - para recopilar un conjunto de datos relevante para el análisis. Las opciones incluyen usar una API (por ejemplo, [Poetry DB API](https://poetrydb.org/index.html)) o extraer páginas web (por ejemplo, [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) utilizando herramientas como [Scrapy](https://scrapy.org/).
+ * [`Limpieza de Datos`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - explica cómo se puede formatear, sanitizar y simplificar el texto utilizando herramientas básicas como Visual Studio Code y Microsoft Excel.
+ * [`Análisis de Datos`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - explica cómo podemos importar el conjunto de datos en "Notebooks" para análisis utilizando paquetes de Python (como pandas, numpy y matplotlib) para organizar y visualizar los datos.
+ * [`Análisis de Sentimientos`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - explica cómo podemos integrar servicios en la nube como Text Analytics, utilizando herramientas de bajo código como [Power Automate](https://flow.microsoft.com/en-us/) para flujos de trabajo automatizados de procesamiento de datos.
+
+Usando este flujo de trabajo, podemos explorar los impactos estacionales en el sentimiento de los poemas y ayudarnos a formar nuestras propias perspectivas sobre la autora. ¡Pruébalo tú mismo y luego amplía el notebook para hacer otras preguntas o visualizar los datos de nuevas maneras!
+
+> Puedes usar algunas de las herramientas en el [kit de herramientas de Humanidades Digitales](https://github.com/Digital-Humanities-Toolkit) para seguir estas líneas de investigación.
+
+## Ciencia de Datos + Sostenibilidad
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Ciencia de Datos y Sostenibilidad - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+La [Agenda 2030 para el Desarrollo Sostenible](https://sdgs.un.org/2030agenda), adoptada por todos los miembros de las Naciones Unidas en 2015, identifica 17 objetivos, incluidos aquellos que se centran en **Proteger el Planeta** de la degradación y el impacto del cambio climático. La iniciativa de [Sostenibilidad de Microsoft](https://www.microsoft.com/en-us/sustainability) apoya estos objetivos explorando formas en que las soluciones tecnológicas pueden respaldar y construir futuros más sostenibles con un [enfoque en 4 metas](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh): ser carbono negativo, positivo en agua, cero residuos y biodiverso para 2030.
+
+Abordar estos desafíos de manera escalable y oportuna requiere un pensamiento a escala de nube y grandes volúmenes de datos. La iniciativa [Planetary Computer](https://planetarycomputer.microsoft.com/) proporciona 4 componentes para ayudar a los científicos de datos y desarrolladores en este esfuerzo:
+
+ * [Catálogo de Datos](https://planetarycomputer.microsoft.com/catalog) - con petabytes de datos de sistemas terrestres (gratuitos y alojados en Azure).
+ * [API Planetaria](https://planetarycomputer.microsoft.com/docs/reference/stac/) - para ayudar a los usuarios a buscar datos relevantes en el espacio y el tiempo.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - entorno gestionado para que los científicos procesen conjuntos de datos geoespaciales masivos.
+ * [Aplicaciones](https://planetarycomputer.microsoft.com/applications) - muestran casos de uso y herramientas para obtener conocimientos sobre sostenibilidad.
+**El Proyecto Planetary Computer está actualmente en vista previa (a partir de septiembre de 2021)** - aquí tienes cómo puedes comenzar a contribuir a soluciones sostenibles utilizando ciencia de datos.
+
+* [Solicita acceso](https://planetarycomputer.microsoft.com/account/request) para empezar a explorar y conectarte con otros.
+* [Explora la documentación](https://planetarycomputer.microsoft.com/docs/overview/about) para entender los conjuntos de datos y APIs compatibles.
+* Explora aplicaciones como [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) para inspirarte en ideas de aplicaciones.
+
+Piensa en cómo puedes usar la visualización de datos para exponer o amplificar ideas relevantes en áreas como el cambio climático y la deforestación. O reflexiona sobre cómo los conocimientos obtenidos pueden ser utilizados para crear nuevas experiencias de usuario que motiven cambios de comportamiento hacia una vida más sostenible.
+
+## Ciencia de Datos + Estudiantes
+
+Hemos hablado sobre aplicaciones reales en la industria y la investigación, y explorado ejemplos de aplicaciones de ciencia de datos en humanidades digitales y sostenibilidad. Entonces, ¿cómo puedes desarrollar tus habilidades y compartir tu experiencia como principiante en ciencia de datos?
+
+Aquí tienes algunos ejemplos de proyectos estudiantiles de ciencia de datos para inspirarte.
+
+ * [Escuela de Verano de Ciencia de Datos de MSR](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) con [proyectos](https://github.com/msr-ds3) en GitHub que exploran temas como:
+ - [Sesgo racial en el uso de la fuerza policial](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Fiabilidad del sistema de metro de Nueva York](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+ * [Digitalizando la cultura material: Explorando distribuciones socioeconómicas en Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - de [Ornella Altunyan](https://twitter.com/ornelladotcom) y su equipo en Claremont, utilizando [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Desafío
+
+Busca artículos que recomienden proyectos de ciencia de datos para principiantes - como [estas 50 áreas temáticas](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) o [estas 21 ideas de proyectos](https://www.intellspot.com/data-science-project-ideas) o [estos 16 proyectos con código fuente](https://data-flair.training/blogs/data-science-project-ideas/) que puedes descomponer y adaptar. Y no olvides escribir en tu blog sobre tus aprendizajes y compartir tus ideas con todos nosotros.
+
+## Quiz Post-Lectura
+
+[Quiz post-lectura](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Revisión y Autoestudio
+
+¿Quieres explorar más casos de uso? Aquí tienes algunos artículos relevantes:
+ * [17 Aplicaciones y Ejemplos de Ciencia de Datos](https://builtin.com/data-science/data-science-applications-examples) - julio 2021
+ * [11 Impresionantes Aplicaciones de Ciencia de Datos en el Mundo Real](https://myblindbird.com/data-science-applications-real-world/) - mayo 2021
+ * [Ciencia de Datos en el Mundo Real](https://towardsdatascience.com/data-science-in-the-real-world/home) - Colección de artículos
+ * Ciencia de Datos en: [Educación](https://data-flair.training/blogs/data-science-in-education/), [Agricultura](https://data-flair.training/blogs/data-science-in-agriculture/), [Finanzas](https://data-flair.training/blogs/data-science-in-finance/), [Películas](https://data-flair.training/blogs/data-science-at-movies/) y más.
+
+## Tarea
+
+[Explora un conjunto de datos de Planetary Computer](assignment.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/es/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..0f3c7e66
--- /dev/null
+++ b/translations/es/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,48 @@
+
+# Explora un Conjunto de Datos del Planetary Computer
+
+## Instrucciones
+
+En esta lección, hablamos sobre varios dominios de aplicación de la ciencia de datos, profundizando en ejemplos relacionados con la investigación, la sostenibilidad y las humanidades digitales. En esta tarea, explorarás uno de estos ejemplos en mayor detalle y aplicarás algunos de tus aprendizajes sobre visualizaciones y análisis de datos para obtener información sobre datos de sostenibilidad.
+
+El proyecto [Planetary Computer](https://planetarycomputer.microsoft.com/) tiene conjuntos de datos y APIs que se pueden acceder con una cuenta. Solicita una para probar el paso adicional de la tarea. El sitio también ofrece una función de [Explorer](https://planetarycomputer.microsoft.com/explore) que puedes usar sin necesidad de crear una cuenta.
+
+`Pasos:`
+La interfaz de Explorer (mostrada en la captura de pantalla abajo) te permite seleccionar un conjunto de datos (de las opciones disponibles), una consulta predefinida (para filtrar datos) y una opción de representación (para crear una visualización relevante). En esta tarea, tu objetivo es:
+
+ 1. Leer la [documentación de Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - entender las opciones.
+ 2. Explorar el [Catálogo](https://planetarycomputer.microsoft.com/catalog) de conjuntos de datos - aprender el propósito de cada uno.
+ 3. Usar el Explorer - elegir un conjunto de datos de interés, seleccionar una consulta relevante y una opción de representación.
+
+
+
+`Tu tarea:`
+Ahora estudia la visualización que se genera en el navegador y responde lo siguiente:
+ * ¿Qué _características_ tiene el conjunto de datos?
+ * ¿Qué _información_ o resultados proporciona la visualización?
+ * ¿Cuáles son las _implicaciones_ de esa información para los objetivos de sostenibilidad del proyecto?
+ * ¿Cuáles son las _limitaciones_ de la visualización (es decir, qué información no obtuviste)?
+ * Si pudieras obtener los datos en bruto, ¿qué _visualizaciones alternativas_ crearías y por qué?
+
+`Puntos Adicionales:`
+Solicita una cuenta y accede cuando sea aceptada.
+ * Usa la opción _Launch Hub_ para abrir los datos en bruto en un Notebook.
+ * Explora los datos de manera interactiva e implementa las visualizaciones alternativas que pensaste.
+ * Ahora analiza tus visualizaciones personalizadas: ¿pudiste obtener la información que te faltaba antes?
+
+## Rúbrica
+
+Excepcional | Adecuado | Necesita Mejorar
+--- | --- | -- |
+Se respondieron las cinco preguntas principales. El estudiante identificó claramente cómo las visualizaciones actuales y alternativas podrían proporcionar información sobre los objetivos o resultados de sostenibilidad. | El estudiante respondió al menos las tres primeras preguntas con gran detalle, mostrando que tuvo experiencia práctica con el Explorer. | El estudiante no respondió varias preguntas o proporcionó detalles insuficientes, indicando que no se hizo un intento significativo para el proyecto. |
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/6-Data-Science-In-Wild/README.md b/translations/es/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..9c50f7de
--- /dev/null
+++ b/translations/es/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,23 @@
+
+# Ciencia de Datos en el Mundo Real
+
+Aplicaciones prácticas de la ciencia de datos en diversas industrias.
+
+### Temas
+
+1. [Ciencia de Datos en el Mundo Real](20-Real-World-Examples/README.md)
+
+### Créditos
+
+Escrito con ❤️ por [Nitya Narasimhan](https://twitter.com/nitya)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/CODE_OF_CONDUCT.md b/translations/es/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..3cb6ee2e
--- /dev/null
+++ b/translations/es/CODE_OF_CONDUCT.md
@@ -0,0 +1,21 @@
+
+# Código de Conducta de Código Abierto de Microsoft
+
+Este proyecto ha adoptado el [Código de Conducta de Código Abierto de Microsoft](https://opensource.microsoft.com/codeofconduct/).
+
+Recursos:
+
+- [Código de Conducta de Código Abierto de Microsoft](https://opensource.microsoft.com/codeofconduct/)
+- [Preguntas frecuentes sobre el Código de Conducta de Microsoft](https://opensource.microsoft.com/codeofconduct/faq/)
+- Contacta a [opencode@microsoft.com](mailto:opencode@microsoft.com) para preguntas o inquietudes
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/CONTRIBUTING.md b/translations/es/CONTRIBUTING.md
new file mode 100644
index 00000000..7f5e4875
--- /dev/null
+++ b/translations/es/CONTRIBUTING.md
@@ -0,0 +1,20 @@
+
+# Contribuir
+
+Este proyecto da la bienvenida a contribuciones y sugerencias. La mayoría de las contribuciones requieren que aceptes un Acuerdo de Licencia para Contribuyentes (CLA) declarando que tienes el derecho de, y efectivamente, otorgarnos los derechos para usar tu contribución. Para más detalles, visita https://cla.microsoft.com.
+
+Cuando envíes una solicitud de extracción (pull request), un bot de CLA determinará automáticamente si necesitas proporcionar un CLA y etiquetará la PR de manera adecuada (por ejemplo, con una etiqueta o comentario). Simplemente sigue las instrucciones proporcionadas por el bot. Solo necesitarás hacer esto una vez en todos los repositorios que utilicen nuestro CLA.
+
+Este proyecto ha adoptado el [Código de Conducta de Código Abierto de Microsoft](https://opensource.microsoft.com/codeofconduct/).
+Para más información, consulta las [Preguntas Frecuentes sobre el Código de Conducta](https://opensource.microsoft.com/codeofconduct/faq/) o contacta a [opencode@microsoft.com](mailto:opencode@microsoft.com) para cualquier pregunta o comentario adicional.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/README.md b/translations/es/README.md
new file mode 100644
index 00000000..216ec793
--- /dev/null
+++ b/translations/es/README.md
@@ -0,0 +1,162 @@
+
+# Ciencia de Datos para Principiantes - Un Currículo
+
+Azure Cloud Advocates en Microsoft se complacen en ofrecer un currículo de 10 semanas y 20 lecciones sobre Ciencia de Datos. Cada lección incluye cuestionarios antes y después de la lección, instrucciones escritas para completar la lección, una solución y una tarea. Nuestra pedagogía basada en proyectos te permite aprender mientras construyes, una forma comprobada de que las nuevas habilidades se consoliden.
+
+**Un agradecimiento especial a nuestros autores:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Agradecimiento especial 🙏 a nuestros autores, revisores y colaboradores de contenido [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/),** en particular Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200),
+[Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Ciencia de Datos para Principiantes - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## Anuncio - ¡Nuevo Currículo sobre IA Generativa recién lanzado!
+
+Acabamos de lanzar un currículo de 12 lecciones sobre IA generativa. Aprende temas como:
+
+- creación de prompts y ingeniería de prompts
+- generación de aplicaciones de texto e imagen
+- aplicaciones de búsqueda
+
+Como siempre, hay una lección, tareas para completar, evaluaciones de conocimiento y desafíos.
+
+Descúbrelo:
+
+> https://aka.ms/genai-beginners
+
+# ¿Eres estudiante?
+
+Comienza con los siguientes recursos:
+
+- [Página del Hub para Estudiantes](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) En esta página encontrarás recursos para principiantes, paquetes para estudiantes e incluso formas de obtener un voucher gratuito para certificación. Es una página que querrás marcar y revisar de vez en cuando, ya que cambiamos el contenido al menos mensualmente.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Únete a una comunidad global de embajadores estudiantiles, esta podría ser tu puerta de entrada a Microsoft.
+
+# Comenzando
+
+> **Profesores**: hemos [incluido algunas sugerencias](for-teachers.md) sobre cómo usar este currículo. Nos encantaría recibir tus comentarios [en nuestro foro de discusión](https://github.com/microsoft/Data-Science-For-Beginners/discussions).
+
+> **[Estudiantes](https://aka.ms/student-page)**: para usar este currículo por tu cuenta, haz un fork del repositorio completo y completa los ejercicios por tu cuenta, comenzando con un cuestionario previo a la lección. Luego, lee la lección y completa el resto de las actividades. Intenta crear los proyectos comprendiendo las lecciones en lugar de copiar el código de solución; sin embargo, ese código está disponible en las carpetas /solutions en cada lección orientada a proyectos. Otra idea sería formar un grupo de estudio con amigos y revisar el contenido juntos. Para un estudio más profundo, recomendamos [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Conoce al Equipo
+
+[](https://youtu.be/8mzavjQSMM4 "Video promocional")
+
+**Gif por** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Haz clic en la imagen de arriba para ver un video sobre el proyecto y las personas que lo crearon.
+
+## Pedagogía
+
+Hemos elegido dos principios pedagógicos al construir este currículo: asegurarnos de que sea basado en proyectos y que incluya cuestionarios frecuentes. Al final de esta serie, los estudiantes habrán aprendido los principios básicos de la ciencia de datos, incluyendo conceptos éticos, preparación de datos, diferentes formas de trabajar con datos, visualización de datos, análisis de datos, casos de uso reales de la ciencia de datos y más.
+
+Además, un cuestionario de bajo riesgo antes de una clase establece la intención del estudiante hacia el aprendizaje de un tema, mientras que un segundo cuestionario después de la clase asegura una mayor retención. Este currículo fue diseñado para ser flexible y divertido y puede tomarse en su totalidad o en parte. Los proyectos comienzan pequeños y se vuelven cada vez más complejos al final del ciclo de 10 semanas.
+
+> Encuentra nuestro [Código de Conducta](CODE_OF_CONDUCT.md), [Contribuciones](CONTRIBUTING.md), [Guías de Traducción](TRANSLATIONS.md). ¡Agradecemos tus comentarios constructivos!
+
+## Cada lección incluye:
+
+- Sketchnote opcional
+- Video complementario opcional
+- Cuestionario de calentamiento previo a la lección
+- Lección escrita
+- Para lecciones basadas en proyectos, guías paso a paso sobre cómo construir el proyecto
+- Evaluaciones de conocimiento
+- Un desafío
+- Lectura complementaria
+- Tarea
+- Cuestionario posterior a la lección
+
+> **Una nota sobre los cuestionarios**: Todos los cuestionarios están contenidos en la carpeta Quiz-App, para un total de 40 cuestionarios de tres preguntas cada uno. Están vinculados desde las lecciones, pero la aplicación de cuestionarios puede ejecutarse localmente o desplegarse en Azure; sigue las instrucciones en la carpeta `quiz-app`. Se están localizando gradualmente.
+
+## Lecciones
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Ciencia de Datos para Principiantes: Hoja de Ruta - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+| Número de Lección | Tema | Agrupación de Lecciones | Objetivos de Aprendizaje | Lección Vinculada | Autor |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definiendo la Ciencia de Datos | [Introducción](1-Introduction/README.md) | Aprende los conceptos básicos detrás de la ciencia de datos y cómo está relacionada con la inteligencia artificial, el aprendizaje automático y los grandes datos. | [lección](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Ética en la Ciencia de Datos | [Introducción](1-Introduction/README.md) | Conceptos, desafíos y marcos de ética en los datos. | [lección](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definiendo los Datos | [Introducción](1-Introduction/README.md) | Cómo se clasifican los datos y sus fuentes comunes. | [lección](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introducción a Estadística y Probabilidad | [Introducción](1-Introduction/README.md) | Las técnicas matemáticas de probabilidad y estadística para entender los datos. | [lección](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Trabajando con Datos Relacionales | [Trabajando con Datos](2-Working-With-Data/README.md) | Introducción a los datos relacionales y los conceptos básicos de exploración y análisis de datos relacionales con el Lenguaje de Consulta Estructurado, también conocido como SQL (pronunciado “see-quell”). | [lección](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Trabajando con Datos NoSQL | [Trabajando con Datos](2-Working-With-Data/README.md) | Introducción a los datos no relacionales, sus diversos tipos y los conceptos básicos de exploración y análisis de bases de datos de documentos. | [lección](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Trabajando con Python | [Trabajando con Datos](2-Working-With-Data/README.md) | Conceptos básicos de uso de Python para la exploración de datos con bibliotecas como Pandas. Se recomienda una comprensión fundamental de la programación en Python. | [lección](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Preparación de Datos | [Trabajando con Datos](2-Working-With-Data/README.md) | Temas sobre técnicas de datos para limpiar y transformar los datos, abordando desafíos como datos faltantes, inexactos o incompletos. | [lección](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualización de Cantidades | [Visualización de Datos](3-Data-Visualization/README.md) | Aprende a usar Matplotlib para visualizar datos de aves 🦆 | [lección](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualización de Distribuciones de Datos | [Visualización de Datos](3-Data-Visualization/README.md) | Visualización de observaciones y tendencias dentro de un intervalo. | [lección](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualización de Proporciones | [Visualización de Datos](3-Data-Visualization/README.md) | Visualización de porcentajes discretos y agrupados. | [lección](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualización de Relaciones | [Visualización de Datos](3-Data-Visualization/README.md) | Visualización de conexiones y correlaciones entre conjuntos de datos y sus variables. | [lección](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Visualizaciones Significativas | [Visualización de Datos](3-Data-Visualization/README.md) | Técnicas y orientación para hacer que tus visualizaciones sean valiosas para resolver problemas de manera efectiva y obtener ideas. | [lección](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introducción al ciclo de vida de la Ciencia de Datos | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Introducción al ciclo de vida de la ciencia de datos y su primer paso: adquirir y extraer datos. | [lección](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Análisis | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase del ciclo de vida de la ciencia de datos se centra en técnicas para analizar datos. | [lección](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Comunicación | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase del ciclo de vida de la ciencia de datos se centra en presentar los hallazgos de los datos de manera que sea más fácil para los responsables de tomar decisiones entenderlos. | [lección](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Ciencia de Datos en la Nube | [Datos en la Nube](5-Data-Science-In-Cloud/README.md) | Esta serie de lecciones introduce la ciencia de datos en la nube y sus beneficios. | [lección](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) y [Maud](https://twitter.com/maudstweets) |
+| 18 | Ciencia de Datos en la Nube | [Datos en la Nube](5-Data-Science-In-Cloud/README.md) | Entrenamiento de modelos usando herramientas de bajo código. | [lección](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) y [Maud](https://twitter.com/maudstweets) |
+| 19 | Ciencia de Datos en la Nube | [Datos en la Nube](5-Data-Science-In-Cloud/README.md) | Despliegue de modelos con Azure Machine Learning Studio. | [lección](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) y [Maud](https://twitter.com/maudstweets) |
+| 20 | Ciencia de Datos en el Mundo Real | [En el Mundo Real](6-Data-Science-In-Wild/README.md) | Proyectos impulsados por la ciencia de datos en el mundo real. | [lección](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Sigue estos pasos para abrir este ejemplo en un Codespace:
+1. Haz clic en el menú desplegable de Código y selecciona la opción Abrir con Codespaces.
+2. Selecciona + Nuevo codespace en la parte inferior del panel.
+Para más información, consulta la [documentación de GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Sigue estos pasos para abrir este repositorio en un contenedor usando tu máquina local y VSCode con la extensión VS Code Remote - Containers:
+
+1. Si es la primera vez que usas un contenedor de desarrollo, asegúrate de que tu sistema cumpla con los requisitos previos (por ejemplo, tener Docker instalado) en [la documentación de introducción](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+Para usar este repositorio, puedes abrirlo en un volumen aislado de Docker:
+
+**Nota**: En segundo plano, esto usará el comando Remote-Containers: **Clone Repository in Container Volume...** para clonar el código fuente en un volumen de Docker en lugar del sistema de archivos local. [Los volúmenes](https://docs.docker.com/storage/volumes/) son el mecanismo preferido para persistir datos de contenedores.
+
+O abrir una versión clonada o descargada localmente del repositorio:
+
+- Clona este repositorio en tu sistema de archivos local.
+- Presiona F1 y selecciona el comando **Remote-Containers: Open Folder in Container...**.
+- Selecciona la copia clonada de esta carpeta, espera a que el contenedor se inicie y prueba las funcionalidades.
+
+## Acceso sin conexión
+
+Puedes ejecutar esta documentación sin conexión usando [Docsify](https://docsify.js.org/#/). Haz un fork de este repositorio, [instala Docsify](https://docsify.js.org/#/quickstart) en tu máquina local, luego en la carpeta raíz de este repositorio, escribe `docsify serve`. El sitio web se servirá en el puerto 3000 de tu localhost: `localhost:3000`.
+
+> Nota: Los notebooks no se renderizarán a través de Docsify, así que cuando necesites ejecutar un notebook, hazlo por separado en VS Code ejecutando un kernel de Python.
+
+## ¡Se busca ayuda!
+
+Si deseas traducir todo o parte del currículo, sigue nuestra guía de [Traducciones](TRANSLATIONS.md).
+
+## Otros Currículos
+
+¡Nuestro equipo produce otros currículos! Consulta:
+
+- [Generative AI for Beginners](https://aka.ms/genai-beginners)
+- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative AI with Java](https://aka.ms/genaijava)
+- [AI for Beginners](https://aka.ms/ai-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [IoT for Beginners](https://aka.ms/iot-beginners)
+- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/SECURITY.md b/translations/es/SECURITY.md
new file mode 100644
index 00000000..eafd2d54
--- /dev/null
+++ b/translations/es/SECURITY.md
@@ -0,0 +1,49 @@
+
+## Seguridad
+
+Microsoft se toma muy en serio la seguridad de nuestros productos y servicios de software, lo que incluye todos los repositorios de código fuente gestionados a través de nuestras organizaciones de GitHub, que incluyen [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) y [nuestras organizaciones de GitHub](https://opensource.microsoft.com/).
+
+Si crees que has encontrado una vulnerabilidad de seguridad en algún repositorio propiedad de Microsoft que cumpla con [la definición de vulnerabilidad de seguridad de Microsoft](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), infórmanos como se describe a continuación.
+
+## Informar sobre Problemas de Seguridad
+
+**Por favor, no informes sobre vulnerabilidades de seguridad a través de problemas públicos en GitHub.**
+
+En su lugar, repórtalas al Centro de Respuesta de Seguridad de Microsoft (MSRC) en [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Si prefieres enviar el informe sin iniciar sesión, envía un correo electrónico a [secure@microsoft.com](mailto:secure@microsoft.com). Si es posible, cifra tu mensaje con nuestra clave PGP; descárgala desde la [página de Clave PGP del Centro de Respuesta de Seguridad de Microsoft](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Deberías recibir una respuesta en un plazo de 24 horas. Si por alguna razón no la recibes, haz un seguimiento por correo electrónico para asegurarte de que recibimos tu mensaje original. Puedes encontrar información adicional en [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Por favor, incluye la información solicitada a continuación (tanto como puedas proporcionar) para ayudarnos a comprender mejor la naturaleza y el alcance del posible problema:
+
+ * Tipo de problema (por ejemplo, desbordamiento de búfer, inyección SQL, scripting entre sitios, etc.)
+ * Rutas completas de los archivos fuente relacionados con la manifestación del problema
+ * La ubicación del código fuente afectado (etiqueta/rama/commit o URL directa)
+ * Cualquier configuración especial requerida para reproducir el problema
+ * Instrucciones paso a paso para reproducir el problema
+ * Código de prueba de concepto o de explotación (si es posible)
+ * Impacto del problema, incluyendo cómo un atacante podría explotarlo
+
+Esta información nos ayudará a priorizar tu informe más rápidamente.
+
+Si estás informando para un programa de recompensas por errores, los informes más completos pueden contribuir a una mayor recompensa. Por favor, visita nuestra página del [Programa de Recompensas por Errores de Microsoft](https://microsoft.com/msrc/bounty) para más detalles sobre nuestros programas activos.
+
+## Idiomas Preferidos
+
+Preferimos que todas las comunicaciones sean en inglés.
+
+## Política
+
+Microsoft sigue el principio de [Divulgación Coordinada de Vulnerabilidades](https://www.microsoft.com/en-us/msrc/cvd).
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/SUPPORT.md b/translations/es/SUPPORT.md
new file mode 100644
index 00000000..297770c3
--- /dev/null
+++ b/translations/es/SUPPORT.md
@@ -0,0 +1,22 @@
+
+# Soporte
+## Cómo reportar problemas y obtener ayuda
+
+Este proyecto utiliza GitHub Issues para rastrear errores y solicitudes de funciones. Por favor, busca en los problemas existentes antes de reportar nuevos problemas para evitar duplicados. Para nuevos problemas, reporta tu error o solicitud de función como un nuevo Issue.
+
+Para obtener ayuda y resolver dudas sobre el uso de este proyecto, crea un Issue.
+
+## Política de soporte de Microsoft
+
+El soporte para este repositorio se limita a los recursos mencionados anteriormente.
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/docs/_sidebar.md b/translations/es/docs/_sidebar.md
new file mode 100644
index 00000000..404043fd
--- /dev/null
+++ b/translations/es/docs/_sidebar.md
@@ -0,0 +1,38 @@
+
+- Introducción
+ - [Definiendo la Ciencia de Datos](../1-Introduction/01-defining-data-science/README.md)
+ - [Ética de la Ciencia de Datos](../1-Introduction/02-ethics/README.md)
+ - [Definiendo los Datos](../1-Introduction/03-defining-data/README.md)
+ - [Probabilidad y Estadística](../1-Introduction/04-stats-and-probability/README.md)
+- Trabajando con Datos
+ - [Bases de Datos Relacionales](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Bases de Datos No Relacionales](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Preparación de Datos](../2-Working-With-Data/08-data-preparation/README.md)
+- Visualización de Datos
+ - [Visualizando Cantidades](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualizando Distribuciones](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualizando Proporciones](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualizando Relaciones](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Visualizaciones Significativas](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Ciclo de Vida de la Ciencia de Datos
+ - [Introducción](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Análisis](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Comunicación](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Ciencia de Datos en la Nube
+ - [Introducción](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Ciencia de Datos en el Mundo Real
+ - [Ciencia de Datos en el Mundo Real](../6-Data-Science-In-Wild/README.md)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/for-teachers.md b/translations/es/for-teachers.md
new file mode 100644
index 00000000..93e171e5
--- /dev/null
+++ b/translations/es/for-teachers.md
@@ -0,0 +1,76 @@
+
+## Para Educadores
+
+¿Te gustaría usar este plan de estudios en tu aula? ¡Siéntete libre de hacerlo!
+
+De hecho, puedes usarlo directamente en GitHub utilizando GitHub Classroom.
+
+Para hacerlo, haz un fork de este repositorio. Necesitarás crear un repositorio para cada lección, por lo que tendrás que extraer cada carpeta en un repositorio separado. De esta manera, [GitHub Classroom](https://classroom.github.com/classrooms) podrá identificar cada lección por separado.
+
+Estas [instrucciones completas](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) te darán una idea de cómo configurar tu aula.
+
+## Usar el repositorio tal como está
+
+Si prefieres usar este repositorio tal como está, sin utilizar GitHub Classroom, también es posible. Necesitarás comunicarte con tus estudiantes para indicarles qué lección trabajar juntos.
+
+En un formato en línea (Zoom, Teams u otro), podrías formar salas de trabajo para los cuestionarios y guiar a los estudiantes para que se preparen para aprender. Luego, invítalos a realizar los cuestionarios y enviar sus respuestas como 'issues' en un momento determinado. Podrías hacer lo mismo con las tareas, si deseas que los estudiantes trabajen de manera colaborativa y abierta.
+
+Si prefieres un formato más privado, pide a tus estudiantes que hagan un fork del plan de estudios, lección por lección, en sus propios repositorios privados de GitHub y te den acceso. De esta manera, podrán completar cuestionarios y tareas de forma privada y enviártelos como 'issues' en tu repositorio de aula.
+
+Existen muchas maneras de hacer que esto funcione en un aula en línea. ¡Por favor, cuéntanos qué funciona mejor para ti!
+
+## Incluido en este plan de estudios:
+
+20 lecciones, 40 cuestionarios y 20 tareas. Las lecciones incluyen notas visuales (sketchnotes) para los estudiantes que aprenden mejor de forma visual. Muchas lecciones están disponibles tanto en Python como en R y pueden completarse utilizando Jupyter notebooks en VS Code. Aprende más sobre cómo configurar tu aula para usar esta tecnología: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Todas las notas visuales, incluido un póster en formato grande, están en [esta carpeta](../../sketchnotes).
+
+El plan de estudios completo está disponible [como un PDF](../../pdf/readme.pdf).
+
+También puedes ejecutar este plan de estudios como un sitio web independiente y compatible sin conexión utilizando [Docsify](https://docsify.js.org/#/). [Instala Docsify](https://docsify.js.org/#/quickstart) en tu máquina local, luego, en la carpeta raíz de tu copia local de este repositorio, escribe `docsify serve`. El sitio web se servirá en el puerto 3000 de tu localhost: `localhost:3000`.
+
+Una versión compatible sin conexión del plan de estudios se abrirá como una página web independiente: https://localhost:3000
+
+Las lecciones están organizadas en 6 partes:
+
+- 1: Introducción
+ - 1: Definiendo la Ciencia de Datos
+ - 2: Ética
+ - 3: Definiendo los Datos
+ - 4: Resumen de Probabilidad y Estadística
+- 2: Trabajando con Datos
+ - 5: Bases de Datos Relacionales
+ - 6: Bases de Datos No Relacionales
+ - 7: Python
+ - 8: Preparación de Datos
+- 3: Visualización de Datos
+ - 9: Visualización de Cantidades
+ - 10: Visualización de Distribuciones
+ - 11: Visualización de Proporciones
+ - 12: Visualización de Relaciones
+ - 13: Visualizaciones Significativas
+- 4: Ciclo de Vida de la Ciencia de Datos
+ - 14: Introducción
+ - 15: Análisis
+ - 16: Comunicación
+- 5: Ciencia de Datos en la Nube
+ - 17: Introducción
+ - 18: Opciones de Bajo Código
+ - 19: Azure
+- 6: Ciencia de Datos en el Mundo Real
+ - 20: Resumen
+
+## ¡Danos tu opinión!
+
+Queremos que este plan de estudios funcione para ti y tus estudiantes. Por favor, danos tu opinión en los foros de discusión. ¡Siéntete libre de crear un área de aula en los foros de discusión para tus estudiantes!
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/quiz-app/README.md b/translations/es/quiz-app/README.md
new file mode 100644
index 00000000..98abd071
--- /dev/null
+++ b/translations/es/quiz-app/README.md
@@ -0,0 +1,137 @@
+
+# Cuestionarios
+
+Estos cuestionarios son los cuestionarios previos y posteriores a las lecciones del plan de estudios de ciencia de datos en https://aka.ms/datascience-beginners
+
+## Agregar un conjunto de cuestionarios traducidos
+
+Agrega una traducción de cuestionarios creando estructuras de cuestionarios equivalentes en las carpetas `assets/translations`. Los cuestionarios originales están en `assets/translations/en`. Los cuestionarios están divididos en varios grupos. Asegúrate de alinear la numeración con la sección de cuestionarios correspondiente. Hay un total de 40 cuestionarios en este plan de estudios, comenzando desde el número 0.
+
+Después de editar las traducciones, edita el archivo index.js en la carpeta de traducción para importar todos los archivos siguiendo las convenciones en `en`.
+
+Edita el archivo `index.js` en `assets/translations` para importar los nuevos archivos traducidos.
+
+Luego, edita el menú desplegable en `App.vue` en esta aplicación para agregar tu idioma. Asegúrate de que la abreviatura localizada coincida con el nombre de la carpeta de tu idioma.
+
+Finalmente, edita todos los enlaces de los cuestionarios en las lecciones traducidas, si existen, para incluir esta localización como un parámetro de consulta: `?loc=fr`, por ejemplo.
+
+## Configuración del proyecto
+
+```
+npm install
+```
+
+### Compila y recarga automáticamente para desarrollo
+
+```
+npm run serve
+```
+
+### Compila y minimiza para producción
+
+```
+npm run build
+```
+
+### Analiza y corrige archivos
+
+```
+npm run lint
+```
+
+### Personalizar configuración
+
+Consulta [Referencia de Configuración](https://cli.vuejs.org/config/).
+
+Créditos: Gracias a la versión original de esta aplicación de cuestionarios: https://github.com/arpan45/simple-quiz-vue
+
+## Desplegar en Azure
+
+Aquí tienes una guía paso a paso para ayudarte a comenzar:
+
+1. Haz un fork del repositorio de GitHub
+Asegúrate de que el código de tu aplicación web estática esté en tu repositorio de GitHub. Haz un fork de este repositorio.
+
+2. Crea una aplicación web estática en Azure
+- Crea una [cuenta de Azure](http://azure.microsoft.com)
+- Ve al [portal de Azure](https://portal.azure.com)
+- Haz clic en “Crear un recurso” y busca “Aplicación Web Estática”.
+- Haz clic en “Crear”.
+
+3. Configura la aplicación web estática
+- Básicos:
+ - Suscripción: Selecciona tu suscripción de Azure.
+ - Grupo de recursos: Crea un nuevo grupo de recursos o usa uno existente.
+ - Nombre: Proporciona un nombre para tu aplicación web estática.
+ - Región: Elige la región más cercana a tus usuarios.
+
+- #### Detalles de implementación:
+ - Origen: Selecciona “GitHub”.
+ - Cuenta de GitHub: Autoriza a Azure para acceder a tu cuenta de GitHub.
+ - Organización: Selecciona tu organización de GitHub.
+ - Repositorio: Elige el repositorio que contiene tu aplicación web estática.
+ - Rama: Selecciona la rama desde la que deseas desplegar.
+
+- #### Detalles de compilación:
+ - Presets de compilación: Elige el framework con el que está construida tu aplicación (por ejemplo, React, Angular, Vue, etc.).
+ - Ubicación de la aplicación: Especifica la carpeta que contiene el código de tu aplicación (por ejemplo, / si está en la raíz).
+ - Ubicación de la API: Si tienes una API, especifica su ubicación (opcional).
+ - Ubicación de salida: Especifica la carpeta donde se genera la salida de la compilación (por ejemplo, build o dist).
+
+4. Revisión y creación
+Revisa tu configuración y haz clic en “Crear”. Azure configurará los recursos necesarios y creará un flujo de trabajo de GitHub Actions en tu repositorio.
+
+5. Flujo de trabajo de GitHub Actions
+Azure creará automáticamente un archivo de flujo de trabajo de GitHub Actions en tu repositorio (.github/workflows/azure-static-web-apps-.yml). Este flujo de trabajo manejará el proceso de compilación y despliegue.
+
+6. Monitorea el despliegue
+Ve a la pestaña “Actions” en tu repositorio de GitHub.
+Deberías ver un flujo de trabajo en ejecución. Este flujo de trabajo compilará y desplegará tu aplicación web estática en Azure.
+Una vez que el flujo de trabajo se complete, tu aplicación estará activa en la URL proporcionada por Azure.
+
+### Ejemplo de archivo de flujo de trabajo
+
+Aquí tienes un ejemplo de cómo podría verse el archivo de flujo de trabajo de GitHub Actions:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Recursos adicionales
+- [Documentación de Azure Static Web Apps](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [Documentación de GitHub Actions](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/es/sketchnotes/README.md b/translations/es/sketchnotes/README.md
new file mode 100644
index 00000000..10773237
--- /dev/null
+++ b/translations/es/sketchnotes/README.md
@@ -0,0 +1,19 @@
+
+Encuentra todas las notas visuales aquí.
+
+## Créditos
+
+Nitya Narasimhan, artista
+
+
+
+**Descargo de responsabilidad**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/01-defining-data-science/README.md b/translations/fa/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..9c3e2557
--- /dev/null
+++ b/translations/fa/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## انواع دادهها
+
+همانطور که قبلاً اشاره کردیم، دادهها همهجا هستند. فقط باید آنها را به روش درست جمعآوری کنیم! مفید است که بین دادههای **ساختاریافته** و **غیرساختاریافته** تمایز قائل شویم. دادههای ساختاریافته معمولاً بهصورت منظم و در قالب جدول یا چندین جدول ارائه میشوند، در حالی که دادههای غیرساختاریافته فقط مجموعهای از فایلها هستند. گاهی اوقات میتوانیم درباره دادههای **نیمهساختاریافته** صحبت کنیم که دارای نوعی ساختار هستند که ممکن است بسیار متفاوت باشد.
+
+| ساختاریافته | نیمهساختاریافته | غیرساختاریافته |
+| -------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------- | --------------------------------------- |
+| لیستی از افراد با شماره تلفنهایشان | صفحات ویکیپدیا با لینکها | متن دایرةالمعارف بریتانیکا |
+| دمای تمام اتاقهای یک ساختمان در هر دقیقه طی ۲۰ سال گذشته | مجموعهای از مقالات علمی در قالب JSON با نویسندگان، تاریخ انتشار و چکیده | اشتراک فایل با اسناد شرکتی |
+| دادههای مربوط به سن و جنسیت تمام افرادی که وارد ساختمان میشوند | صفحات اینترنت | ویدئوی خام از دوربین نظارتی |
+
+## از کجا دادهها را تهیه کنیم
+
+منابع زیادی برای دادهها وجود دارد و فهرست کردن همه آنها غیرممکن است! با این حال، بیایید برخی از مکانهای معمولی که میتوانید دادهها را از آنها تهیه کنید، ذکر کنیم:
+
+* **ساختاریافته**
+ - **اینترنت اشیا** (IoT)، شامل دادههای حسگرهای مختلف مانند حسگرهای دما یا فشار، دادههای مفیدی ارائه میدهد. بهعنوان مثال، اگر یک ساختمان اداری مجهز به حسگرهای IoT باشد، میتوانیم بهطور خودکار گرمایش و روشنایی را کنترل کنیم تا هزینهها را به حداقل برسانیم.
+ - **نظرسنجیها** که از کاربران میخواهیم پس از خرید یا بازدید از یک وبسایت تکمیل کنند.
+ - **تحلیل رفتار** میتواند به ما کمک کند تا بفهمیم کاربران چقدر در یک سایت عمیق میشوند و دلیل معمول ترک سایت چیست.
+* **غیرساختاریافته**
+ - **متون** میتوانند منبع غنی از بینشها باشند، مانند امتیاز کلی **احساسات** یا استخراج کلمات کلیدی و معنای مفهومی.
+ - **تصاویر** یا **ویدئو**. یک ویدئو از دوربین نظارتی میتواند برای تخمین ترافیک جاده استفاده شود و مردم را از احتمال ترافیک سنگین مطلع کند.
+ - **لاگهای سرور وب** میتوانند برای درک اینکه کدام صفحات سایت ما بیشتر بازدید میشوند و برای چه مدت، استفاده شوند.
+* **نیمهساختاریافته**
+ - **گرافهای شبکههای اجتماعی** میتوانند منابع عالی داده درباره شخصیت کاربران و اثربخشی بالقوه در انتشار اطلاعات باشند.
+ - وقتی مجموعهای از عکسهای یک مهمانی داریم، میتوانیم سعی کنیم دادههای **پویایی گروهی** را با ساختن گرافی از افرادی که با یکدیگر عکس میگیرند، استخراج کنیم.
+
+با دانستن منابع مختلف داده، میتوانید درباره سناریوهای مختلفی فکر کنید که تکنیکهای علم داده میتوانند برای درک بهتر وضعیت و بهبود فرآیندهای کسبوکار به کار گرفته شوند.
+
+## چه کاری میتوانید با دادهها انجام دهید
+
+در علم داده، ما بر مراحل زیر در مسیر داده تمرکز میکنیم:
+
+البته، بسته به دادههای واقعی، برخی مراحل ممکن است حذف شوند (مثلاً وقتی دادهها از قبل در پایگاه داده موجود هستند یا وقتی نیازی به آموزش مدل نداریم)، یا برخی مراحل ممکن است چندین بار تکرار شوند (مانند پردازش دادهها).
+
+## دیجیتالیسازی و تحول دیجیتال
+
+در دهه گذشته، بسیاری از کسبوکارها اهمیت دادهها را در تصمیمگیریهای تجاری درک کردهاند. برای اعمال اصول علم داده در مدیریت کسبوکار، ابتدا باید دادههایی جمعآوری شود، یعنی فرآیندهای کسبوکار به شکل دیجیتال ترجمه شوند. این فرآیند بهعنوان **دیجیتالیسازی** شناخته میشود. استفاده از تکنیکهای علم داده بر روی این دادهها برای هدایت تصمیمگیریها میتواند منجر به افزایش قابلتوجه بهرهوری (یا حتی تغییر مسیر کسبوکار) شود که به آن **تحول دیجیتال** میگویند.
+
+بیایید یک مثال را بررسی کنیم. فرض کنید یک دوره علم داده (مانند همین دوره) داریم که بهصورت آنلاین به دانشجویان ارائه میشود و میخواهیم از علم داده برای بهبود آن استفاده کنیم. چگونه میتوانیم این کار را انجام دهیم؟
+
+میتوانیم با پرسیدن این سؤال شروع کنیم: "چه چیزی میتواند دیجیتالی شود؟" سادهترین راه این است که زمان لازم برای هر دانشجو برای تکمیل هر ماژول را اندازهگیری کنیم و دانش کسبشده را با ارائه یک آزمون چندگزینهای در پایان هر ماژول ارزیابی کنیم. با میانگینگیری زمان تکمیل در میان همه دانشجویان، میتوانیم بفهمیم کدام ماژولها بیشترین دشواری را برای دانشجویان ایجاد میکنند و روی سادهتر کردن آنها کار کنیم.
+ممکن است بحث کنید که این رویکرد ایدهآل نیست، زیرا ماژولها میتوانند طولهای متفاوتی داشته باشند. احتمالاً منصفانهتر این است که زمان را بر اساس طول ماژول (بر حسب تعداد کاراکترها) تقسیم کرده و سپس آن مقادیر را با یکدیگر مقایسه کنید.
+هنگامی که شروع به تحلیل نتایج آزمونهای چند گزینهای میکنیم، میتوانیم تلاش کنیم تا مفاهیمی را که دانشآموزان در درک آنها مشکل دارند شناسایی کنیم و از این اطلاعات برای بهبود محتوا استفاده کنیم. برای انجام این کار، باید آزمونها را به گونهای طراحی کنیم که هر سؤال به یک مفهوم یا بخش خاصی از دانش مرتبط باشد.
+
+اگر بخواهیم پیچیدهتر عمل کنیم، میتوانیم زمان صرف شده برای هر ماژول را در مقابل دستهبندی سنی دانشآموزان رسم کنیم. ممکن است متوجه شویم که برای برخی دستههای سنی، تکمیل ماژول زمان بسیار زیادی میبرد یا دانشآموزان قبل از تکمیل آن انصراف میدهند. این موضوع میتواند به ما کمک کند تا توصیههای سنی برای ماژول ارائه دهیم و نارضایتی افراد از انتظارات اشتباه را به حداقل برسانیم.
+
+## 🚀 چالش
+
+در این چالش، تلاش خواهیم کرد تا مفاهیم مرتبط با حوزه علم داده را با بررسی متون پیدا کنیم. ما یک مقاله ویکیپدیا درباره علم داده را دانلود و پردازش میکنیم و سپس یک ابر واژه مانند این تصویر ایجاد میکنیم:
+
+
+
+به [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') مراجعه کنید تا کد را مرور کنید. همچنین میتوانید کد را اجرا کنید و ببینید که چگونه تمام تبدیلهای داده را به صورت لحظهای انجام میدهد.
+
+> اگر نمیدانید چگونه کد را در یک Jupyter Notebook اجرا کنید، به [این مقاله](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) نگاهی بیندازید.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## تکالیف
+
+* **وظیفه ۱**: کد بالا را تغییر دهید تا مفاهیم مرتبط با حوزههای **کلان داده** و **یادگیری ماشین** را پیدا کنید.
+* **وظیفه ۲**: [درباره سناریوهای علم داده فکر کنید](assignment.md)
+
+## اعتبارها
+
+این درس با ♥️ توسط [دمیتری سوشنیکوف](http://soshnikov.com) نوشته شده است.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/01-defining-data-science/assignment.md b/translations/fa/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..58d19ed0
--- /dev/null
+++ b/translations/fa/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,44 @@
+
+# تکلیف: سناریوهای علم داده
+
+در این تکلیف اول، از شما خواسته میشود که به یک فرآیند یا مشکل واقعی در حوزههای مختلف فکر کنید و بررسی کنید که چگونه میتوانید با استفاده از فرآیند علم داده آن را بهبود دهید. به موارد زیر فکر کنید:
+
+1. چه دادههایی میتوانید جمعآوری کنید؟
+1. چگونه این دادهها را جمعآوری میکنید؟
+1. چگونه دادهها را ذخیره میکنید؟ حجم دادهها احتمالاً چقدر خواهد بود؟
+1. چه بینشهایی میتوانید از این دادهها به دست آورید؟ چه تصمیماتی میتوانیم بر اساس این دادهها بگیریم؟
+
+سعی کنید به ۳ مشکل یا فرآیند مختلف فکر کنید و هر یک از نکات بالا را برای هر حوزه مشکل توصیف کنید.
+
+در اینجا چند حوزه مشکل و مثالهایی آورده شده که میتواند به شما در شروع فکر کردن کمک کند:
+
+1. چگونه میتوانید از دادهها برای بهبود فرآیند آموزش کودکان در مدارس استفاده کنید؟
+1. چگونه میتوانید از دادهها برای کنترل واکسیناسیون در دوران همهگیری استفاده کنید؟
+1. چگونه میتوانید از دادهها برای اطمینان از بهرهوری خود در کار استفاده کنید؟
+
+## دستورالعملها
+
+جدول زیر را پر کنید (در صورت نیاز، حوزههای مشکل پیشنهادی را با حوزههای خود جایگزین کنید):
+
+| حوزه مشکل | مشکل | چه دادههایی جمعآوری شود | چگونه دادهها ذخیره شود | چه بینشها/تصمیماتی میتوانیم بگیریم |
+|----------------|---------|-----------------------|-----------------------|--------------------------------------|
+| آموزش | | | | |
+| واکسیناسیون | | | | |
+| بهرهوری | | | | |
+
+## معیار ارزیابی
+
+عالی | مناسب | نیاز به بهبود
+--- | --- | -- |
+توانایی شناسایی منابع داده منطقی، روشهای ذخیرهسازی داده و تصمیمات/بینشهای ممکن برای همه حوزههای مشکل | برخی از جنبههای راهحل بهطور کامل توضیح داده نشده، ذخیرهسازی دادهها مورد بحث قرار نگرفته، حداقل ۲ حوزه مشکل توصیف شده است | تنها بخشهایی از راهحل داده توصیف شده، فقط یک حوزه مشکل در نظر گرفته شده است.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/fa/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..44845de0
--- /dev/null
+++ b/translations/fa/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,46 @@
+
+# تکلیف: سناریوهای علم داده
+
+در این اولین تکلیف، از شما خواسته میشود که به یک فرآیند یا مشکل واقعی در حوزههای مختلف فکر کنید و بررسی کنید که چگونه میتوانید با استفاده از فرآیند علم داده آن را بهبود دهید. به موارد زیر فکر کنید:
+
+1. چه دادههایی میتوانید جمعآوری کنید؟
+1. چگونه این دادهها را جمعآوری میکنید؟
+1. چگونه دادهها را ذخیره میکنید؟ حجم دادهها احتمالاً چقدر خواهد بود؟
+1. چه بینشهایی میتوانید از این دادهها به دست آورید؟ چه تصمیماتی میتوانیم بر اساس این دادهها بگیریم؟
+
+سعی کنید به سه مشکل یا فرآیند مختلف فکر کنید و هر یک از موارد بالا را برای هر حوزه مشکل توصیف کنید.
+
+در اینجا چند حوزه مشکل و مشکلاتی که میتوانند به شما در شروع فکر کردن کمک کنند آورده شده است:
+
+1. چگونه میتوانید از دادهها برای بهبود فرآیند آموزش کودکان در مدارس استفاده کنید؟
+1. چگونه میتوانید از دادهها برای کنترل واکسیناسیون در دوران همهگیری استفاده کنید؟
+1. چگونه میتوانید از دادهها برای اطمینان از بهرهوری خود در کار استفاده کنید؟
+
+## دستورالعملها
+
+جدول زیر را پر کنید (در صورت نیاز، حوزههای مشکل پیشنهادی را با حوزههای خود جایگزین کنید):
+
+| حوزه مشکل | مشکل | چه دادههایی جمعآوری شود | چگونه دادهها ذخیره شود | چه بینشها/تصمیماتی میتوانیم بگیریم |
+|----------------|---------|-----------------------|-----------------------|--------------------------------------|
+| آموزش | در دانشگاه، معمولاً حضور در کلاسها کم است و ما این فرضیه را داریم که دانشجویانی که به طور متوسط در کلاسها شرکت میکنند، در امتحانات بهتر عمل میکنند. ما میخواهیم حضور را تشویق کنیم و این فرضیه را آزمایش کنیم. | میتوانیم حضور را از طریق عکسهایی که توسط دوربین امنیتی در کلاس گرفته میشود، یا با ردیابی آدرسهای بلوتوث/وایفای تلفنهای همراه دانشجویان در کلاس پیگیری کنیم. دادههای امتحان از قبل در پایگاه داده دانشگاه موجود است. | در صورتی که تصاویر دوربین امنیتی را ردیابی کنیم - باید چند عکس (۵-۱۰) در طول کلاس ذخیره کنیم (دادههای غیرساختاریافته)، و سپس از هوش مصنوعی برای شناسایی چهره دانشجویان استفاده کنیم (تبدیل دادهها به فرم ساختاریافته). | میتوانیم دادههای حضور میانگین برای هر دانشجو را محاسبه کنیم و ببینیم آیا ارتباطی با نمرات امتحان وجود دارد یا خیر. در بخش [احتمال و آمار](../../04-stats-and-probability/README.md) بیشتر درباره همبستگی صحبت خواهیم کرد. برای تشویق حضور دانشجویان، میتوانیم رتبهبندی هفتگی حضور را در پورتال مدرسه منتشر کنیم و بین کسانی که بیشترین حضور را دارند جوایزی قرعهکشی کنیم. |
+| واکسیناسیون | | | | |
+| بهرهوری | | | | |
+
+> *ما فقط یک پاسخ به عنوان مثال ارائه میدهیم تا ایدهای از آنچه در این تکلیف انتظار میرود به شما بدهیم.*
+
+## معیار ارزیابی
+
+عالی | کافی | نیاز به بهبود
+--- | --- | -- |
+توانسته است منابع داده معقول، روشهای ذخیرهسازی داده و تصمیمات/بینشهای ممکن را برای همه حوزههای مشکل شناسایی کند | برخی از جنبههای راهحل به طور دقیق توضیح داده نشده است، ذخیرهسازی دادهها مورد بحث قرار نگرفته است، حداقل ۲ حوزه مشکل توصیف شده است | فقط بخشهایی از راهحل داده توصیف شده است، فقط یک حوزه مشکل در نظر گرفته شده است.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/02-ethics/README.md b/translations/fa/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..2c32fe06
--- /dev/null
+++ b/translations/fa/1-Introduction/02-ethics/README.md
@@ -0,0 +1,266 @@
+
+# مقدمهای بر اخلاق دادهها
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| اخلاق در علم داده - _طرح مفهومی توسط [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+ما همه شهروندان دنیای دادهمحور هستیم.
+
+روندهای بازار نشان میدهند که تا سال ۲۰۲۲، یکسوم از سازمانهای بزرگ دادههای خود را از طریق [بازارها و مبادلات آنلاین](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) خرید و فروش خواهند کرد. به عنوان **توسعهدهندگان اپلیکیشن**، ما راحتتر و ارزانتر میتوانیم بینشهای مبتنی بر داده و اتوماسیون مبتنی بر الگوریتم را در تجربههای روزمره کاربران ادغام کنیم. اما با گسترش هوش مصنوعی، باید به آسیبهای احتمالی ناشی از [سوءاستفاده](https://www.youtube.com/watch?v=TQHs8SA1qpk) از این الگوریتمها در مقیاس بزرگ نیز توجه کنیم.
+
+روندها همچنین نشان میدهند که تا سال ۲۰۲۵ بیش از [۱۸۰ زتابایت](https://www.statista.com/statistics/871513/worldwide-data-created/) داده تولید و مصرف خواهیم کرد. به عنوان **دانشمندان داده**، این به ما دسترسی بیسابقهای به دادههای شخصی میدهد. این بدان معناست که میتوانیم پروفایلهای رفتاری کاربران را بسازیم و تصمیمگیریها را به گونهای تحت تأثیر قرار دهیم که یک [توهم انتخاب آزاد](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ایجاد کند، در حالی که ممکن است کاربران را به سمت نتایج دلخواه ما سوق دهد. این موضوع همچنین سوالات گستردهتری در مورد حریم خصوصی دادهها و حفاظت از کاربران مطرح میکند.
+
+اخلاق دادهها اکنون به عنوان _محافظهای ضروری_ برای علم داده و مهندسی عمل میکنند و به ما کمک میکنند تا آسیبهای احتمالی و پیامدهای ناخواسته ناشی از اقدامات مبتنی بر دادههای خود را به حداقل برسانیم. [چرخه هیجان گارتنر برای هوش مصنوعی](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) روندهای مرتبط با اخلاق دیجیتال، هوش مصنوعی مسئولانه و حاکمیت هوش مصنوعی را به عنوان عوامل کلیدی برای روندهای بزرگتر در زمینه _دموکراتیزهسازی_ و _صنعتیسازی_ هوش مصنوعی شناسایی میکند.
+
+
+
+در این درس، ما به بررسی حوزه جذاب اخلاق دادهها خواهیم پرداخت - از مفاهیم و چالشهای اصلی گرفته تا مطالعات موردی و مفاهیم کاربردی هوش مصنوعی مانند حاکمیت - که به ایجاد فرهنگ اخلاقی در تیمها و سازمانهایی که با دادهها و هوش مصنوعی کار میکنند، کمک میکند.
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## تعاریف پایه
+
+بیایید با درک اصطلاحات پایه شروع کنیم.
+
+کلمه "اخلاق" از [کلمه یونانی "ethikos"](https://en.wikipedia.org/wiki/Ethics) (و ریشه آن "ethos") به معنای _شخصیت یا طبیعت اخلاقی_ گرفته شده است.
+
+**اخلاق** درباره ارزشهای مشترک و اصول اخلاقی است که رفتار ما را در جامعه هدایت میکنند. اخلاق بر اساس قوانین نیست، بلکه بر اساس هنجارهای پذیرفتهشده عمومی از آنچه "درست در مقابل نادرست" است، استوار است. با این حال، ملاحظات اخلاقی میتوانند بر ابتکارات حاکمیت شرکتی و مقررات دولتی تأثیر بگذارند که انگیزههای بیشتری برای رعایت قوانین ایجاد میکنند.
+
+**اخلاق دادهها** یک [شاخه جدید از اخلاق](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) است که "مشکلات اخلاقی مرتبط با _دادهها، الگوریتمها و شیوههای مربوطه_ را مطالعه و ارزیابی میکند". در اینجا، **"دادهها"** بر اقدامات مربوط به تولید، ثبت، مدیریت، پردازش، انتشار، اشتراکگذاری و استفاده تمرکز دارد، **"الگوریتمها"** بر هوش مصنوعی، عوامل، یادگیری ماشین و رباتها تمرکز دارد، و **"شیوهها"** بر موضوعاتی مانند نوآوری مسئولانه، برنامهنویسی، هک و کدهای اخلاقی تمرکز دارد.
+
+**اخلاق کاربردی** [کاربرد عملی ملاحظات اخلاقی](https://en.wikipedia.org/wiki/Applied_ethics) است. این فرآیند بررسی فعال مسائل اخلاقی در زمینه _اقدامات، محصولات و فرآیندهای دنیای واقعی_ و اتخاذ اقدامات اصلاحی برای اطمینان از همراستایی آنها با ارزشهای اخلاقی تعریفشده ما است.
+
+**فرهنگ اخلاقی** درباره [_عملیاتی کردن_ اخلاق کاربردی](https://hbr.org/2019/05/how-to-design-an-ethical-organization) است تا اطمینان حاصل شود که اصول و شیوههای اخلاقی ما به طور مداوم و در مقیاس وسیع در سراسر سازمان پذیرفته میشوند. فرهنگهای اخلاقی موفق اصول اخلاقی سازمانی را تعریف میکنند، انگیزههای معناداری برای رعایت قوانین ارائه میدهند و هنجارهای اخلاقی را با تشویق و تقویت رفتارهای مطلوب در هر سطح از سازمان تقویت میکنند.
+
+## مفاهیم اخلاقی
+
+در این بخش، مفاهیمی مانند **ارزشهای مشترک** (اصول) و **چالشهای اخلاقی** (مشکلات) برای اخلاق دادهها را بررسی خواهیم کرد - و به **مطالعات موردی** خواهیم پرداخت که به شما کمک میکنند این مفاهیم را در زمینههای دنیای واقعی درک کنید.
+
+### 1. اصول اخلاقی
+
+هر استراتژی اخلاق دادهها با تعریف _اصول اخلاقی_ آغاز میشود - "ارزشهای مشترکی" که رفتارهای قابل قبول را توصیف میکنند و اقدامات مطابق با قوانین را در پروژههای داده و هوش مصنوعی ما هدایت میکنند. شما میتوانید این اصول را در سطح فردی یا تیمی تعریف کنید. با این حال، بیشتر سازمانهای بزرگ این اصول را در قالب یک بیانیه مأموریت یا چارچوب اخلاقی هوش مصنوعی تعریف میکنند که در سطح شرکتی تعریف شده و به طور مداوم در تمام تیمها اجرا میشود.
+
+**مثال:** بیانیه مأموریت [هوش مصنوعی مسئولانه](https://www.microsoft.com/en-us/ai/responsible-ai) مایکروسافت میگوید: _"ما متعهد به پیشرفت هوش مصنوعی بر اساس اصول اخلاقی هستیم که انسانها را در اولویت قرار میدهد"_ - و ۶ اصل اخلاقی را در چارچوب زیر شناسایی میکند:
+
+
+
+بیایید این اصول را به طور خلاصه بررسی کنیم. _شفافیت_ و _پاسخگویی_ ارزشهای بنیادی هستند که سایر اصول بر اساس آنها ساخته شدهاند - بنابراین از اینجا شروع میکنیم:
+
+* [**پاسخگویی**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) متخصصان را _مسئول_ عملیات داده و هوش مصنوعی خود و رعایت این اصول اخلاقی میکند.
+* [**شفافیت**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) اطمینان میدهد که اقدامات داده و هوش مصنوعی برای کاربران _قابل درک_ هستند و دلیل تصمیمات را توضیح میدهند.
+* [**عدالت**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - بر اطمینان از رفتار عادلانه هوش مصنوعی با _همه افراد_ تمرکز دارد و به تعصبات سیستماتیک یا ضمنی در دادهها و سیستمها میپردازد.
+* [**قابلیت اطمینان و ایمنی**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - اطمینان میدهد که هوش مصنوعی به طور _ثابت_ با ارزشهای تعریفشده رفتار میکند و آسیبهای احتمالی یا پیامدهای ناخواسته را به حداقل میرساند.
+* [**حریم خصوصی و امنیت**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - درباره درک منشأ دادهها و ارائه _حفاظتهای مرتبط با حریم خصوصی دادهها_ به کاربران است.
+* [**شمولگرایی**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - درباره طراحی راهحلهای هوش مصنوعی با نیت و تطبیق آنها برای پاسخگویی به _نیازها و قابلیتهای متنوع انسانی_ است.
+
+> 🚨 به این فکر کنید که بیانیه مأموریت اخلاق دادههای شما چه میتواند باشد. چارچوبهای اخلاقی هوش مصنوعی از سازمانهای دیگر را بررسی کنید - اینجا مثالهایی از [IBM](https://www.ibm.com/cloud/learn/ai-ethics)، [گوگل](https://ai.google/principles)، و [فیسبوک](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) آورده شده است. چه ارزشهای مشترکی در آنها وجود دارد؟ این اصول چگونه به محصول هوش مصنوعی یا صنعتی که در آن فعالیت میکنند مرتبط هستند؟
+
+### 2. چالشهای اخلاقی
+
+پس از تعریف اصول اخلاقی، گام بعدی ارزیابی اقدامات داده و هوش مصنوعی برای بررسی همراستایی آنها با این ارزشهای مشترک است. اقدامات خود را در دو دسته در نظر بگیرید: _جمعآوری دادهها_ و _طراحی الگوریتم_.
+
+در جمعآوری دادهها، اقدامات احتمالاً شامل **دادههای شخصی** یا اطلاعات شناسایی شخصی (PII) برای افراد قابل شناسایی خواهد بود. این شامل [موارد متنوعی از دادههای غیرشخصی](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) است که _به طور جمعی_ یک فرد را شناسایی میکنند. چالشهای اخلاقی میتوانند به موضوعاتی مانند _حریم خصوصی دادهها_، _مالکیت دادهها_ و موضوعات مرتبط مانند _رضایت آگاهانه_ و _حقوق مالکیت فکری_ برای کاربران مربوط شوند.
+
+در طراحی الگوریتم، اقدامات شامل جمعآوری و مدیریت **مجموعه دادهها** و سپس استفاده از آنها برای آموزش و استقرار **مدلهای داده** است که نتایج را پیشبینی یا تصمیمات را در زمینههای واقعی خودکار میکنند. چالشهای اخلاقی میتوانند از _تعصب در مجموعه دادهها_، مشکلات _کیفیت دادهها_، _بیعدالتی_ و _تحریف_ در الگوریتمها ناشی شوند - از جمله برخی مسائل که ذاتاً سیستماتیک هستند.
+
+در هر دو مورد، چالشهای اخلاقی مناطقی را برجسته میکنند که اقدامات ما ممکن است با ارزشهای مشترک ما در تضاد باشند. برای شناسایی، کاهش، به حداقل رساندن یا حذف این نگرانیها، باید سوالات اخلاقی "بله/خیر" مرتبط با اقدامات خود را بپرسیم و سپس اقدامات اصلاحی لازم را انجام دهیم. بیایید به برخی از چالشهای اخلاقی و سوالات اخلاقی که مطرح میکنند نگاهی بیندازیم:
+
+#### 2.1 مالکیت دادهها
+
+جمعآوری دادهها اغلب شامل دادههای شخصی است که میتواند افراد را شناسایی کند. [مالکیت دادهها](https://permission.io/blog/data-ownership) درباره _کنترل_ و [_حقوق کاربران_](https://permission.io/blog/data-ownership) مرتبط با ایجاد، پردازش و انتشار دادهها است.
+
+سوالات اخلاقی که باید بپرسیم:
+* چه کسی مالک دادهها است؟ (کاربر یا سازمان)
+* کاربران چه حقوقی دارند؟ (مثلاً دسترسی، حذف، قابلیت انتقال)
+* سازمانها چه حقوقی دارند؟ (مثلاً اصلاح نظرات مخرب کاربران)
+
+#### 2.2 رضایت آگاهانه
+
+[رضایت آگاهانه](https://legaldictionary.net/informed-consent/) به عمل موافقت کاربران با یک اقدام (مانند جمعآوری دادهها) با _درک کامل_ حقایق مرتبط از جمله هدف، خطرات احتمالی و جایگزینها اشاره دارد.
+
+سوالاتی که باید بررسی شوند:
+* آیا کاربر (موضوع داده) اجازه جمعآوری و استفاده از دادهها را داده است؟
+* آیا کاربر هدف از جمعآوری دادهها را درک کرده است؟
+* آیا کاربر خطرات احتمالی مشارکت خود را درک کرده است؟
+
+#### 2.3 مالکیت فکری
+
+[مالکیت فکری](https://en.wikipedia.org/wiki/Intellectual_property) به خلاقیتهای ناملموسی اشاره دارد که از ابتکار انسانی ناشی میشوند و ممکن است _ارزش اقتصادی_ برای افراد یا کسبوکارها داشته باشند.
+
+سوالاتی که باید بررسی شوند:
+* آیا دادههای جمعآوریشده ارزش اقتصادی برای کاربر یا کسبوکار داشتهاند؟
+* آیا **کاربر** در اینجا مالکیت فکری دارد؟
+* آیا **سازمان** در اینجا مالکیت فکری دارد؟
+* اگر این حقوق وجود دارند، چگونه از آنها محافظت میکنیم؟
+
+#### 2.4 حریم خصوصی دادهها
+
+[حریم خصوصی دادهها](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) یا حریم اطلاعات به حفظ حریم خصوصی کاربران و حفاظت از هویت آنها در ارتباط با اطلاعات شناسایی شخصی اشاره دارد.
+
+سوالاتی که باید بررسی شوند:
+* آیا دادههای (شخصی) کاربران در برابر هک و نشت محافظت شدهاند؟
+* آیا دادههای کاربران فقط برای کاربران و زمینههای مجاز قابل دسترسی هستند؟
+* آیا ناشناس بودن کاربران هنگام اشتراکگذاری یا انتشار دادهها حفظ شده است؟
+* آیا میتوان یک کاربر را از مجموعه دادههای ناشناس شناسایی کرد؟
+
+#### 2.5 حق فراموش شدن
+
+[حق فراموش شدن](https://en.wikipedia.org/wiki/Right_to_be_forgotten) یا [حق حذف](https://www.gdpreu.org/right-to-be-forgotten/) حفاظت بیشتری از دادههای شخصی به کاربران ارائه میدهد. به طور خاص، این حق به کاربران اجازه میدهد درخواست حذف یا حذف دادههای شخصی خود را از جستجوهای اینترنتی و مکانهای دیگر، _تحت شرایط خاص_، ارائه دهند - و به آنها اجازه میدهد بدون اینکه اقدامات گذشته علیه آنها استفاده شود، یک شروع تازه آنلاین داشته باشند.
+
+سوالاتی که باید بررسی شوند:
+* آیا سیستم اجازه میدهد که موضوعات داده درخواست حذف کنند؟
+* آیا باید لغو رضایت کاربر باعث حذف خودکار شود؟
+* آیا دادهها بدون رضایت یا به روشهای غیرقانونی جمعآوری شدهاند؟
+* آیا ما با مقررات دولتی برای حریم خصوصی دادهها مطابقت داریم؟
+
+#### 2.6 تعصب در مجموعه دادهها
+
+تعصب در مجموعه دادهها یا [تعصب در جمعآوری](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) به انتخاب یک زیرمجموعه _غیرنماینده_ از دادهها برای توسعه الگوریتم اشاره دارد که ممکن است منجر به نتایج ناعادلانه برای گروههای مختلف شود. انواع تعصب شامل تعصب در انتخاب یا نمونهگیری، تعصب داوطلبانه و تعصب ابزاری است.
+
+سوالاتی که باید بررسی شوند:
+* آیا ما مجموعهای نماینده از موضوعات داده را انتخاب کردهایم؟
+* آیا مجموعه دادههای جمعآوریشده یا مدیریتشده خود را از نظر تعصبات مختلف آزمایش کردهایم؟
+* آیا میتوانیم تعصبات کشفشده را کاهش یا حذف کنیم؟
+
+#### 2.7 کیفیت دادهها
+
+[کیفیت دادهها](https://lakefs.io/data-quality-testing/) به اعتبار مجموعه داده مدیریتشده برای توسعه الگوریتمهای ما اشاره دارد و بررسی میکند که آیا ویژگیها و رکوردها الزامات سطح دقت و سازگاری مورد نیاز برای هدف هوش مصنوعی ما را برآورده میکنند یا خیر.
+
+سوالاتی که باید بررسی شوند:
+* آیا ما ویژگیهای معتبر برای مورد استفاده خود را جمعآوری کردهایم؟
+* آیا دادهها به طور _سازگار_ از منابع داده متنوع جمعآوری شدهاند؟
+* آیا مجموعه داده برای شرایط یا سناریوهای متنوع _کامل_ است؟
+* آیا اطلاعات به طور _دقیق_ واقعیت را منعکس میکنند؟
+
+#### 2.8 عدالت الگوریتمی
+[بررسی عدالت الگوریتمی](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) به این موضوع میپردازد که آیا طراحی الگوریتم به طور سیستماتیک علیه گروههای خاصی از افراد تبعیض قائل میشود و منجر به [آسیبهای احتمالی](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) در _تخصیص منابع_ (جایی که منابع از آن گروه محروم یا دریغ میشوند) و _کیفیت خدمات_ (جایی که دقت هوش مصنوعی برای برخی گروهها کمتر از دیگران است) میشود.
+
+سؤالاتی که باید در اینجا بررسی شوند:
+* آیا دقت مدل را برای گروهها و شرایط متنوع ارزیابی کردهایم؟
+* آیا سیستم را برای آسیبهای احتمالی (مانند کلیشهسازی) بررسی کردهایم؟
+* آیا میتوانیم دادهها را اصلاح کنیم یا مدلها را دوباره آموزش دهیم تا آسیبهای شناساییشده را کاهش دهیم؟
+
+منابعی مانند [چکلیستهای عدالت هوش مصنوعی](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) را بررسی کنید تا اطلاعات بیشتری کسب کنید.
+
+#### 2.9 تحریف دادهها
+
+[تحریف دادهها](https://www.sciencedirect.com/topics/computer-science/misrepresentation) به این موضوع میپردازد که آیا ما بینشهای حاصل از دادههای گزارششده را به صورت صادقانه اما به شکلی فریبنده برای حمایت از یک روایت مطلوب ارائه میدهیم.
+
+سؤالاتی که باید در اینجا بررسی شوند:
+* آیا دادههای ناقص یا نادرست را گزارش میدهیم؟
+* آیا دادهها را به شکلی تجسم میکنیم که منجر به نتیجهگیریهای گمراهکننده شود؟
+* آیا از تکنیکهای آماری انتخابی برای دستکاری نتایج استفاده میکنیم؟
+* آیا توضیحات جایگزینی وجود دارد که ممکن است نتیجه متفاوتی ارائه دهد؟
+
+#### 2.10 انتخاب آزاد
+
+[توهم انتخاب آزاد](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) زمانی رخ میدهد که "معماری انتخاب" سیستم از الگوریتمهای تصمیمگیری برای هدایت افراد به سمت یک نتیجه ترجیحی استفاده میکند، در حالی که به نظر میرسد به آنها گزینهها و کنترل داده شده است. این [الگوهای تاریک](https://www.darkpatterns.org/) میتوانند به کاربران آسیبهای اجتماعی و اقتصادی وارد کنند. از آنجا که تصمیمات کاربران بر پروفایلهای رفتاری تأثیر میگذارد، این اقدامات ممکن است انتخابهای آینده را تقویت یا گسترش دهد و تأثیر این آسیبها را افزایش دهد.
+
+سؤالاتی که باید در اینجا بررسی شوند:
+* آیا کاربر پیامدهای انتخاب خود را درک کرده است؟
+* آیا کاربر از گزینههای (جایگزین) و مزایا و معایب هر یک آگاه بوده است؟
+* آیا کاربر میتواند یک انتخاب خودکار یا تحت تأثیر قرار گرفته را بعداً تغییر دهد؟
+
+### 3. مطالعات موردی
+
+برای قرار دادن این چالشهای اخلاقی در زمینههای واقعی، بررسی مطالعات موردی که آسیبها و پیامدهای احتمالی برای افراد و جامعه را نشان میدهند، زمانی که چنین نقضهای اخلاقی نادیده گرفته میشوند، مفید است.
+
+در اینجا چند مثال آورده شده است:
+
+| چالش اخلاقی | مطالعه موردی |
+|--- |--- |
+| **رضایت آگاهانه** | 1972 - [مطالعه سیفلیس توسکیگی](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - مردان آفریقایی-آمریکایی که در این مطالعه شرکت کردند وعده مراقبت پزشکی رایگان داده شد _اما توسط محققان فریب داده شدند_ که به آنها در مورد تشخیص بیماری یا در دسترس بودن درمان اطلاع ندادند. بسیاری از شرکتکنندگان جان خود را از دست دادند و شرکا یا فرزندان آنها تحت تأثیر قرار گرفتند؛ این مطالعه 40 سال طول کشید. |
+| **حریم خصوصی دادهها** | 2007 - [جایزه دادههای نتفلیکس](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) به محققان _10 میلیون رتبهبندی فیلم ناشناس از 50 هزار مشتری_ ارائه شد تا به بهبود الگوریتمهای توصیه کمک کند. با این حال، محققان توانستند دادههای ناشناس را با دادههای قابل شناسایی شخصی در _مجموعههای داده خارجی_ (مانند نظرات IMDb) مرتبط کنند - به طور مؤثر برخی از مشترکان نتفلیکس را "غیرناشناس" کردند.|
+| **تعصب در جمعآوری دادهها** | 2013 - شهر بوستون [اپلیکیشن Street Bump](https://www.boston.gov/transportation/street-bump) را توسعه داد که به شهروندان اجازه میداد چالهها را گزارش دهند و به شهر دادههای بهتر جادهای برای یافتن و رفع مشکلات ارائه دهد. با این حال، [افراد در گروههای کمدرآمد دسترسی کمتری به خودروها و تلفنها داشتند](https://hbr.org/2013/04/the-hidden-biases-in-big-data)، که مشکلات جادهای آنها را در این اپلیکیشن نامرئی میکرد. توسعهدهندگان با دانشگاهیان همکاری کردند تا مسائل مربوط به _دسترسی عادلانه و شکافهای دیجیتال_ را برای عدالت حل کنند. |
+| **عدالت الگوریتمی** | 2018 - مطالعه [Gender Shades](http://gendershades.org/overview.html) MIT دقت محصولات هوش مصنوعی در طبقهبندی جنسیت را ارزیابی کرد و شکافهای دقت برای زنان و افراد رنگینپوست را آشکار کرد. یک [کارت اپل 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) به نظر میرسید که اعتبار کمتری به زنان نسبت به مردان ارائه میدهد. هر دو مسائل مربوط به تعصب الگوریتمی را نشان دادند که منجر به آسیبهای اجتماعی-اقتصادی شد.|
+| **تحریف دادهها** | 2020 - [وزارت بهداشت جورجیا نمودارهای COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) را منتشر کرد که به نظر میرسید شهروندان را در مورد روند موارد تأییدشده با ترتیب غیرزمانی در محور x گمراه کند. این مثال تحریف از طریق ترفندهای تجسم را نشان میدهد. |
+| **توهم انتخاب آزاد** | 2020 - اپلیکیشن یادگیری [ABCmouse مبلغ 10 میلیون دلار برای حل شکایت FTC پرداخت کرد](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) که والدین را مجبور به پرداخت اشتراکهایی کرد که نمیتوانستند لغو کنند. این مثال الگوهای تاریک در معماری انتخاب را نشان میدهد، جایی که کاربران به سمت انتخابهای بالقوه مضر هدایت شدند. |
+| **حریم خصوصی دادهها و حقوق کاربران** | 2021 - [نشت دادههای فیسبوک](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) دادههای 530 میلیون کاربر را افشا کرد و منجر به تسویه 5 میلیارد دلاری با FTC شد. با این حال، فیسبوک از اطلاعرسانی به کاربران در مورد این نشت خودداری کرد و حقوق کاربران در مورد شفافیت دادهها و دسترسی را نقض کرد. |
+
+آیا میخواهید مطالعات موردی بیشتری را بررسی کنید؟ این منابع را بررسی کنید:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - معضلات اخلاقی در صنایع مختلف.
+* [دوره اخلاق در علم داده](https://www.coursera.org/learn/data-science-ethics#syllabus) - مطالعات موردی برجسته بررسی شده.
+* [جایی که اشتباه رخ داده است](https://deon.drivendata.org/examples/) - چکلیست Deon با مثالها.
+
+> 🚨 به مطالعات موردی که دیدهاید فکر کنید - آیا شما تجربه یا تحت تأثیر چالش اخلاقی مشابهی در زندگی خود قرار گرفتهاید؟ آیا میتوانید حداقل یک مطالعه موردی دیگر را که یکی از چالشهای اخلاقی مورد بحث در این بخش را نشان میدهد، به یاد بیاورید؟
+
+## اخلاق کاربردی
+
+ما درباره مفاهیم اخلاقی، چالشها و مطالعات موردی در زمینههای واقعی صحبت کردیم. اما چگونه میتوانیم اصول و شیوههای اخلاقی را در پروژههای خود _اعمال_ کنیم؟ و چگونه میتوانیم این شیوهها را برای حکمرانی بهتر _عملیاتی_ کنیم؟ بیایید برخی از راهحلهای واقعی را بررسی کنیم:
+
+### 1. کدهای حرفهای
+
+کدهای حرفهای یک گزینه برای سازمانها ارائه میدهند تا اعضا را "تشویق" کنند که از اصول اخلاقی و بیانیه مأموریت آنها حمایت کنند. کدها _راهنمای اخلاقی_ برای رفتار حرفهای هستند و به کارکنان یا اعضا کمک میکنند تصمیماتی بگیرند که با اصول سازمانشان همسو باشد. آنها تنها به اندازه پایبندی داوطلبانه اعضا مؤثر هستند؛ با این حال، بسیاری از سازمانها پاداشها و مجازاتهای اضافی برای انگیزه دادن به اعضا برای پایبندی ارائه میدهند.
+
+نمونهها شامل موارد زیر هستند:
+
+* [کد اخلاق آکسفورد مونیخ](http://www.code-of-ethics.org/code-of-conduct/)
+* [کد رفتار انجمن علم داده](http://datascienceassn.org/code-of-conduct.html) (ایجاد شده در 2013)
+* [کد اخلاق و رفتار حرفهای ACM](https://www.acm.org/code-of-ethics) (از سال 1993)
+
+> 🚨 آیا شما عضو یک سازمان حرفهای مهندسی یا علم داده هستید؟ سایت آنها را بررسی کنید تا ببینید آیا کد اخلاق حرفهای تعریف کردهاند. این کد درباره اصول اخلاقی آنها چه میگوید؟ چگونه اعضا را "تشویق" میکنند که از کد پیروی کنند؟
+
+### 2. چکلیستهای اخلاقی
+
+در حالی که کدهای حرفهای رفتار اخلاقی مورد نیاز را از متخصصان تعریف میکنند، آنها [محدودیتهای شناختهشدهای](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) در اجرا دارند، به ویژه در پروژههای بزرگمقیاس. در عوض، بسیاری از متخصصان علم داده [از چکلیستها حمایت میکنند](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) که میتوانند **اصول را به شیوهها** به صورت قطعیتر و قابل اجرا تبدیل کنند.
+
+چکلیستها سؤالات را به وظایف "بله/خیر" تبدیل میکنند که میتوانند عملیاتی شوند و به عنوان بخشی از جریانهای کاری استاندارد انتشار محصول پیگیری شوند.
+
+نمونهها شامل موارد زیر هستند:
+* [Deon](https://deon.drivendata.org/) - یک چکلیست اخلاق داده عمومی که از [توصیههای صنعتی](https://deon.drivendata.org/#checklist-citations) ایجاد شده و دارای ابزار خط فرمان برای یکپارچهسازی آسان است.
+* [چکلیست ممیزی حریم خصوصی](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - راهنمایی کلی برای شیوههای مدیریت اطلاعات از دیدگاههای قانونی و اجتماعی ارائه میدهد.
+* [چکلیست عدالت هوش مصنوعی](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - توسط متخصصان هوش مصنوعی ایجاد شده تا از پذیرش و یکپارچهسازی بررسیهای عدالت در چرخههای توسعه هوش مصنوعی حمایت کند.
+* [22 سؤال برای اخلاق در دادهها و هوش مصنوعی](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - چارچوبی بازتر، ساختار یافته برای بررسی اولیه مسائل اخلاقی در طراحی، اجرا و زمینههای سازمانی.
+
+### 3. مقررات اخلاقی
+
+اخلاق درباره تعریف ارزشهای مشترک و انجام کار درست به صورت _داوطلبانه_ است. **پایبندی** درباره _پیروی از قانون_ در صورت تعریف شدن است. **حکمرانی** به طور کلی شامل تمام روشهایی است که سازمانها برای اجرای اصول اخلاقی و پایبندی به قوانین تعریفشده عمل میکنند.
+
+امروزه، حکمرانی در سازمانها دو شکل دارد. اول، تعریف اصول **هوش مصنوعی اخلاقی** و ایجاد شیوههایی برای عملیاتی کردن پذیرش در تمام پروژههای مرتبط با هوش مصنوعی در سازمان. دوم، پایبندی به تمام مقررات حفاظت از دادههای دولتی برای مناطقی که در آن فعالیت میکنند.
+
+نمونههایی از مقررات حفاظت از دادهها و حریم خصوصی:
+
+* `1974`، [قانون حریم خصوصی ایالات متحده](https://www.justice.gov/opcl/privacy-act-1974) - جمعآوری، استفاده و افشای اطلاعات شخصی توسط _دولت فدرال_ را تنظیم میکند.
+* `1996`، [قانون قابلیت حمل و حفاظت از بیمه سلامت ایالات متحده (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - از دادههای سلامت شخصی محافظت میکند.
+* `1998`، [قانون حفاظت از حریم خصوصی آنلاین کودکان ایالات متحده (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - از حریم خصوصی دادههای کودکان زیر 13 سال محافظت میکند.
+* `2018`، [مقررات عمومی حفاظت از دادهها (GDPR)](https://gdpr-info.eu/) - حقوق کاربران، حفاظت از دادهها و حریم خصوصی را فراهم میکند.
+* `2018`، [قانون حریم خصوصی مصرفکننده کالیفرنیا (CCPA)](https://www.oag.ca.gov/privacy/ccpa) به مصرفکنندگان حقوق بیشتری بر دادههای (شخصی) خود میدهد.
+* `2021`، [قانون حفاظت از اطلاعات شخصی چین](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) که به تازگی تصویب شده و یکی از قویترین مقررات حریم خصوصی دادههای آنلاین در جهان را ایجاد کرده است.
+
+> 🚨 اتحادیه اروپا GDPR (مقررات عمومی حفاظت از دادهها) را تعریف کرده است که یکی از تأثیرگذارترین مقررات حریم خصوصی دادهها امروز است. آیا میدانستید که این مقررات همچنین [8 حق کاربر](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) را برای حفاظت از حریم خصوصی دیجیتال و دادههای شخصی شهروندان تعریف میکند؟ درباره این حقوق و اهمیت آنها اطلاعات کسب کنید.
+
+### 4. فرهنگ اخلاقی
+
+توجه داشته باشید که شکاف ناملموسی بین _پایبندی_ (انجام کافی برای رعایت "متن قانون") و پرداختن به [مسائل سیستماتیک](https://www.coursera.org/learn/data-science-ethics/home/week/4) (مانند سختشدگی، عدم تقارن اطلاعات و نابرابری توزیعی) وجود دارد که میتواند تسریع در تسلیح هوش مصنوعی را سرعت بخشد.
+
+دومی نیاز به [رویکردهای همکاری برای تعریف فرهنگهای اخلاقی](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) دارد که ارتباطات احساسی و ارزشهای مشترک سازگار را _در سراسر سازمانها_ در صنعت ایجاد میکند. این نیاز به [فرهنگهای اخلاقی داده رسمیتر](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) در سازمانها دارد - اجازه دادن به _هر کسی_ برای [کشیدن طناب Andon](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (برای مطرح کردن نگرانیهای اخلاقی در اوایل فرآیند) و قرار دادن _ارزیابیهای اخلاقی_ (مانند در استخدام) به عنوان معیار اصلی تشکیل تیم در پروژههای هوش مصنوعی.
+
+---
+## [آزمون پس از سخنرانی](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## مرور و مطالعه شخصی
+
+دورهها و کتابها به درک مفاهیم اصلی اخلاق و چالشها کمک میکنند، در حالی که مطالعات موردی و ابزارها به شیوههای اخلاقی کاربردی در زمینههای واقعی کمک میکنند. در اینجا چند منبع برای شروع آورده شده است:
+
+* [یادگیری ماشین برای مبتدیان](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - درس عدالت، از مایکروسافت.
+* [اصول هوش مصنوعی مسئولانه](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - مسیر یادگیری رایگان از Microsoft Learn.
+* [اخلاق و علم داده](https://resources.oreilly.com/examples/0636920203964) - کتاب الکترونیکی از O'Reilly (نوشته M. Loukides, H. Mason و دیگران)
+* [اخلاق در علم داده](https://www.coursera.org/learn/data-science-ethics#syllabus) - دوره آنلاین از دانشگاه میشیگان.
+* [اخلاق بازگشاییشده](https://ethicsunwrapped.utexas.edu/case-studies) - مطالعات موردی از دانشگاه تگزاس.
+
+# تکلیف
+
+[نوشتن یک مطالعه موردی در اخلاق داده](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/02-ethics/assignment.md b/translations/fa/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..5d79f8c1
--- /dev/null
+++ b/translations/fa/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,33 @@
+
+## نوشتن مطالعه موردی اخلاق دادهها
+
+## دستورالعملها
+
+شما درباره چالشهای مختلف [اخلاق دادهها](README.md#2-ethics-challenges) یاد گرفتهاید و نمونههایی از [مطالعات موردی](README.md#3-case-studies) را دیدهاید که چالشهای اخلاق دادهها را در زمینههای واقعی نشان میدهند.
+
+در این تکلیف، شما مطالعه موردی خود را خواهید نوشت که یک چالش اخلاق دادهها را از تجربه شخصی خود یا از یک زمینه واقعی مرتبط که با آن آشنا هستید، منعکس میکند. فقط مراحل زیر را دنبال کنید:
+
+1. `یک چالش اخلاق دادهها انتخاب کنید`. به [نمونههای درس](README.md#2-ethics-challenges) نگاه کنید یا نمونههای آنلاین مانند [چکلیست دیون](https://deon.drivendata.org/examples/) را بررسی کنید تا الهام بگیرید.
+
+2. `یک مثال واقعی را توصیف کنید`. به موقعیتی فکر کنید که درباره آن شنیدهاید (اخبار، مطالعه تحقیقاتی و غیره) یا تجربه کردهاید (جامعه محلی)، که در آن این چالش خاص رخ داده است. به سوالات اخلاق دادهها مرتبط با این چالش فکر کنید - و درباره آسیبهای احتمالی یا پیامدهای ناخواستهای که به دلیل این مسئله ایجاد میشود، بحث کنید. امتیاز اضافی: درباره راهحلها یا فرآیندهایی فکر کنید که ممکن است در اینجا اعمال شوند تا به حذف یا کاهش تأثیرات منفی این چالش کمک کنند.
+
+3. `فهرستی از منابع مرتبط ارائه دهید`. یک یا چند منبع (لینک به مقاله، پست وبلاگ شخصی یا تصویر، مقاله تحقیقاتی آنلاین و غیره) را به اشتراک بگذارید تا ثابت کنید این یک رخداد واقعی بوده است. امتیاز اضافی: منابعی را به اشتراک بگذارید که همچنین آسیبها و پیامدهای احتمالی ناشی از این حادثه را نشان دهند، یا اقدامات مثبت انجامشده برای جلوگیری از تکرار آن را برجسته کنند.
+
+
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | -- |
+یک یا چند چالش اخلاق دادهها شناسایی شدهاند.
مطالعه موردی به وضوح یک حادثه واقعی را که این چالش را منعکس میکند، توصیف میکند و پیامدهای نامطلوب یا آسیبهایی که ایجاد کرده است را برجسته میکند.
حداقل یک منبع مرتبط برای اثبات وقوع این حادثه وجود دارد. | یک چالش اخلاق دادهها شناسایی شده است.
حداقل یک آسیب یا پیامد مرتبط به طور مختصر مورد بحث قرار گرفته است.
با این حال، بحث محدود است یا اثبات وقوع واقعی ندارد. | یک چالش دادهها شناسایی شده است.
با این حال، توضیحات یا منابع به طور کافی چالش را منعکس نمیکنند یا وقوع واقعی آن را اثبات نمیکنند. |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان بومی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/03-defining-data/README.md b/translations/fa/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..51454608
--- /dev/null
+++ b/translations/fa/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,82 @@
+
+# تعریف دادهها
+
+|](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|تعریف دادهها - _طرح مفهومی توسط [@nitya](https://twitter.com/nitya)_ |
+
+دادهها شامل حقایق، اطلاعات، مشاهدات و اندازهگیریهایی هستند که برای کشف و پشتیبانی از تصمیمگیریهای آگاهانه استفاده میشوند. یک نقطه داده، یک واحد منفرد از دادهها در یک مجموعه داده است که شامل مجموعهای از نقاط داده میباشد. مجموعههای داده ممکن است در قالبها و ساختارهای مختلفی ارائه شوند و معمولاً بر اساس منبع آنها یا جایی که دادهها از آن آمدهاند، تعریف میشوند. به عنوان مثال، درآمد ماهانه یک شرکت ممکن است در یک صفحه گسترده باشد، اما دادههای ضربان قلب ساعتی از یک ساعت هوشمند ممکن است در قالب [JSON](https://stackoverflow.com/a/383699) باشد. معمولاً دانشمندان داده با انواع مختلف دادهها در یک مجموعه داده کار میکنند.
+
+این درس بر شناسایی و طبقهبندی دادهها بر اساس ویژگیها و منابع آنها تمرکز دارد.
+
+## [پیش آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## چگونه دادهها توصیف میشوند
+
+### داده خام
+داده خام، دادهای است که از منبع خود در حالت اولیهاش آمده و هنوز تحلیل یا سازماندهی نشده است. برای درک آنچه در یک مجموعه داده اتفاق میافتد، باید به شکلی سازماندهی شود که برای انسانها و همچنین فناوریهایی که ممکن است برای تحلیل بیشتر آن استفاده کنند، قابل فهم باشد. ساختار یک مجموعه داده نحوه سازماندهی آن را توصیف میکند و میتواند به صورت ساختاریافته، غیرساختاریافته و نیمهساختاریافته طبقهبندی شود. این انواع ساختار بسته به منبع متفاوت خواهند بود، اما در نهایت در این سه دسته قرار میگیرند.
+
+### دادههای کمی
+دادههای کمی، مشاهدات عددی در یک مجموعه داده هستند و معمولاً میتوان آنها را تحلیل، اندازهگیری و به صورت ریاضی استفاده کرد. برخی از نمونههای دادههای کمی عبارتند از: جمعیت یک کشور، قد یک فرد یا درآمد فصلی یک شرکت. با تحلیل بیشتر، دادههای کمی میتوانند برای کشف روندهای فصلی شاخص کیفیت هوا (AQI) یا تخمین احتمال ترافیک در ساعات شلوغی یک روز کاری معمولی استفاده شوند.
+
+### دادههای کیفی
+دادههای کیفی که به عنوان دادههای دستهبندیشده نیز شناخته میشوند، دادههایی هستند که نمیتوان آنها را به صورت عینی مانند دادههای کمی اندازهگیری کرد. این دادهها معمولاً در قالبهای مختلفی از دادههای ذهنی هستند که کیفیت چیزی مانند یک محصول یا فرآیند را ثبت میکنند. گاهی اوقات، دادههای کیفی عددی هستند اما معمولاً به صورت ریاضی استفاده نمیشوند، مانند شماره تلفنها یا زمانسنجها. برخی از نمونههای دادههای کیفی عبارتند از: نظرات ویدئویی، مدل و برند یک خودرو یا رنگ مورد علاقه نزدیکترین دوستان شما. دادههای کیفی میتوانند برای درک اینکه کدام محصولات بیشتر مورد علاقه مصرفکنندگان هستند یا شناسایی کلمات کلیدی محبوب در رزومههای شغلی استفاده شوند.
+
+### دادههای ساختاریافته
+دادههای ساختاریافته، دادههایی هستند که در قالب ردیفها و ستونها سازماندهی شدهاند، به طوری که هر ردیف مجموعهای از ستونهای یکسان را دارد. ستونها نمایانگر یک مقدار از نوع خاصی هستند و با نامی که نشاندهنده آن مقدار است شناسایی میشوند، در حالی که ردیفها مقادیر واقعی را شامل میشوند. ستونها اغلب مجموعهای از قوانین یا محدودیتها را برای مقادیر دارند تا اطمینان حاصل شود که مقادیر به درستی نمایانگر ستون هستند. به عنوان مثال، تصور کنید یک صفحه گسترده از مشتریان دارید که هر ردیف باید یک شماره تلفن داشته باشد و شماره تلفنها هرگز شامل حروف الفبا نمیشوند. ممکن است قوانینی برای ستون شماره تلفن اعمال شود تا مطمئن شوید که هرگز خالی نیست و فقط شامل اعداد است.
+
+یکی از مزایای دادههای ساختاریافته این است که میتوان آنها را به گونهای سازماندهی کرد که با دادههای ساختاریافته دیگر مرتبط شوند. با این حال، از آنجا که دادهها به گونهای طراحی شدهاند که به صورت خاصی سازماندهی شوند، ایجاد تغییرات در ساختار کلی آنها ممکن است تلاش زیادی را بطلبد. به عنوان مثال، اضافه کردن یک ستون ایمیل به صفحه گسترده مشتریان که نمیتواند خالی باشد، به این معناست که باید مشخص کنید چگونه این مقادیر را به ردیفهای موجود مشتریان در مجموعه داده اضافه خواهید کرد.
+
+نمونههایی از دادههای ساختاریافته: صفحات گسترده، پایگاههای داده رابطهای، شماره تلفنها، صورتحسابهای بانکی
+
+### دادههای غیرساختاریافته
+دادههای غیرساختاریافته معمولاً نمیتوانند به ردیفها یا ستونها دستهبندی شوند و قالب یا مجموعهای از قوانین برای پیروی ندارند. از آنجا که دادههای غیرساختاریافته محدودیتهای کمتری در ساختار خود دارند، اضافه کردن اطلاعات جدید به آنها در مقایسه با یک مجموعه داده ساختاریافته آسانتر است. اگر یک حسگر که دادههای فشار بارومتریک را هر ۲ دقیقه ثبت میکند، بهروزرسانی شود و اکنون بتواند دما را نیز اندازهگیری و ثبت کند، نیازی به تغییر دادههای موجود نیست اگر دادهها غیرساختاریافته باشند. با این حال، این ممکن است تحلیل یا بررسی این نوع دادهها را طولانیتر کند. به عنوان مثال، یک دانشمند که میخواهد میانگین دمای ماه گذشته را از دادههای حسگر پیدا کند، اما متوجه میشود که حسگر در برخی از دادههای ثبتشده خود به جای عدد معمولی، یک "e" ثبت کرده است تا نشان دهد خراب بوده است، که به معنای ناقص بودن دادهها است.
+
+نمونههایی از دادههای غیرساختاریافته: فایلهای متنی، پیامهای متنی، فایلهای ویدئویی
+
+### دادههای نیمهساختاریافته
+دادههای نیمهساختاریافته ویژگیهایی دارند که آنها را ترکیبی از دادههای ساختاریافته و غیرساختاریافته میسازد. این دادهها معمولاً به قالب ردیفها و ستونها پایبند نیستند، اما به گونهای سازماندهی شدهاند که ساختاریافته در نظر گرفته میشوند و ممکن است از یک قالب ثابت یا مجموعهای از قوانین پیروی کنند. ساختار آنها بسته به منابع متفاوت خواهد بود، مانند یک سلسلهمراتب تعریفشده یا چیزی انعطافپذیرتر که امکان ادغام آسان اطلاعات جدید را فراهم میکند. متادادهها شاخصهایی هستند که به تصمیمگیری درباره نحوه سازماندهی و ذخیره دادهها کمک میکنند و بسته به نوع داده، نامهای مختلفی دارند. برخی از نامهای رایج برای متادادهها عبارتند از: برچسبها، عناصر، موجودیتها و ویژگیها. به عنوان مثال، یک پیام ایمیل معمولی شامل موضوع، متن اصلی و مجموعهای از گیرندگان است و میتواند بر اساس اینکه چه کسی یا چه زمانی ارسال شده است، سازماندهی شود.
+
+نمونههایی از دادههای نیمهساختاریافته: HTML، فایلهای CSV، JavaScript Object Notation (JSON)
+
+## منابع داده
+
+یک منبع داده، مکان اولیهای است که دادهها در آن تولید شدهاند یا "زندگی میکنند" و بسته به نحوه و زمان جمعآوری آنها متفاوت خواهد بود. دادههایی که توسط کاربران آن تولید میشوند، به عنوان دادههای اولیه شناخته میشوند، در حالی که دادههای ثانویه از منبعی میآیند که دادهها را برای استفاده عمومی جمعآوری کرده است. به عنوان مثال، گروهی از دانشمندان که مشاهداتی را در یک جنگل بارانی جمعآوری میکنند، به عنوان دادههای اولیه در نظر گرفته میشوند و اگر تصمیم بگیرند آن را با دانشمندان دیگر به اشتراک بگذارند، برای کسانی که از آن استفاده میکنند، به عنوان دادههای ثانویه محسوب میشود.
+
+پایگاههای داده یک منبع رایج هستند و به یک سیستم مدیریت پایگاه داده متکی هستند تا دادهها را میزبانی و نگهداری کنند، جایی که کاربران از دستورات به نام کوئریها برای کاوش دادهها استفاده میکنند. فایلها به عنوان منابع داده میتوانند شامل فایلهای صوتی، تصویری و ویدئویی و همچنین صفحات گسترده مانند اکسل باشند. منابع اینترنتی یک مکان رایج برای میزبانی دادهها هستند، جایی که پایگاههای داده و همچنین فایلها میتوانند یافت شوند. رابطهای برنامهنویسی کاربردی، که به عنوان API نیز شناخته میشوند، به برنامهنویسان اجازه میدهند راههایی برای به اشتراکگذاری دادهها با کاربران خارجی از طریق اینترنت ایجاد کنند، در حالی که فرآیند وباسکرپینگ دادهها را از یک صفحه وب استخراج میکند. [درسهای کار با دادهها](../../../../../../../../../2-Working-With-Data) بر نحوه استفاده از منابع مختلف داده تمرکز دارند.
+
+## نتیجهگیری
+
+در این درس یاد گرفتیم:
+
+- داده چیست
+- چگونه داده توصیف میشود
+- چگونه داده طبقهبندی و دستهبندی میشود
+- دادهها کجا یافت میشوند
+
+## 🚀 چالش
+
+Kaggle منبعی عالی برای مجموعه دادههای باز است. از [ابزار جستجوی مجموعه داده](https://www.kaggle.com/datasets) استفاده کنید تا چند مجموعه داده جالب پیدا کنید و ۳ تا ۵ مجموعه داده را با این معیارها طبقهبندی کنید:
+
+- آیا دادهها کمی هستند یا کیفی؟
+- آیا دادهها ساختاریافته، غیرساختاریافته یا نیمهساختاریافته هستند؟
+
+## [پسآزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## مرور و مطالعه شخصی
+
+- این واحد از Microsoft Learn با عنوان [طبقهبندی دادههای خود](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data) توضیح مفصلی از دادههای ساختاریافته، نیمهساختاریافته و غیرساختاریافته ارائه میدهد.
+
+## تکلیف
+
+[طبقهبندی مجموعههای داده](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/03-defining-data/assignment.md b/translations/fa/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..9b5d92c7
--- /dev/null
+++ b/translations/fa/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,77 @@
+
+# طبقهبندی مجموعه دادهها
+
+## دستورالعملها
+
+دستورالعملهای این تمرین را دنبال کنید تا دادهها را شناسایی و با یکی از انواع دادههای زیر طبقهبندی کنید:
+
+**انواع ساختار**: ساختاریافته، نیمهساختاریافته، یا بدون ساختار
+
+**انواع ارزش**: کیفی یا کمی
+
+**انواع منبع**: اولیه یا ثانویه
+
+1. یک شرکت خریداری شده و اکنون یک شرکت مادر دارد. دانشمندان داده یک فایل صفحهگسترده شامل شماره تلفن مشتریان از شرکت مادر دریافت کردهاند.
+
+نوع ساختار:
+
+نوع ارزش:
+
+نوع منبع:
+
+---
+
+2. یک ساعت هوشمند دادههای ضربان قلب کاربر خود را جمعآوری کرده و داده خام در قالب JSON است.
+
+نوع ساختار:
+
+نوع ارزش:
+
+نوع منبع:
+
+---
+
+3. یک نظرسنجی محیط کار درباره روحیه کارکنان که در یک فایل CSV ذخیره شده است.
+
+نوع ساختار:
+
+نوع ارزش:
+
+نوع منبع:
+
+---
+
+4. اخترفیزیکدانان به یک پایگاه داده از کهکشانها دسترسی دارند که توسط یک کاوشگر فضایی جمعآوری شده است. دادهها شامل تعداد سیارات در هر کهکشان است.
+
+نوع ساختار:
+
+نوع ارزش:
+
+نوع منبع:
+
+---
+
+5. یک اپلیکیشن مدیریت مالی شخصی از APIها برای اتصال به حسابهای مالی کاربران استفاده میکند تا ارزش خالص دارایی آنها را محاسبه کند. کاربران میتوانند تمام تراکنشهای خود را در قالبی شبیه به یک صفحهگسترده که شامل ردیفها و ستونها است مشاهده کنند.
+
+نوع ساختار:
+
+نوع ارزش:
+
+نوع منبع:
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | -- |
+تمام ساختارها، ارزشها و منابع به درستی شناسایی شدهاند | 3 مورد از ساختارها، ارزشها و منابع به درستی شناسایی شدهاند | 2 مورد یا کمتر از ساختارها، ارزشها و منابع به درستی شناسایی شدهاند |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/04-stats-and-probability/README.md b/translations/fa/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..e3acab51
--- /dev/null
+++ b/translations/fa/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,274 @@
+
+# مقدمهای کوتاه بر آمار و احتمال
+
+|](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| آمار و احتمال - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+نظریه آمار و احتمال دو حوزه مرتبط از ریاضیات هستند که در علم داده بسیار کاربرد دارند. ممکن است بتوان بدون دانش عمیق ریاضی با دادهها کار کرد، اما بهتر است حداقل با برخی مفاهیم پایه آشنا باشید. در اینجا یک مقدمه کوتاه ارائه میدهیم که به شما کمک میکند شروع کنید.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## احتمال و متغیرهای تصادفی
+
+**احتمال** عددی بین ۰ و ۱ است که نشان میدهد یک **رویداد** چقدر محتمل است. احتمال به صورت تعداد نتایج مثبت (که منجر به رویداد میشوند) تقسیم بر تعداد کل نتایج تعریف میشود، به شرطی که همه نتایج به یک اندازه محتمل باشند. برای مثال، وقتی یک تاس میاندازیم، احتمال اینکه عددی زوج بیاید برابر است با ۳/۶ = ۰.۵.
+
+وقتی درباره رویدادها صحبت میکنیم، از **متغیرهای تصادفی** استفاده میکنیم. برای مثال، متغیر تصادفی که عدد حاصل از انداختن تاس را نشان میدهد، میتواند مقادیری از ۱ تا ۶ بگیرد. مجموعه اعداد از ۱ تا ۶ را **فضای نمونه** مینامند. میتوانیم درباره احتمال اینکه یک متغیر تصادفی مقدار خاصی بگیرد صحبت کنیم، مثلاً P(X=3)=1/6.
+
+متغیر تصادفی در مثال قبلی **گسسته** نامیده میشود، زیرا فضای نمونه آن قابل شمارش است، یعنی مقادیر جداگانهای وجود دارند که میتوان آنها را شمارهگذاری کرد. در مواردی که فضای نمونه یک بازه از اعداد حقیقی یا کل مجموعه اعداد حقیقی باشد، چنین متغیرهایی **پیوسته** نامیده میشوند. یک مثال خوب زمان رسیدن اتوبوس است.
+
+## توزیع احتمال
+
+در مورد متغیرهای تصادفی گسسته، توصیف احتمال هر رویداد با یک تابع P(X) آسان است. برای هر مقدار *s* از فضای نمونه *S*، این تابع عددی بین ۰ و ۱ میدهد، به طوری که مجموع تمام مقادیر P(X=s) برای همه رویدادها برابر با ۱ باشد.
+
+معروفترین توزیع گسسته، **توزیع یکنواخت** است که در آن فضای نمونه شامل N عنصر است و احتمال هر یک از آنها برابر با ۱/N است.
+
+توصیف توزیع احتمال یک متغیر پیوسته، با مقادیری که از یک بازه [a,b] یا کل مجموعه اعداد حقیقی ℝ گرفته میشوند، دشوارتر است. به مورد زمان رسیدن اتوبوس فکر کنید. در واقع، برای هر زمان دقیق رسیدن *t*، احتمال اینکه اتوبوس دقیقاً در آن زمان برسد برابر با ۰ است!
+
+> حالا میدانید که رویدادهایی با احتمال ۰ اتفاق میافتند، و آن هم خیلی زیاد! حداقل هر بار که اتوبوس میرسد!
+
+ما فقط میتوانیم درباره احتمال اینکه یک متغیر در یک بازه خاص از مقادیر قرار گیرد صحبت کنیم، مثلاً P(t1≤X2). در این حالت، توزیع احتمال با یک **تابع چگالی احتمال** p(x) توصیف میشود، به طوری که:
+
+![P(t_1\le X1, x2, ..., xn. میتوانیم مقدار **میانگین** (یا **میانگین حسابی**) این دنباله را به روش سنتی به صورت (x1+x2+...+xn)/n تعریف کنیم. با افزایش اندازه نمونه (یعنی گرفتن حد با n→∞)، میانگین (که **امید ریاضی** نیز نامیده میشود) توزیع را به دست خواهیم آورد. امید ریاضی را با **E**(x) نشان میدهیم.
+
+> میتوان نشان داد که برای هر توزیع گسسته با مقادیر {x1, x2, ..., xN} و احتمالات متناظر p1, p2, ..., pN، امید ریاضی برابر است با E(X)=x1p1+x2p2+...+xNpN.
+
+برای تعیین میزان پراکندگی مقادیر، میتوانیم واریانس را به صورت σ2 = ∑(xi - μ)2/n محاسبه کنیم، که در آن μ میانگین دنباله است. مقدار σ **انحراف معیار** نامیده میشود و σ2 **واریانس** نام دارد.
+
+## مد، میانه و چارکها
+
+گاهی اوقات، میانگین به طور کافی مقدار "معمولی" داده را نشان نمیدهد. برای مثال، وقتی چند مقدار بسیار افراطی وجود دارند که کاملاً خارج از محدوده هستند، میتوانند میانگین را تحت تأثیر قرار دهند. یک شاخص خوب دیگر **میانه** است، مقداری که نیمی از نقاط داده کمتر از آن و نیمی دیگر بیشتر از آن هستند.
+
+برای درک بهتر توزیع دادهها، صحبت درباره **چارکها** مفید است:
+
+* چارک اول یا Q1، مقداری است که ۲۵٪ دادهها کمتر از آن هستند.
+* چارک سوم یا Q3، مقداری است که ۷۵٪ دادهها کمتر از آن هستند.
+
+به صورت گرافیکی میتوان رابطه بین میانه و چارکها را در نموداری به نام **باکسپلات** نشان داد:
+
+
+
+در اینجا همچنین **دامنه بین چارکی** IQR=Q3-Q1 و مقادیر **دورافتاده** - مقادیری که خارج از محدوده [Q1-1.5*IQR,Q3+1.5*IQR] هستند - محاسبه میشوند.
+
+برای توزیع محدود که تعداد کمی مقدار ممکن دارد، یک مقدار "معمولی" خوب مقداری است که بیشترین تکرار را دارد، که **مد** نامیده میشود. این مفهوم اغلب برای دادههای دستهبندیشده، مانند رنگها، به کار میرود. به وضعیتی فکر کنید که دو گروه از افراد وجود دارند - برخی که به شدت رنگ قرمز را ترجیح میدهند و دیگرانی که رنگ آبی را ترجیح میدهند. اگر رنگها را با اعداد کدگذاری کنیم، میانگین رنگ مورد علاقه ممکن است جایی در طیف نارنجی-سبز باشد، که نشاندهنده ترجیح واقعی هیچیک از گروهها نیست. اما مد میتواند یکی از رنگها یا هر دو رنگ باشد، اگر تعداد افراد رأیدهنده برای آنها برابر باشد (در این حالت نمونه را **چندمدی** مینامیم).
+
+## دادههای دنیای واقعی
+
+وقتی دادههای دنیای واقعی را تحلیل میکنیم، آنها اغلب به معنای دقیق کلمه متغیرهای تصادفی نیستند، به این معنا که ما آزمایشهایی با نتایج ناشناخته انجام نمیدهیم. برای مثال، تیمی از بازیکنان بیسبال و دادههای بدنی آنها، مانند قد، وزن و سن را در نظر بگیرید. این اعداد دقیقاً تصادفی نیستند، اما همچنان میتوانیم از همان مفاهیم ریاضی استفاده کنیم. برای مثال، دنبالهای از وزن افراد را میتوان به عنوان دنبالهای از مقادیر گرفتهشده از یک متغیر تصادفی در نظر گرفت. در زیر دنبالهای از وزن بازیکنان واقعی بیسبال از [لیگ برتر بیسبال](http://mlb.mlb.com/index.jsp) آورده شده است، که از [این مجموعه داده](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) گرفته شده است (برای راحتی شما، فقط ۲۰ مقدار اول نشان داده شده است):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **توجه**: برای دیدن مثال کار با این مجموعه داده، به [دفترچه همراه](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) نگاهی بیندازید. در طول این درس، تعدادی چالش نیز وجود دارد که میتوانید با افزودن کد به آن دفترچه آنها را تکمیل کنید. اگر مطمئن نیستید چگونه با دادهها کار کنید، نگران نباشید - در آینده به کار با دادهها با استفاده از پایتون بازخواهیم گشت. اگر نمیدانید چگونه کد را در Jupyter Notebook اجرا کنید، به [این مقاله](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) مراجعه کنید.
+
+در اینجا باکسپلاتی که میانگین، میانه و چارکها را برای دادههای ما نشان میدهد آورده شده است:
+
+
+
+از آنجا که دادههای ما شامل اطلاعات مربوط به **نقشهای** مختلف بازیکنان است، میتوانیم باکسپلات را بر اساس نقش نیز انجام دهیم - این کار به ما ایدهای میدهد که چگونه مقادیر پارامترها در نقشهای مختلف متفاوت است. این بار قد را در نظر میگیریم:
+
+
+
+این نمودار نشان میدهد که به طور متوسط، قد بازیکنان بیس اول بیشتر از بازیکنان بیس دوم است. در ادامه این درس یاد خواهیم گرفت که چگونه میتوانیم این فرضیه را به صورت رسمیتر آزمایش کنیم و نشان دهیم که دادههای ما از نظر آماری معنادار هستند.
+
+> هنگام کار با دادههای دنیای واقعی، فرض میکنیم که همه نقاط داده نمونههایی گرفتهشده از یک توزیع احتمال هستند. این فرض به ما اجازه میدهد از تکنیکهای یادگیری ماشین استفاده کنیم و مدلهای پیشبینیکننده کاربردی بسازیم.
+
+برای دیدن توزیع دادههای خود، میتوانیم نموداری به نام **هیستوگرام** رسم کنیم. محور X شامل تعدادی بازه وزنی مختلف (به اصطلاح **باکسها**) خواهد بود و محور عمودی تعداد دفعاتی که نمونه متغیر تصادفی در یک بازه خاص قرار گرفته است را نشان میدهد.
+
+
+
+از این هیستوگرام میتوانید ببینید که همه مقادیر حول یک وزن میانگین خاص متمرکز شدهاند و هرچه از آن وزن دورتر شویم، تعداد وزنهایی با آن مقدار کمتر میشود. یعنی، بسیار غیرمحتمل است که وزن یک بازیکن بیسبال بسیار متفاوت از وزن میانگین باشد. واریانس وزنها نشان میدهد که وزنها تا چه حد ممکن است از میانگین متفاوت باشند.
+
+> اگر وزن افراد دیگری را، نه از لیگ بیسبال، در نظر بگیریم، احتمالاً توزیع متفاوت خواهد بود. با این حال، شکل توزیع یکسان خواهد بود، اما میانگین و واریانس تغییر خواهند کرد. بنابراین، اگر مدل خود را بر روی بازیکنان بیسبال آموزش دهیم، احتمالاً هنگام اعمال آن بر دانشجویان یک دانشگاه نتایج اشتباهی خواهد داد، زیرا توزیع زیرین متفاوت است.
+
+## توزیع نرمال
+
+توزیع وزنهایی که در بالا دیدیم بسیار معمول است و بسیاری از اندازهگیریهای دنیای واقعی از همان نوع توزیع پیروی میکنند، اما با میانگین و واریانس متفاوت. این توزیع **توزیع نرمال** نامیده میشود و نقش بسیار مهمی در آمار دارد.
+
+استفاده از توزیع نرمال راه درستی برای تولید وزنهای تصادفی بازیکنان بالقوه بیسبال است. وقتی میانگین وزن `mean` و انحراف معیار `std` را بدانیم، میتوانیم ۱۰۰۰ نمونه وزن به روش زیر تولید کنیم:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+اگر هیستوگرام نمونههای تولیدشده را رسم کنیم، تصویری بسیار شبیه به آنچه در بالا نشان داده شده است خواهیم دید. و اگر تعداد نمونهها و تعداد باکسها را افزایش دهیم، میتوانیم تصویری از توزیع نرمال که به حالت ایدهآل نزدیکتر است تولید کنیم:
+
+
+
+*توزیع نرمال با میانگین=۰ و انحراف معیار=۱*
+
+## بازههای اطمینان
+
+وقتی درباره وزن بازیکنان بیسبال صحبت میکنیم، فرض میکنیم که یک **متغیر تصادفی W** وجود دارد که به توزیع احتمال ایدهآل وزنهای همه بازیکنان بیسبال (به اصطلاح **جمعیت**) مربوط است. دنباله وزنهای ما به زیرمجموعهای از همه بازیکنان بیسبال که آن را **نمونه** مینامیم مربوط است. یک سؤال جالب این است که آیا میتوانیم پارامترهای توزیع W، یعنی میانگین و واریانس جمعیت، را بدانیم؟
+
+سادهترین پاسخ این است که میانگین و واریانس نمونه خود را محاسبه کنیم. با این حال، ممکن است نمونه تصادفی ما به طور دقیق نماینده کل جمعیت نباشد. بنابراین منطقی است که درباره **بازه اطمینان** صحبت کنیم.
+> **فاصله اطمینان** برآوردی از میانگین واقعی جامعه بر اساس نمونه ما است که با یک احتمال مشخص (یا **سطح اطمینان**) دقیق است.
+فرض کنید نمونهای داریم X1, ..., Xn از توزیع ما. هر بار که نمونهای از توزیع خود میگیریم، به یک مقدار میانگین متفاوت μ میرسیم. بنابراین μ میتواند به عنوان یک متغیر تصادفی در نظر گرفته شود. یک **بازه اطمینان** با اطمینان p یک جفت مقدار (Lp,Rp) است، به طوری که **P**(Lp≤μ≤Rp) = p، یعنی احتمال اینکه مقدار میانگین اندازهگیری شده در این بازه قرار گیرد برابر با p است.
+
+بحث در مورد نحوه محاسبه این بازههای اطمینان فراتر از مقدمه کوتاه ما است. جزئیات بیشتر را میتوانید در [ویکیپدیا](https://en.wikipedia.org/wiki/Confidence_interval) پیدا کنید. به طور خلاصه، توزیع میانگین نمونه محاسبه شده نسبت به میانگین واقعی جمعیت تعریف میشود، که به آن **توزیع دانشجو** گفته میشود.
+
+> **نکته جالب**: توزیع دانشجو به نام ریاضیدان ویلیام سیلی گاست نامگذاری شده است، که مقاله خود را با نام مستعار "Student" منتشر کرد. او در کارخانه آبجوسازی گینس کار میکرد و طبق یکی از نسخهها، کارفرمای او نمیخواست عموم مردم بدانند که آنها از آزمونهای آماری برای تعیین کیفیت مواد اولیه استفاده میکنند.
+
+اگر بخواهیم میانگین μ جمعیت خود را با اطمینان p تخمین بزنیم، باید *(1-p)/2-امین صدک* از توزیع دانشجو A را بگیریم، که میتواند از جداول گرفته شود یا با استفاده از برخی توابع داخلی نرمافزارهای آماری (مانند Python، R و غیره) محاسبه شود. سپس بازه μ به صورت X±A*D/√n خواهد بود، که در آن X میانگین نمونه به دست آمده و D انحراف معیار است.
+
+> **توجه**: ما همچنین بحث در مورد مفهوم مهم [درجات آزادی](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)) را که در ارتباط با توزیع دانشجو مهم است، حذف کردهایم. برای درک عمیقتر این مفهوم میتوانید به کتابهای کاملتر در زمینه آمار مراجعه کنید.
+
+یک مثال از محاسبه بازه اطمینان برای وزنها و قدها در [دفترچههای همراه](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) ارائه شده است.
+
+| p | میانگین وزن |
+|-----|-----------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+توجه کنید که هرچه احتمال اطمینان بالاتر باشد، بازه اطمینان گستردهتر است.
+
+## آزمون فرضیه
+
+در مجموعه داده بازیکنان بیسبال ما، نقشهای مختلف بازیکنان وجود دارد که میتوان آنها را به صورت زیر خلاصه کرد (به [دفترچه همراه](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) نگاه کنید تا ببینید این جدول چگونه محاسبه شده است):
+
+| نقش | قد | وزن | تعداد |
+|------|--------|--------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+میتوانیم مشاهده کنیم که میانگین قد بازیکنان First Baseman بیشتر از Second Baseman است. بنابراین ممکن است وسوسه شویم که نتیجه بگیریم **بازیکنان First Baseman بلندتر از بازیکنان Second Baseman هستند**.
+
+> این بیان **یک فرضیه** نامیده میشود، زیرا نمیدانیم آیا این واقعیت واقعاً درست است یا خیر.
+
+با این حال، همیشه واضح نیست که آیا میتوانیم این نتیجهگیری را انجام دهیم. از بحث بالا میدانیم که هر میانگین دارای یک بازه اطمینان مرتبط است و بنابراین این تفاوت ممکن است فقط یک خطای آماری باشد. ما به یک روش رسمیتر برای آزمون فرضیه خود نیاز داریم.
+
+بیایید بازههای اطمینان را جداگانه برای قدهای بازیکنان First Baseman و Second Baseman محاسبه کنیم:
+
+| اطمینان | First Baseman | Second Baseman |
+|------------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+میتوانیم ببینیم که تحت هیچ سطح اطمینانی بازهها همپوشانی ندارند. این فرضیه ما را که بازیکنان First Baseman بلندتر از بازیکنان Second Baseman هستند، اثبات میکند.
+
+به طور رسمیتر، مسئلهای که ما حل میکنیم این است که ببینیم **آیا دو توزیع احتمالی یکسان هستند** یا حداقل پارامترهای یکسانی دارند. بسته به توزیع، باید از آزمونهای مختلفی برای این کار استفاده کنیم. اگر بدانیم که توزیعهای ما نرمال هستند، میتوانیم از **[آزمون t دانشجو](https://en.wikipedia.org/wiki/Student%27s_t-test)** استفاده کنیم.
+
+در آزمون t دانشجو، ما مقدار **t-value** را محاسبه میکنیم، که تفاوت بین میانگینها را با در نظر گرفتن واریانس نشان میدهد. نشان داده شده است که مقدار t از **توزیع دانشجو** پیروی میکند، که به ما امکان میدهد مقدار آستانه را برای یک سطح اطمینان **p** مشخص به دست آوریم (این مقدار میتواند محاسبه شود یا در جداول عددی جستجو شود). سپس مقدار t را با این آستانه مقایسه میکنیم تا فرضیه را تأیید یا رد کنیم.
+
+در Python، میتوانیم از بسته **SciPy** استفاده کنیم، که شامل تابع `ttest_ind` است (علاوه بر بسیاری از توابع آماری مفید دیگر!). این تابع مقدار t را برای ما محاسبه میکند و همچنین جستجوی معکوس مقدار p اطمینان را انجام میدهد، بنابراین میتوانیم فقط به اطمینان نگاه کنیم تا نتیجهگیری کنیم.
+
+برای مثال، مقایسه ما بین قدهای بازیکنان First Baseman و Second Baseman نتایج زیر را به ما میدهد:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+در مورد ما، مقدار p بسیار کم است، به این معنی که شواهد قویای وجود دارد که نشان میدهد بازیکنان First Baseman بلندتر هستند.
+
+همچنین انواع دیگری از فرضیهها وجود دارد که ممکن است بخواهیم آزمون کنیم، برای مثال:
+* اثبات اینکه یک نمونه داده شده از یک توزیع خاص پیروی میکند. در مورد ما فرض کردهایم که قدها به صورت نرمال توزیع شدهاند، اما این نیاز به تأیید آماری رسمی دارد.
+* اثبات اینکه مقدار میانگین یک نمونه با یک مقدار از پیش تعریف شده مطابقت دارد
+* مقایسه میانگینهای چندین نمونه (مثلاً تفاوت در سطح شادی بین گروههای سنی مختلف)
+
+## قانون اعداد بزرگ و قضیه حد مرکزی
+
+یکی از دلایلی که توزیع نرمال بسیار مهم است، **قضیه حد مرکزی** است. فرض کنید نمونه بزرگی از مقادیر مستقل N داریم X1, ..., XN، که از هر توزیعی با میانگین μ و واریانس σ2 نمونهبرداری شدهاند. سپس، برای N به اندازه کافی بزرگ (به عبارت دیگر، وقتی N→∞)، میانگین ΣiXi به صورت نرمال توزیع میشود، با میانگین μ و واریانس σ2/N.
+
+> یک روش دیگر برای تفسیر قضیه حد مرکزی این است که بگوییم صرف نظر از توزیع، وقتی میانگین مجموع مقادیر هر متغیر تصادفی را محاسبه میکنید، به توزیع نرمال میرسید.
+
+از قضیه حد مرکزی همچنین نتیجه میشود که وقتی N→∞، احتمال اینکه میانگین نمونه برابر با μ باشد به 1 میرسد. این به عنوان **قانون اعداد بزرگ** شناخته میشود.
+
+## کوواریانس و همبستگی
+
+یکی از کارهایی که علم داده انجام میدهد، یافتن روابط بین دادهها است. میگوییم دو دنباله **همبستگی دارند** وقتی رفتار مشابهی را در یک زمان مشخص نشان میدهند، یعنی یا به طور همزمان افزایش/کاهش مییابند، یا یک دنباله افزایش مییابد وقتی دیگری کاهش مییابد و بالعکس. به عبارت دیگر، به نظر میرسد که بین دو دنباله رابطهای وجود دارد.
+
+> همبستگی لزوماً نشاندهنده رابطه علّی بین دو دنباله نیست؛ گاهی هر دو متغیر میتوانند به یک علت خارجی وابسته باشند، یا ممکن است صرفاً به صورت تصادفی دو دنباله همبستگی داشته باشند. با این حال، همبستگی ریاضی قوی نشانه خوبی است که دو متغیر به نوعی به هم مرتبط هستند.
+
+به صورت ریاضی، مفهوم اصلی که رابطه بین دو متغیر تصادفی را نشان میدهد، **کوواریانس** است، که به این صورت محاسبه میشود: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. انحراف هر دو متغیر از میانگینهایشان را محاسبه میکنیم و سپس حاصلضرب این انحرافها را میگیریم. اگر هر دو متغیر با هم انحراف داشته باشند، حاصلضرب همیشه یک مقدار مثبت خواهد بود، که به کوواریانس مثبت اضافه میشود. اگر هر دو متغیر به صورت غیرهمزمان انحراف داشته باشند (یعنی یکی زیر میانگین باشد وقتی دیگری بالای میانگین است)، همیشه اعداد منفی خواهیم داشت، که به کوواریانس منفی اضافه میشود. اگر انحرافها وابسته نباشند، تقریباً به صفر اضافه میشوند.
+
+مقدار مطلق کوواریانس اطلاعات زیادی در مورد میزان همبستگی به ما نمیدهد، زیرا به بزرگی مقادیر واقعی بستگی دارد. برای نرمالسازی آن، میتوانیم کوواریانس را بر انحراف معیار هر دو متغیر تقسیم کنیم تا **همبستگی** به دست آید. نکته خوب این است که همبستگی همیشه در محدوده [-1,1] است، که در آن 1 نشاندهنده همبستگی مثبت قوی بین مقادیر، -1 نشاندهنده همبستگی منفی قوی، و 0 نشاندهنده عدم همبستگی (متغیرها مستقل هستند) است.
+
+**مثال**: میتوانیم همبستگی بین وزنها و قدهای بازیکنان بیسبال را از مجموعه داده ذکر شده در بالا محاسبه کنیم:
+```python
+print(np.corrcoef(weights,heights))
+```
+در نتیجه، ماتریس همبستگی به این صورت به دست میآید:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> ماتریس همبستگی C را میتوان برای هر تعداد دنباله ورودی S1, ..., Sn محاسبه کرد. مقدار Cij همبستگی بین Si و Sj است و عناصر قطر همیشه 1 هستند (که همچنین همبستگی خودی Si است).
+
+در مورد ما، مقدار 0.53 نشان میدهد که بین وزن و قد یک فرد مقداری همبستگی وجود دارد. همچنین میتوانیم نمودار پراکندگی یک مقدار در مقابل دیگری را رسم کنیم تا رابطه را به صورت بصری ببینیم:
+
+
+
+> مثالهای بیشتری از همبستگی و کوواریانس را میتوانید در [دفترچه همراه](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) پیدا کنید.
+
+## نتیجهگیری
+
+در این بخش، یاد گرفتیم:
+
+* ویژگیهای آماری پایه دادهها، مانند میانگین، واریانس، مد و چارکها
+* توزیعهای مختلف متغیرهای تصادفی، از جمله توزیع نرمال
+* نحوه یافتن همبستگی بین ویژگیهای مختلف
+* نحوه استفاده از ابزارهای ریاضی و آماری برای اثبات برخی فرضیهها
+* نحوه محاسبه بازههای اطمینان برای متغیر تصادفی با توجه به نمونه داده
+
+در حالی که این قطعاً لیست کاملی از موضوعاتی که در احتمال و آمار وجود دارد نیست، باید برای شروع خوب در این دوره کافی باشد.
+
+## 🚀 چالش
+
+از کد نمونه در دفترچه استفاده کنید تا فرضیههای زیر را آزمون کنید:
+1. بازیکنان First Baseman از بازیکنان Second Baseman مسنتر هستند
+2. بازیکنان First Baseman از بازیکنان Third Baseman بلندتر هستند
+3. بازیکنان Shortstop از بازیکنان Second Baseman بلندتر هستند
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## مرور و مطالعه خودآموز
+
+احتمال و آمار موضوعی بسیار گسترده است که شایسته دورهای جداگانه است. اگر علاقهمند به مطالعه عمیقتر نظریه هستید، ممکن است بخواهید به خواندن برخی از کتابهای زیر ادامه دهید:
+
+1. [کارلوس فرناندز-گرندا](https://cims.nyu.edu/~cfgranda/) از دانشگاه نیویورک یادداشتهای درسی عالی دارد [احتمال و آمار برای علم داده](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (به صورت آنلاین در دسترس است)
+1. [پیتر و اندرو بروس. آمار عملی برای دانشمندان داده.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[کد نمونه در R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [جیمز دی. میلر. آمار برای علم داده](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[کد نمونه در R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## تکلیف
+
+[مطالعه کوچک دیابت](assignment.md)
+
+## اعتبار
+
+این درس با ♥️ توسط [دمیتری سوشنیکوف](http://soshnikov.com) نوشته شده است.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/04-stats-and-probability/assignment.md b/translations/fa/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..e740770f
--- /dev/null
+++ b/translations/fa/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,38 @@
+
+# مطالعه کوچک دیابت
+
+در این تکلیف، با یک مجموعه داده کوچک از بیماران دیابتی که از [اینجا](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html) گرفته شده است، کار خواهیم کرد.
+
+| | سن | جنسیت | شاخص توده بدنی (BMI) | فشار خون (BP) | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-----|-----|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## دستورالعملها
+
+* [دفترچه تکلیف](../../../../1-Introduction/04-stats-and-probability/assignment.ipynb) را در محیط نوتبوک جویتر باز کنید
+* تمام وظایف ذکر شده در دفترچه را کامل کنید، شامل:
+ * [ ] محاسبه میانگین و واریانس برای تمام مقادیر
+ * [ ] رسم نمودارهای جعبهای برای BMI، BP و Y بر اساس جنسیت
+ * [ ] توزیع متغیرهای سن، جنسیت، BMI و Y چگونه است؟
+ * [ ] بررسی همبستگی بین متغیرهای مختلف و پیشرفت بیماری (Y)
+ * [ ] آزمایش فرضیه که درجه پیشرفت دیابت بین مردان و زنان متفاوت است
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | -- |
+تمام وظایف مورد نیاز کامل شدهاند، به صورت گرافیکی نشان داده شده و توضیح داده شدهاند | بیشتر وظایف کامل شدهاند، توضیحات یا نتایج حاصل از نمودارها و/یا مقادیر به دست آمده وجود ندارد | فقط وظایف پایه مانند محاسبه میانگین/واریانس و نمودارهای پایه کامل شدهاند، هیچ نتیجهگیری از دادهها انجام نشده است
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/1-Introduction/README.md b/translations/fa/1-Introduction/README.md
new file mode 100644
index 00000000..0b8bba4d
--- /dev/null
+++ b/translations/fa/1-Introduction/README.md
@@ -0,0 +1,29 @@
+
+# مقدمهای بر علم داده
+
+
+> عکس از استیون داوسون در Unsplash
+
+در این درسها، شما خواهید آموخت که علم داده چگونه تعریف میشود و با ملاحظات اخلاقی که یک دانشمند داده باید در نظر بگیرد آشنا خواهید شد. همچنین خواهید آموخت که داده چگونه تعریف میشود و کمی درباره آمار و احتمال، حوزههای اصلی علمی علم داده، یاد خواهید گرفت.
+
+### موضوعات
+
+1. [تعریف علم داده](01-defining-data-science/README.md)
+2. [اخلاق در علم داده](02-ethics/README.md)
+3. [تعریف داده](03-defining-data/README.md)
+4. [مقدمهای بر آمار و احتمال](04-stats-and-probability/README.md)
+
+### اعتبارها
+
+این درسها با ❤️ توسط [نیتیا ناراسیمهان](https://twitter.com/nitya) و [دمیتری سوشنیکوف](https://twitter.com/shwars) نوشته شدهاند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادقتیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/05-relational-databases/README.md b/translations/fa/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..704f6ddf
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,193 @@
+
+# کار با دادهها: پایگاه دادههای رابطهای
+
+|](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| کار با دادهها: پایگاه دادههای رابطهای - _طرحنگاری توسط [@nitya](https://twitter.com/nitya)_ |
+
+احتمالاً در گذشته از یک صفحه گسترده برای ذخیره اطلاعات استفاده کردهاید. شما مجموعهای از ردیفها و ستونها داشتید، که ردیفها شامل اطلاعات (یا دادهها) بودند و ستونها اطلاعات را توصیف میکردند (گاهی اوقات به آنها متاداده گفته میشود). یک پایگاه داده رابطهای بر اساس این اصل اصلی ستونها و ردیفها در جداول ساخته شده است، که به شما امکان میدهد اطلاعات را در چندین جدول پخش کنید. این به شما اجازه میدهد با دادههای پیچیدهتر کار کنید، از تکرار جلوگیری کنید و انعطافپذیری بیشتری در نحوه بررسی دادهها داشته باشید. بیایید مفاهیم پایگاه داده رابطهای را بررسی کنیم.
+
+## [پیشازدرس: آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## همه چیز از جداول شروع میشود
+
+یک پایگاه داده رابطهای در هسته خود جداول دارد. درست مانند صفحه گسترده، یک جدول مجموعهای از ستونها و ردیفها است. ردیف شامل دادهها یا اطلاعاتی است که میخواهیم با آنها کار کنیم، مانند نام یک شهر یا میزان بارندگی. ستونها دادههایی را که ذخیره میکنند توصیف میکنند.
+
+بیایید بررسی خود را با شروع یک جدول برای ذخیره اطلاعات درباره شهرها آغاز کنیم. ممکن است با نام و کشور آنها شروع کنیم. شما میتوانید این اطلاعات را به صورت زیر در یک جدول ذخیره کنید:
+
+| شهر | کشور |
+| -------- | ------------- |
+| توکیو | ژاپن |
+| آتلانتا | ایالات متحده |
+| آوکلند | نیوزیلند |
+
+توجه کنید که نام ستونهای **شهر**، **کشور** و **جمعیت** دادههای ذخیرهشده را توصیف میکنند و هر ردیف اطلاعات مربوط به یک شهر را دارد.
+
+## محدودیتهای رویکرد تکجدولی
+
+احتمالاً جدول بالا برای شما نسبتاً آشنا به نظر میرسد. بیایید شروع به افزودن دادههای اضافی به پایگاه داده در حال رشد خود کنیم - بارندگی سالانه (بر حسب میلیمتر). ما بر سالهای ۲۰۱۸، ۲۰۱۹ و ۲۰۲۰ تمرکز خواهیم کرد. اگر بخواهیم آن را برای توکیو اضافه کنیم، ممکن است چیزی شبیه به این باشد:
+
+| شهر | کشور | سال | مقدار |
+| ----- | -------| ---- | ------|
+| توکیو | ژاپن | ۲۰۲۰ | ۱۶۹۰ |
+| توکیو | ژاپن | ۲۰۱۹ | ۱۸۷۴ |
+| توکیو | ژاپن | ۲۰۱۸ | ۱۴۴۵ |
+
+چه چیزی در مورد جدول ما متوجه میشوید؟ ممکن است متوجه شوید که نام و کشور شهر را بارها و بارها تکرار میکنیم. این میتواند فضای ذخیرهسازی زیادی را اشغال کند و تا حد زیادی غیرضروری است که چندین نسخه از آن داشته باشیم. به هر حال، توکیو فقط یک نام دارد که ما به آن علاقهمندیم.
+
+خب، بیایید چیز دیگری را امتحان کنیم. بیایید ستونهای جدیدی برای هر سال اضافه کنیم:
+
+| شهر | کشور | ۲۰۱۸ | ۲۰۱۹ | ۲۰۲۰ |
+| -------- | ------------- | ---- | ---- | ---- |
+| توکیو | ژاپن | ۱۴۴۵ | ۱۸۷۴ | ۱۶۹۰ |
+| آتلانتا | ایالات متحده | ۱۷۷۹ | ۱۱۱۱ | ۱۶۸۳ |
+| آوکلند | نیوزیلند | ۱۳۸۶ | ۹۴۲ | ۱۱۷۶ |
+
+در حالی که این روش از تکرار ردیفها جلوگیری میکند، چند چالش دیگر را اضافه میکند. ما باید هر بار که سال جدیدی وجود دارد، ساختار جدول خود را تغییر دهیم. علاوه بر این، با رشد دادههای ما، داشتن سالها به عنوان ستونها باعث میشود که بازیابی و محاسبه مقادیر دشوارتر شود.
+
+به همین دلیل است که ما به جداول متعدد و روابط نیاز داریم. با تقسیم دادههای خود، میتوانیم از تکرار جلوگیری کنیم و انعطافپذیری بیشتری در نحوه کار با دادهها داشته باشیم.
+
+## مفاهیم روابط
+
+بیایید به دادههای خود بازگردیم و تعیین کنیم که چگونه میخواهیم آنها را تقسیم کنیم. میدانیم که میخواهیم نام و کشور شهرهای خود را ذخیره کنیم، بنابراین این احتمالاً در یک جدول بهتر عمل میکند.
+
+| شهر | کشور |
+| -------- | ------------- |
+| توکیو | ژاپن |
+| آتلانتا | ایالات متحده |
+| آوکلند | نیوزیلند |
+
+اما قبل از اینکه جدول بعدی را ایجاد کنیم، باید بفهمیم چگونه هر شهر را ارجاع دهیم. ما به نوعی شناسه، ID یا (در اصطلاح فنی پایگاه داده) کلید اصلی نیاز داریم. کلید اصلی مقداری است که برای شناسایی یک ردیف خاص در جدول استفاده میشود. در حالی که این میتواند بر اساس یک مقدار باشد (میتوانیم از نام شهر استفاده کنیم، برای مثال)، تقریباً همیشه باید یک عدد یا شناسه دیگر باشد. نمیخواهیم شناسه هرگز تغییر کند زیرا این باعث شکستن رابطه میشود. در بیشتر موارد، کلید اصلی یا شناسه یک عدد خودکار تولید شده خواهد بود.
+
+> ✅ کلید اصلی اغلب به صورت PK خلاصه میشود
+
+### شهرها
+
+| city_id | شهر | کشور |
+| ------- | -------- | ------------- |
+| ۱ | توکیو | ژاپن |
+| ۲ | آتلانتا | ایالات متحده |
+| ۳ | آوکلند | نیوزیلند |
+
+> ✅ شما متوجه خواهید شد که ما از اصطلاحات "شناسه" و "کلید اصلی" به صورت متناوب در طول این درس استفاده میکنیم. مفاهیم اینجا به DataFrames نیز اعمال میشوند، که بعداً آنها را بررسی خواهید کرد. DataFrames از اصطلاح "کلید اصلی" استفاده نمیکنند، اما شما متوجه خواهید شد که آنها تقریباً به همان شیوه عمل میکنند.
+
+با ایجاد جدول شهرها، بیایید بارندگی را ذخیره کنیم. به جای تکرار اطلاعات کامل درباره شهر، میتوانیم از شناسه استفاده کنیم. همچنین باید اطمینان حاصل کنیم که جدول تازه ایجاد شده دارای یک ستون *شناسه* نیز باشد، زیرا همه جداول باید یک شناسه یا کلید اصلی داشته باشند.
+
+### بارندگی
+
+| rainfall_id | city_id | سال | مقدار |
+| ----------- | ------- | ---- | ------|
+| ۱ | ۱ | ۲۰۱۸ | ۱۴۴۵ |
+| ۲ | ۱ | ۲۰۱۹ | ۱۸۷۴ |
+| ۳ | ۱ | ۲۰۲۰ | ۱۶۹۰ |
+| ۴ | ۲ | ۲۰۱۸ | ۱۷۷۹ |
+| ۵ | ۲ | ۲۰۱۹ | ۱۱۱۱ |
+| ۶ | ۲ | ۲۰۲۰ | ۱۶۸۳ |
+| ۷ | ۳ | ۲۰۱۸ | ۱۳۸۶ |
+| ۸ | ۳ | ۲۰۱۹ | ۹۴۲ |
+| ۹ | ۳ | ۲۰۲۰ | ۱۱۷۶ |
+
+توجه کنید به ستون **city_id** در جدول تازه ایجاد شده **بارندگی**. این ستون شامل مقادیری است که به شناسههای جدول **شهرها** اشاره میکنند. در اصطلاح فنی دادههای رابطهای، این به عنوان **کلید خارجی** شناخته میشود؛ این یک کلید اصلی از جدول دیگر است. شما میتوانید به سادگی آن را به عنوان یک مرجع یا اشارهگر در نظر بگیرید. **city_id** ۱ به توکیو اشاره میکند.
+
+> [!NOTE] کلید خارجی اغلب به صورت FK خلاصه میشود
+
+## بازیابی دادهها
+
+با جدا کردن دادههای خود به دو جدول، ممکن است از خود بپرسید چگونه آنها را بازیابی کنیم. اگر از یک پایگاه داده رابطهای مانند MySQL، SQL Server یا Oracle استفاده کنیم، میتوانیم از زبانی به نام زبان پرسوجوی ساختاریافته یا SQL استفاده کنیم. SQL (گاهی اوقات به صورت "سیکوئل" تلفظ میشود) یک زبان استاندارد است که برای بازیابی و اصلاح دادهها در یک پایگاه داده رابطهای استفاده میشود.
+
+برای بازیابی دادهها از دستور `SELECT` استفاده میکنید. در هسته خود، شما **ستونهایی را که میخواهید ببینید انتخاب میکنید** و **از** جدولی که در آن قرار دارند. اگر بخواهید فقط نام شهرها را نمایش دهید، میتوانید از دستور زیر استفاده کنید:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` جایی است که ستونها را لیست میکنید و `FROM` جایی است که جداول را لیست میکنید.
+
+> [NOTE] نحو SQL حساس به حروف بزرگ و کوچک نیست، به این معنی که `select` و `SELECT` یکسان هستند. با این حال، بسته به نوع پایگاه دادهای که استفاده میکنید، ستونها و جداول ممکن است حساس به حروف بزرگ و کوچک باشند. به همین دلیل، بهترین روش این است که همیشه همه چیز را در برنامهنویسی حساس به حروف بزرگ و کوچک در نظر بگیرید. هنگام نوشتن پرسوجوهای SQL، عرف رایج این است که کلمات کلیدی را با حروف بزرگ بنویسید.
+
+پرسوجوی بالا تمام شهرها را نمایش خواهد داد. بیایید تصور کنیم که فقط میخواهیم شهرهای نیوزیلند را نمایش دهیم. ما به نوعی فیلتر نیاز داریم. کلمه کلیدی SQL برای این کار `WHERE` است، یا "جایی که چیزی درست است".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## اتصال دادهها
+
+تا کنون دادهها را از یک جدول بازیابی کردهایم. اکنون میخواهیم دادهها را از هر دو جدول **شهرها** و **بارندگی** با هم ترکیب کنیم. این کار با *اتصال* آنها انجام میشود. شما اساساً یک پیوند بین دو جدول ایجاد میکنید و مقادیر یک ستون از هر جدول را با هم تطبیق میدهید.
+
+در مثال ما، ستون **city_id** در **بارندگی** را با ستون **city_id** در **شهرها** تطبیق خواهیم داد. این کار مقدار بارندگی را با شهر مربوطه تطبیق میدهد. نوع اتصالی که انجام خواهیم داد چیزی است که به عنوان اتصال *داخلی* شناخته میشود، به این معنی که اگر هر ردیفی با چیزی از جدول دیگر مطابقت نداشته باشد، نمایش داده نمیشود. در مورد ما، هر شهر بارندگی دارد، بنابراین همه چیز نمایش داده خواهد شد.
+
+بیایید بارندگی سال ۲۰۱۹ را برای تمام شهرهای خود بازیابی کنیم.
+
+ما این کار را در مراحل انجام خواهیم داد. اولین مرحله اتصال دادهها با مشخص کردن ستونهای پیوند - **city_id** همانطور که قبلاً برجسته شد.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+ما دو ستون مورد نظر را برجسته کردهایم و این واقعیت که میخواهیم جداول را با **city_id** به هم متصل کنیم. اکنون میتوانیم عبارت `WHERE` را اضافه کنیم تا فقط سال ۲۰۱۹ را فیلتر کنیم.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## خلاصه
+
+پایگاه دادههای رابطهای بر تقسیم اطلاعات بین چندین جدول متمرکز هستند که سپس برای نمایش و تحلیل دوباره با هم ترکیب میشوند. این انعطافپذیری بالایی برای انجام محاسبات و دستکاری دادهها فراهم میکند. شما مفاهیم اصلی یک پایگاه داده رابطهای و نحوه انجام اتصال بین دو جدول را مشاهده کردهاید.
+
+## 🚀 چالش
+
+پایگاه دادههای رابطهای متعددی در اینترنت موجود هستند. شما میتوانید با استفاده از مهارتهایی که در بالا آموختهاید، دادهها را بررسی کنید.
+
+## آزمون پس از درس
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## مرور و مطالعه شخصی
+
+منابع متعددی در [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) برای ادامه بررسی مفاهیم SQL و پایگاه دادههای رابطهای در دسترس شما هستند:
+
+- [توصیف مفاهیم دادههای رابطهای](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [شروع کار با پرسوجوهای Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL نسخهای از SQL است)
+- [محتوای SQL در Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## تکلیف
+
+[عنوان تکلیف](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/05-relational-databases/assignment.md b/translations/fa/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..89b6e22f
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,71 @@
+
+# نمایش دادههای فرودگاه
+
+یک [پایگاه داده](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) مبتنی بر [SQLite](https://sqlite.org/index.html) که شامل اطلاعاتی درباره فرودگاهها است، در اختیار شما قرار گرفته است. طرح پایگاه داده در زیر نمایش داده شده است. شما از [افزونه SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) در [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) برای نمایش اطلاعات فرودگاههای شهرهای مختلف استفاده خواهید کرد.
+
+## دستورالعملها
+
+برای شروع این تمرین، باید چند مرحله را انجام دهید. لازم است ابزارهایی نصب کنید و پایگاه داده نمونه را دانلود کنید.
+
+### تنظیم سیستم
+
+شما میتوانید از Visual Studio Code و افزونه SQLite برای تعامل با پایگاه داده استفاده کنید.
+
+1. به [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) بروید و دستورالعملها را برای نصب Visual Studio Code دنبال کنید.
+1. افزونه [SQLite extension](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) را طبق دستورالعملهای صفحه Marketplace نصب کنید.
+
+### دانلود و باز کردن پایگاه داده
+
+در مرحله بعد، پایگاه داده را دانلود و باز کنید.
+
+1. فایل [پایگاه داده از GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) را دانلود کرده و در یک پوشه ذخیره کنید.
+1. Visual Studio Code را باز کنید.
+1. پایگاه داده را در افزونه SQLite باز کنید. برای این کار، **Ctl-Shift-P** (یا **Cmd-Shift-P** در مک) را فشار دهید و عبارت `SQLite: Open database` را تایپ کنید.
+1. گزینه **Choose database from file** را انتخاب کرده و فایل **airports.db** که قبلاً دانلود کردهاید را باز کنید.
+1. پس از باز کردن پایگاه داده (هیچ تغییری روی صفحه مشاهده نخواهید کرد)، یک پنجره جدید برای نوشتن کوئری ایجاد کنید. برای این کار، **Ctl-Shift-P** (یا **Cmd-Shift-P** در مک) را فشار دهید و عبارت `SQLite: New query` را تایپ کنید.
+
+پس از باز شدن پنجره جدید، میتوانید دستورات SQL را روی پایگاه داده اجرا کنید. برای اجرای کوئریها، از دستور **Ctl-Shift-Q** (یا **Cmd-Shift-Q** در مک) استفاده کنید.
+
+> [!NOTE] برای اطلاعات بیشتر درباره افزونه SQLite، میتوانید به [مستندات](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) مراجعه کنید.
+
+## طرح پایگاه داده
+
+طرح پایگاه داده، طراحی و ساختار جدولهای آن است. پایگاه داده **airports** شامل دو جدول است: `cities` که لیستی از شهرهای بریتانیا و ایرلند را در بر دارد، و `airports` که لیستی از تمام فرودگاهها را شامل میشود. از آنجا که برخی شهرها ممکن است چندین فرودگاه داشته باشند، دو جدول برای ذخیره اطلاعات ایجاد شدهاند. در این تمرین، شما از اتصال جداول برای نمایش اطلاعات شهرهای مختلف استفاده خواهید کرد.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK to id in **Cities**) |
+
+## تمرین
+
+کوئریهایی ایجاد کنید که اطلاعات زیر را بازگردانند:
+
+1. تمام نامهای شهرها در جدول `Cities`
+1. تمام شهرهای ایرلند در جدول `Cities`
+1. تمام نامهای فرودگاهها همراه با شهر و کشورشان
+1. تمام فرودگاههای لندن، بریتانیا
+
+## معیار ارزیابی
+
+| عالی | قابل قبول | نیاز به بهبود |
+| --------- | -------- | ------------- |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/06-non-relational/README.md b/translations/fa/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..bfc1c79e
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,156 @@
+
+# کار با دادهها: دادههای غیر رابطهای
+
+|](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|کار با دادههای NoSQL - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+## [پیشازدرس: آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+دادهها محدود به پایگاههای داده رابطهای نیستند. این درس بر دادههای غیر رابطهای تمرکز دارد و اصول اولیه صفحات گسترده و NoSQL را پوشش میدهد.
+
+## صفحات گسترده
+
+صفحات گسترده یکی از روشهای محبوب برای ذخیره و بررسی دادهها هستند زیرا راهاندازی و شروع کار با آنها نیاز به تلاش کمتری دارد. در این درس، شما با اجزای اصلی یک صفحه گسترده، فرمولها و توابع آشنا خواهید شد. مثالها با استفاده از Microsoft Excel نشان داده میشوند، اما بیشتر بخشها و موضوعات نامها و مراحل مشابهی در مقایسه با سایر نرمافزارهای صفحات گسترده دارند.
+
+
+
+یک صفحه گسترده یک فایل است و در سیستم فایل یک کامپیوتر، دستگاه یا سیستم فایل مبتنی بر ابر قابل دسترسی خواهد بود. نرمافزار ممکن است مبتنی بر مرورگر باشد یا یک برنامه که باید روی کامپیوتر نصب شود یا به عنوان اپلیکیشن دانلود شود. در Excel این فایلها به عنوان **دفتر کار** تعریف میشوند و این اصطلاح در ادامه این درس استفاده خواهد شد.
+
+یک دفتر کار شامل یک یا چند **برگه** است که هر برگه با زبانهها برچسبگذاری شده است. درون یک برگه مستطیلهایی به نام **سلولها** وجود دارند که دادههای واقعی را در خود جای میدهند. یک سلول محل تقاطع یک ردیف و ستون است، جایی که ستونها با حروف الفبایی و ردیفها به صورت عددی برچسبگذاری شدهاند. برخی صفحات گسترده ممکن است در چند ردیف اول دارای سرصفحههایی باشند که دادههای موجود در یک سلول را توصیف میکنند.
+
+با این عناصر اصلی یک دفتر کار Excel، ما از یک مثال از [الگوهای Microsoft](https://templates.office.com/) که بر موجودی تمرکز دارد استفاده خواهیم کرد تا برخی از بخشهای اضافی یک صفحه گسترده را مرور کنیم.
+
+### مدیریت موجودی
+
+فایل صفحه گستردهای به نام "InventoryExample" یک صفحه گسترده قالببندی شده از اقلام موجود در یک موجودی است که شامل سه برگه است، جایی که زبانهها با نامهای "Inventory List"، "Inventory Pick List" و "Bin Lookup" برچسبگذاری شدهاند. ردیف ۴ از برگه Inventory List سرصفحه است که مقدار هر سلول در ستون سرصفحه را توصیف میکند.
+
+
+
+مواردی وجود دارد که یک سلول به مقادیر سایر سلولها وابسته است تا مقدار خود را تولید کند. صفحه گسترده Inventory List هزینه هر آیتم موجود در موجودی را پیگیری میکند، اما اگر بخواهیم ارزش کل موجودی را بدانیم چه؟ [**فرمولها**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) عملیاتهایی را بر روی دادههای سلول انجام میدهند و در این مثال برای محاسبه هزینه موجودی استفاده میشوند. این صفحه گسترده از یک فرمول در ستون Inventory Value استفاده کرده است تا ارزش هر آیتم را با ضرب مقدار زیر سرصفحه QTY و هزینههای زیر سرصفحه COST محاسبه کند. با دوبار کلیک کردن یا برجسته کردن یک سلول، فرمول نمایش داده میشود. خواهید دید که فرمولها با علامت مساوی شروع میشوند و به دنبال آن محاسبه یا عملیات انجام میشود.
+
+
+
+ما میتوانیم از یک فرمول دیگر برای جمع کردن تمام مقادیر ستون Inventory Value استفاده کنیم تا ارزش کل آن را به دست آوریم. این کار میتواند با جمع کردن هر سلول برای تولید مجموع انجام شود، اما این کار میتواند خستهکننده باشد. Excel دارای [**توابع**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89) یا فرمولهای از پیش تعریف شدهای است که محاسبات را بر روی مقادیر سلول انجام میدهند. توابع به آرگومانها نیاز دارند، که مقادیر مورد نیاز برای انجام این محاسبات هستند. هنگامی که توابع به بیش از یک آرگومان نیاز دارند، باید به ترتیب خاصی فهرست شوند وگرنه ممکن است تابع مقدار صحیح را محاسبه نکند. این مثال از تابع SUM استفاده میکند و از مقادیر ستون Inventory Value به عنوان آرگومان برای تولید مجموع استفاده میکند که در ردیف ۳، ستون B (که به آن B3 نیز گفته میشود) فهرست شده است.
+
+## NoSQL
+
+NoSQL یک اصطلاح کلی برای روشهای مختلف ذخیره دادههای غیر رابطهای است و میتواند به عنوان "غیر-SQL"، "غیر رابطهای" یا "نه فقط SQL" تفسیر شود. این نوع سیستمهای پایگاه داده را میتوان به ۴ نوع دستهبندی کرد.
+
+
+> منبع از [وبلاگ Michał Białecki](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+پایگاههای داده [کلید-مقدار](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) کلیدهای منحصر به فرد را که شناسهای منحصر به فرد مرتبط با یک مقدار هستند، جفت میکنند. این جفتها با استفاده از یک [جدول هش](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) با یک تابع هش مناسب ذخیره میشوند.
+
+
+> منبع از [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+پایگاههای داده [گراف](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) روابط در دادهها را توصیف میکنند و به صورت مجموعهای از گرهها و لبهها نمایش داده میشوند. یک گره نمایانگر یک موجودیت است، چیزی که در دنیای واقعی وجود دارد مانند یک دانشآموز یا صورتحساب بانکی. لبهها رابطه بین دو موجودیت را نشان میدهند. هر گره و لبه دارای ویژگیهایی هستند که اطلاعات اضافی درباره هر گره و لبه ارائه میدهند.
+
+
+
+پایگاههای داده [ستونی](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) دادهها را به ستونها و ردیفها سازماندهی میکنند، مشابه یک ساختار داده رابطهای، اما هر ستون به گروههایی به نام خانواده ستون تقسیم میشود، جایی که تمام دادههای زیر یک ستون مرتبط هستند و میتوانند به صورت یک واحد بازیابی و تغییر داده شوند.
+
+### پایگاههای داده سندی با Azure Cosmos DB
+
+پایگاههای داده [سندی](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) بر اساس مفهوم پایگاه داده کلید-مقدار ساخته شدهاند و از مجموعهای از فیلدها و اشیاء تشکیل شدهاند. این بخش پایگاههای داده سندی را با شبیهساز Cosmos DB بررسی خواهد کرد.
+
+یک پایگاه داده Cosmos DB تعریف "نه فقط SQL" را برآورده میکند، جایی که پایگاه داده سندی Cosmos DB برای پرسوجو دادهها به SQL متکی است. [درس قبلی](../05-relational-databases/README.md) درباره SQL اصول اولیه این زبان را پوشش میدهد و ما قادر خواهیم بود برخی از همان پرسوجوها را در اینجا به یک پایگاه داده سندی اعمال کنیم. ما از شبیهساز Cosmos DB استفاده خواهیم کرد که به ما امکان میدهد یک پایگاه داده سندی را به صورت محلی روی یک کامپیوتر ایجاد و بررسی کنیم. درباره شبیهساز [اینجا](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21) بیشتر بخوانید.
+
+یک سند مجموعهای از فیلدها و مقادیر اشیاء است، جایی که فیلدها توصیف میکنند که مقدار شیء چه چیزی را نشان میدهد. در زیر یک مثال از یک سند آورده شده است.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+فیلدهای مورد توجه در این سند عبارتند از: `firstname`، `id` و `age`. سایر فیلدها با زیرخطها توسط Cosmos DB تولید شدهاند.
+
+#### بررسی دادهها با شبیهساز Cosmos DB
+
+شما میتوانید شبیهساز را [برای ویندوز از اینجا](https://aka.ms/cosmosdb-emulator) دانلود و نصب کنید. برای گزینههای اجرای شبیهساز برای macOS و Linux به این [مستندات](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) مراجعه کنید.
+
+شبیهساز یک پنجره مرورگر را باز میکند، جایی که نمای Explorer به شما امکان میدهد اسناد را بررسی کنید.
+
+
+
+اگر همراه هستید، روی "Start with Sample" کلیک کنید تا یک پایگاه داده نمونه به نام SampleDB ایجاد شود. اگر SampleDB را با کلیک بر روی فلش گسترش دهید، یک کانتینر به نام `Persons` پیدا خواهید کرد. یک کانتینر مجموعهای از آیتمها را نگه میدارد که اسناد درون کانتینر هستند. شما میتوانید چهار سند فردی را تحت `Items` بررسی کنید.
+
+
+
+#### پرسوجوی دادههای سندی با شبیهساز Cosmos DB
+
+ما همچنین میتوانیم دادههای نمونه را با کلیک بر روی دکمه پرسوجوی SQL جدید (دومین دکمه از سمت چپ) پرسوجو کنیم.
+
+`SELECT * FROM c` تمام اسناد موجود در کانتینر را برمیگرداند. بیایید یک عبارت where اضافه کنیم و همه افراد زیر ۴۰ سال را پیدا کنیم.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+پرسوجو دو سند را برمیگرداند، توجه کنید که مقدار age برای هر سند کمتر از ۴۰ است.
+
+#### JSON و اسناد
+
+اگر با JavaScript Object Notation (JSON) آشنا باشید، خواهید دید که اسناد شبیه JSON هستند. یک فایل `PersonsData.json` در این دایرکتوری وجود دارد که میتوانید آن را به کانتینر Persons در شبیهساز از طریق دکمه `Upload Item` آپلود کنید.
+
+در بیشتر موارد، APIهایی که دادههای JSON را برمیگردانند میتوانند مستقیماً منتقل شده و در پایگاههای داده سندی ذخیره شوند. در زیر یک سند دیگر آورده شده است، این سند نمایانگر توییتهایی از حساب توییتر Microsoft است که با استفاده از API توییتر بازیابی شده و سپس در Cosmos DB وارد شده است.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+فیلدهای مورد توجه در این سند عبارتند از: `created_at`، `id` و `text`.
+
+## 🚀 چالش
+
+یک فایل `TwitterData.json` وجود دارد که میتوانید آن را به پایگاه داده SampleDB آپلود کنید. توصیه میشود که آن را به یک کانتینر جداگانه اضافه کنید. این کار را میتوان با:
+
+1. کلیک بر روی دکمه کانتینر جدید در بالا سمت راست
+1. انتخاب پایگاه داده موجود (SampleDB) و ایجاد یک شناسه کانتینر برای کانتینر
+1. تنظیم کلید پارتیشن به `/id`
+1. کلیک بر روی OK (میتوانید بقیه اطلاعات موجود در این نما را نادیده بگیرید زیرا این یک مجموعه داده کوچک است که به صورت محلی روی کامپیوتر شما اجرا میشود)
+1. کانتینر جدید خود را باز کنید و فایل دادههای توییتر را با دکمه `Upload Item` آپلود کنید
+
+سعی کنید چند پرسوجوی SELECT اجرا کنید تا اسنادی را پیدا کنید که Microsoft در فیلد text آنها وجود دارد. نکته: سعی کنید از [کلمه کلیدی LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character) استفاده کنید.
+
+## [پسازدرس: آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## مرور و مطالعه خودآموز
+
+- برخی از قالببندیها و ویژگیهای اضافی به این صفحه گسترده اضافه شدهاند که این درس آنها را پوشش نمیدهد. Microsoft دارای [کتابخانه بزرگی از مستندات و ویدیوها](https://support.microsoft.com/excel) درباره Excel است اگر علاقهمند به یادگیری بیشتر هستید.
+
+- این مستندات معماری ویژگیهای انواع مختلف دادههای غیر رابطهای را شرح میدهد: [دادههای غیر رابطهای و NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data)
+
+- Cosmos DB یک پایگاه داده غیر رابطهای مبتنی بر ابر است که میتواند انواع مختلف NoSQL ذکر شده در این درس را نیز ذخیره کند. درباره این انواع در این [ماژول آموزشی Cosmos DB Microsoft](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/) بیشتر بیاموزید.
+
+## تکلیف
+
+[سود نوشابه](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/06-non-relational/assignment.md b/translations/fa/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..f388d96d
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,31 @@
+
+# سود سودا
+
+## دستورالعملها
+
+فایل [صفحه گسترده شرکت کوکاکولا](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) برخی محاسبات را ندارد. وظیفه شما این است که:
+
+1. سود ناخالص سالهای مالی '15، '16، '17 و '18 را محاسبه کنید.
+ - سود ناخالص = درآمد عملیاتی خالص - هزینه کالاهای فروخته شده
+1. میانگین تمام سودهای ناخالص را محاسبه کنید. سعی کنید این کار را با یک تابع انجام دهید.
+ - میانگین = مجموع سودهای ناخالص تقسیم بر تعداد سالهای مالی (10)
+ - مستندات مربوط به [تابع AVERAGE](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. این یک فایل اکسل است، اما باید در هر پلتفرم صفحه گسترده قابل ویرایش باشد.
+
+[اعتبار منبع داده به Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | --- |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/07-python/README.md b/translations/fa/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..8a0f46b0
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,288 @@
+
+# کار با دادهها: پایتون و کتابخانه Pandas
+
+| ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| کار با پایتون - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+در حالی که پایگاههای داده روشهای بسیار کارآمدی برای ذخیرهسازی دادهها و جستجوی آنها با استفاده از زبانهای پرسوجو ارائه میدهند، انعطافپذیرترین روش پردازش دادهها نوشتن برنامهای است که دادهها را به صورت دلخواه دستکاری کند. در بسیاری از موارد، انجام یک پرسوجوی پایگاه داده راهحل مؤثرتری است. اما در برخی موارد که پردازش پیچیدهتری نیاز است، این کار به راحتی با SQL قابل انجام نیست.
+پردازش دادهها را میتوان در هر زبان برنامهنویسی انجام داد، اما برخی زبانها برای کار با دادهها سطح بالاتری دارند. دانشمندان داده معمولاً یکی از زبانهای زیر را ترجیح میدهند:
+
+* **[پایتون](https://www.python.org/)**، یک زبان برنامهنویسی عمومی که به دلیل سادگیاش اغلب به عنوان یکی از بهترین گزینهها برای مبتدیان در نظر گرفته میشود. پایتون دارای کتابخانههای اضافی زیادی است که میتوانند به شما در حل بسیاری از مشکلات عملی کمک کنند، مانند استخراج دادهها از یک فایل ZIP یا تبدیل تصویر به مقیاس خاکستری. علاوه بر علم داده، پایتون اغلب برای توسعه وب نیز استفاده میشود.
+* **[R](https://www.r-project.org/)** یک جعبهابزار سنتی است که با هدف پردازش دادههای آماری توسعه یافته است. این زبان همچنین دارای مخزن بزرگی از کتابخانهها (CRAN) است که آن را به گزینهای مناسب برای پردازش دادهها تبدیل میکند. با این حال، R یک زبان برنامهنویسی عمومی نیست و به ندرت خارج از حوزه علم داده استفاده میشود.
+* **[Julia](https://julialang.org/)** زبان دیگری است که به طور خاص برای علم داده توسعه یافته است. این زبان برای ارائه عملکرد بهتر نسبت به پایتون طراحی شده است و آن را به ابزاری عالی برای آزمایشهای علمی تبدیل میکند.
+
+در این درس، ما بر استفاده از پایتون برای پردازش ساده دادهها تمرکز خواهیم کرد. فرض میکنیم که با این زبان آشنایی اولیه دارید. اگر میخواهید با پایتون بیشتر آشنا شوید، میتوانید به یکی از منابع زیر مراجعه کنید:
+
+* [یادگیری پایتون به روشی سرگرمکننده با گرافیک لاکپشت و فراکتالها](https://github.com/shwars/pycourse) - دوره مقدماتی سریع در GitHub برای برنامهنویسی پایتون
+* [اولین قدمهای خود را با پایتون بردارید](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) - مسیر یادگیری در [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+دادهها میتوانند اشکال مختلفی داشته باشند. در این درس، ما سه شکل داده را بررسی خواهیم کرد: **دادههای جدولی**، **متن** و **تصاویر**.
+
+ما بر چند مثال از پردازش دادهها تمرکز خواهیم کرد، به جای اینکه نمای کلی از تمام کتابخانههای مرتبط ارائه دهیم. این کار به شما ایده اصلی از آنچه ممکن است را میدهد و شما را با درک اینکه کجا میتوانید راهحلهای مشکلات خود را پیدا کنید، تنها میگذارد.
+
+> **مهمترین توصیه**. وقتی نیاز دارید عملیاتی خاص روی دادهها انجام دهید که نمیدانید چگونه انجام دهید، سعی کنید آن را در اینترنت جستجو کنید. [Stackoverflow](https://stackoverflow.com/) معمولاً شامل نمونههای کد مفید زیادی در پایتون برای بسیاری از وظایف معمول است.
+
+## [پیشسنجش درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## دادههای جدولی و Dataframeها
+
+شما قبلاً با دادههای جدولی آشنا شدهاید، زمانی که درباره پایگاههای داده رابطهای صحبت کردیم. وقتی دادههای زیادی دارید و این دادهها در جداول مختلفی که به هم مرتبط هستند ذخیره شدهاند، استفاده از SQL برای کار با آنها کاملاً منطقی است. با این حال، در بسیاری از موارد، وقتی یک جدول داده داریم و نیاز داریم تا **درک** یا **بینش** خاصی از این دادهها به دست آوریم، مانند توزیع، همبستگی بین مقادیر و غیره، در علم داده، بسیاری از مواقع نیاز داریم تا برخی از تغییرات را روی دادههای اصلی انجام دهیم و سپس آنها را تجسم کنیم. هر دو این مراحل به راحتی با پایتون قابل انجام هستند.
+
+دو کتابخانه بسیار مفید در پایتون وجود دارند که میتوانند به شما در کار با دادههای جدولی کمک کنند:
+* **[Pandas](https://pandas.pydata.org/)** به شما امکان میدهد تا با **Dataframe**ها کار کنید، که مشابه جداول رابطهای هستند. شما میتوانید ستونهای نامگذاری شده داشته باشید و عملیات مختلفی روی ردیفها، ستونها و Dataframeها به طور کلی انجام دهید.
+* **[Numpy](https://numpy.org/)** کتابخانهای برای کار با **تنسورها**، یعنی آرایههای چندبعدی است. آرایه دارای مقادیر از یک نوع پایه یکسان است و سادهتر از Dataframe است، اما عملیات ریاضی بیشتری ارائه میدهد و سربار کمتری ایجاد میکند.
+
+چند کتابخانه دیگر نیز وجود دارند که باید با آنها آشنا باشید:
+* **[Matplotlib](https://matplotlib.org/)** کتابخانهای برای تجسم دادهها و رسم نمودارها
+* **[SciPy](https://www.scipy.org/)** کتابخانهای با برخی توابع علمی اضافی. ما قبلاً هنگام صحبت درباره احتمال و آمار با این کتابخانه آشنا شدهایم.
+
+در اینجا یک قطعه کد آورده شده است که معمولاً برای وارد کردن این کتابخانهها در ابتدای برنامه پایتون خود استفاده میکنید:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas بر چند مفهوم اساسی متمرکز است.
+
+### Series
+
+**Series** دنبالهای از مقادیر است که شبیه به یک لیست یا آرایه numpy است. تفاوت اصلی این است که سریها همچنین دارای یک **ایندکس** هستند و وقتی روی سریها عملیات انجام میدهیم (مثلاً آنها را جمع میکنیم)، ایندکس در نظر گرفته میشود. ایندکس میتواند به سادگی شماره ردیف صحیح باشد (این ایندکس به طور پیشفرض هنگام ایجاد یک سری از لیست یا آرایه استفاده میشود)، یا میتواند ساختار پیچیدهای مانند بازه زمانی داشته باشد.
+
+> **توجه**: کد مقدماتی Pandas در دفترچه همراه [`notebook.ipynb`](../../../../2-Working-With-Data/07-python/notebook.ipynb) موجود است. ما فقط برخی از مثالها را اینجا بیان میکنیم و شما قطعاً میتوانید دفترچه کامل را بررسی کنید.
+
+یک مثال را در نظر بگیرید: ما میخواهیم فروش یک مغازه بستنیفروشی را تحلیل کنیم. بیایید یک سری از اعداد فروش (تعداد اقلام فروخته شده در هر روز) را برای یک بازه زمانی تولید کنیم:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+حالا فرض کنید که هر هفته یک مهمانی برای دوستان برگزار میکنیم و ۱۰ بسته بستنی اضافی برای مهمانی میگیریم. میتوانیم یک سری دیگر ایجاد کنیم که بر اساس هفته ایندکس شده باشد تا این موضوع را نشان دهیم:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+وقتی دو سری را با هم جمع میکنیم، تعداد کل را به دست میآوریم:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **توجه** که ما از سینتکس ساده `total_items+additional_items` استفاده نمیکنیم. اگر این کار را میکردیم، تعداد زیادی مقدار `NaN` (*Not a Number*) در سری حاصل دریافت میکردیم. این به این دلیل است که مقادیر گمشدهای برای برخی از نقاط ایندکس در سری `additional_items` وجود دارد و جمع کردن `NaN` با هر چیزی نتیجه `NaN` میدهد. بنابراین باید پارامتر `fill_value` را هنگام جمع مشخص کنیم.
+
+با سریهای زمانی، میتوانیم سری را با بازههای زمانی مختلف **بازنمونهگیری** کنیم. به عنوان مثال، فرض کنید میخواهیم میانگین حجم فروش را به صورت ماهانه محاسبه کنیم. میتوانیم از کد زیر استفاده کنیم:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+یک DataFrame اساساً مجموعهای از سریها با ایندکس یکسان است. میتوانیم چند سری را با هم ترکیب کنیم تا یک DataFrame ایجاد کنیم:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+این یک جدول افقی مانند این ایجاد میکند:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+همچنین میتوانیم از سریها به عنوان ستونها استفاده کنیم و نام ستونها را با استفاده از دیکشنری مشخص کنیم:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+این جدول زیر را به ما میدهد:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**توجه** که میتوانیم این چیدمان جدول را با ترانهاده کردن جدول قبلی نیز به دست آوریم، مثلاً با نوشتن:
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+اینجا `.T` به معنای عملیات ترانهاده کردن DataFrame است، یعنی تغییر ردیفها و ستونها، و عملیات `rename` به ما اجازه میدهد تا ستونها را برای مطابقت با مثال قبلی تغییر نام دهیم.
+
+در اینجا چند عملیات مهم که میتوانیم روی DataFrameها انجام دهیم آورده شده است:
+
+**انتخاب ستونها**. میتوانیم ستونهای جداگانه را با نوشتن `df['A']` انتخاب کنیم - این عملیات یک سری را برمیگرداند. همچنین میتوانیم زیرمجموعهای از ستونها را به یک DataFrame دیگر انتخاب کنیم با نوشتن `df[['B','A']]` - این یک DataFrame دیگر برمیگرداند.
+
+**فیلتر کردن** فقط ردیفهای خاص بر اساس معیارها. به عنوان مثال، برای نگه داشتن فقط ردیفهایی که ستون `A` بزرگتر از ۵ است، میتوانیم بنویسیم `df[df['A']>5]`.
+
+> **توجه**: نحوه کار فیلتر کردن به این صورت است. عبارت `df['A']<5` یک سری بولی برمیگرداند که نشان میدهد آیا عبارت برای هر عنصر از سری اصلی `df['A']` درست یا غلط است. وقتی سری بولی به عنوان ایندکس استفاده میشود، زیرمجموعهای از ردیفها را در DataFrame برمیگرداند. بنابراین نمیتوان از عبارات بولی دلخواه پایتون استفاده کرد، برای مثال نوشتن `df[df['A']>5 and df['A']<7]` اشتباه است. در عوض، باید از عملیات خاص `&` روی سری بولی استفاده کنید، مثلاً نوشتن `df[(df['A']>5) & (df['A']<7)]` (*پرانتزها اینجا مهم هستند*).
+
+**ایجاد ستونهای محاسباتی جدید**. میتوانیم به راحتی ستونهای محاسباتی جدیدی برای DataFrame خود ایجاد کنیم با استفاده از عبارات شهودی مانند این:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+این مثال انحراف A از مقدار میانگین آن را محاسبه میکند. آنچه در اینجا واقعاً اتفاق میافتد این است که ما یک سری محاسبه میکنیم و سپس این سری را به سمت چپ اختصاص میدهیم و یک ستون دیگر ایجاد میکنیم. بنابراین نمیتوانیم از هیچ عملیاتی که با سریها سازگار نیست استفاده کنیم، برای مثال کد زیر اشتباه است:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+مثال آخر، در حالی که از نظر نحوی درست است، نتیجه اشتباهی به ما میدهد، زیرا طول سری `B` را به تمام مقادیر ستون اختصاص میدهد، نه طول عناصر جداگانه همانطور که قصد داشتیم.
+
+اگر نیاز به محاسبه عبارات پیچیدهای مانند این داریم، میتوانیم از تابع `apply` استفاده کنیم. مثال آخر را میتوان به صورت زیر نوشت:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+پس از عملیات بالا، به DataFrame زیر خواهیم رسید:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**انتخاب ردیفها بر اساس شمارهها** را میتوان با استفاده از ساختار `iloc` انجام داد. به عنوان مثال، برای انتخاب ۵ ردیف اول از DataFrame:
+```python
+df.iloc[:5]
+```
+
+**گروهبندی** اغلب برای به دست آوردن نتیجهای مشابه *جدولهای محوری* در اکسل استفاده میشود. فرض کنید که میخواهیم مقدار میانگین ستون `A` را برای هر تعداد مشخص `LenB` محاسبه کنیم. سپس میتوانیم DataFrame خود را بر اساس `LenB` گروهبندی کنیم و `mean` را فراخوانی کنیم:
+```python
+df.groupby(by='LenB').mean()
+```
+اگر نیاز به محاسبه میانگین و تعداد عناصر در گروه داریم، میتوانیم از تابع پیچیدهتر `aggregate` استفاده کنیم:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+این جدول زیر را به ما میدهد:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### دریافت دادهها
+ما دیدهایم که ساخت Series و DataFrame از اشیاء پایتون چقدر آسان است. با این حال، دادهها معمولاً به صورت یک فایل متنی یا یک جدول اکسل ارائه میشوند. خوشبختانه، Pandas راه سادهای برای بارگذاری دادهها از دیسک به ما ارائه میدهد. به عنوان مثال، خواندن یک فایل CSV به سادگی زیر است:
+```python
+df = pd.read_csv('file.csv')
+```
+ما مثالهای بیشتری از بارگذاری دادهها، از جمله دریافت آن از وبسایتهای خارجی، در بخش "چالش" خواهیم دید.
+
+### چاپ و ترسیم
+
+یک دانشمند داده اغلب باید دادهها را بررسی کند، بنابراین توانایی تجسم آن بسیار مهم است. وقتی DataFrame بزرگ است، بسیاری از اوقات میخواهیم فقط مطمئن شویم که همه چیز را به درستی انجام میدهیم، با چاپ چند ردیف اول. این کار با فراخوانی `df.head()` انجام میشود. اگر این را از Jupyter Notebook اجرا کنید، DataFrame را به صورت یک جدول زیبا چاپ میکند.
+
+ما همچنین استفاده از تابع `plot` را برای تجسم برخی ستونها دیدهایم. در حالی که `plot` برای بسیاری از وظایف بسیار مفید است و از انواع مختلف نمودارها از طریق پارامتر `kind=` پشتیبانی میکند، شما همیشه میتوانید از کتابخانه خام `matplotlib` برای ترسیم چیزی پیچیدهتر استفاده کنید. ما تجسم دادهها را به طور مفصل در درسهای جداگانه پوشش خواهیم داد.
+
+این مرور کلی، مهمترین مفاهیم Pandas را پوشش میدهد، اما این کتابخانه بسیار غنی است و هیچ محدودیتی برای آنچه میتوانید با آن انجام دهید وجود ندارد! حالا بیایید این دانش را برای حل یک مسئله خاص به کار ببریم.
+
+## 🚀 چالش ۱: تحلیل گسترش کووید
+
+اولین مسئلهای که روی آن تمرکز خواهیم کرد، مدلسازی گسترش اپیدمی کووید-۱۹ است. برای این کار، از دادههای مربوط به تعداد افراد مبتلا در کشورهای مختلف استفاده خواهیم کرد که توسط [مرکز علوم سیستمها و مهندسی](https://systems.jhu.edu/) (CSSE) در [دانشگاه جانز هاپکینز](https://jhu.edu/) ارائه شده است. این مجموعه داده در [این مخزن گیتهاب](https://github.com/CSSEGISandData/COVID-19) موجود است.
+
+از آنجا که میخواهیم نحوه کار با دادهها را نشان دهیم، از شما دعوت میکنیم [`notebook-covidspread.ipynb`](../../../../2-Working-With-Data/07-python/notebook-covidspread.ipynb) را باز کرده و از ابتدا تا انتها بخوانید. همچنین میتوانید سلولها را اجرا کنید و برخی از چالشهایی که در انتها برای شما گذاشتهایم را انجام دهید.
+
+
+
+> اگر نمیدانید چگونه کد را در Jupyter Notebook اجرا کنید، به [این مقاله](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) نگاهی بیندازید.
+
+## کار با دادههای غیرساختاریافته
+
+در حالی که دادهها اغلب به صورت جدولی ارائه میشوند، در برخی موارد باید با دادههای کمتر ساختاریافته، مانند متن یا تصاویر، کار کنیم. در این حالت، برای اعمال تکنیکهای پردازش داده که در بالا دیدهایم، باید به نوعی دادههای ساختاریافته را **استخراج** کنیم. در اینجا چند مثال آورده شده است:
+
+* استخراج کلمات کلیدی از متن و بررسی تعداد دفعات ظاهر شدن آنها
+* استفاده از شبکههای عصبی برای استخراج اطلاعات درباره اشیاء موجود در تصویر
+* دریافت اطلاعات درباره احساسات افراد در فید دوربین ویدئویی
+
+## 🚀 چالش ۲: تحلیل مقالات کووید
+
+در این چالش، موضوع همهگیری کووید را ادامه میدهیم و بر پردازش مقالات علمی در این زمینه تمرکز میکنیم. یک [مجموعه داده CORD-19](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) وجود دارد که شامل بیش از ۷۰۰۰ مقاله (در زمان نگارش) درباره کووید است و با متادیتا و چکیدهها (و برای حدود نیمی از آنها متن کامل) ارائه شده است.
+
+یک مثال کامل از تحلیل این مجموعه داده با استفاده از سرویس شناختی [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) در [این پست وبلاگ](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) توضیح داده شده است. ما نسخه سادهشدهای از این تحلیل را بررسی خواهیم کرد.
+
+> **NOTE**: ما نسخهای از این مجموعه داده را به عنوان بخشی از این مخزن ارائه نمیدهیم. ممکن است ابتدا نیاز باشد فایل [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) را از [این مجموعه داده در Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) دانلود کنید. ممکن است نیاز به ثبتنام در Kaggle باشد. همچنین میتوانید مجموعه داده را بدون ثبتنام [از اینجا](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html) دانلود کنید، اما شامل تمام متنهای کامل علاوه بر فایل متادیتا خواهد بود.
+
+[`notebook-papers.ipynb`](../../../../2-Working-With-Data/07-python/notebook-papers.ipynb) را باز کرده و از ابتدا تا انتها بخوانید. همچنین میتوانید سلولها را اجرا کنید و برخی از چالشهایی که در انتها برای شما گذاشتهایم را انجام دهید.
+
+
+
+## پردازش دادههای تصویری
+
+اخیراً مدلهای هوش مصنوعی بسیار قدرتمندی توسعه یافتهاند که به ما امکان درک تصاویر را میدهند. بسیاری از وظایف را میتوان با استفاده از شبکههای عصبی از پیش آموزشدیده یا خدمات ابری حل کرد. برخی از مثالها عبارتند از:
+
+* **طبقهبندی تصویر**، که میتواند به شما کمک کند تصویر را در یکی از کلاسهای از پیش تعریفشده دستهبندی کنید. شما میتوانید به راحتی طبقهبندیکنندههای تصویر خود را با استفاده از خدماتی مانند [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) آموزش دهید.
+* **تشخیص اشیاء** برای شناسایی اشیاء مختلف در تصویر. خدماتی مانند [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) میتوانند تعداد زیادی از اشیاء رایج را شناسایی کنند و شما میتوانید مدل [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) را برای شناسایی اشیاء خاص مورد علاقه آموزش دهید.
+* **تشخیص چهره**، شامل تشخیص سن، جنسیت و احساسات. این کار را میتوان از طریق [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) انجام داد.
+
+تمام این خدمات ابری را میتوان با استفاده از [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) فراخوانی کرد و به راحتی در جریان کاری اکتشاف دادههای شما گنجاند.
+
+در اینجا چند مثال از اکتشاف دادهها از منابع تصویری آورده شده است:
+* در پست وبلاگ [چگونه علم داده را بدون کدنویسی یاد بگیریم](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) ما عکسهای اینستاگرام را بررسی میکنیم و سعی میکنیم بفهمیم چه چیزی باعث میشود افراد به یک عکس بیشتر لایک بدهند. ابتدا تا حد ممکن اطلاعات را از تصاویر با استفاده از [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) استخراج میکنیم و سپس از [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) برای ساخت مدل قابل تفسیر استفاده میکنیم.
+* در [کارگاه مطالعات چهره](https://github.com/CloudAdvocacy/FaceStudies) ما از [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) برای استخراج احساسات افراد در عکسهای رویدادها استفاده میکنیم تا سعی کنیم بفهمیم چه چیزی باعث خوشحالی افراد میشود.
+
+## نتیجهگیری
+
+چه دادههای ساختاریافته داشته باشید و چه غیرساختاریافته، با استفاده از پایتون میتوانید تمام مراحل مربوط به پردازش و درک دادهها را انجام دهید. این احتمالاً انعطافپذیرترین روش برای پردازش دادهها است و به همین دلیل است که اکثر دانشمندان داده از پایتون به عنوان ابزار اصلی خود استفاده میکنند. یادگیری عمیق پایتون احتمالاً ایده خوبی است اگر در مسیر علم داده جدی هستید!
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## مرور و مطالعه خودآموز
+
+**کتابها**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**منابع آنلاین**
+* آموزش رسمی [10 دقیقه با Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)
+* [مستندات تجسم دادهها در Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**یادگیری پایتون**
+* [یادگیری پایتون به روشی سرگرمکننده با Turtle Graphics و Fractals](https://github.com/shwars/pycourse)
+* [اولین قدمهای خود را با پایتون بردارید](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) در مسیر یادگیری [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## تکلیف
+
+[مطالعه دقیقتر دادهها برای چالشهای بالا انجام دهید](assignment.md)
+
+## اعتبارها
+
+این درس با ♥️ توسط [Dmitry Soshnikov](http://soshnikov.com) نوشته شده است.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/07-python/assignment.md b/translations/fa/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..394ef639
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,35 @@
+
+# تکلیف پردازش داده در پایتون
+
+در این تکلیف، از شما خواسته میشود کدی را که در چالشهای قبلی شروع به توسعه آن کردهایم، گسترش دهید. این تکلیف شامل دو بخش است:
+
+## مدلسازی گسترش COVID-19
+
+ - [ ] نمودارهای *R* را برای ۵-۶ کشور مختلف روی یک نمودار برای مقایسه، یا با استفاده از چند نمودار کنار هم رسم کنید.
+ - [ ] بررسی کنید که چگونه تعداد مرگومیر و بهبودیها با تعداد موارد مبتلا ارتباط دارد.
+ - [ ] مشخص کنید که یک بیماری معمولی چه مدت طول میکشد، با بررسی بصری نرخ ابتلا و نرخ مرگومیر و جستجوی برخی ناهنجاریها. ممکن است نیاز باشد به کشورهای مختلف نگاه کنید تا این موضوع را پیدا کنید.
+ - [ ] نرخ مرگومیر را محاسبه کنید و ببینید چگونه در طول زمان تغییر میکند. *ممکن است بخواهید طول بیماری را به روزها در نظر بگیرید تا یک سری زمانی را قبل از انجام محاسبات جابجا کنید.*
+
+## تحلیل مقالات COVID-19
+
+- [ ] ماتریس همرخدادی داروهای مختلف را بسازید و ببینید کدام داروها اغلب با هم رخ میدهند (یعنی در یک چکیده ذکر شدهاند). میتوانید کد ساخت ماتریس همرخدادی برای داروها و تشخیصها را تغییر دهید.
+- [ ] این ماتریس را با استفاده از نقشه حرارتی (heatmap) بصریسازی کنید.
+- [ ] به عنوان یک هدف اضافی، همرخدادی داروها را با استفاده از [نمودار کورد](https://en.wikipedia.org/wiki/Chord_diagram) بصریسازی کنید. [این کتابخانه](https://pypi.org/project/chord/) ممکن است به شما در رسم نمودار کورد کمک کند.
+- [ ] به عنوان یک هدف اضافی دیگر، دوزهای مختلف داروها (مانند **۴۰۰mg** در *روزانه ۴۰۰mg کلروکین مصرف کنید*) را با استفاده از عبارات منظم استخراج کنید و یک دیتافریم بسازید که دوزهای مختلف برای داروهای مختلف را نشان دهد. **توجه**: مقادیر عددی که در نزدیکی متنی نام دارو قرار دارند را در نظر بگیرید.
+
+## معیار ارزیابی
+
+عالی | مناسب | نیاز به بهبود
+--- | --- | -- |
+تمام وظایف کامل شدهاند، به صورت گرافیکی نشان داده شده و توضیح داده شدهاند، شامل حداقل یکی از دو هدف اضافی | بیش از ۵ وظیفه کامل شدهاند، هیچ هدف اضافی انجام نشده یا نتایج واضح نیستند | کمتر از ۵ (اما بیش از ۳) وظیفه کامل شدهاند، بصریسازیها به توضیح موضوع کمک نمیکنند
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/08-data-preparation/README.md b/translations/fa/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..fb722a20
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,344 @@
+
+# کار با دادهها: آمادهسازی دادهها
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|آمادهسازی دادهها - _اسکیچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+## [پیشکوئیز](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+بسته به منبع آن، دادههای خام ممکن است شامل ناسازگاریهایی باشند که در تحلیل و مدلسازی مشکلاتی ایجاد کنند. به عبارت دیگر، این دادهها میتوانند به عنوان "کثیف" دستهبندی شوند و نیاز به پاکسازی دارند. این درس بر تکنیکهای پاکسازی و تبدیل دادهها برای مدیریت چالشهای دادههای گمشده، نادرست یا ناقص تمرکز دارد. موضوعات پوشش دادهشده در این درس از پایتون و کتابخانه Pandas استفاده میکنند و در [دفترچه یادداشت](../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb) موجود در این پوشه نمایش داده میشوند.
+
+## اهمیت پاکسازی دادهها
+
+- **سهولت استفاده و استفاده مجدد**: وقتی دادهها به درستی سازماندهی و نرمالسازی شوند، جستجو، استفاده و به اشتراکگذاری آنها با دیگران آسانتر میشود.
+
+- **یکپارچگی**: علم داده اغلب نیاز به کار با بیش از یک مجموعه داده دارد، جایی که مجموعه دادهها از منابع مختلف باید با هم ترکیب شوند. اطمینان از اینکه هر مجموعه داده به صورت جداگانه استانداردسازی شده است، تضمین میکند که دادهها هنگام ادغام در یک مجموعه داده همچنان مفید باقی میمانند.
+
+- **دقت مدل**: دادههایی که پاکسازی شدهاند، دقت مدلهایی که به آنها وابسته هستند را بهبود میبخشند.
+
+## اهداف و استراتژیهای رایج در پاکسازی
+
+- **کاوش در یک مجموعه داده**: کاوش دادهها، که در [درس بعدی](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing) پوشش داده میشود، میتواند به شما کمک کند دادههایی که نیاز به پاکسازی دارند را کشف کنید. مشاهده بصری مقادیر درون یک مجموعه داده میتواند انتظاراتی از ظاهر بقیه دادهها ایجاد کند یا ایدهای از مشکلاتی که میتوانند حل شوند ارائه دهد. کاوش میتواند شامل پرسوجوهای ساده، مصورسازیها و نمونهگیری باشد.
+
+- **فرمتبندی**: بسته به منبع، دادهها ممکن است ناسازگاریهایی در نحوه ارائه داشته باشند. این میتواند در جستجو و نمایش مقدار مشکلاتی ایجاد کند، جایی که مقدار در مجموعه داده دیده میشود اما به درستی در مصورسازیها یا نتایج پرسوجو نمایش داده نمیشود. مشکلات رایج فرمتبندی شامل حل فاصلههای خالی، تاریخها و انواع دادهها است. حل مشکلات فرمتبندی معمولاً به عهده افرادی است که از دادهها استفاده میکنند. به عنوان مثال، استانداردهای نحوه نمایش تاریخها و اعداد میتواند در کشورهای مختلف متفاوت باشد.
+
+- **تکرارها**: دادههایی که بیش از یک بار ظاهر میشوند میتوانند نتایج نادرستی تولید کنند و معمولاً باید حذف شوند. این میتواند یک اتفاق رایج هنگام ترکیب دو یا چند مجموعه داده باشد. با این حال، مواردی وجود دارد که تکرار در مجموعه دادههای ترکیبی شامل بخشهایی است که میتوانند اطلاعات اضافی ارائه دهند و ممکن است نیاز به حفظ داشته باشند.
+
+- **دادههای گمشده**: دادههای گمشده میتوانند باعث نادرستی و همچنین نتایج ضعیف یا جانبدارانه شوند. گاهی اوقات این مشکلات میتوانند با "بارگذاری مجدد" دادهها، پر کردن مقادیر گمشده با محاسبات و کدهایی مانند پایتون، یا به سادگی حذف مقدار و دادههای مربوطه حل شوند. دلایل متعددی برای گمشدن دادهها وجود دارد و اقداماتی که برای حل این مقادیر گمشده انجام میشود میتواند به نحوه و دلیل گمشدن آنها بستگی داشته باشد.
+
+## کاوش اطلاعات DataFrame
+> **هدف یادگیری:** تا پایان این بخش، باید بتوانید اطلاعات کلی درباره دادههای ذخیرهشده در DataFrameهای pandas را پیدا کنید.
+
+پس از بارگذاری دادهها در pandas، احتمالاً دادهها در یک DataFrame خواهند بود (برای مرور دقیقتر به [درس قبلی](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) مراجعه کنید). با این حال، اگر مجموعه داده در DataFrame شما شامل ۶۰,۰۰۰ سطر و ۴۰۰ ستون باشد، چگونه میتوانید حتی شروع به درک آنچه با آن کار میکنید کنید؟ خوشبختانه، [pandas](https://pandas.pydata.org/) ابزارهای مناسبی برای مشاهده سریع اطلاعات کلی درباره یک DataFrame و همچنین چند سطر اول و آخر آن ارائه میدهد.
+
+برای کاوش این قابلیتها، ما کتابخانه scikit-learn پایتون را وارد کرده و از یک مجموعه داده معروف: **مجموعه داده Iris** استفاده خواهیم کرد.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |طول کاسبرگ (cm)|عرض کاسبرگ (cm)|طول گلبرگ (cm)|عرض گلبرگ (cm)|
+|----------------------------------------|----------------|---------------|--------------|--------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: برای شروع، متد `info()` برای چاپ خلاصهای از محتوای موجود در یک `DataFrame` استفاده میشود. بیایید نگاهی به این مجموعه داده بیندازیم تا ببینیم چه داریم:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+از اینجا میدانیم که مجموعه داده *Iris* شامل ۱۵۰ ورودی در چهار ستون است و هیچ ورودی خالی ندارد. تمام دادهها به صورت اعداد اعشاری ۶۴ بیتی ذخیره شدهاند.
+
+- **DataFrame.head()**: سپس، برای بررسی محتوای واقعی `DataFrame`، از متد `head()` استفاده میکنیم. بیایید ببینیم چند سطر اول `iris_df` ما چگونه به نظر میرسند:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: به طور مشابه، برای بررسی چند سطر آخر `DataFrame`، از متد `tail()` استفاده میکنیم:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **نکته کلیدی:** حتی با نگاه کردن به متادیتا درباره اطلاعات موجود در یک DataFrame یا چند مقدار اول و آخر آن، میتوانید فوراً ایدهای درباره اندازه، شکل و محتوای دادههایی که با آنها کار میکنید به دست آورید.
+
+## مدیریت دادههای گمشده
+> **هدف یادگیری:** تا پایان این بخش، باید بدانید چگونه مقادیر خالی را در DataFrameها جایگزین یا حذف کنید.
+
+اغلب مجموعه دادههایی که میخواهید استفاده کنید (یا مجبور به استفاده از آنها هستید) دارای مقادیر گمشده هستند. نحوه مدیریت دادههای گمشده دارای ملاحظات ظریفی است که میتواند بر تحلیل نهایی و نتایج دنیای واقعی تأثیر بگذارد.
+
+pandas دادههای گمشده را به دو روش مدیریت میکند. اولین روش که قبلاً در بخشهای قبلی دیدهاید: `NaN` یا Not a Number است. این در واقع یک مقدار خاص است که بخشی از مشخصات IEEE برای اعداد اعشاری است و فقط برای نشان دادن مقادیر گمشده اعشاری استفاده میشود.
+
+برای مقادیر گمشده غیر از اعداد اعشاری، pandas از شیء `None` پایتون استفاده میکند. در حالی که ممکن است گیجکننده به نظر برسد که با دو نوع مقدار مختلف مواجه شوید که اساساً یک چیز را میگویند، دلایل برنامهنویسی معتبری برای این انتخاب طراحی وجود دارد و در عمل، این رویکرد به pandas امکان میدهد تا برای اکثر موارد یک سازش خوب ارائه دهد. با این حال، هم `None` و هم `NaN` محدودیتهایی دارند که باید در مورد نحوه استفاده از آنها به آنها توجه کنید.
+
+اطلاعات بیشتری درباره `NaN` و `None` را از [دفترچه یادداشت](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) بررسی کنید!
+
+- **تشخیص مقادیر خالی**: در `pandas`، متدهای `isnull()` و `notnull()` روشهای اصلی شما برای تشخیص دادههای خالی هستند. هر دو ماسکهای بولی روی دادههای شما برمیگردانند. ما از `numpy` برای مقادیر `NaN` استفاده خواهیم کرد:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+به خروجی با دقت نگاه کنید. آیا چیزی شما را شگفتزده میکند؟ در حالی که `0` یک مقدار خالی حسابی است، با این حال یک عدد صحیح کاملاً معتبر است و pandas آن را به همین صورت در نظر میگیرد. `''` کمی ظریفتر است. در حالی که ما از آن در بخش ۱ برای نمایش یک مقدار رشتهای خالی استفاده کردیم، با این حال یک شیء رشتهای است و به عنوان یک مقدار خالی از نظر pandas در نظر گرفته نمیشود.
+
+اکنون، بیایید این موضوع را برعکس کنیم و این متدها را به روشی که بیشتر در عمل استفاده خواهید کرد، به کار ببریم. شما میتوانید از ماسکهای بولی به طور مستقیم به عنوان یک ``Series`` یا ``DataFrame`` ایندکس استفاده کنید، که میتواند هنگام کار با مقادیر گمشده (یا موجود) مفید باشد.
+
+> **نکته کلیدی**: هر دو متد `isnull()` و `notnull()` نتایج مشابهی را هنگام استفاده در `DataFrame`ها تولید میکنند: آنها نتایج و ایندکس آن نتایج را نشان میدهند، که به شما کمک زیادی خواهد کرد زیرا با دادههای خود سر و کله میزنید.
+
+- **حذف مقادیر خالی**: فراتر از شناسایی مقادیر گمشده، pandas یک روش مناسب برای حذف مقادیر خالی از `Series` و `DataFrame`ها ارائه میدهد. (به خصوص در مجموعه دادههای بزرگ، اغلب توصیه میشود که به سادگی مقادیر گمشده [NA] را از تحلیل خود حذف کنید تا اینکه به روشهای دیگر با آنها برخورد کنید.) برای دیدن این موضوع در عمل، بیایید به `example1` بازگردیم:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+توجه داشته باشید که این باید شبیه خروجی شما از `example3[example3.notnull()]` باشد. تفاوت اینجا این است که، به جای فقط ایندکس کردن مقادیر ماسکشده، `dropna` آن مقادیر گمشده را از `Series` `example1` حذف کرده است.
+
+از آنجا که `DataFrame`ها دو بعد دارند، گزینههای بیشتری برای حذف دادهها ارائه میدهند.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(آیا متوجه شدید که pandas دو ستون را به اعداد اعشاری تبدیل کرد تا `NaN`ها را جا دهد؟)
+
+شما نمیتوانید یک مقدار واحد را از یک `DataFrame` حذف کنید، بنابراین باید سطرها یا ستونهای کامل را حذف کنید. بسته به کاری که انجام میدهید، ممکن است بخواهید یکی یا دیگری را انجام دهید، و بنابراین pandas گزینههایی برای هر دو به شما میدهد. زیرا در علم داده، ستونها معمولاً متغیرها و سطرها مشاهدات را نشان میدهند، احتمالاً بیشتر سطرهای داده را حذف خواهید کرد؛ تنظیم پیشفرض برای `dropna()` این است که تمام سطرهایی که حاوی هر مقدار خالی هستند را حذف کند:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+در صورت لزوم، میتوانید مقادیر NA را از ستونها حذف کنید. از `axis=1` برای این کار استفاده کنید:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+توجه داشته باشید که این میتواند مقدار زیادی از دادههایی را که ممکن است بخواهید نگه دارید حذف کند، به خصوص در مجموعه دادههای کوچکتر. اگر فقط بخواهید سطرها یا ستونهایی را که شامل چندین مقدار خالی یا حتی تمام مقادیر خالی هستند حذف کنید چه؟ شما میتوانید این تنظیمات را در `dropna` با پارامترهای `how` و `thresh` مشخص کنید.
+
+به طور پیشفرض، `how='any'` است (اگر میخواهید خودتان بررسی کنید یا ببینید این متد چه پارامترهای دیگری دارد، `example4.dropna?` را در یک سلول کد اجرا کنید). شما میتوانید به طور متناوب `how='all'` را مشخص کنید تا فقط سطرها یا ستونهایی که تمام مقادیر آنها خالی است حذف شوند. بیایید مثال `DataFrame` خود را گسترش دهیم تا این موضوع را در عمل ببینیم.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+پارامتر `thresh` کنترل دقیقتری به شما میدهد: شما تعداد مقادیر *غیرخالی* را که یک سطر یا ستون باید داشته باشد تا نگه داشته شود تنظیم میکنید:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+اینجا، سطر اول و آخر حذف شدهاند، زیرا فقط شامل دو مقدار غیرخالی هستند.
+
+- **پر کردن مقادیر خالی**: بسته به مجموعه داده شما، گاهی اوقات پر کردن مقادیر خالی با مقادیر معتبر به جای حذف آنها منطقیتر است. شما میتوانید از `isnull` برای این کار به صورت جایگزین استفاده کنید، اما این میتواند خستهکننده باشد، به خصوص اگر مقادیر زیادی برای پر کردن داشته باشید. زیرا این یک کار رایج در علم داده است، pandas متد `fillna` را ارائه میدهد که یک کپی از `Series` یا `DataFrame` را با مقادیر گمشده جایگزینشده با مقداری که شما انتخاب میکنید برمیگرداند. بیایید یک مثال دیگر از `Series` ایجاد کنیم تا ببینیم این در عمل چگونه کار میکند.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+شما میتوانید تمام ورودیهای خالی را با یک مقدار واحد، مانند `0` پر کنید:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+شما میتوانید مقادیر خالی را **به جلو پر کنید**، یعنی از آخرین مقدار معتبر برای پر کردن یک مقدار خالی استفاده کنید:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+شما همچنین میتوانید **به عقب پر کنید** تا مقدار معتبر بعدی را به عقب منتقل کنید و یک مقدار خالی را پر کنید:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+همانطور که ممکن است حدس بزنید، این با `DataFrame`ها نیز به همین صورت کار میکند، اما شما همچنین میتوانید یک `axis` را مشخص کنید که در طول آن مقادیر خالی پر شوند. با استفاده مجدد از `example2`:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+توجه داشته باشید که وقتی مقدار قبلی برای پر کردن به جلو در دسترس نیست، مقدار خالی باقی میماند.
+> **نکته کلیدی:** روشهای مختلفی برای برخورد با مقادیر گمشده در دادههای شما وجود دارد. استراتژی خاصی که استفاده میکنید (حذف، جایگزینی یا حتی نحوه جایگزینی) باید بر اساس ویژگیهای خاص آن دادهها تعیین شود. هرچه بیشتر با مجموعه دادهها کار کنید و تعامل داشته باشید، درک بهتری از نحوه برخورد با مقادیر گمشده پیدا خواهید کرد.
+
+## حذف دادههای تکراری
+
+> **هدف یادگیری:** تا پایان این بخش، باید بتوانید مقادیر تکراری را در DataFrameها شناسایی و حذف کنید.
+
+علاوه بر دادههای گمشده، اغلب در مجموعه دادههای دنیای واقعی با دادههای تکراری مواجه میشوید. خوشبختانه، `pandas` روشی ساده برای شناسایی و حذف ورودیهای تکراری ارائه میدهد.
+
+- **شناسایی تکراریها: `duplicated`**: میتوانید به راحتی مقادیر تکراری را با استفاده از متد `duplicated` در pandas شناسایی کنید. این متد یک ماسک بولی برمیگرداند که نشان میدهد آیا یک ورودی در `DataFrame` تکراری از ورودی قبلی است یا خیر. بیایید یک مثال دیگر از `DataFrame` ایجاد کنیم تا این موضوع را در عمل ببینیم.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **حذف تکراریها: `drop_duplicates`:** به سادگی یک کپی از دادهها را برمیگرداند که در آن تمام مقادیر `duplicated` برابر با `False` هستند:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+هم `duplicated` و هم `drop_duplicates` به طور پیشفرض تمام ستونها را در نظر میگیرند، اما میتوانید مشخص کنید که فقط یک زیرمجموعه از ستونها در `DataFrame` بررسی شوند:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **نکته کلیدی:** حذف دادههای تکراری بخش ضروری تقریباً هر پروژه دادهمحور است. دادههای تکراری میتوانند نتایج تحلیلهای شما را تغییر دهند و نتایج نادرستی به شما بدهند!
+
+
+## 🚀 چالش
+
+تمام مطالب مطرحشده به صورت یک [دفترچه Jupyter](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb) ارائه شدهاند. علاوه بر این، تمرینهایی بعد از هر بخش وجود دارد، حتماً آنها را امتحان کنید!
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## مرور و مطالعه شخصی
+
+روشهای زیادی برای کشف و آمادهسازی دادهها برای تحلیل و مدلسازی وجود دارد و پاکسازی دادهها یک مرحله مهم و عملی است. این چالشها از Kaggle را امتحان کنید تا تکنیکهایی که در این درس پوشش داده نشدهاند را بررسی کنید.
+
+- [چالش پاکسازی دادهها: تجزیه تاریخها](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [چالش پاکسازی دادهها: مقیاسبندی و نرمالسازی دادهها](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## تکلیف
+
+[ارزیابی دادهها از یک فرم](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/08-data-preparation/assignment.md b/translations/fa/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..661447f6
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,26 @@
+
+# ارزیابی دادههای یک فرم
+
+یک مشتری در حال آزمایش یک [فرم کوچک](../../../../2-Working-With-Data/08-data-preparation/index.html) برای جمعآوری برخی دادههای پایه درباره پایگاه مشتریان خود بوده است. آنها یافتههای خود را برای شما آوردهاند تا دادههایی که جمعآوری کردهاند را اعتبارسنجی کنید. میتوانید صفحه `index.html` را در مرورگر باز کنید تا فرم را مشاهده کنید.
+
+یک [مجموعه داده از رکوردهای csv](../../../../data/form.csv) که شامل ورودیهای فرم و همچنین برخی تجسمهای پایه است، در اختیار شما قرار داده شده است. مشتری اشاره کرده که برخی از تجسمها به نظر نادرست میآیند اما مطمئن نیستند که چگونه باید آنها را اصلاح کنند. میتوانید این موضوع را در [دفترچه تکلیف](../../../../2-Working-With-Data/08-data-preparation/assignment.ipynb) بررسی کنید.
+
+## دستورالعملها
+
+از تکنیکهای این درس استفاده کنید تا پیشنهاداتی برای فرم ارائه دهید که اطلاعات دقیق و سازگاری را جمعآوری کند.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | ---
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/2-Working-With-Data/README.md b/translations/fa/2-Working-With-Data/README.md
new file mode 100644
index 00000000..d05843fd
--- /dev/null
+++ b/translations/fa/2-Working-With-Data/README.md
@@ -0,0 +1,29 @@
+
+# کار با دادهها
+
+
+> عکس از الکساندر سین در Unsplash
+
+در این درسها، شما با روشهایی آشنا خواهید شد که دادهها میتوانند مدیریت، دستکاری و در برنامهها استفاده شوند. شما درباره پایگاههای داده رابطهای و غیررابطهای و نحوه ذخیرهسازی دادهها در آنها یاد خواهید گرفت. همچنین اصول کار با پایتون برای مدیریت دادهها را خواهید آموخت و با برخی از روشهای متعدد کار با پایتون برای مدیریت و استخراج دادهها آشنا خواهید شد.
+
+### موضوعات
+
+1. [پایگاههای داده رابطهای](05-relational-databases/README.md)
+2. [پایگاههای داده غیررابطهای](06-non-relational/README.md)
+3. [کار با پایتون](07-python/README.md)
+4. [آمادهسازی دادهها](08-data-preparation/README.md)
+
+### اعتبارها
+
+این درسها با ❤️ توسط [کریستوفر هریسون](https://twitter.com/geektrainer)، [دمیتری سوشنیکوف](https://twitter.com/shwars) و [جاسمین گریناوی](https://twitter.com/paladique) نوشته شدهاند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/09-visualization-quantities/README.md b/translations/fa/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..6768f883
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,215 @@
+
+# تجسم مقادیر
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| تجسم مقادیر - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+در این درس، شما یاد خواهید گرفت که چگونه از یکی از کتابخانههای موجود پایتون استفاده کنید تا تجسمهای جذابی پیرامون مفهوم مقدار ایجاد کنید. با استفاده از یک مجموعه داده پاک شده درباره پرندگان مینهسوتا، میتوانید حقایق جالبی درباره حیات وحش محلی بیاموزید.
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## مشاهده طول بالها با Matplotlib
+
+یک کتابخانه عالی برای ایجاد نمودارها و چارتهای ساده و پیچیده از انواع مختلف، [Matplotlib](https://matplotlib.org/stable/index.html) است. به طور کلی، فرآیند رسم دادهها با استفاده از این کتابخانهها شامل شناسایی بخشهای مورد نظر از دیتافریم، انجام هرگونه تبدیل لازم روی دادهها، اختصاص مقادیر محور x و y، تصمیمگیری درباره نوع نمودار و سپس نمایش نمودار است. Matplotlib انواع زیادی از تجسمها را ارائه میدهد، اما در این درس، بیایید روی مواردی که برای تجسم مقدار مناسبتر هستند تمرکز کنیم: نمودارهای خطی، نمودارهای پراکندگی و نمودارهای میلهای.
+
+> ✅ از بهترین نمودار برای ساختار دادههای خود و داستانی که میخواهید بگویید استفاده کنید.
+> - برای تحلیل روندها در طول زمان: خطی
+> - برای مقایسه مقادیر: میلهای، ستونی، دایرهای، پراکندگی
+> - برای نشان دادن ارتباط بخشها با کل: دایرهای
+> - برای نشان دادن توزیع دادهها: پراکندگی، میلهای
+> - برای نشان دادن روندها: خطی، ستونی
+> - برای نشان دادن روابط بین مقادیر: خطی، پراکندگی، حبابی
+
+اگر یک مجموعه داده دارید و نیاز دارید که کشف کنید چه مقدار از یک آیتم خاص در آن وجود دارد، یکی از اولین وظایف شما بررسی مقادیر آن خواهد بود.
+
+✅ 'برگههای تقلب' بسیار خوبی برای Matplotlib [اینجا](https://matplotlib.org/cheatsheets/cheatsheets.pdf) موجود است.
+
+## ایجاد نمودار خطی درباره مقادیر طول بال پرندگان
+
+فایل `notebook.ipynb` را در ریشه پوشه این درس باز کنید و یک سلول اضافه کنید.
+
+> توجه: دادهها در ریشه این مخزن در پوشه `/data` ذخیره شدهاند.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+این دادهها ترکیبی از متن و اعداد هستند:
+
+| | نام | نام علمی | دستهبندی | راسته | خانواده | جنس | وضعیت حفاظتی | حداقل طول | حداکثر طول | حداقل وزن بدن | حداکثر وزن بدن | حداقل طول بال | حداکثر طول بال |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | اردک سوتزن شکمسیاه | Dendrocygna autumnalis | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | اردک سوتزن قهوهای | Dendrocygna bicolor | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | غاز برفی | Anser caerulescens | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | غاز راس | Anser rossii | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | غاز پیشانیسفید بزرگ | Anser albifrons | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+بیایید با رسم برخی از دادههای عددی با استفاده از یک نمودار خطی ساده شروع کنیم. فرض کنید میخواهید نمایی از حداکثر طول بال این پرندگان جالب داشته باشید.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+چه چیزی بلافاصله توجه شما را جلب میکند؟ به نظر میرسد حداقل یک مقدار غیرعادی وجود دارد - این طول بال بسیار زیاد است! طول بال 2300 سانتیمتر برابر با 23 متر است - آیا پتروسورها در مینهسوتا پرسه میزنند؟ بیایید بررسی کنیم.
+
+در حالی که میتوانید با یک مرتبسازی سریع در اکسل این مقادیر غیرعادی را پیدا کنید، بهتر است فرآیند تجسم را از داخل نمودار ادامه دهید.
+
+به محور x برچسبهایی اضافه کنید تا نشان دهید چه نوع پرندگانی مورد بررسی هستند:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+حتی با چرخش برچسبها به 45 درجه، تعداد زیادی وجود دارد که خواندن آنها دشوار است. بیایید استراتژی دیگری را امتحان کنیم: فقط به مقادیر غیرعادی برچسب بزنیم و برچسبها را در داخل نمودار قرار دهیم. میتوانید از نمودار پراکندگی برای ایجاد فضای بیشتر برای برچسبگذاری استفاده کنید:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+چه اتفاقی افتاده است؟ شما از `tick_params` برای مخفی کردن برچسبهای پایین استفاده کردید و سپس یک حلقه روی مجموعه داده پرندگان خود ایجاد کردید. با رسم نمودار با نقاط کوچک آبی گرد با استفاده از `bo`، بررسی کردید که آیا پرندهای با طول بال بیش از 500 وجود دارد و اگر چنین بود، برچسب آن را در کنار نقطه نمایش دادید. برچسبها را کمی در محور y جابجا کردید (`y * (1 - 0.05)`) و از نام پرنده به عنوان برچسب استفاده کردید.
+
+چه چیزی کشف کردید؟
+
+
+## فیلتر کردن دادهها
+
+هم عقاب سرسفید و هم شاهین دشتی، در حالی که احتمالاً پرندگان بسیار بزرگی هستند، به نظر میرسد اشتباه برچسبگذاری شدهاند و یک `0` اضافی به طول بال حداکثر آنها اضافه شده است. بعید است که با عقاب سرسفیدی با طول بال 25 متر روبرو شوید، اما اگر چنین شد، لطفاً به ما اطلاع دهید! بیایید یک دیتافریم جدید بدون این دو مقدار غیرعادی ایجاد کنیم:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+با فیلتر کردن مقادیر غیرعادی، دادههای شما اکنون منسجمتر و قابل فهمتر هستند.
+
+
+
+اکنون که مجموعه دادهای پاکتر داریم، حداقل از نظر طول بال، بیایید اطلاعات بیشتری درباره این پرندگان کشف کنیم.
+
+در حالی که نمودارهای خطی و پراکندگی میتوانند اطلاعاتی درباره مقادیر دادهها و توزیع آنها نمایش دهند، ما میخواهیم درباره مقادیر ذاتی این مجموعه داده فکر کنیم. شما میتوانید تجسمهایی ایجاد کنید تا به سوالات زیر درباره مقدار پاسخ دهید:
+
+> چند دسته از پرندگان وجود دارد و تعداد آنها چقدر است؟
+> چند پرنده منقرض، در معرض خطر، نادر یا معمولی هستند؟
+> تعداد پرندگان در جنسها و راستههای مختلف در اصطلاحات لینائوس چقدر است؟
+## بررسی نمودارهای میلهای
+
+نمودارهای میلهای زمانی کاربردی هستند که نیاز به نمایش گروهبندی دادهها دارید. بیایید دستهبندیهای پرندگان موجود در این مجموعه داده را بررسی کنیم تا ببینیم کدام دسته بیشترین تعداد را دارد.
+
+در فایل نوتبوک، یک نمودار میلهای ساده ایجاد کنید.
+
+✅ توجه داشته باشید که میتوانید دو پرنده غیرعادی که در بخش قبلی شناسایی کردیم را فیلتر کنید، خطای تایپی در طول بال آنها را اصلاح کنید یا آنها را برای این تمرینها که به مقادیر طول بال وابسته نیستند، نگه دارید.
+
+اگر میخواهید یک نمودار میلهای ایجاد کنید، میتوانید دادههایی را که میخواهید روی آن تمرکز کنید انتخاب کنید. نمودارهای میلهای میتوانند از دادههای خام ایجاد شوند:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+این نمودار میلهای، با این حال، خوانا نیست زیرا دادههای غیرگروهبندی شده زیادی وجود دارد. شما باید فقط دادههایی را که میخواهید رسم کنید انتخاب کنید، بنابراین بیایید طول پرندگان را بر اساس دستهبندی آنها بررسی کنیم.
+
+دادههای خود را فیلتر کنید تا فقط دستهبندی پرندگان را شامل شود.
+
+✅ توجه داشته باشید که از Pandas برای مدیریت دادهها استفاده میکنید و سپس اجازه میدهید Matplotlib نمودار را رسم کند.
+
+از آنجا که دستهبندیهای زیادی وجود دارد، میتوانید این نمودار را به صورت عمودی نمایش دهید و ارتفاع آن را برای نمایش تمام دادهها تنظیم کنید:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+این نمودار میلهای نمای خوبی از تعداد پرندگان در هر دستهبندی نشان میدهد. با یک نگاه، میبینید که بیشترین تعداد پرندگان در این منطقه در دسته اردکها/غازها/آبزیان قرار دارند. مینهسوتا 'سرزمین 10,000 دریاچه' است، بنابراین این موضوع تعجبآور نیست!
+
+✅ برخی شمارشهای دیگر را روی این مجموعه داده امتحان کنید. آیا چیزی شما را شگفتزده میکند؟
+
+## مقایسه دادهها
+
+میتوانید مقایسههای مختلفی از دادههای گروهبندی شده با ایجاد محورهای جدید امتحان کنید. یک مقایسه از حداکثر طول یک پرنده، بر اساس دستهبندی آن را امتحان کنید:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+اینجا چیزی تعجبآور نیست: مرغ مگسخوار کمترین حداکثر طول را در مقایسه با پلیکانها یا غازها دارد. خوب است وقتی دادهها منطقی به نظر میرسند!
+
+میتوانید تجسمهای جالبتری از نمودارهای میلهای با قرار دادن دادهها روی هم ایجاد کنید. بیایید حداقل و حداکثر طول را روی یک دستهبندی پرنده قرار دهیم:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+در این نمودار، میتوانید محدوده طول حداقل و حداکثر را برای هر دستهبندی پرنده مشاهده کنید. میتوانید با اطمینان بگویید که با توجه به این دادهها، هرچه پرنده بزرگتر باشد، محدوده طول آن نیز بزرگتر است. جالب است!
+
+
+
+## 🚀 چالش
+
+این مجموعه داده پرندگان اطلاعات زیادی درباره انواع مختلف پرندگان در یک اکوسیستم خاص ارائه میدهد. در اینترنت جستجو کنید و ببینید آیا میتوانید مجموعه دادههای دیگری درباره پرندگان پیدا کنید. تمرین کنید نمودارها و گرافهایی درباره این پرندگان بسازید تا حقایقی را کشف کنید که قبلاً نمیدانستید.
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## مرور و مطالعه شخصی
+
+این درس اول اطلاعاتی درباره نحوه استفاده از Matplotlib برای تجسم مقادیر به شما داده است. تحقیق کنید درباره روشهای دیگر کار با مجموعه دادهها برای تجسم. [Plotly](https://github.com/plotly/plotly.py) یکی از مواردی است که در این درسها پوشش داده نمیشود، بنابراین نگاهی به آن بیندازید و ببینید چه چیزی میتواند ارائه دهد.
+## تکلیف
+
+[خطوط، پراکندگیها و میلهها](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/fa/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..682fcb88
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# خطوط، نمودارهای پراکندگی و نمودارهای میلهای
+
+## دستورالعملها
+
+در این درس، شما با نمودارهای خطی، نمودارهای پراکندگی و نمودارهای میلهای کار کردید تا حقایق جالبی درباره این مجموعه داده نشان دهید. در این تکلیف، عمیقتر به مجموعه داده بپردازید تا یک حقیقت درباره یک نوع پرنده خاص کشف کنید. به عنوان مثال، یک دفترچه یادداشت ایجاد کنید که تمام دادههای جالبی را که میتوانید درباره غازهای برفی پیدا کنید، به تصویر بکشد. از سه نمودار ذکر شده در بالا استفاده کنید تا داستانی را در دفترچه یادداشت خود روایت کنید.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | --- |
+یک دفترچه یادداشت ارائه شده با توضیحات خوب، داستانسرایی قوی و نمودارهای جذاب | دفترچه یادداشت یکی از این عناصر را ندارد | دفترچه یادداشت دو مورد از این عناصر را ندارد
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/10-visualization-distributions/README.md b/translations/fa/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..83190e6b
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,216 @@
+
+# تجسم توزیعها
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| تجسم توزیعها - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+در درس قبلی، شما با برخی از حقایق جالب درباره یک مجموعه داده از پرندگان مینهسوتا آشنا شدید. با تجسم نقاط پرت، دادههای اشتباه را پیدا کردید و تفاوتهای بین دستههای پرندگان را بر اساس حداکثر طول آنها بررسی کردید.
+
+## [آزمون قبل از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## بررسی مجموعه داده پرندگان
+
+یکی دیگر از روشهای کاوش در دادهها، بررسی توزیع آنها یا نحوه سازماندهی دادهها در طول یک محور است. شاید بخواهید، به عنوان مثال، درباره توزیع کلی حداکثر طول بال یا حداکثر جرم بدن پرندگان مینهسوتا در این مجموعه داده اطلاعات کسب کنید.
+
+بیایید برخی از حقایق مربوط به توزیع دادهها در این مجموعه داده را کشف کنیم. در فایل _notebook.ipynb_ که در ریشه پوشه این درس قرار دارد، Pandas، Matplotlib و دادههای خود را وارد کنید:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | نام | نام علمی | دستهبندی | راسته | خانواده | جنس | وضعیت حفاظتی | حداقل طول | حداکثر طول | حداقل جرم بدن | حداکثر جرم بدن | حداقل طول بال | حداکثر طول بال |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | اردک سوتزن شکمسیاه | Dendrocygna autumnalis | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | اردک سوتزن قهوهای | Dendrocygna bicolor | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | غاز برفی | Anser caerulescens | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | غاز راس | Anser rossii | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | غاز پیشانیسفید بزرگ | Anser albifrons | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+به طور کلی، میتوانید با استفاده از یک نمودار پراکندگی، همانطور که در درس قبلی انجام دادید، به سرعت نحوه توزیع دادهها را مشاهده کنید:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+این نمودار نمای کلی از توزیع عمومی طول بدن بر اساس راسته پرندگان ارائه میدهد، اما بهترین روش برای نمایش توزیعهای واقعی نیست. این کار معمولاً با ایجاد یک هیستوگرام انجام میشود.
+
+## کار با هیستوگرامها
+
+Matplotlib روشهای بسیار خوبی برای تجسم توزیع دادهها با استفاده از هیستوگرامها ارائه میدهد. این نوع نمودار شبیه به نمودار میلهای است که در آن توزیع از طریق افزایش و کاهش میلهها قابل مشاهده است. برای ساخت یک هیستوگرام، به دادههای عددی نیاز دارید. برای ساخت یک هیستوگرام، میتوانید نموداری با نوع 'hist' برای هیستوگرام ترسیم کنید. این نمودار توزیع حداکثر جرم بدن را برای کل محدوده دادههای عددی مجموعه داده نشان میدهد. با تقسیم آرایه دادهها به بخشهای کوچکتر، میتواند توزیع مقادیر دادهها را نمایش دهد:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+همانطور که میبینید، بیشتر از ۴۰۰ پرنده در این مجموعه داده در محدودهای کمتر از ۲۰۰۰ برای حداکثر جرم بدن قرار دارند. با تغییر پارامتر `bins` به عددی بالاتر، مثلاً ۳۰، میتوانید بینش بیشتری به دست آورید:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+این نمودار توزیع را به شکلی کمی دقیقتر نشان میدهد. میتوانید نموداری کمتر متمایل به چپ ایجاد کنید، با این کار که فقط دادههای یک محدوده خاص را انتخاب کنید:
+
+دادههای خود را فیلتر کنید تا فقط پرندگانی که جرم بدن آنها کمتر از ۶۰ است نشان داده شوند و ۴۰ `bins` نمایش دهید:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ فیلترها و نقاط داده دیگری را امتحان کنید. برای مشاهده توزیع کامل دادهها، فیلتر `['MaxBodyMass']` را حذف کنید تا توزیعهای برچسبدار نمایش داده شوند.
+
+هیستوگرام همچنین گزینههای خوبی برای رنگآمیزی و برچسبگذاری ارائه میدهد:
+
+یک هیستوگرام دو بعدی ایجاد کنید تا رابطه بین دو توزیع را مقایسه کنید. بیایید `MaxBodyMass` و `MaxLength` را مقایسه کنیم. Matplotlib یک روش داخلی برای نمایش همگرایی با استفاده از رنگهای روشنتر ارائه میدهد:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+به نظر میرسد که یک همبستگی مورد انتظار بین این دو عنصر در امتداد یک محور مشخص وجود دارد، با یک نقطه همگرایی بسیار قوی:
+
+
+
+هیستوگرامها به طور پیشفرض برای دادههای عددی به خوبی کار میکنند. اگر بخواهید توزیعها را بر اساس دادههای متنی مشاهده کنید چه؟
+
+## بررسی توزیعها در مجموعه داده با استفاده از دادههای متنی
+
+این مجموعه داده همچنین شامل اطلاعات خوبی درباره دستهبندی پرندگان، جنس، گونه، خانواده و وضعیت حفاظتی آنها است. بیایید اطلاعات حفاظتی را بررسی کنیم. توزیع پرندگان بر اساس وضعیت حفاظتی آنها چگونه است؟
+
+> ✅ در این مجموعه داده، چندین مخفف برای توصیف وضعیت حفاظتی استفاده شده است. این مخففها از [دستهبندیهای فهرست قرمز IUCN](https://www.iucnredlist.org/) گرفته شدهاند، سازمانی که وضعیت گونهها را فهرست میکند.
+>
+> - CR: به شدت در معرض خطر
+> - EN: در معرض خطر
+> - EX: منقرضشده
+> - LC: کمترین نگرانی
+> - NT: نزدیک به تهدید
+> - VU: آسیبپذیر
+
+این مقادیر متنی هستند، بنابراین برای ایجاد یک هیستوگرام باید یک تبدیل انجام دهید. با استفاده از فیلتر دادههای پرندگان، وضعیت حفاظتی آنها را در کنار حداقل طول بال نمایش دهید. چه چیزی مشاهده میکنید؟
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+به نظر نمیرسد که همبستگی خوبی بین حداقل طول بال و وضعیت حفاظتی وجود داشته باشد. از این روش برای بررسی عناصر دیگر مجموعه داده استفاده کنید. میتوانید فیلترهای مختلفی را نیز امتحان کنید. آیا همبستگیای پیدا میکنید؟
+
+## نمودارهای چگالی
+
+ممکن است متوجه شده باشید که هیستوگرامهایی که تاکنون بررسی کردهایم، "پلهای" هستند و به صورت یک قوس روان جریان ندارند. برای نمایش یک نمودار چگالی روانتر، میتوانید از نمودار چگالی استفاده کنید.
+
+برای کار با نمودارهای چگالی، با یک کتابخانه جدید برای ترسیم، [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html)، آشنا شوید.
+
+با بارگذاری Seaborn، یک نمودار چگالی ساده را امتحان کنید:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+میتوانید ببینید که این نمودار مشابه نمودار قبلی برای دادههای حداقل طول بال است؛ فقط کمی روانتر است. طبق مستندات Seaborn، "در مقایسه با یک هیستوگرام، KDE میتواند نموداری تولید کند که کمتر شلوغ و قابل تفسیرتر باشد، به ویژه هنگام ترسیم چندین توزیع. اما ممکن است تحریفهایی ایجاد کند اگر توزیع پایه محدود یا روان نباشد. مانند یک هیستوگرام، کیفیت نمایش نیز به انتخاب پارامترهای صافکننده خوب بستگی دارد." [منبع](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) به عبارت دیگر، نقاط پرت همیشه باعث میشوند نمودارهای شما به درستی عمل نکنند.
+
+اگر بخواهید آن خط دندانهدار MaxBodyMass در نمودار دوم را دوباره بررسی کنید، میتوانید آن را با استفاده از این روش به خوبی صاف کنید:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+اگر بخواهید یک خط صاف، اما نه خیلی صاف داشته باشید، پارامتر `bw_adjust` را ویرایش کنید:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ درباره پارامترهای موجود برای این نوع نمودار مطالعه کنید و آزمایش کنید!
+
+این نوع نمودار توضیحات بصری زیبایی ارائه میدهد. به عنوان مثال، با چند خط کد میتوانید چگالی حداکثر جرم بدن را بر اساس راسته پرندگان نمایش دهید:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+همچنین میتوانید چگالی چندین متغیر را در یک نمودار ترسیم کنید. حداکثر طول و حداقل طول یک پرنده را در مقایسه با وضعیت حفاظتی آنها بررسی کنید:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+شاید ارزش تحقیق داشته باشد که آیا خوشه پرندگان "آسیبپذیر" بر اساس طول آنها معنادار است یا خیر.
+
+## 🚀 چالش
+
+هیستوگرامها نوعی نمودار پیشرفتهتر نسبت به نمودارهای پراکندگی ساده، نمودارهای میلهای یا نمودارهای خطی هستند. در اینترنت جستجو کنید تا مثالهای خوبی از استفاده از هیستوگرامها پیدا کنید. آنها چگونه استفاده میشوند، چه چیزی را نشان میدهند، و در چه زمینهها یا حوزههایی بیشتر مورد استفاده قرار میگیرند؟
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## مرور و مطالعه شخصی
+
+در این درس، از Matplotlib استفاده کردید و شروع به کار با Seaborn برای نمایش نمودارهای پیشرفتهتر کردید. درباره `kdeplot` در Seaborn، یک "منحنی چگالی احتمال پیوسته در یک یا چند بعد"، تحقیق کنید. مستندات [این لینک](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) را بخوانید تا بفهمید چگونه کار میکند.
+
+## تکلیف
+
+[مهارتهای خود را اعمال کنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/fa/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..1666e45f
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# مهارتهای خود را به کار بگیرید
+
+## دستورالعملها
+
+تا اینجا، شما با مجموعه دادههای پرندگان مینهسوتا کار کردهاید تا اطلاعاتی درباره تعداد پرندگان و تراکم جمعیت آنها کشف کنید. مهارتهای خود را با استفاده از یک مجموعه داده دیگر تمرین کنید، شاید مجموعهای که از [Kaggle](https://www.kaggle.com/) تهیه شده باشد. یک نوتبوک بسازید تا داستانی درباره این مجموعه داده تعریف کنید و مطمئن شوید که هنگام بحث درباره آن از هیستوگرامها استفاده میکنید.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | -- |
+یک نوتبوک ارائه شده است که شامل توضیحات درباره این مجموعه داده، از جمله منبع آن، و حداقل از ۵ هیستوگرام برای کشف حقایق درباره دادهها استفاده میکند. | یک نوتبوک ارائه شده است که توضیحات ناقص یا اشکالاتی دارد. | یک نوتبوک ارائه شده است که فاقد توضیحات است و شامل اشکالات میشود.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/11-visualization-proportions/README.md b/translations/fa/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..12c01d92
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,203 @@
+
+# تجسم نسبتها
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|تجسم نسبتها - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+در این درس، شما از یک مجموعه داده با محوریت طبیعت استفاده خواهید کرد تا نسبتها را تجسم کنید، مانند تعداد انواع مختلف قارچها در یک مجموعه داده درباره قارچها. بیایید این قارچهای شگفتانگیز را با استفاده از مجموعه دادهای که از Audubon گرفته شده و شامل جزئیاتی درباره ۲۳ گونه قارچهای تیغهدار از خانوادههای Agaricus و Lepiota است، بررسی کنیم. شما با تجسمهای جذابی مانند موارد زیر کار خواهید کرد:
+
+- نمودارهای دایرهای 🥧
+- نمودارهای دونات 🍩
+- نمودارهای وافل 🧇
+
+> 💡 یک پروژه بسیار جالب به نام [Charticulator](https://charticulator.com) از Microsoft Research یک رابط کاربری کشیدن و رها کردن رایگان برای تجسم دادهها ارائه میدهد. در یکی از آموزشهای آنها نیز از این مجموعه داده قارچ استفاده شده است! بنابراین میتوانید دادهها را بررسی کرده و همزمان کتابخانه را یاد بگیرید: [آموزش Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## با قارچهای خود آشنا شوید 🍄
+
+قارچها بسیار جالب هستند. بیایید یک مجموعه داده وارد کنیم تا آنها را مطالعه کنیم:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+یک جدول با دادههای عالی برای تحلیل چاپ میشود:
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Poisonous | Convex | Smooth | Brown | Bruises | Pungent | Free | Close | Narrow | Black | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+| Edible | Convex | Smooth | Yellow | Bruises | Almond | Free | Close | Broad | Black | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Grasses |
+| Edible | Bell | Smooth | White | Bruises | Anise | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Meadows |
+| Poisonous | Convex | Scaly | White | Bruises | Pungent | Free | Close | Narrow | Brown | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+
+بلافاصله متوجه میشوید که تمام دادهها متنی هستند. شما باید این دادهها را تبدیل کنید تا بتوانید از آنها در یک نمودار استفاده کنید. در واقع، بیشتر دادهها به صورت یک شیء نمایش داده شدهاند:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+خروجی به این صورت است:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+این دادهها را بگیرید و ستون 'class' را به یک دستهبندی تبدیل کنید:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+حالا اگر دادههای قارچ را چاپ کنید، میبینید که بر اساس دستهبندیهای سمی/خوراکی گروهبندی شدهاند:
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Edible | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Poisonous | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+اگر ترتیب ارائهشده در این جدول را برای ایجاد برچسبهای دستهبندی کلاس دنبال کنید، میتوانید یک نمودار دایرهای بسازید:
+
+## دایرهای!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+وویلا، یک نمودار دایرهای که نسبتهای این دادهها را بر اساس این دو دسته قارچ نشان میدهد. بسیار مهم است که ترتیب برچسبها را به درستی تنظیم کنید، به خصوص در اینجا، بنابراین حتماً ترتیب آرایه برچسبها را بررسی کنید!
+
+
+
+## دونات!
+
+یک نمودار دایرهای کمی جذابتر، نمودار دونات است که یک نمودار دایرهای با یک حفره در وسط است. بیایید دادههای خود را با این روش بررسی کنیم.
+
+به زیستگاههای مختلفی که قارچها در آن رشد میکنند نگاهی بیندازید:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+در اینجا، دادههای خود را بر اساس زیستگاه گروهبندی میکنید. ۷ زیستگاه فهرست شده است، بنابراین از آنها به عنوان برچسبهای نمودار دونات خود استفاده کنید:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+این کد یک نمودار و یک دایره مرکزی رسم میکند، سپس آن دایره مرکزی را به نمودار اضافه میکند. عرض دایره مرکزی را با تغییر مقدار `0.40` به مقدار دیگر ویرایش کنید.
+
+نمودارهای دونات را میتوان به روشهای مختلفی برای تغییر برچسبها تنظیم کرد. به خصوص برچسبها را میتوان برای خوانایی بیشتر برجسته کرد. اطلاعات بیشتر را در [مستندات](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut) بیابید.
+
+حالا که میدانید چگونه دادههای خود را گروهبندی کرده و سپس به صورت دایرهای یا دونات نمایش دهید، میتوانید انواع دیگر نمودارها را بررسی کنید. یک نمودار وافل را امتحان کنید که فقط یک روش متفاوت برای بررسی کمیت است.
+
+## وافل!
+
+یک نمودار نوع 'وافل' یک روش متفاوت برای تجسم کمیتها به صورت آرایه دوبعدی از مربعها است. سعی کنید کمیتهای مختلف رنگ کلاهک قارچها را در این مجموعه داده تجسم کنید. برای این کار، باید یک کتابخانه کمکی به نام [PyWaffle](https://pypi.org/project/pywaffle/) نصب کرده و از Matplotlib استفاده کنید:
+
+```python
+pip install pywaffle
+```
+
+یک بخش از دادههای خود را برای گروهبندی انتخاب کنید:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+با ایجاد برچسبها و سپس گروهبندی دادههای خود، یک نمودار وافل ایجاد کنید:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+با استفاده از یک نمودار وافل، میتوانید به وضوح نسبتهای رنگ کلاهک قارچها را در این مجموعه داده مشاهده کنید. جالب است که قارچهای زیادی با کلاهک سبز وجود دارند!
+
+
+
+✅ PyWaffle از آیکونها در نمودارها پشتیبانی میکند که از هر آیکونی که در [Font Awesome](https://fontawesome.com/) موجود است استفاده میکند. آزمایشهایی انجام دهید تا یک نمودار وافل حتی جالبتر با استفاده از آیکونها به جای مربعها ایجاد کنید.
+
+در این درس، شما سه روش برای تجسم نسبتها یاد گرفتید. ابتدا باید دادههای خود را به دستهبندیها گروهبندی کنید و سپس تصمیم بگیرید که بهترین روش برای نمایش دادهها چیست - دایرهای، دونات، یا وافل. همه این روشها جذاب هستند و به کاربر یک نمای کلی فوری از مجموعه داده ارائه میدهند.
+
+## 🚀 چالش
+
+سعی کنید این نمودارهای جذاب را در [Charticulator](https://charticulator.com) بازسازی کنید.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## مرور و مطالعه شخصی
+
+گاهی اوقات مشخص نیست که چه زمانی باید از نمودار دایرهای، دونات، یا وافل استفاده کرد. در اینجا چند مقاله برای مطالعه در این زمینه آورده شده است:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+تحقیقاتی انجام دهید تا اطلاعات بیشتری درباره این تصمیمگیری دشوار پیدا کنید.
+
+## تکلیف
+
+[آن را در اکسل امتحان کنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/fa/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..f7e12677
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,23 @@
+
+# امتحان کنید در اکسل
+
+## دستورالعملها
+
+آیا میدانستید که میتوانید نمودارهای دونات، پای و وافل را در اکسل ایجاد کنید؟ با استفاده از یک مجموعه داده دلخواه، این سه نمودار را مستقیماً در یک صفحهگسترده اکسل ایجاد کنید.
+
+## معیار ارزیابی
+
+| عالی | قابل قبول | نیاز به بهبود |
+| ------------------------------------------------------- | ------------------------------------------------- | -------------------------------------------------- |
+| یک صفحهگسترده اکسل ارائه شده با هر سه نمودار | یک صفحهگسترده اکسل ارائه شده با دو نمودار | یک صفحهگسترده اکسل ارائه شده با تنها یک نمودار |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/12-visualization-relationships/README.md b/translations/fa/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..cc9e2bde
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# تجسم روابط: همه چیز درباره عسل 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|تجسم روابط - _اسکتچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+با ادامه تمرکز بر طبیعت در تحقیقاتمان، بیایید تجسمهای جالبی را کشف کنیم که روابط بین انواع مختلف عسل را نشان میدهند، بر اساس مجموعه دادهای که از [وزارت کشاورزی ایالات متحده](https://www.nass.usda.gov/About_NASS/index.php) استخراج شده است.
+
+این مجموعه داده شامل حدود ۶۰۰ آیتم است که تولید عسل در بسیاری از ایالتهای آمریکا را نمایش میدهد. به عنوان مثال، میتوانید تعداد کلنیها، بازده هر کلنی، تولید کل، موجودیها، قیمت هر پوند و ارزش عسل تولید شده در یک ایالت خاص را از سال ۱۹۹۸ تا ۲۰۱۲ بررسی کنید، با یک ردیف برای هر سال در هر ایالت.
+
+جالب خواهد بود که رابطه بین تولید سالانه یک ایالت و مثلاً قیمت عسل در آن ایالت را تجسم کنیم. یا میتوانید رابطه بین بازده عسل هر کلنی در ایالتهای مختلف را تجسم کنید. این بازه زمانی شامل دورهای است که اختلال فروپاشی کلنی (CCD) برای اولین بار در سال ۲۰۰۶ مشاهده شد (http://npic.orst.edu/envir/ccd.html)، بنابراین این مجموعه داده برای مطالعه بسیار قابل توجه است. 🐝
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+در این درس، میتوانید از Seaborn که قبلاً استفاده کردهاید، به عنوان یک کتابخانه خوب برای تجسم روابط بین متغیرها استفاده کنید. به خصوص استفاده از تابع `relplot` در Seaborn جالب است که امکان ایجاد نمودارهای پراکندگی و خطی را فراهم میکند تا به سرعت روابط آماری را تجسم کنید، که به دانشمند داده کمک میکند تا بهتر بفهمد چگونه متغیرها به یکدیگر مرتبط هستند.
+
+## نمودارهای پراکندگی
+
+از نمودار پراکندگی برای نشان دادن چگونگی تغییر قیمت عسل، سال به سال، در هر ایالت استفاده کنید. Seaborn با استفاده از `relplot` به راحتی دادههای ایالتها را گروهبندی کرده و نقاط داده را برای دادههای دستهای و عددی نمایش میدهد.
+
+بیایید با وارد کردن دادهها و Seaborn شروع کنیم:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+متوجه میشوید که دادههای عسل شامل چندین ستون جالب است، از جمله سال و قیمت هر پوند. بیایید این دادهها را که بر اساس ایالتهای آمریکا گروهبندی شدهاند، بررسی کنیم:
+
+| ایالت | تعداد کلنیها | بازده هر کلنی | تولید کل | موجودیها | قیمت هر پوند | ارزش تولید | سال |
+| ----- | ------------- | ------------- | -------- | --------- | ------------ | ---------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+یک نمودار پراکندگی ساده ایجاد کنید تا رابطه بین قیمت هر پوند عسل و ایالت مبدأ آن را نشان دهید. محور `y` را به اندازه کافی بلند کنید تا تمام ایالتها نمایش داده شوند:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+حالا، همان دادهها را با یک طرح رنگی عسل نشان دهید تا ببینید قیمت چگونه در طول سالها تغییر میکند. میتوانید این کار را با افزودن پارامتر 'hue' برای نمایش تغییرات سال به سال انجام دهید:
+
+> ✅ درباره [پالتهای رنگی که میتوانید در Seaborn استفاده کنید](https://seaborn.pydata.org/tutorial/color_palettes.html) بیشتر بیاموزید - یک طرح رنگی رنگینکمان زیبا را امتحان کنید!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+با این تغییر طرح رنگی، میتوانید ببینید که به وضوح یک پیشرفت قوی در طول سالها از نظر قیمت عسل هر پوند وجود دارد. در واقع، اگر یک مجموعه نمونه در دادهها را بررسی کنید (مثلاً ایالت آریزونا)، میتوانید الگوی افزایش قیمت سال به سال را با چند استثنا مشاهده کنید:
+
+| ایالت | تعداد کلنیها | بازده هر کلنی | تولید کل | موجودیها | قیمت هر پوند | ارزش تولید | سال |
+| ----- | ------------- | ------------- | -------- | --------- | ------------ | ---------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+راه دیگری برای تجسم این پیشرفت استفاده از اندازه به جای رنگ است. برای کاربران کوررنگ، این ممکن است گزینه بهتری باشد. تجسم خود را ویرایش کنید تا افزایش قیمت را با افزایش محیط نقطهها نشان دهید:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+میتوانید ببینید که اندازه نقطهها به تدریج افزایش مییابد.
+
+
+
+آیا این یک مورد ساده از عرضه و تقاضا است؟ به دلیل عواملی مانند تغییرات اقلیمی و فروپاشی کلنی، آیا سال به سال عسل کمتری برای خرید موجود است و بنابراین قیمت افزایش مییابد؟
+
+برای کشف همبستگی بین برخی از متغیرهای این مجموعه داده، بیایید نمودارهای خطی را بررسی کنیم.
+
+## نمودارهای خطی
+
+سؤال: آیا افزایش واضحی در قیمت عسل هر پوند سال به سال وجود دارد؟ میتوانید به راحتی این را با ایجاد یک نمودار خطی واحد کشف کنید:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+پاسخ: بله، با چند استثنا در حدود سال ۲۰۰۳:
+
+
+
+✅ از آنجا که Seaborn دادهها را در یک خط جمعآوری میکند، "اندازهگیریهای متعدد در هر مقدار x را با رسم میانگین و بازه اطمینان ۹۵٪ اطراف میانگین نمایش میدهد". [منبع](https://seaborn.pydata.org/tutorial/relational.html). این رفتار زمانبر را میتوان با افزودن `ci=None` غیرفعال کرد.
+
+سؤال: خب، در سال ۲۰۰۳ آیا میتوانیم افزایش عرضه عسل را نیز ببینیم؟ اگر تولید کل را سال به سال بررسی کنید چه؟
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+پاسخ: نه واقعاً. اگر تولید کل را بررسی کنید، به نظر میرسد که در آن سال خاص افزایش یافته است، حتی اگر به طور کلی مقدار عسل تولید شده در این سالها در حال کاهش باشد.
+
+سؤال: در این صورت، چه چیزی میتوانست باعث افزایش قیمت عسل در حدود سال ۲۰۰۳ شود؟
+
+برای کشف این موضوع، میتوانید یک شبکه فاست را بررسی کنید.
+
+## شبکههای فاست
+
+شبکههای فاست یک جنبه از مجموعه داده شما را انتخاب میکنند (در مورد ما، میتوانید 'سال' را انتخاب کنید تا از تولید بیش از حد فاستها جلوگیری شود). سپس Seaborn میتواند یک نمودار برای هر یک از این جنبهها از مختصات x و y انتخابی شما ایجاد کند تا مقایسه بصری آسانتر شود. آیا سال ۲۰۰۳ در این نوع مقایسه برجسته است؟
+
+یک شبکه فاست ایجاد کنید با ادامه استفاده از `relplot` همانطور که در [مستندات Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid) توصیه شده است.
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+در این تجسم، میتوانید بازده هر کلنی و تعداد کلنیها را سال به سال، کنار هم با تنظیم wrap در ۳ برای ستونها مقایسه کنید:
+
+
+
+برای این مجموعه داده، هیچ چیز خاصی در مورد تعداد کلنیها و بازده آنها، سال به سال و ایالت به ایالت برجسته نیست. آیا راه دیگری برای یافتن همبستگی بین این دو متغیر وجود دارد؟
+
+## نمودارهای خطی دوگانه
+
+یک نمودار چندخطی را امتحان کنید با قرار دادن دو نمودار خطی روی یکدیگر، با استفاده از 'despine' در Seaborn برای حذف ستونهای بالا و راست، و استفاده از `ax.twinx` [مشتق شده از Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx اجازه میدهد یک نمودار محور x را به اشتراک بگذارد و دو محور y را نمایش دهد. بنابراین، بازده هر کلنی و تعداد کلنیها را روی هم نمایش دهید:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+در حالی که هیچ چیز خاصی در حدود سال ۲۰۰۳ به چشم نمیآید، این اجازه میدهد که این درس را با یک نکته کمی خوشحالکنندهتر به پایان برسانیم: در حالی که تعداد کلنیها به طور کلی در حال کاهش است، تعداد کلنیها در حال تثبیت است حتی اگر بازده هر کلنی کاهش یابد.
+
+بروید، زنبورها، بروید!
+
+🐝❤️
+## 🚀 چالش
+
+در این درس، کمی بیشتر درباره استفادههای دیگر نمودارهای پراکندگی و شبکههای خطی، از جمله شبکههای فاست یاد گرفتید. خودتان را به چالش بکشید تا یک شبکه فاست با استفاده از یک مجموعه داده متفاوت ایجاد کنید، شاید یکی از مجموعه دادههایی که قبلاً در این درسها استفاده کردهاید. توجه کنید که چقدر زمان برای ایجاد آنها لازم است و چگونه باید مراقب باشید که تعداد شبکههایی که باید با این تکنیکها رسم کنید زیاد نشود.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## مرور و مطالعه شخصی
+
+نمودارهای خطی میتوانند ساده یا بسیار پیچیده باشند. کمی مطالعه در [مستندات Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) درباره روشهای مختلفی که میتوانید آنها را بسازید انجام دهید. سعی کنید نمودارهای خطی که در این درس ساختید را با روشهای دیگر ذکر شده در مستندات بهبود دهید.
+
+## تکلیف
+
+[به کندوی زنبور شیرجه بزنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/fa/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..45e80ff9
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,23 @@
+
+# شیرجه به کندوی زنبور
+
+## دستورالعملها
+
+در این درس شما شروع به بررسی یک مجموعه داده درباره زنبورها و تولید عسل آنها در طول یک دوره زمانی کردید که کاهش جمعیت کلنیهای زنبور را نشان میدهد. عمیقتر به این مجموعه داده نگاه کنید و یک دفترچه یادداشت بسازید که داستان سلامت جمعیت زنبورها را ایالت به ایالت و سال به سال بیان کند. آیا چیزی جالب در این مجموعه داده کشف میکنید؟
+
+## معیار ارزیابی
+
+| عالی | قابل قبول | نیاز به بهبود |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------- | --------------------------------------- |
+| یک دفترچه یادداشت ارائه شده است که داستانی با حداقل سه نمودار مختلف نشاندهنده جنبههای مجموعه داده، ایالت به ایالت و سال به سال را شرح میدهد | دفترچه یادداشت یکی از این عناصر را ندارد | دفترچه یادداشت دو عنصر از این موارد را ندارد |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..d9eb9fe5
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,180 @@
+
+# ایجاد مصورسازیهای معنادار
+
+|](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| مصورسازیهای معنادار - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+> "اگر دادهها را به اندازه کافی شکنجه کنید، به هر چیزی اعتراف خواهند کرد" -- [رونالد کوز](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+یکی از مهارتهای اساسی یک دانشمند داده، توانایی ایجاد مصورسازی دادهای معنادار است که به پاسخ دادن به سؤالات کمک کند. پیش از مصورسازی دادهها، باید اطمینان حاصل کنید که دادهها تمیز و آماده شدهاند، همانطور که در درسهای قبلی انجام دادید. پس از آن، میتوانید تصمیم بگیرید که بهترین روش برای ارائه دادهها چیست.
+
+در این درس، شما بررسی خواهید کرد:
+
+1. چگونه نوع نمودار مناسب را انتخاب کنید
+2. چگونه از نمودارهای گمراهکننده اجتناب کنید
+3. چگونه با رنگ کار کنید
+4. چگونه نمودارهای خود را برای خوانایی بهتر طراحی کنید
+5. چگونه راهحلهای نمودارهای متحرک یا سهبعدی بسازید
+6. چگونه یک مصورسازی خلاقانه ایجاد کنید
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## انتخاب نوع نمودار مناسب
+
+در درسهای قبلی، شما با استفاده از Matplotlib و Seaborn انواع مختلفی از مصورسازیهای دادهای جالب را ایجاد کردید. به طور کلی، میتوانید با استفاده از این جدول، [نوع مناسب نمودار](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) را برای سؤالی که میپرسید انتخاب کنید:
+
+| نیاز دارید: | باید استفاده کنید: |
+| -------------------------- | ------------------------------- |
+| نمایش روند دادهها در طول زمان | خطی |
+| مقایسه دستهها | میلهای، دایرهای |
+| مقایسه کلها | دایرهای، میلهای انباشته |
+| نمایش روابط | پراکندگی، خطی، Facet، خطی دوگانه |
+| نمایش توزیعها | پراکندگی، هیستوگرام، جعبهای |
+| نمایش نسبتها | دایرهای، دونات، وافل |
+
+> ✅ بسته به ساختار دادههای شما، ممکن است نیاز باشد دادهها را از متن به عددی تبدیل کنید تا نمودار مورد نظر از آن پشتیبانی کند.
+
+## اجتناب از گمراهی
+
+حتی اگر یک دانشمند داده در انتخاب نمودار مناسب برای دادهها دقت کند، روشهای زیادی وجود دارد که دادهها میتوانند به گونهای نمایش داده شوند که یک نکته خاص را اثبات کنند، اغلب به قیمت تضعیف خود دادهها. نمونههای زیادی از نمودارها و اینفوگرافیکهای گمراهکننده وجود دارد!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "چگونه نمودارها دروغ میگویند")
+
+> 🎥 روی تصویر بالا کلیک کنید تا یک سخنرانی درباره نمودارهای گمراهکننده ببینید.
+
+این نمودار محور X را معکوس میکند تا بر اساس تاریخ، خلاف واقعیت را نشان دهد:
+
+
+
+[این نمودار](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) حتی گمراهکنندهتر است، زیرا چشم به سمت راست کشیده میشود تا نتیجه بگیرد که با گذشت زمان، موارد COVID در شهرستانهای مختلف کاهش یافته است. در واقع، اگر به تاریخها دقت کنید، متوجه میشوید که آنها به گونهای بازچینش شدهاند که این روند نزولی گمراهکننده را نشان دهند.
+
+
+
+این مثال معروف از رنگ و همچنین محور Y معکوس برای گمراه کردن استفاده میکند: به جای نتیجهگیری اینکه مرگهای ناشی از اسلحه پس از تصویب قوانین دوستدار اسلحه افزایش یافته است، در واقع چشم فریب میخورد تا فکر کند که عکس این موضوع درست است:
+
+
+
+این نمودار عجیب نشان میدهد که چگونه نسبتها میتوانند به شکلی خندهدار دستکاری شوند:
+
+
+
+مقایسه چیزهای غیرقابل مقایسه یکی دیگر از ترفندهای مشکوک است. یک [وبسایت فوقالعاده](https://tylervigen.com/spurious-correlations) وجود دارد که به 'همبستگیهای جعلی' اختصاص دارد و 'حقایقی' را نشان میدهد که چیزهایی مانند نرخ طلاق در مین و مصرف مارگارین را همبسته میکند. یک گروه در Reddit نیز [استفادههای زشت](https://www.reddit.com/r/dataisugly/top/?t=all) از دادهها را جمعآوری میکند.
+
+مهم است که بفهمید چگونه چشم به راحتی میتواند توسط نمودارهای گمراهکننده فریب بخورد. حتی اگر نیت دانشمند داده خوب باشد، انتخاب نوع بدی از نمودار، مانند نمودار دایرهای با تعداد زیادی دسته، میتواند گمراهکننده باشد.
+
+## رنگ
+
+شما در نمودار 'خشونت اسلحه در فلوریدا' بالا دیدید که چگونه رنگ میتواند لایهای اضافی از معنا به نمودارها اضافه کند، به خصوص آنهایی که با استفاده از کتابخانههایی مانند Matplotlib و Seaborn طراحی نشدهاند که دارای کتابخانهها و پالتهای رنگی معتبر هستند. اگر در حال ساخت نموداری به صورت دستی هستید، کمی درباره [نظریه رنگ](https://colormatters.com/color-and-design/basic-color-theory) مطالعه کنید.
+
+> ✅ هنگام طراحی نمودارها، آگاه باشید که دسترسیپذیری جنبه مهمی از مصورسازی است. برخی از کاربران شما ممکن است کوررنگ باشند - آیا نمودار شما برای کاربران با اختلالات بینایی به خوبی نمایش داده میشود؟
+
+هنگام انتخاب رنگها برای نمودار خود دقت کنید، زیرا رنگ میتواند معنایی را منتقل کند که ممکن است قصد نداشته باشید. 'خانمهای صورتی' در نمودار 'قد' بالا معنای مشخصاً 'زنانهای' را منتقل میکنند که به عجیب بودن خود نمودار اضافه میکند.
+
+در حالی که [معنای رنگ](https://colormatters.com/color-symbolism/the-meanings-of-colors) ممکن است در بخشهای مختلف جهان متفاوت باشد و تمایل دارد بر اساس سایه آن تغییر کند، به طور کلی معانی رنگها شامل موارد زیر است:
+
+| رنگ | معنا |
+| ------ | ------------------- |
+| قرمز | قدرت |
+| آبی | اعتماد، وفاداری |
+| زرد | شادی، احتیاط |
+| سبز | محیط زیست، شانس، حسادت |
+| بنفش | شادی |
+| نارنجی | سرزندگی |
+
+اگر وظیفه دارید نموداری با رنگهای سفارشی بسازید، اطمینان حاصل کنید که نمودارهای شما هم دسترسیپذیر هستند و هم رنگی که انتخاب میکنید با معنایی که میخواهید منتقل کنید همخوانی دارد.
+
+## طراحی نمودارها برای خوانایی
+
+نمودارها زمانی معنادار هستند که خوانا باشند! لحظهای وقت بگذارید تا عرض و ارتفاع نمودار خود را برای تناسب بهتر با دادهها تنظیم کنید. اگر یک متغیر (مانند تمام 50 ایالت) باید نمایش داده شود، آنها را در محور Y به صورت عمودی نمایش دهید تا از نمودارهای افقی قابل اسکرول اجتناب کنید.
+
+محورهای خود را برچسبگذاری کنید، در صورت لزوم یک راهنما ارائه دهید و برای درک بهتر دادهها ابزارهای کمکی (tooltip) ارائه دهید.
+
+اگر دادههای شما متنی و طولانی در محور X است، میتوانید متن را برای خوانایی بهتر زاویه دهید. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) امکان رسم سهبعدی را ارائه میدهد، اگر دادههای شما از آن پشتیبانی کند. مصورسازیهای پیشرفته دادهها را میتوان با استفاده از `mpl_toolkits.mplot3d` تولید کرد.
+
+
+
+## نمایش متحرک و سهبعدی نمودارها
+
+برخی از بهترین مصورسازیهای دادهای امروز متحرک هستند. شرلی وو نمونههای شگفتانگیزی با D3 ساخته است، مانند '[گلهای فیلم](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)'، جایی که هر گل مصورسازی یک فیلم است. نمونه دیگری برای گاردین 'باساوت' است، یک تجربه تعاملی که مصورسازیها را با Greensock و D3 به همراه یک مقاله اسکرولمحور ترکیب میکند تا نشان دهد چگونه نیویورک با مشکل بیخانمانها برخورد میکند.
+
+
+
+> "باساوت: چگونه آمریکا بیخانمانهای خود را جابهجا میکند" از [گاردین](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). مصورسازیها توسط نادیه برمر و شرلی وو
+
+در حالی که این درس برای آموزش عمیق این کتابخانههای قدرتمند مصورسازی کافی نیست، میتوانید با استفاده از D3 در یک اپلیکیشن Vue.js و یک کتابخانه برای نمایش مصورسازی کتاب "روابط خطرناک" به عنوان یک شبکه اجتماعی متحرک، دست به کار شوید.
+
+> "روابط خطرناک" یک رمان نامهنگارانه است، یا رمانی که به صورت مجموعهای از نامهها ارائه میشود. این رمان که در سال 1782 توسط شودرلو دو لاکلو نوشته شده است، داستان مانورهای اجتماعی بیرحمانه و اخلاقاً ورشکسته دو شخصیت اصلی اشرافزادگان فرانسوی در اواخر قرن 18، ویکنت دو والمون و مارکیز دو مرتوی را روایت میکند. هر دو در نهایت نابود میشوند اما نه بدون وارد کردن آسیب اجتماعی زیاد. این رمان به صورت مجموعهای از نامهها نوشته شده به افراد مختلف در دایرههای آنها، برای انتقام یا صرفاً ایجاد مشکل، گسترش مییابد. یک مصورسازی از این نامهها ایجاد کنید تا پادشاهان اصلی روایت را به صورت بصری کشف کنید.
+
+شما یک اپلیکیشن وب کامل خواهید کرد که نمای متحرکی از این شبکه اجتماعی را نمایش میدهد. این اپلیکیشن از یک کتابخانه استفاده میکند که برای ایجاد [نمایی از یک شبکه](https://github.com/emiliorizzo/vue-d3-network) با استفاده از Vue.js و D3 ساخته شده است. هنگامی که اپلیکیشن در حال اجرا است، میتوانید گرهها را روی صفحه بکشید تا دادهها را جابهجا کنید.
+
+
+
+## پروژه: ساخت یک نمودار برای نمایش یک شبکه با استفاده از D3.js
+
+> این پوشه درس شامل یک پوشه `solution` است که میتوانید پروژه کامل شده را برای مرجع خود پیدا کنید.
+
+1. دستورالعملهای موجود در فایل README.md در ریشه پوشه استارتر را دنبال کنید. مطمئن شوید که NPM و Node.js روی دستگاه شما اجرا میشوند قبل از نصب وابستگیهای پروژه.
+
+2. پوشه `starter/src` را باز کنید. یک پوشه `assets` پیدا خواهید کرد که شامل یک فایل .json با تمام نامههای رمان، شمارهگذاری شده، با توضیحات 'to' و 'from' است.
+
+3. کد موجود در `components/Nodes.vue` را کامل کنید تا مصورسازی فعال شود. به دنبال متدی به نام `createLinks()` بگردید و حلقه تو در تو زیر را اضافه کنید.
+
+حلقهای در شیء .json ایجاد کنید تا دادههای 'to' و 'from' نامهها را بگیرید و شیء `links` را بسازید تا کتابخانه مصورسازی بتواند از آن استفاده کند:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+اپلیکیشن خود را از ترمینال اجرا کنید (npm run serve) و از مصورسازی لذت ببرید!
+
+## 🚀 چالش
+
+گشتی در اینترنت بزنید تا مصورسازیهای گمراهکننده را کشف کنید. نویسنده چگونه کاربر را فریب میدهد و آیا این کار عمدی است؟ سعی کنید مصورسازیها را اصلاح کنید تا نشان دهید که چگونه باید به نظر برسند.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## مرور و مطالعه شخصی
+
+در اینجا چند مقاله برای مطالعه درباره مصورسازی دادههای گمراهکننده آورده شده است:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+این مصورسازیهای جالب برای داراییها و مصنوعات تاریخی را بررسی کنید:
+
+https://handbook.pubpub.org/
+
+این مقاله را درباره اینکه چگونه انیمیشن میتواند مصورسازیهای شما را بهبود بخشد، مرور کنید:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## تکلیف
+
+[مصورسازی سفارشی خود را بسازید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..519be2c4
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,23 @@
+
+# ساخت ویژوالایزیشن سفارشی خودتان
+
+## دستورالعملها
+
+با استفاده از نمونه کدی که در این پروژه ارائه شده است، یک شبکه اجتماعی ایجاد کنید و دادههای مربوط به تعاملات اجتماعی خود را شبیهسازی کنید. میتوانید استفاده خود از شبکههای اجتماعی را نقشهبرداری کنید یا یک نمودار از اعضای خانواده خود بسازید. یک اپلیکیشن وب جالب طراحی کنید که یک ویژوالایزیشن منحصربهفرد از یک شبکه اجتماعی را نمایش دهد.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | --- |
+یک مخزن GitHub ارائه شده است که کد آن به درستی اجرا میشود (سعی کنید آن را به عنوان یک اپلیکیشن وب استاتیک منتشر کنید) و یک فایل README با توضیحات پروژه به آن ضمیمه شده است | مخزن به درستی اجرا نمیشود یا به خوبی مستند نشده است | مخزن به درستی اجرا نمیشود و به خوبی مستند نشده است
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..085e9910
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,38 @@
+
+# پروژه تجسم دادههای Dangerous Liaisons
+
+برای شروع، باید مطمئن شوید که NPM و Node روی دستگاه شما اجرا میشوند. وابستگیها را نصب کنید (npm install) و سپس پروژه را به صورت محلی اجرا کنید (npm run serve):
+
+## تنظیمات پروژه
+```
+npm install
+```
+
+### کامپایل و بارگذاری مجدد برای توسعه
+```
+npm run serve
+```
+
+### کامپایل و بهینهسازی برای تولید
+```
+npm run build
+```
+
+### بررسی و اصلاح فایلها
+```
+npm run lint
+```
+
+### سفارشیسازی تنظیمات
+به [مرجع تنظیمات](https://cli.vuejs.org/config/) مراجعه کنید.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما هیچ مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..ac4a7d44
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,38 @@
+
+# پروژه تجسم دادههای Dangerous Liaisons
+
+برای شروع، باید مطمئن شوید که NPM و Node روی دستگاه شما اجرا میشوند. وابستگیها را نصب کنید (npm install) و سپس پروژه را به صورت محلی اجرا کنید (npm run serve):
+
+## تنظیمات پروژه
+```
+npm install
+```
+
+### کامپایل و بارگذاری مجدد برای توسعه
+```
+npm run serve
+```
+
+### کامپایل و کوچکسازی برای تولید
+```
+npm run build
+```
+
+### بررسی و اصلاح فایلها
+```
+npm run lint
+```
+
+### سفارشیسازی تنظیمات
+به [مرجع تنظیمات](https://cli.vuejs.org/config/) مراجعه کنید.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/fa/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..e79312d4
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,233 @@
+
+# تجسم مقادیر
+
+|](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| تجسم مقادیر - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+در این درس، شما یاد خواهید گرفت که چگونه از برخی از کتابخانههای موجود در بستههای R برای ایجاد تجسمهای جذاب پیرامون مفهوم مقدار استفاده کنید. با استفاده از یک مجموعه داده پاک شده درباره پرندگان مینهسوتا، میتوانید حقایق جالبی درباره حیات وحش محلی یاد بگیرید.
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## مشاهده طول بالها با ggplot2
+
+یک کتابخانه عالی برای ایجاد نمودارها و گرافهای ساده و پیچیده از انواع مختلف، [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html) است. به طور کلی، فرآیند رسم دادهها با استفاده از این کتابخانهها شامل شناسایی بخشهای مورد نظر از دیتافریم، انجام هرگونه تبدیل لازم بر روی دادهها، اختصاص مقادیر محور x و y، تصمیمگیری درباره نوع نمودار و سپس نمایش نمودار است.
+
+`ggplot2` یک سیستم برای ایجاد گرافیک به صورت اعلامی است که بر اساس دستور زبان گرافیک طراحی شده است. [دستور زبان گرافیک](https://en.wikipedia.org/wiki/Ggplot2) یک طرح کلی برای تجسم دادهها است که نمودارها را به اجزای معنایی مانند مقیاسها و لایهها تقسیم میکند. به عبارت دیگر، سهولت ایجاد نمودارها و گرافها برای دادههای تکمتغیره یا چندمتغیره با کد کم، `ggplot2` را به محبوبترین بسته برای تجسم دادهها در R تبدیل کرده است. کاربر به `ggplot2` میگوید که چگونه متغیرها را به زیباییشناسیها نگاشت کند، عناصر گرافیکی را استفاده کند، و `ggplot2` بقیه کارها را انجام میدهد.
+
+> ✅ نمودار = داده + زیباییشناسی + هندسه
+> - داده به مجموعه داده اشاره دارد
+> - زیباییشناسی متغیرهایی را که باید بررسی شوند نشان میدهد (متغیرهای x و y)
+> - هندسه نوع نمودار را مشخص میکند (نمودار خطی، نمودار میلهای و غیره)
+
+هندسه مناسب (نوع نمودار) را بر اساس دادههای خود و داستانی که میخواهید از طریق نمودار بیان کنید، انتخاب کنید.
+
+> - برای تحلیل روندها: خطی، ستونی
+> - برای مقایسه مقادیر: میلهای، ستونی، دایرهای، پراکندگی
+> - برای نشان دادن ارتباط بخشها با کل: دایرهای
+> - برای نشان دادن توزیع دادهها: پراکندگی، میلهای
+> - برای نشان دادن روابط بین مقادیر: خطی، پراکندگی، حبابی
+
+✅ همچنین میتوانید این [برگه تقلب توصیفی](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) برای ggplot2 را بررسی کنید.
+
+## ایجاد نمودار خطی درباره مقادیر طول بال پرندگان
+
+کنسول R را باز کنید و مجموعه داده را وارد کنید.
+> توجه: مجموعه داده در ریشه این مخزن در پوشه `/data` ذخیره شده است.
+
+بیایید مجموعه داده را وارد کنیم و سر (۵ ردیف اول) دادهها را مشاهده کنیم.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+سر دادهها ترکیبی از متن و اعداد دارد:
+
+| | نام | نام علمی | دستهبندی | راسته | خانواده | جنس | وضعیت حفاظتی | حداقل طول | حداکثر طول | حداقل وزن بدن | حداکثر وزن بدن | حداقل طول بال | حداکثر طول بال |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | اردک سوتزن شکمسیاه | Dendrocygna autumnalis | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | اردک سوتزن قهوهای | Dendrocygna bicolor | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | غاز برفی | Anser caerulescens | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | غاز راس | Anser rossii | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | غاز پیشانیسفید بزرگ | Anser albifrons | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+بیایید با رسم برخی از دادههای عددی با استفاده از یک نمودار خطی ساده شروع کنیم. فرض کنید میخواهید نمایی از حداکثر طول بال این پرندگان جالب داشته باشید.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+در اینجا، بسته `ggplot2` را نصب کرده و سپس با استفاده از دستور `library("ggplot2")` آن را وارد فضای کاری میکنید. برای رسم هر نمودار در ggplot، از تابع `ggplot()` استفاده میشود و شما مجموعه داده، متغیرهای x و y را به عنوان ویژگیها مشخص میکنید. در این مورد، از تابع `geom_line()` استفاده میکنیم زیرا هدف ما رسم نمودار خطی است.
+
+
+
+چه چیزی بلافاصله توجه شما را جلب میکند؟ به نظر میرسد حداقل یک مقدار پرت وجود دارد - این طول بال واقعاً چشمگیر است! طول بال بیش از ۲۰۰۰ سانتیمتر برابر با بیش از ۲۰ متر است - آیا پتروسورها در مینهسوتا پرسه میزنند؟ بیایید بررسی کنیم.
+
+در حالی که میتوانید با یک مرتبسازی سریع در اکسل این مقادیر پرت را پیدا کنید، که احتمالاً اشتباه تایپی هستند، فرآیند تجسم را از داخل نمودار ادامه دهید.
+
+به محور x برچسبهایی اضافه کنید تا نشان دهید چه نوع پرندگانی مورد بررسی هستند:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+ما زاویه را در `theme` مشخص میکنیم و برچسبهای محور x و y را در `xlab()` و `ylab()` به ترتیب مشخص میکنیم. `ggtitle()` نامی به نمودار/گراف میدهد.
+
+
+
+حتی با چرخش برچسبها به زاویه ۴۵ درجه، تعداد زیادی برای خواندن وجود دارد. بیایید استراتژی متفاوتی را امتحان کنیم: فقط مقادیر پرت را برچسبگذاری کنیم و برچسبها را در داخل نمودار قرار دهیم. میتوانید از نمودار پراکندگی برای ایجاد فضای بیشتر برای برچسبگذاری استفاده کنید:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+چه اتفاقی افتاده است؟ شما از تابع `geom_point()` برای رسم نقاط پراکندگی استفاده کردید. با این کار، برچسبهایی برای پرندگانی که `MaxWingspan > 500` داشتند اضافه کردید و همچنین برچسبهای محور x را برای کاهش شلوغی نمودار پنهان کردید.
+
+چه چیزی کشف میکنید؟
+
+
+
+## فیلتر کردن دادههای خود
+
+هم عقاب سر سفید و هم شاهین دشتی، در حالی که احتمالاً پرندگان بسیار بزرگی هستند، به نظر میرسد اشتباه برچسبگذاری شدهاند، با یک صفر اضافی به طول بال حداکثر آنها اضافه شده است. بعید است که با عقاب سر سفید با طول بال ۲۵ متر روبرو شوید، اما اگر چنین شد، لطفاً به ما اطلاع دهید! بیایید یک دیتافریم جدید بدون این دو مقدار پرت ایجاد کنیم:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+ما یک دیتافریم جدید به نام `birds_filtered` ایجاد کردیم و سپس نمودار پراکندگی رسم کردیم. با حذف مقادیر پرت، دادههای شما اکنون منسجمتر و قابل فهمتر است.
+
+
+
+اکنون که حداقل در مورد طول بالها مجموعه داده تمیزتری داریم، بیایید اطلاعات بیشتری درباره این پرندگان کشف کنیم.
+
+در حالی که نمودارهای خطی و پراکندگی میتوانند اطلاعاتی درباره مقادیر دادهها و توزیع آنها نمایش دهند، ما میخواهیم درباره مقادیر ذاتی این مجموعه داده فکر کنیم. شما میتوانید تجسمهایی ایجاد کنید تا به سوالات زیر درباره مقدار پاسخ دهید:
+
+> چند دسته از پرندگان وجود دارد و تعداد آنها چقدر است؟
+> چند پرنده منقرض، در معرض خطر، نادر یا معمولی هستند؟
+> چند پرنده از جنسها و راستههای مختلف در اصطلاحات لینائوس وجود دارند؟
+
+## بررسی نمودارهای میلهای
+
+نمودارهای میلهای زمانی کاربردی هستند که نیاز به نمایش گروهبندی دادهها دارید. بیایید دستهبندیهای پرندگان موجود در این مجموعه داده را بررسی کنیم تا ببینیم کدام دسته بیشترین تعداد را دارد.
+بیایید یک نمودار میلهای بر اساس دادههای فیلتر شده ایجاد کنیم.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+در قطعه کد زیر، بستههای [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) و [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) را نصب میکنیم تا به دستکاری و گروهبندی دادهها برای رسم نمودار میلهای انباشته کمک کنیم. ابتدا دادهها را بر اساس `Category` پرنده گروهبندی کرده و سپس ستونهای `MinLength`، `MaxLength`، `MinBodyMass`، `MaxBodyMass`، `MinWingspan`، `MaxWingspan` را خلاصه میکنیم. سپس، نمودار میلهای را با استفاده از بسته `ggplot2` رسم کرده و رنگها و برچسبها را مشخص میکنیم.
+
+
+
+این نمودار میلهای، با این حال، خوانا نیست زیرا دادههای غیرگروهبندی شده زیادی وجود دارد. شما باید فقط دادههایی را که میخواهید رسم کنید انتخاب کنید، بنابراین بیایید طول پرندگان را بر اساس دستهبندی آنها بررسی کنیم.
+
+دادههای خود را فیلتر کنید تا فقط دستهبندی پرندگان را شامل شود.
+
+از آنجا که دستهبندیهای زیادی وجود دارد، میتوانید این نمودار را به صورت عمودی نمایش دهید و ارتفاع آن را برای نمایش همه دادهها تنظیم کنید:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+ابتدا مقادیر منحصر به فرد در ستون `Category` را شمارش کرده و سپس آنها را به یک دیتافریم جدید به نام `birds_count` مرتب میکنیم. این دادههای مرتب شده سپس در همان سطح فاکتور میشوند تا به صورت مرتب رسم شوند. با استفاده از `ggplot2` سپس دادهها را در یک نمودار میلهای رسم میکنیم. `coord_flip()` میلههای افقی را رسم میکند.
+
+
+
+این نمودار میلهای نمای خوبی از تعداد پرندگان در هر دستهبندی نشان میدهد. با یک نگاه، میبینید که بیشترین تعداد پرندگان در این منطقه در دسته اردکها/غازها/آبزیان قرار دارند. مینهسوتا "سرزمین ۱۰,۰۰۰ دریاچه" است، بنابراین این تعجبآور نیست!
+
+✅ برخی شمارشهای دیگر را روی این مجموعه داده امتحان کنید. آیا چیزی شما را شگفتزده میکند؟
+
+## مقایسه دادهها
+
+میتوانید مقایسههای مختلفی از دادههای گروهبندی شده با ایجاد محورهای جدید امتحان کنید. یک مقایسه از حداکثر طول پرنده، بر اساس دستهبندی آن را امتحان کنید:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+ما دادههای `birds_filtered` را بر اساس `Category` گروهبندی کرده و سپس نمودار میلهای رسم میکنیم.
+
+
+
+اینجا چیزی تعجبآور نیست: مرغ مگسخوار کمترین حداکثر طول را در مقایسه با پلیکانها یا غازها دارد. خوب است وقتی دادهها منطقی به نظر میرسند!
+
+میتوانید تجسمهای جالبتری از نمودارهای میلهای با قرار دادن دادهها روی هم ایجاد کنید. بیایید حداقل و حداکثر طول را روی یک دستهبندی پرنده قرار دهیم:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 چالش
+
+این مجموعه داده پرندگان اطلاعات زیادی درباره انواع مختلف پرندگان در یک اکوسیستم خاص ارائه میدهد. در اینترنت جستجو کنید و ببینید آیا میتوانید مجموعه دادههای دیگری مرتبط با پرندگان پیدا کنید. تمرین کنید نمودارها و گرافهایی پیرامون این پرندگان بسازید تا حقایقی را کشف کنید که قبلاً نمیدانستید.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## مرور و مطالعه خودآموز
+
+این درس اول اطلاعاتی درباره نحوه استفاده از `ggplot2` برای تجسم مقادیر به شما داده است. تحقیق کنید و روشهای دیگری برای کار با مجموعه دادهها برای تجسم پیدا کنید. تحقیق کنید و به دنبال مجموعه دادههایی باشید که بتوانید با استفاده از بستههای دیگر مانند [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) و [Plotly](https://github.com/plotly/plotly.R#readme) تجسم کنید.
+
+## تکلیف
+[خطوط، پراکندگیها و میلهها](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/fa/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..285a1ebb
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# خطوط، نمودارهای پراکندگی و نمودارهای میلهای
+
+## دستورالعملها
+
+در این درس، شما با نمودارهای خطی، نمودارهای پراکندگی و نمودارهای میلهای کار کردید تا حقایق جالبی درباره این مجموعه داده نشان دهید. در این تکلیف، عمیقتر به مجموعه داده نگاه کنید تا یک حقیقت درباره یک نوع پرنده خاص کشف کنید. به عنوان مثال، یک اسکریپت ایجاد کنید که تمام دادههای جالبی که میتوانید درباره غازهای برفی پیدا کنید را به تصویر بکشد. از سه نمودار ذکر شده در بالا استفاده کنید تا داستانی را در دفترچه خود روایت کنید.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | --- |
+یک اسکریپت ارائه شده با توضیحات خوب، داستانسرایی قوی و نمودارهای جذاب | اسکریپت یکی از این عناصر را ندارد | اسکریپت دو مورد از این عناصر را ندارد
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما هیچ مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/fa/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..55f1e809
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,181 @@
+
+# تجسم توزیعها
+
+|](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| تجسم توزیعها - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+در درس قبلی، شما برخی حقایق جالب درباره یک مجموعه داده مربوط به پرندگان مینهسوتا یاد گرفتید. شما با تجسم دادههای پرت، برخی دادههای اشتباه را پیدا کردید و تفاوتهای بین دستههای پرندگان را بر اساس طول حداکثر آنها بررسی کردید.
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## بررسی مجموعه داده پرندگان
+
+یکی دیگر از روشهای بررسی دادهها، نگاه کردن به توزیع آنها است، یا اینکه دادهها چگونه در طول یک محور سازماندهی شدهاند. شاید، برای مثال، بخواهید درباره توزیع کلی طول بال حداکثر یا جرم بدن حداکثر پرندگان مینهسوتا در این مجموعه داده اطلاعات کسب کنید.
+
+بیایید برخی حقایق درباره توزیعهای داده در این مجموعه داده را کشف کنیم. در کنسول R خود، `ggplot2` و پایگاه داده را وارد کنید. دادههای پرت را از پایگاه داده حذف کنید، همانطور که در موضوع قبلی انجام دادید.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | نام | نام علمی | دستهبندی | راسته | خانواده | جنس | وضعیت حفاظتی | حداقل طول | حداکثر طول | حداقل جرم بدن | حداکثر جرم بدن | حداقل طول بال | حداکثر طول بال |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | اردک سوتزن شکمسیاه | Dendrocygna autumnalis | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | اردک سوتزن قهوهای | Dendrocygna bicolor | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | غاز برفی | Anser caerulescens | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | غاز راس | Anser rossii | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | غاز پیشانیسفید بزرگ | Anser albifrons | اردکها/غازها/آبزیان | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+به طور کلی، میتوانید به سرعت نحوه توزیع دادهها را با استفاده از نمودار پراکندگی مشاهده کنید، همانطور که در درس قبلی انجام دادید:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+این نمودار نمای کلی از توزیع طول بدن بر اساس راسته پرندگان ارائه میدهد، اما بهترین روش برای نمایش توزیعهای واقعی نیست. این کار معمولاً با ایجاد یک هیستوگرام انجام میشود.
+## کار با هیستوگرامها
+
+`ggplot2` روشهای بسیار خوبی برای تجسم توزیع دادهها با استفاده از هیستوگرامها ارائه میدهد. این نوع نمودار شبیه نمودار میلهای است که توزیع را میتوان از طریق افزایش و کاهش میلهها مشاهده کرد. برای ساخت یک هیستوگرام، به دادههای عددی نیاز دارید. برای ساخت هیستوگرام، میتوانید نموداری با نوع 'hist' برای هیستوگرام رسم کنید. این نمودار توزیع جرم بدن حداکثر برای کل محدوده دادههای عددی مجموعه داده را نشان میدهد. با تقسیم آرایه دادهها به بخشهای کوچکتر، میتواند توزیع مقادیر دادهها را نمایش دهد:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+همانطور که مشاهده میکنید، بیشتر از 400 پرنده در این مجموعه داده در محدوده زیر 2000 برای جرم بدن حداکثر قرار دارند. با تغییر پارامتر `bins` به عددی بالاتر، مانند 30، اطلاعات بیشتری کسب کنید:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+این نمودار توزیع را به صورت کمی دقیقتر نشان میدهد. میتوان نموداری کمتر متمایل به سمت چپ ایجاد کرد، با اطمینان از اینکه فقط دادههای در یک محدوده خاص انتخاب شدهاند:
+
+دادههای خود را فیلتر کنید تا فقط پرندگانی که جرم بدن آنها زیر 60 است دریافت کنید و 30 `bins` نمایش دهید:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ برخی فیلترها و نقاط داده دیگر را امتحان کنید. برای مشاهده توزیع کامل دادهها، فیلتر `['MaxBodyMass']` را حذف کنید تا توزیعهای برچسبگذاری شده نمایش داده شوند.
+
+هیستوگرام همچنین برخی بهبودهای رنگ و برچسبگذاری جذاب برای امتحان کردن ارائه میدهد:
+
+یک هیستوگرام دوبعدی ایجاد کنید تا رابطه بین دو توزیع را مقایسه کنید. بیایید `MaxBodyMass` را با `MaxLength` مقایسه کنیم. `ggplot2` یک روش داخلی برای نمایش همگرایی با استفاده از رنگهای روشنتر ارائه میدهد:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+به نظر میرسد یک همبستگی مورد انتظار بین این دو عنصر در طول یک محور مورد انتظار وجود دارد، با یک نقطه همگرایی بسیار قوی:
+
+
+
+هیستوگرامها به طور پیشفرض برای دادههای عددی خوب کار میکنند. اگر نیاز داشته باشید توزیعها را بر اساس دادههای متنی مشاهده کنید چه باید کرد؟
+## بررسی مجموعه داده برای توزیعها با استفاده از دادههای متنی
+
+این مجموعه داده همچنین اطلاعات خوبی درباره دستهبندی پرندگان و جنس، گونه، و خانواده آنها و همچنین وضعیت حفاظتی آنها ارائه میدهد. بیایید این اطلاعات حفاظتی را بررسی کنیم. توزیع پرندگان بر اساس وضعیت حفاظتی آنها چگونه است؟
+
+> ✅ در مجموعه داده، چندین مخفف برای توصیف وضعیت حفاظتی استفاده شده است. این مخففها از [دستهبندیهای فهرست قرمز IUCN](https://www.iucnredlist.org/) گرفته شدهاند، سازمانی که وضعیت گونهها را فهرستبندی میکند.
+>
+> - CR: در معرض خطر بحرانی
+> - EN: در معرض خطر
+> - EX: منقرض شده
+> - LC: کمترین نگرانی
+> - NT: نزدیک به تهدید
+> - VU: آسیبپذیر
+
+این مقادیر متنی هستند، بنابراین باید یک تبدیل انجام دهید تا یک هیستوگرام ایجاد کنید. با استفاده از dataframe فیلتر شده پرندگان، وضعیت حفاظتی آنها را همراه با طول بال حداقل نمایش دهید. چه چیزی مشاهده میکنید؟
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+به نظر نمیرسد که همبستگی خوبی بین طول بال حداقل و وضعیت حفاظتی وجود داشته باشد. سایر عناصر مجموعه داده را با استفاده از این روش آزمایش کنید. میتوانید فیلترهای مختلفی را نیز امتحان کنید. آیا همبستگیای پیدا میکنید؟
+
+## نمودارهای چگالی
+
+ممکن است متوجه شده باشید که هیستوگرامهایی که تاکنون مشاهده کردهایم 'پلهای' هستند و به صورت یک قوس روان جریان ندارند. برای نمایش یک نمودار چگالی روانتر، میتوانید یک نمودار چگالی امتحان کنید.
+
+بیایید اکنون با نمودارهای چگالی کار کنیم!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+میتوانید ببینید که نمودار دادههای طول بال حداقل قبلی را بازتاب میدهد؛ فقط کمی روانتر است. اگر بخواهید آن خط پلهای جرم بدن حداکثر در نمودار دوم که ساختید را بازبینی کنید، میتوانید آن را با استفاده از این روش بسیار خوب روان کنید:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+اگر بخواهید یک خط روان، اما نه خیلی روان داشته باشید، پارامتر `adjust` را ویرایش کنید:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ درباره پارامترهای موجود برای این نوع نمودار بخوانید و آزمایش کنید!
+
+این نوع نمودار تجسمهای توضیحی زیبایی ارائه میدهد. برای مثال، با چند خط کد میتوانید چگالی جرم بدن حداکثر بر اساس راسته پرندگان را نمایش دهید:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 چالش
+
+هیستوگرامها نوعی نمودار پیچیدهتر نسبت به نمودارهای پراکندگی ساده، نمودارهای میلهای یا نمودارهای خطی هستند. در اینترنت جستجو کنید تا نمونههای خوبی از استفاده از هیستوگرامها پیدا کنید. آنها چگونه استفاده میشوند، چه چیزی را نشان میدهند، و در چه زمینهها یا حوزههای تحقیقاتی تمایل به استفاده دارند؟
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## مرور و مطالعه شخصی
+
+در این درس، شما از `ggplot2` استفاده کردید و شروع به نمایش نمودارهای پیچیدهتر کردید. درباره `geom_density_2d()` که یک "منحنی چگالی احتمال پیوسته در یک یا چند بعد" است تحقیق کنید. [مستندات](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) را بخوانید تا بفهمید چگونه کار میکند.
+
+## تکلیف
+
+[مهارتهای خود را اعمال کنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما هیچ مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/fa/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..9b51bf3e
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# مهارتهای خود را به کار بگیرید
+
+## دستورالعملها
+
+تا اینجا، شما با مجموعه دادههای پرندگان مینهسوتا کار کردهاید تا اطلاعاتی درباره تعداد پرندگان و تراکم جمعیت آنها کشف کنید. مهارتهای خود را با استفاده از یک مجموعه داده دیگر تمرین کنید، شاید مجموعهای که از [Kaggle](https://www.kaggle.com/) تهیه شده باشد. یک اسکریپت R بسازید که داستانی درباره این مجموعه داده بیان کند و مطمئن شوید که هنگام بحث درباره آن از هیستوگرامها استفاده میکنید.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | -- |
+یک اسکریپت ارائه شده است که شامل توضیحات درباره این مجموعه داده، منبع آن، و استفاده از حداقل ۵ هیستوگرام برای کشف حقایق درباره دادهها است. | یک اسکریپت ارائه شده است که توضیحات ناقص یا اشکالاتی دارد. | یک اسکریپت ارائه شده است که فاقد توضیحات است و شامل اشکالاتی میباشد.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/fa/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..904c4e83
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,197 @@
+
+# تجسم نسبتها
+
+|](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|تجسم نسبتها - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+در این درس، شما از یک مجموعه داده با محوریت طبیعت استفاده خواهید کرد تا نسبتها را تجسم کنید، مانند تعداد انواع مختلف قارچهایی که در یک مجموعه داده مربوط به قارچها وجود دارند. بیایید این قارچهای جذاب را با استفاده از مجموعه دادهای که از Audubon گرفته شده و جزئیات مربوط به 23 گونه قارچهای تیغهدار در خانوادههای Agaricus و Lepiota را ارائه میدهد، بررسی کنیم. شما با تجسمهای خوشمزهای مانند موارد زیر آزمایش خواهید کرد:
+
+- نمودارهای دایرهای 🥧
+- نمودارهای دونات 🍩
+- نمودارهای وافل 🧇
+
+> 💡 یک پروژه بسیار جالب به نام [Charticulator](https://charticulator.com) توسط Microsoft Research یک رابط کاربری رایگان برای تجسم دادهها ارائه میدهد. در یکی از آموزشهای آنها نیز از این مجموعه داده قارچ استفاده شده است! بنابراین میتوانید دادهها را بررسی کرده و همزمان کتابخانه را یاد بگیرید: [آموزش Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## با قارچهای خود آشنا شوید 🍄
+
+قارچها بسیار جالب هستند. بیایید یک مجموعه داده وارد کنیم تا آنها را مطالعه کنیم:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+یک جدول با دادههای عالی برای تحلیل چاپ میشود:
+
+| کلاس | شکل کلاهک | سطح کلاهک | رنگ کلاهک | کبودی | بو | اتصال تیغه | فاصله تیغه | اندازه تیغه | رنگ تیغه | شکل ساقه | ریشه ساقه | سطح ساقه بالای حلقه | سطح ساقه زیر حلقه | رنگ ساقه بالای حلقه | رنگ ساقه زیر حلقه | نوع پرده | رنگ پرده | تعداد حلقه | نوع حلقه | رنگ چاپ اسپور | جمعیت | زیستگاه |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| سمی | محدب | صاف | قهوهای | کبودی | تند | آزاد | نزدیک | باریک | سیاه | بزرگشونده | برابر | صاف | صاف | سفید | سفید | جزئی | سفید | یک | آویزان | سیاه | پراکنده | شهری |
+| خوراکی | محدب | صاف | زرد | کبودی | بادام | آزاد | نزدیک | پهن | سیاه | بزرگشونده | چماقی | صاف | صاف | سفید | سفید | جزئی | سفید | یک | آویزان | قهوهای | فراوان | چمنزار |
+| خوراکی | زنگولهای | صاف | سفید | کبودی | بادیان | آزاد | نزدیک | پهن | قهوهای | بزرگشونده | چماقی | صاف | صاف | سفید | سفید | جزئی | سفید | یک | آویزان | قهوهای | فراوان | مراتع |
+| سمی | محدب | فلسدار | سفید | کبودی | تند | آزاد | نزدیک | باریک | قهوهای | بزرگشونده | برابر | صاف | صاف | سفید | سفید | جزئی | سفید | یک | آویزان | سیاه | پراکنده | شهری |
+| خوراکی | محدب | صاف | سبز | بدون کبودی | هیچ | آزاد | شلوغ | پهن | سیاه | باریکشونده | برابر | صاف | صاف | سفید | سفید | جزئی | سفید | یک | ناپایدار | قهوهای | فراوان | چمنزار |
+| خوراکی | محدب | فلسدار | زرد | کبودی | بادام | آزاد | نزدیک | پهن | قهوهای | بزرگشونده | چماقی | صاف | صاف | سفید | سفید | جزئی | سفید | یک | آویزان | سیاه | فراوان | چمنزار |
+
+بلافاصله متوجه میشوید که تمام دادهها متنی هستند. شما باید این دادهها را تبدیل کنید تا بتوانید از آنها در یک نمودار استفاده کنید. در واقع، بیشتر دادهها به صورت یک شیء نمایش داده شدهاند:
+
+```r
+names(mushrooms)
+```
+
+خروجی:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+این دادهها را بگیرید و ستون 'class' را به یک دسته تبدیل کنید:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+اکنون، اگر دادههای قارچ را چاپ کنید، میبینید که بر اساس دستههای سمی/خوراکی گروهبندی شدهاند:
+```r
+View(grouped)
+```
+
+| کلاس | تعداد |
+| --------- | --------- |
+| خوراکی | 4208 |
+| سمی | 3916 |
+
+اگر ترتیب ارائهشده در این جدول را دنبال کنید تا برچسبهای دسته کلاس خود را ایجاد کنید، میتوانید یک نمودار دایرهای بسازید.
+
+## دایرهای!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+وویلا، یک نمودار دایرهای که نسبتهای این دادهها را بر اساس این دو دسته قارچ نشان میدهد. بسیار مهم است که ترتیب برچسبها را به درستی تنظیم کنید، به خصوص در اینجا، بنابراین حتماً ترتیب آرایه برچسبها را بررسی کنید!
+
+
+
+## دونات!
+
+یک نمودار دایرهای کمی جذابتر، نمودار دونات است که یک نمودار دایرهای با یک سوراخ در وسط است. بیایید دادههای خود را با این روش بررسی کنیم.
+
+به زیستگاههای مختلفی که قارچها در آن رشد میکنند، نگاهی بیندازید:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+خروجی:
+
+| زیستگاه | تعداد |
+| --------- | --------- |
+| چمنزار | 2148 |
+| برگها | 832 |
+| مراتع | 292 |
+| مسیرها | 1144 |
+| شهری | 368 |
+| زبالهها | 192 |
+| چوب | 3148 |
+
+در اینجا، دادههای خود را بر اساس زیستگاه گروهبندی میکنید. 7 زیستگاه ذکر شده است، بنابراین از آنها به عنوان برچسبهای نمودار دونات خود استفاده کنید:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+این کد از دو کتابخانه - ggplot2 و webr - استفاده میکند. با استفاده از تابع PieDonut در کتابخانه webr، میتوانیم به راحتی یک نمودار دونات ایجاد کنیم!
+
+نمودارهای دونات در R فقط با استفاده از کتابخانه ggplot2 نیز قابل ساخت هستند. میتوانید اطلاعات بیشتری در مورد آن [اینجا](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) بیاموزید و خودتان امتحان کنید.
+
+اکنون که میدانید چگونه دادههای خود را گروهبندی کرده و سپس به صورت دایرهای یا دونات نمایش دهید، میتوانید انواع دیگر نمودارها را بررسی کنید. یک نمودار وافل را امتحان کنید، که فقط یک روش متفاوت برای بررسی کمیت است.
+
+## وافل!
+
+یک نمودار نوع 'وافل' یک روش متفاوت برای تجسم کمیتها به صورت آرایهای دو بعدی از مربعها است. سعی کنید کمیتهای مختلف رنگهای کلاهک قارچها را در این مجموعه داده تجسم کنید. برای این کار، باید یک کتابخانه کمکی به نام [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) نصب کنید و از آن برای ایجاد تجسم خود استفاده کنید:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+یک بخش از دادههای خود را برای گروهبندی انتخاب کنید:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+با ایجاد برچسبها و سپس گروهبندی دادههای خود، یک نمودار وافل ایجاد کنید:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+با استفاده از نمودار وافل، میتوانید به وضوح نسبتهای رنگهای کلاهک قارچها در این مجموعه داده را مشاهده کنید. جالب است که قارچهای زیادی با کلاهک سبز وجود دارند!
+
+
+
+در این درس، شما سه روش برای تجسم نسبتها یاد گرفتید. ابتدا باید دادههای خود را به دستهها گروهبندی کنید و سپس تصمیم بگیرید که بهترین روش برای نمایش دادهها چیست - دایرهای، دونات، یا وافل. همه اینها خوشمزه هستند و کاربر را با یک نمای فوری از مجموعه داده راضی میکنند.
+
+## 🚀 چالش
+
+سعی کنید این نمودارهای خوشمزه را در [Charticulator](https://charticulator.com) بازسازی کنید.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## مرور و مطالعه شخصی
+
+گاهی اوقات مشخص نیست که چه زمانی باید از نمودار دایرهای، دونات، یا وافل استفاده کرد. در اینجا چند مقاله برای مطالعه در این زمینه آورده شده است:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+تحقیقات بیشتری انجام دهید تا اطلاعات بیشتری در مورد این تصمیم دشوار پیدا کنید.
+
+## تکلیف
+
+[آن را در اکسل امتحان کنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/fa/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..f928f65c
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,176 @@
+
+# تجسم روابط: همه چیز درباره عسل 🍯
+
+|](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|تجسم روابط - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+با ادامه تمرکز بر طبیعت در تحقیقاتمان، بیایید تجسمهای جالبی را کشف کنیم که روابط بین انواع مختلف عسل را نشان میدهند، بر اساس مجموعه دادهای که از [وزارت کشاورزی ایالات متحده](https://www.nass.usda.gov/About_NASS/index.php) استخراج شده است.
+
+این مجموعه داده شامل حدود ۶۰۰ آیتم است که تولید عسل در بسیاری از ایالتهای آمریکا را نمایش میدهد. به عنوان مثال، میتوانید تعداد کلنیها، بازده هر کلنی، تولید کل، ذخایر، قیمت هر پوند و ارزش عسل تولید شده در یک ایالت خاص را از سال ۱۹۹۸ تا ۲۰۱۲ بررسی کنید، به طوری که هر ردیف مربوط به یک سال برای هر ایالت است.
+
+جالب خواهد بود که رابطه بین تولید سالانه یک ایالت و مثلاً قیمت عسل در آن ایالت را تجسم کنیم. یا میتوانید رابطه بین بازده عسل هر کلنی در ایالتهای مختلف را تجسم کنید. این بازه زمانی شامل دورهای است که اختلال فروپاشی کلنی (CCD) برای اولین بار در سال ۲۰۰۶ مشاهده شد (http://npic.orst.edu/envir/ccd.html)، بنابراین این مجموعه داده برای مطالعه بسیار قابل توجه است. 🐝
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+در این درس، میتوانید از ggplot2 که قبلاً استفاده کردهاید، به عنوان یک کتابخانه خوب برای تجسم روابط بین متغیرها استفاده کنید. به خصوص استفاده از `geom_point` و تابع `qplot` در ggplot2 جالب است که امکان ایجاد نمودارهای پراکندگی و خطی را فراهم میکند تا به سرعت روابط آماری را تجسم کنید، که به دانشمند داده کمک میکند بهتر بفهمد چگونه متغیرها به یکدیگر مرتبط هستند.
+
+## نمودارهای پراکندگی
+
+از نمودار پراکندگی استفاده کنید تا نشان دهید قیمت عسل چگونه سال به سال در هر ایالت تغییر کرده است. ggplot2 با استفاده از `ggplot` و `geom_point` به راحتی دادههای ایالتها را گروهبندی کرده و نقاط داده را برای دادههای دستهای و عددی نمایش میدهد.
+
+بیایید با وارد کردن دادهها و Seaborn شروع کنیم:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+متوجه میشوید که دادههای عسل شامل چندین ستون جالب است، از جمله سال و قیمت هر پوند. بیایید این دادهها را که بر اساس ایالتهای آمریکا گروهبندی شدهاند، بررسی کنیم:
+
+| ایالت | تعداد کلنیها | بازده هر کلنی | تولید کل | ذخایر | قیمت هر پوند | ارزش تولید | سال |
+| ----- | ------------- | ------------- | -------- | ------ | ------------ | ---------- | --- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000| 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000| 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000| 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000| 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 | 22540000 | 4508000| 0.64 | 14426000 | 1998 |
+
+یک نمودار پراکندگی ساده ایجاد کنید تا رابطه بین قیمت هر پوند عسل و ایالت مبدا آن را نشان دهید. محور `y` را به اندازه کافی بلند کنید تا تمام ایالتها نمایش داده شوند:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+حالا همان دادهها را با یک طرح رنگی عسل نمایش دهید تا نشان دهید قیمت چگونه در طول سالها تغییر کرده است. میتوانید این کار را با افزودن پارامتر 'scale_color_gradientn' انجام دهید تا تغییرات سال به سال را نشان دهید:
+
+> ✅ اطلاعات بیشتر درباره [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - یک طرح رنگی رنگینکمان زیبا را امتحان کنید!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+با این تغییر طرح رنگی، میتوانید ببینید که به وضوح یک پیشرفت قوی در طول سالها از نظر قیمت هر پوند عسل وجود دارد. در واقع، اگر یک مجموعه نمونه در دادهها را بررسی کنید (مثلاً ایالت آریزونا)، میتوانید الگویی از افزایش قیمت سال به سال را مشاهده کنید، با چند استثنا:
+
+| ایالت | تعداد کلنیها | بازده هر کلنی | تولید کل | ذخایر | قیمت هر پوند | ارزش تولید | سال |
+| ----- | ------------- | ------------- | -------- | ------ | ------------ | ---------- | --- |
+| AZ | 55000 | 60 | 3300000 | 1485000| 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000| 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000| 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000| 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000| 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+راه دیگری برای تجسم این پیشرفت استفاده از اندازه به جای رنگ است. برای کاربران کوررنگ، این ممکن است گزینه بهتری باشد. تجسم خود را ویرایش کنید تا افزایش قیمت را با افزایش اندازه نقاط نشان دهید:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+میتوانید ببینید که اندازه نقاط به تدریج افزایش مییابد.
+
+
+
+آیا این یک مورد ساده از عرضه و تقاضا است؟ به دلیل عواملی مانند تغییرات اقلیمی و فروپاشی کلنی، آیا عسل کمتری برای خرید در دسترس است و بنابراین قیمت افزایش مییابد؟
+
+برای کشف همبستگی بین برخی از متغیرهای این مجموعه داده، بیایید برخی نمودارهای خطی را بررسی کنیم.
+
+## نمودارهای خطی
+
+سؤال: آیا افزایش واضحی در قیمت هر پوند عسل سال به سال وجود دارد؟ میتوانید به راحتی این موضوع را با ایجاد یک نمودار خطی واحد کشف کنید:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+پاسخ: بله، با چند استثنا در حدود سال ۲۰۰۳:
+
+
+
+سؤال: خب، در سال ۲۰۰۳ آیا میتوانیم افزایش عرضه عسل را نیز مشاهده کنیم؟ اگر تولید کل را سال به سال بررسی کنید چه؟
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+پاسخ: نه واقعاً. اگر تولید کل را بررسی کنید، به نظر میرسد که در آن سال خاص افزایش یافته است، حتی اگر به طور کلی مقدار عسل تولید شده در این سالها در حال کاهش باشد.
+
+سؤال: در این صورت، چه چیزی میتوانست باعث افزایش قیمت عسل در حدود سال ۲۰۰۳ شود؟
+
+برای کشف این موضوع، میتوانید یک شبکه فاست را بررسی کنید.
+
+## شبکههای فاست
+
+شبکههای فاست یک جنبه از مجموعه داده شما را میگیرند (در مورد ما، میتوانید 'سال' را انتخاب کنید تا تعداد فاستهای تولید شده زیاد نشود). سپس Seaborn میتواند یک نمودار برای هر یک از این جنبهها از مختصات x و y انتخابی شما ایجاد کند تا مقایسه بصری آسانتر شود. آیا سال ۲۰۰۳ در این نوع مقایسه برجسته است؟
+
+یک شبکه فاست با استفاده از `facet_wrap` ایجاد کنید، همانطور که در [مستندات ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html) توصیه شده است.
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+در این تجسم، میتوانید بازده هر کلنی و تعداد کلنیها را سال به سال، کنار هم با تنظیم wrap در ۳ برای ستونها مقایسه کنید:
+
+
+
+برای این مجموعه داده، هیچ چیز خاصی در مورد تعداد کلنیها و بازده آنها، سال به سال و ایالت به ایالت برجسته نیست. آیا راه دیگری برای یافتن همبستگی بین این دو متغیر وجود دارد؟
+
+## نمودارهای خطی دوگانه
+
+یک نمودار چندخطی را امتحان کنید که دو نمودار خطی را روی یکدیگر قرار میدهد، با استفاده از `par` و `plot` در R. ما سال را در محور x رسم خواهیم کرد و دو محور y را نمایش خواهیم داد. بنابراین، بازده هر کلنی و تعداد کلنیها را روی هم قرار دهید:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+در حالی که هیچ چیز خاصی در حدود سال ۲۰۰۳ به چشم نمیآید، این اجازه را به ما میدهد که این درس را با یک نکته خوشحالکنندهتر به پایان برسانیم: در حالی که تعداد کلنیها به طور کلی در حال کاهش است، تعداد کلنیها در حال تثبیت است حتی اگر بازده هر کلنی کاهش یابد.
+
+زنده باد زنبورها! 🐝❤️
+
+## 🚀 چالش
+
+در این درس، شما کمی بیشتر درباره استفادههای دیگر نمودارهای پراکندگی و شبکههای خطی، از جمله شبکههای فاست یاد گرفتید. خودتان را به چالش بکشید تا یک شبکه فاست با استفاده از یک مجموعه داده دیگر ایجاد کنید، شاید یکی از مجموعه دادههایی که قبلاً در این درسها استفاده کردهاید. توجه کنید که چقدر زمان میبرد تا آنها را ایجاد کنید و چگونه باید مراقب باشید که تعداد شبکههایی که با این تکنیکها رسم میکنید زیاد نشود.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## مرور و مطالعه شخصی
+
+نمودارهای خطی میتوانند ساده یا بسیار پیچیده باشند. کمی مطالعه در [مستندات ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) درباره روشهای مختلفی که میتوانید آنها را بسازید انجام دهید. سعی کنید نمودارهای خطی که در این درس ساختید را با روشهای دیگر ذکر شده در مستندات بهبود دهید.
+
+## تکلیف
+
+[به کندوی زنبور شیرجه بزنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/fa/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..6aadbda4
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,180 @@
+
+# ایجاد مصورسازیهای معنادار
+
+|](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| مصورسازیهای معنادار - _اسکچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+> "اگر دادهها را به اندازه کافی شکنجه کنید، به هر چیزی اعتراف خواهند کرد" -- [رونالد کوز](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+یکی از مهارتهای اساسی یک دانشمند داده توانایی ایجاد مصورسازی دادهای معنادار است که به پاسخ دادن به سوالات کمک کند. پیش از مصورسازی دادهها، باید مطمئن شوید که دادهها تمیز و آماده شدهاند، همانطور که در درسهای قبلی انجام دادید. پس از آن، میتوانید تصمیم بگیرید که چگونه بهترین شکل ممکن دادهها را ارائه دهید.
+
+در این درس، شما بررسی خواهید کرد:
+
+1. چگونه نوع نمودار مناسب را انتخاب کنید
+2. چگونه از نمودارهای گمراهکننده اجتناب کنید
+3. چگونه با رنگ کار کنید
+4. چگونه نمودارهای خود را برای خوانایی بهتر طراحی کنید
+5. چگونه راهحلهای نمودارهای متحرک یا سهبعدی بسازید
+6. چگونه یک مصورسازی خلاقانه ایجاد کنید
+
+## [پیشدرس آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## انتخاب نوع نمودار مناسب
+
+در درسهای قبلی، شما با استفاده از Matplotlib و Seaborn برای نمودارها انواع مختلفی از مصورسازیهای دادهای جالب را آزمایش کردید. به طور کلی، میتوانید با استفاده از این جدول [نوع مناسب نمودار](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) را برای سوالی که میپرسید انتخاب کنید:
+
+| نیاز دارید: | باید استفاده کنید: |
+| -------------------------- | ----------------------------------- |
+| نمایش روند دادهها در طول زمان | خطی |
+| مقایسه دستهها | میلهای، دایرهای |
+| مقایسه مجموعها | دایرهای، میلهای انباشته |
+| نمایش روابط | پراکنده، خطی، Facet، خطی دوگانه |
+| نمایش توزیعها | پراکنده، هیستوگرام، جعبهای |
+| نمایش نسبتها | دایرهای، دونات، وافل |
+
+> ✅ بسته به ترکیب دادههای شما، ممکن است نیاز باشد دادهها را از متن به عددی تبدیل کنید تا نمودار مورد نظر از آن پشتیبانی کند.
+
+## اجتناب از گمراهی
+
+حتی اگر یک دانشمند داده در انتخاب نمودار مناسب برای دادهها دقت کند، روشهای زیادی وجود دارد که دادهها میتوانند به گونهای نمایش داده شوند که یک نکته را ثابت کنند، اغلب به قیمت تضعیف خود دادهها. نمونههای زیادی از نمودارها و اینفوگرافیکهای گمراهکننده وجود دارد!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "چگونه نمودارها دروغ میگویند")
+
+> 🎥 روی تصویر بالا کلیک کنید تا یک سخنرانی کنفرانس درباره نمودارهای گمراهکننده مشاهده کنید
+
+این نمودار محور X را معکوس میکند تا بر اساس تاریخ، حقیقت را وارونه نشان دهد:
+
+
+
+[این نمودار](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) حتی گمراهکنندهتر است، زیرا چشم به سمت راست کشیده میشود تا نتیجهگیری کند که در طول زمان، موارد COVID در شهرستانهای مختلف کاهش یافته است. در واقع، اگر به تاریخها دقت کنید، متوجه میشوید که آنها به گونهای مرتب شدهاند که روند نزولی گمراهکنندهای ایجاد کنند.
+
+
+
+این مثال معروف از رنگ و محور Y معکوس برای گمراه کردن استفاده میکند: به جای نتیجهگیری اینکه مرگهای ناشی از اسلحه پس از تصویب قوانین دوستدار اسلحه افزایش یافته است، در واقع چشم فریب داده میشود تا فکر کند که عکس آن درست است:
+
+
+
+این نمودار عجیب نشان میدهد که چگونه نسبتها میتوانند به شکلی دستکاری شوند که خندهدار باشد:
+
+
+
+مقایسه موارد غیرقابل مقایسه یکی دیگر از ترفندهای مشکوک است. یک [وبسایت فوقالعاده](https://tylervigen.com/spurious-correlations) وجود دارد که تماماً درباره 'همبستگیهای جعلی' است و 'حقایق'ی را نمایش میدهد که چیزهایی مانند نرخ طلاق در مین و مصرف مارگارین را همبسته میکند. یک گروه در Reddit نیز [استفادههای زشت](https://www.reddit.com/r/dataisugly/top/?t=all) از دادهها را جمعآوری میکند.
+
+مهم است که بفهمید چگونه چشم به راحتی میتواند توسط نمودارهای گمراهکننده فریب داده شود. حتی اگر نیت دانشمند داده خوب باشد، انتخاب نوع بدی از نمودار، مانند نمودار دایرهای که دستههای زیادی را نشان میدهد، میتواند گمراهکننده باشد.
+
+## رنگ
+
+شما در نمودار 'خشونت با اسلحه در فلوریدا' بالا دیدید که چگونه رنگ میتواند لایهای اضافی از معنا به نمودارها اضافه کند، به خصوص نمودارهایی که با استفاده از کتابخانههایی مانند ggplot2 و RColorBrewer طراحی نشدهاند که دارای کتابخانهها و پالتهای رنگی معتبر مختلف هستند. اگر نموداری را به صورت دستی طراحی میکنید، کمی مطالعه درباره [نظریه رنگ](https://colormatters.com/color-and-design/basic-color-theory) انجام دهید.
+
+> ✅ هنگام طراحی نمودارها، آگاه باشید که دسترسیپذیری جنبه مهمی از مصورسازی است. برخی از کاربران شما ممکن است کوررنگ باشند - آیا نمودار شما برای کاربران با اختلالات بینایی به خوبی نمایش داده میشود؟
+
+هنگام انتخاب رنگها برای نمودار خود، مراقب باشید، زیرا رنگ میتواند معنایی را منتقل کند که ممکن است قصد نداشته باشید. 'بانوان صورتی' در نمودار 'قد' بالا معنای مشخصاً 'زنانهای' را منتقل میکنند که به عجیب بودن خود نمودار اضافه میکند.
+
+در حالی که [معنای رنگ](https://colormatters.com/color-symbolism/the-meanings-of-colors) ممکن است در بخشهای مختلف جهان متفاوت باشد و تمایل دارد بر اساس سایههای خود تغییر کند، به طور کلی، معانی رنگها شامل موارد زیر است:
+
+| رنگ | معنا |
+| ------ | ------------------- |
+| قرمز | قدرت |
+| آبی | اعتماد، وفاداری |
+| زرد | شادی، احتیاط |
+| سبز | محیط زیست، شانس، حسادت |
+| بنفش | شادی |
+| نارنجی | سرزندگی |
+
+اگر وظیفه دارید نموداری با رنگهای سفارشی بسازید، مطمئن شوید که نمودارهای شما هم دسترسیپذیر هستند و هم رنگی که انتخاب میکنید با معنایی که قصد دارید منتقل کنید همخوانی دارد.
+
+## طراحی نمودارهای خود برای خوانایی
+
+نمودارها زمانی معنادار هستند که خوانا باشند! لحظهای وقت بگذارید تا عرض و ارتفاع نمودار خود را برای تناسب خوب با دادهها طراحی کنید. اگر یک متغیر (مانند تمام 50 ایالت) نیاز به نمایش دارد، آنها را به صورت عمودی روی محور Y نمایش دهید تا از نمودارهای اسکرول افقی اجتناب کنید.
+
+محورهای خود را برچسبگذاری کنید، در صورت نیاز یک راهنما ارائه دهید و برای درک بهتر دادهها ابزارهای کمکی (tooltip) ارائه دهید.
+
+اگر دادههای شما متنی و طولانی روی محور X است، میتوانید متن را برای خوانایی بهتر زاویه دهید. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) امکان رسم سهبعدی را ارائه میدهد، اگر دادههای شما از آن پشتیبانی کند. مصورسازیهای دادهای پیشرفته میتوانند با استفاده از آن تولید شوند.
+
+
+
+## نمایش نمودارهای متحرک و سهبعدی
+
+برخی از بهترین مصورسازیهای دادهای امروز متحرک هستند. شرلی وو نمونههای شگفتانگیزی با D3 دارد، مانند '[گلهای فیلم](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)'، که هر گل یک مصورسازی از یک فیلم است. نمونه دیگری برای گاردین 'بیرون فرستاده شده' است، یک تجربه تعاملی که مصورسازیها را با Greensock و D3 به علاوه یک قالب مقاله اسکرولتلیگ ترکیب میکند تا نشان دهد چگونه نیویورک با مشکل بیخانمانهای خود با بیرون فرستادن افراد از شهر برخورد میکند.
+
+
+
+> "بیرون فرستاده شده: چگونه آمریکا بیخانمانهای خود را جابهجا میکند" از [گاردین](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). مصورسازیها توسط نادیه برمر و شرلی وو
+
+در حالی که این درس برای آموزش عمیق این کتابخانههای قدرتمند مصورسازی کافی نیست، دست خود را در D3 در یک اپلیکیشن Vue.js امتحان کنید و از یک کتابخانه برای نمایش مصورسازی کتاب "روابط خطرناک" به عنوان یک شبکه اجتماعی متحرک استفاده کنید.
+
+> "روابط خطرناک" یک رمان نامهنگاری است، یا رمانی که به صورت مجموعهای از نامهها ارائه شده است. این رمان که در سال 1782 توسط شودرلو دو لاکلو نوشته شده است، داستان مانورهای اجتماعی بیرحمانه و اخلاقاً ورشکسته دو شخصیت اصلی اشرافی فرانسه در اواخر قرن 18، ویکنت دو والمون و مارکیز دو مرتوی را روایت میکند. هر دو در نهایت نابود میشوند اما نه بدون ایجاد آسیب اجتماعی زیاد. این رمان به صورت مجموعهای از نامهها نوشته شده به افراد مختلف در دایرههای آنها، برای انتقام یا صرفاً ایجاد مشکل، گشوده میشود. یک مصورسازی از این نامهها ایجاد کنید تا پادشاهان اصلی روایت را به صورت بصری کشف کنید.
+
+شما یک اپلیکیشن وب کامل خواهید کرد که نمای متحرکی از این شبکه اجتماعی را نمایش میدهد. این اپلیکیشن از یک کتابخانه استفاده میکند که برای ایجاد [نمایی از یک شبکه](https://github.com/emiliorizzo/vue-d3-network) با استفاده از Vue.js و D3 ساخته شده است. هنگامی که اپلیکیشن اجرا میشود، میتوانید گرهها را روی صفحه بکشید تا دادهها را جابهجا کنید.
+
+
+
+## پروژه: ساخت نموداری برای نمایش یک شبکه با استفاده از D3.js
+
+> این پوشه درس شامل یک پوشه `solution` است که میتوانید پروژه کامل شده را برای مرجع خود پیدا کنید.
+
+1. دستورالعملهای موجود در فایل README.md در پوشه ریشه استارتر را دنبال کنید. مطمئن شوید که NPM و Node.js روی دستگاه شما اجرا میشوند قبل از نصب وابستگیهای پروژه خود.
+
+2. پوشه `starter/src` را باز کنید. یک پوشه `assets` پیدا خواهید کرد که شامل یک فایل .json با تمام نامههای رمان، شمارهگذاری شده، با توضیحات 'به' و 'از' است.
+
+3. کد موجود در `components/Nodes.vue` را کامل کنید تا مصورسازی فعال شود. به دنبال متدی به نام `createLinks()` بگردید و حلقه تو در تو زیر را اضافه کنید.
+
+حلقهای در شیء .json ایجاد کنید تا دادههای 'به' و 'از' نامهها را ضبط کنید و شیء `links` را بسازید تا کتابخانه مصورسازی بتواند از آن استفاده کند:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+اپلیکیشن خود را از ترمینال اجرا کنید (npm run serve) و از مصورسازی لذت ببرید!
+
+## 🚀 چالش
+
+یک گشت و گذار در اینترنت انجام دهید تا مصورسازیهای گمراهکننده را کشف کنید. نویسنده چگونه کاربر را فریب میدهد و آیا این کار عمدی است؟ سعی کنید مصورسازیها را اصلاح کنید تا نشان دهید که چگونه باید به نظر برسند.
+
+## [پسدرس آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## مرور و مطالعه شخصی
+
+در اینجا چند مقاله برای مطالعه درباره مصورسازی دادههای گمراهکننده آورده شده است:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+این مصورسازیهای جالب برای داراییها و آثار تاریخی را بررسی کنید:
+
+https://handbook.pubpub.org/
+
+این مقاله را درباره اینکه چگونه انیمیشن میتواند مصورسازیهای شما را بهبود بخشد، مرور کنید:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## تکلیف
+
+[مصورسازی سفارشی خود را بسازید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/3-Data-Visualization/README.md b/translations/fa/3-Data-Visualization/README.md
new file mode 100644
index 00000000..07833fe6
--- /dev/null
+++ b/translations/fa/3-Data-Visualization/README.md
@@ -0,0 +1,40 @@
+
+# مصورسازیها
+
+
+> عکس از جنا لی در Unsplash
+
+مصورسازی دادهها یکی از مهمترین وظایف یک دانشمند داده است. تصاویر به اندازه هزار کلمه ارزش دارند و یک مصورسازی میتواند به شما کمک کند تا انواع مختلفی از جنبههای جالب دادههایتان مانند جهشها، نقاط پرت، گروهبندیها، تمایلات و موارد دیگر را شناسایی کنید که میتوانند به شما در درک داستانی که دادههایتان میخواهند بگویند، کمک کنند.
+
+در این پنج درس، شما دادههایی که از طبیعت گرفته شدهاند را بررسی کرده و با استفاده از تکنیکهای مختلف، مصورسازیهای جالب و زیبایی ایجاد خواهید کرد.
+
+| شماره موضوع | موضوع | درس مرتبط | نویسنده |
+| :-----------: | :--: | :-----------: | :----: |
+| ۱. | مصورسازی مقادیر | - [پایتون](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [جن لوپر](https://twitter.com/jenlooper)
- [ویدوشی گوپتا](https://github.com/Vidushi-Gupta)
- [جسلین سوندی](https://github.com/jasleen101010)
|
+| ۲. | مصورسازی توزیعها | - [پایتون](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [جن لوپر](https://twitter.com/jenlooper)
- [ویدوشی گوپتا](https://github.com/Vidushi-Gupta)
- [جسلین سوندی](https://github.com/jasleen101010)
|
+| ۳. | مصورسازی نسبتها | - [پایتون](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [جن لوپر](https://twitter.com/jenlooper)
- [ویدوشی گوپتا](https://github.com/Vidushi-Gupta)
- [جسلین سوندی](https://github.com/jasleen101010)
|
+| ۴. | مصورسازی روابط | - [پایتون](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [جن لوپر](https://twitter.com/jenlooper)
- [ویدوشی گوپتا](https://github.com/Vidushi-Gupta)
- [جسلین سوندی](https://github.com/jasleen101010)
|
+| ۵. | ایجاد مصورسازیهای معنادار | - [پایتون](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [جن لوپر](https://twitter.com/jenlooper)
- [ویدوشی گوپتا](https://github.com/Vidushi-Gupta)
- [جسلین سوندی](https://github.com/jasleen101010)
|
+
+### منابع
+
+این درسهای مصورسازی با 🌸 توسط [جن لوپر](https://twitter.com/jenlooper)، [جسلین سوندی](https://github.com/jasleen101010) و [ویدوشی گوپتا](https://github.com/Vidushi-Gupta) نوشته شدهاند.
+
+🍯 دادههای مربوط به تولید عسل در ایالات متحده از پروژه جسیکا لی در [Kaggle](https://www.kaggle.com/jessicali9530/honey-production) گرفته شده است. [دادهها](https://usda.library.cornell.edu/concern/publications/rn301137d) از [وزارت کشاورزی ایالات متحده](https://www.nass.usda.gov/About_NASS/index.php) استخراج شدهاند.
+
+🍄 دادههای مربوط به قارچها نیز از [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) که توسط هاتراس دانتون بازبینی شده، گرفته شده است. این مجموعه داده شامل توصیفاتی از نمونههای فرضی مربوط به ۲۳ گونه قارچهای تیغهدار در خانواده آگاریکوس و لپیوتا است. این دادهها از کتاب راهنمای میدانی انجمن آدوبون برای قارچهای آمریکای شمالی (۱۹۸۱) گرفته شدهاند. این مجموعه داده در سال ۱۹۸۷ به UCI ML 27 اهدا شد.
+
+🦆 دادههای مربوط به پرندگان مینهسوتا از [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) ویکیپدیا توسط هانا کالینز استخراج شده است.
+
+تمام این مجموعه دادهها تحت مجوز [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/) قرار دارند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/fa/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..0c4b6afd
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,118 @@
+
+# معرفی چرخه عمر علم داده
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| معرفی چرخه عمر علم داده - _طرح توسط [@nitya](https://twitter.com/nitya)_ |
+
+## [پیش آزمون](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+تا این مرحله احتمالاً متوجه شدهاید که علم داده یک فرآیند است. این فرآیند را میتوان به ۵ مرحله تقسیم کرد:
+
+- جمعآوری
+- پردازش
+- تحلیل
+- ارتباط
+- نگهداری
+
+این درس بر سه بخش از چرخه عمر تمرکز دارد: جمعآوری، پردازش و نگهداری.
+
+
+> عکس از [مدرسه اطلاعات برکلی](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## جمعآوری
+
+اولین مرحله چرخه عمر بسیار مهم است زیرا مراحل بعدی به آن وابسته هستند. این مرحله عملاً دو بخش را در یک مرحله ترکیب میکند: به دست آوردن دادهها و تعریف هدف و مشکلاتی که باید حل شوند.
+تعریف اهداف پروژه نیازمند درک عمیقتر از مسئله یا سوال است. ابتدا باید افرادی را شناسایی و پیدا کنیم که نیاز به حل مشکل خود دارند. این افراد ممکن است ذینفعان یک کسبوکار یا حامیان پروژه باشند که میتوانند کمک کنند تا مشخص شود چه کسی یا چه چیزی از این پروژه بهرهمند خواهد شد و چرا به آن نیاز دارند. یک هدف خوب تعریفشده باید قابل اندازهگیری و کمی باشد تا بتوان نتیجه قابل قبولی را تعریف کرد.
+
+سوالاتی که یک دانشمند داده ممکن است بپرسد:
+- آیا این مشکل قبلاً مورد بررسی قرار گرفته است؟ چه چیزی کشف شده است؟
+- آیا هدف و مقصود توسط همه افراد درگیر درک شده است؟
+- آیا ابهامی وجود دارد و چگونه میتوان آن را کاهش داد؟
+- محدودیتها چیست؟
+- نتیجه نهایی احتمالاً چگونه خواهد بود؟
+- چه مقدار منابع (زمان، افراد، محاسبات) در دسترس است؟
+
+مرحله بعدی شناسایی، جمعآوری و در نهایت بررسی دادههای مورد نیاز برای دستیابی به این اهداف تعریفشده است. در این مرحله از جمعآوری، دانشمندان داده باید کمیت و کیفیت دادهها را نیز ارزیابی کنند. این امر نیازمند مقداری بررسی دادهها است تا تأیید شود که دادههای جمعآوریشده از رسیدن به نتیجه مطلوب حمایت میکنند.
+
+سوالاتی که یک دانشمند داده ممکن است درباره دادهها بپرسد:
+- چه دادههایی در حال حاضر در دسترس من است؟
+- مالک این دادهها کیست؟
+- نگرانیهای مربوط به حریم خصوصی چیست؟
+- آیا داده کافی برای حل این مشکل دارم؟
+- آیا کیفیت داده برای این مشکل قابل قبول است؟
+- اگر از طریق این دادهها اطلاعات اضافی کشف کنم، آیا باید اهداف را تغییر داده یا دوباره تعریف کنیم؟
+
+## پردازش
+
+مرحله پردازش چرخه عمر بر کشف الگوها در دادهها و همچنین مدلسازی تمرکز دارد. برخی از تکنیکهای مورد استفاده در مرحله پردازش نیازمند روشهای آماری برای کشف الگوها هستند. معمولاً این کار برای انسان با مجموعه دادههای بزرگ خستهکننده خواهد بود و به کامپیوترها برای انجام کارهای سنگین و سرعت بخشیدن به فرآیند متکی است. این مرحله همچنین جایی است که علم داده و یادگیری ماشین با یکدیگر تلاقی میکنند. همانطور که در درس اول یاد گرفتید، یادگیری ماشین فرآیند ساخت مدلها برای درک دادهها است. مدلها نمایشی از رابطه بین متغیرهای موجود در دادهها هستند که به پیشبینی نتایج کمک میکنند.
+
+تکنیکهای رایج مورد استفاده در این مرحله در برنامه درسی یادگیری ماشین برای مبتدیان پوشش داده شدهاند. لینکهای زیر را دنبال کنید تا بیشتر درباره آنها بیاموزید:
+
+- [طبقهبندی](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): سازماندهی دادهها در دستهبندیها برای استفاده کارآمدتر.
+- [خوشهبندی](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): گروهبندی دادهها در گروههای مشابه.
+- [رگرسیون](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): تعیین روابط بین متغیرها برای پیشبینی یا پیشبینی مقادیر.
+
+## نگهداری
+
+در نمودار چرخه عمر، ممکن است متوجه شده باشید که نگهداری بین جمعآوری و پردازش قرار دارد. نگهداری یک فرآیند مداوم برای مدیریت، ذخیره و ایمنسازی دادهها در طول فرآیند یک پروژه است و باید در طول کل پروژه مورد توجه قرار گیرد.
+
+### ذخیرهسازی دادهها
+نحوه و مکان ذخیرهسازی دادهها میتواند بر هزینه ذخیرهسازی و همچنین عملکرد دسترسی سریع به دادهها تأثیر بگذارد. تصمیماتی از این دست احتمالاً تنها توسط یک دانشمند داده گرفته نمیشود، اما ممکن است آنها مجبور شوند بر اساس نحوه ذخیرهسازی دادهها، انتخابهایی در مورد نحوه کار با دادهها انجام دهند.
+
+در اینجا برخی جنبههای سیستمهای ذخیرهسازی داده مدرن که میتوانند بر این انتخابها تأثیر بگذارند آورده شده است:
+
+**در محل، خارج از محل، یا ابر عمومی و خصوصی**
+
+در محل به معنای میزبانی و مدیریت دادهها بر روی تجهیزات خودتان است، مانند داشتن یک سرور با هارد دیسکهایی که دادهها را ذخیره میکنند، در حالی که خارج از محل به تجهیزات متعلق به شما وابسته نیست، مانند یک مرکز داده. ابر عمومی یک انتخاب محبوب برای ذخیرهسازی دادهها است که نیاز به دانش در مورد نحوه یا مکان دقیق ذخیرهسازی دادهها ندارد، جایی که عمومی به زیرساخت یکپارچهای اشاره دارد که توسط همه کسانی که از ابر استفاده میکنند به اشتراک گذاشته میشود. برخی سازمانها سیاستهای امنیتی سختگیرانهای دارند که نیازمند دسترسی کامل به تجهیزات میزبانی دادهها هستند و به یک ابر خصوصی که خدمات ابری خود را ارائه میدهد، متکی خواهند بود. شما در [درسهای بعدی](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud) بیشتر درباره دادهها در ابر خواهید آموخت.
+
+**داده سرد در مقابل داده گرم**
+
+هنگام آموزش مدلهای خود، ممکن است به دادههای آموزشی بیشتری نیاز داشته باشید. اگر از مدل خود راضی هستید، دادههای بیشتری برای مدل وارد میشود تا هدف خود را انجام دهد. در هر صورت، هزینه ذخیرهسازی و دسترسی به دادهها با افزایش حجم آن افزایش خواهد یافت. جدا کردن دادههایی که به ندرت استفاده میشوند، معروف به داده سرد، از دادههایی که به طور مکرر دسترسی پیدا میکنند، معروف به داده گرم، میتواند یک گزینه ذخیرهسازی داده ارزانتر از طریق خدمات سختافزاری یا نرمافزاری باشد. اگر نیاز به دسترسی به داده سرد باشد، ممکن است کمی بیشتر طول بکشد تا در مقایسه با داده گرم بازیابی شود.
+
+### مدیریت دادهها
+هنگام کار با دادهها ممکن است متوجه شوید که برخی از دادهها نیاز به پاکسازی دارند، با استفاده از تکنیکهایی که در درس مربوط به [آمادهسازی دادهها](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) پوشش داده شدهاند، تا مدلهای دقیقی ساخته شوند. وقتی دادههای جدید وارد میشوند، نیاز به همان کاربردها برای حفظ کیفیت ثابت خواهند داشت. برخی پروژهها شامل استفاده از یک ابزار خودکار برای پاکسازی، تجمیع و فشردهسازی دادهها قبل از انتقال آنها به مکان نهایی خواهند بود. Azure Data Factory نمونهای از یکی از این ابزارها است.
+
+### ایمنسازی دادهها
+یکی از اهداف اصلی ایمنسازی دادهها این است که اطمینان حاصل شود کسانی که با دادهها کار میکنند، کنترل کاملی بر آنچه جمعآوری میشود و در چه زمینهای استفاده میشود دارند. حفظ امنیت دادهها شامل محدود کردن دسترسی فقط به کسانی است که به آن نیاز دارند، رعایت قوانین و مقررات محلی، و همچنین حفظ استانداردهای اخلاقی، همانطور که در درس [اخلاق](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics) پوشش داده شده است.
+
+در اینجا برخی کارهایی که یک تیم ممکن است با در نظر گرفتن امنیت انجام دهد آورده شده است:
+- تأیید اینکه تمام دادهها رمزگذاری شدهاند
+- ارائه اطلاعات به مشتریان در مورد نحوه استفاده از دادههای آنها
+- حذف دسترسی به دادهها از کسانی که پروژه را ترک کردهاند
+- اجازه دادن به فقط برخی اعضای پروژه برای تغییر دادهها
+
+## 🚀 چالش
+
+نسخههای مختلفی از چرخه عمر علم داده وجود دارد که هر مرحله ممکن است نامها و تعداد مراحل متفاوتی داشته باشد اما شامل همان فرآیندهای ذکر شده در این درس خواهد بود.
+
+چرخه عمر [فرآیند تیم علم داده](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) و [استاندارد صنعتی برای دادهکاوی](https://www.datascience-pm.com/crisp-dm-2/) را بررسی کنید. سه شباهت و تفاوت بین این دو را نام ببرید.
+
+|فرآیند تیم علم داده (TDSP)|استاندارد صنعتی برای دادهکاوی (CRISP-DM)|
+|--|--|
+| |  |
+| تصویر توسط [مایکروسافت](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | تصویر توسط [اتحاد فرآیند علم داده](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [پس آزمون](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## مرور و مطالعه شخصی
+
+اجرای چرخه عمر علم داده شامل نقشها و وظایف متعدد است، جایی که برخی ممکن است بر بخشهای خاصی از هر مرحله تمرکز کنند. فرآیند تیم علم داده چندین منبع ارائه میدهد که انواع نقشها و وظایفی که ممکن است کسی در یک پروژه داشته باشد را توضیح میدهد.
+
+* [نقشها و وظایف فرآیند تیم علم داده](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [اجرای وظایف علم داده: بررسی، مدلسازی و استقرار](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## تکلیف
+
+[ارزیابی یک مجموعه داده](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/fa/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..98f8bf36
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,35 @@
+
+# ارزیابی یک مجموعه داده
+
+یک مشتری از تیم شما درخواست کمک کرده است تا عادات فصلی هزینهکرد مشتریان تاکسی در شهر نیویورک را بررسی کند.
+
+آنها میخواهند بدانند: **آیا مسافران تاکسی زرد در شهر نیویورک در زمستان بیشتر به رانندگان انعام میدهند یا در تابستان؟**
+
+تیم شما در مرحله [جمعآوری](Readme.md#Capturing) از چرخه عمر علم داده قرار دارد و شما مسئول مدیریت مجموعه داده هستید. یک دفترچه یادداشت و [دادهها](../../../../data/taxi.csv) برای بررسی در اختیار شما قرار داده شده است.
+
+در این پوشه یک [دفترچه یادداشت](../../../../4-Data-Science-Lifecycle/14-Introduction/notebook.ipynb) وجود دارد که از پایتون برای بارگذاری دادههای سفر تاکسی زرد از [کمیسیون تاکسی و لیموزین نیویورک](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) استفاده میکند.
+همچنین میتوانید فایل دادههای تاکسی را در یک ویرایشگر متن یا نرمافزار صفحهگسترده مانند اکسل باز کنید.
+
+## دستورالعملها
+
+- ارزیابی کنید که آیا دادههای این مجموعه میتوانند به پاسخ دادن به این سؤال کمک کنند یا خیر.
+- کاتالوگ [دادههای باز نیویورک](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93) را بررسی کنید. یک مجموعه داده اضافی شناسایی کنید که ممکن است در پاسخ به سؤال مشتری مفید باشد.
+- سه سؤال بنویسید که از مشتری بپرسید تا برای درک بهتر مسئله و شفافسازی بیشتر کمک کند.
+
+برای اطلاعات بیشتر درباره دادهها به [فرهنگ لغت مجموعه داده](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) و [راهنمای کاربر](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) مراجعه کنید.
+
+## معیار ارزیابی
+
+عالی | کافی | نیاز به بهبود
+--- | --- | ---
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/fa/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..982759d8
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,59 @@
+
+# چرخه زندگی علم داده: تحلیل
+
+|](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| چرخه زندگی علم داده: تحلیل - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+## آزمون پیش از درس
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+تحلیل در چرخه زندگی داده تأیید میکند که دادهها میتوانند به سوالات مطرحشده پاسخ دهند یا یک مشکل خاص را حل کنند. این مرحله همچنین میتواند بر تأیید اینکه یک مدل به درستی به این سوالات و مشکلات پرداخته است، تمرکز کند. این درس بر تحلیل اکتشافی دادهها یا EDA متمرکز است، که تکنیکهایی برای تعریف ویژگیها و روابط درون دادهها هستند و میتوانند برای آمادهسازی دادهها برای مدلسازی استفاده شوند.
+
+ما از یک مجموعه داده نمونه از [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) استفاده خواهیم کرد تا نشان دهیم چگونه این کار با استفاده از پایتون و کتابخانه Pandas قابل اجرا است. این مجموعه داده شامل شمارش برخی کلمات رایج موجود در ایمیلها است، منابع این ایمیلها ناشناس هستند. از [دفترچه یادداشت](../../../../4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) در این پوشه استفاده کنید تا مراحل را دنبال کنید.
+
+## تحلیل اکتشافی دادهها
+
+مرحله جمعآوری در چرخه زندگی جایی است که دادهها به دست میآیند و همچنین مشکلات و سوالات موجود مطرح میشوند، اما چگونه میتوانیم مطمئن شویم که دادهها میتوانند از نتیجه نهایی حمایت کنند؟
+به یاد داشته باشید که یک دانشمند داده ممکن است سوالات زیر را هنگام دریافت دادهها مطرح کند:
+- آیا داده کافی برای حل این مشکل دارم؟
+- آیا کیفیت داده برای این مشکل قابل قبول است؟
+- اگر از طریق این دادهها اطلاعات اضافی کشف کنم، آیا باید اهداف را تغییر داده یا بازتعریف کنیم؟
+
+تحلیل اکتشافی دادهها فرآیند آشنایی با دادهها است و میتواند برای پاسخ به این سوالات و همچنین شناسایی چالشهای کار با مجموعه داده استفاده شود. بیایید بر برخی از تکنیکهای مورد استفاده برای دستیابی به این هدف تمرکز کنیم.
+
+## پروفایلسازی دادهها، آمار توصیفی، و Pandas
+چگونه میتوانیم ارزیابی کنیم که آیا داده کافی برای حل این مشکل داریم؟ پروفایلسازی دادهها میتواند اطلاعات کلی و خلاصهای درباره مجموعه داده ما از طریق تکنیکهای آمار توصیفی ارائه دهد. پروفایلسازی دادهها به ما کمک میکند بفهمیم چه چیزی در دسترس ما است، و آمار توصیفی به ما کمک میکند بفهمیم چه مقدار از آن در دسترس ما است.
+
+در چند درس قبلی، از Pandas برای ارائه برخی آمار توصیفی با استفاده از تابع [`describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html) استفاده کردهایم. این تابع تعداد، مقادیر حداکثر و حداقل، میانگین، انحراف معیار و چارکها را بر روی دادههای عددی ارائه میدهد. استفاده از آمار توصیفی مانند تابع `describe()` میتواند به شما کمک کند ارزیابی کنید که چه مقدار داده دارید و آیا به داده بیشتری نیاز دارید.
+
+## نمونهگیری و پرسوجو
+بررسی همه چیز در یک مجموعه داده بزرگ میتواند بسیار زمانبر باشد و معمولاً این کار به یک کامپیوتر واگذار میشود. با این حال، نمونهگیری ابزاری مفید برای درک دادهها است و به ما اجازه میدهد درک بهتری از آنچه در مجموعه داده وجود دارد و نمایندگی آن داشته باشیم. با یک نمونه، میتوانید از احتمال و آمار استفاده کنید تا به برخی نتیجهگیریهای کلی درباره دادههای خود برسید. در حالی که هیچ قانون مشخصی برای مقدار دادهای که باید نمونهگیری کنید وجود ندارد، مهم است که توجه داشته باشید هرچه داده بیشتری نمونهگیری کنید، تعمیم دقیقتری درباره دادهها میتوانید انجام دهید.
+Pandas دارای تابع [`sample()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) در کتابخانه خود است که میتوانید یک آرگومان از تعداد نمونههای تصادفی مورد نظر خود را وارد کنید و استفاده کنید.
+
+پرسوجوی کلی دادهها میتواند به شما کمک کند به برخی سوالات و نظریههای کلی که ممکن است داشته باشید پاسخ دهید. برخلاف نمونهگیری، پرسوجوها به شما اجازه میدهند کنترل داشته باشید و بر بخشهای خاصی از دادهها که درباره آنها سوال دارید تمرکز کنید.
+تابع [`query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) در کتابخانه Pandas به شما اجازه میدهد ستونها را انتخاب کنید و پاسخهای سادهای درباره دادهها از طریق ردیفهای بازیابیشده دریافت کنید.
+
+## بررسی با استفاده از مصورسازیها
+لازم نیست منتظر بمانید تا دادهها کاملاً پاکسازی و تحلیل شوند تا شروع به ایجاد مصورسازیها کنید. در واقع، داشتن یک نمایش بصری هنگام بررسی میتواند به شناسایی الگوها، روابط، و مشکلات در دادهها کمک کند. علاوه بر این، مصورسازیها وسیلهای برای ارتباط با کسانی که در مدیریت دادهها دخیل نیستند فراهم میکنند و میتوانند فرصتی برای به اشتراکگذاری و روشن کردن سوالات اضافی که در مرحله جمعآوری مطرح نشدهاند، باشند. به [بخش مصورسازیها](../../../../../../../../../3-Data-Visualization) مراجعه کنید تا درباره برخی روشهای محبوب برای بررسی بصری بیشتر بدانید.
+
+## بررسی برای شناسایی ناسازگاریها
+همه موضوعات در این درس میتوانند به شناسایی مقادیر گمشده یا ناسازگار کمک کنند، اما Pandas توابعی برای بررسی برخی از این موارد ارائه میدهد. [isna() یا isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) میتوانند مقادیر گمشده را بررسی کنند. یکی از بخشهای مهم بررسی این مقادیر در دادههای شما این است که بررسی کنید چرا آنها در وهله اول به این شکل درآمدهاند. این میتواند به شما کمک کند تصمیم بگیرید که چه [اقداماتی برای حل آنها انجام دهید](../../../../../../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## تکلیف
+
+[بررسی برای پاسخها](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/fa/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..f975df88
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,34 @@
+
+# جستجو برای پاسخها
+
+این ادامهی [تکلیف](../14-Introduction/assignment.md) درس قبلی است، جایی که به طور مختصر به مجموعه دادهها نگاه کردیم. اکنون قصد داریم نگاه عمیقتری به دادهها داشته باشیم.
+
+دوباره، سوالی که مشتری میخواهد پاسخ آن را بداند: **آیا مسافران تاکسی زرد در شهر نیویورک در زمستان بیشتر از تابستان به رانندگان انعام میدهند؟**
+
+تیم شما در مرحله [تحلیل](README.md) چرخه عمر علم داده قرار دارد، جایی که مسئول انجام تحلیل اکتشافی دادهها بر روی مجموعه داده هستید. یک دفترچه یادداشت و مجموعه دادهای که شامل ۲۰۰ تراکنش تاکسی از ژانویه و جولای ۲۰۱۹ است، در اختیار شما قرار گرفته است.
+
+## دستورالعملها
+
+در این پوشه یک [دفترچه یادداشت](../../../../4-Data-Science-Lifecycle/15-analyzing/assignment.ipynb) و دادههایی از [کمیسیون تاکسی و لیموزین](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) وجود دارد. برای اطلاعات بیشتر درباره دادهها به [فرهنگ لغت مجموعه دادهها](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) و [راهنمای کاربر](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) مراجعه کنید.
+
+از برخی تکنیکهای این درس استفاده کنید تا تحلیل اکتشافی خود را در دفترچه یادداشت انجام دهید (در صورت نیاز سلولهایی اضافه کنید) و به سوالات زیر پاسخ دهید:
+
+- چه عوامل دیگری در دادهها میتوانند بر مقدار انعام تأثیر بگذارند؟
+- کدام ستونها احتمالاً برای پاسخ به سوال مشتری مورد نیاز نیستند؟
+- بر اساس اطلاعاتی که تاکنون ارائه شده است، آیا دادهها شواهدی از رفتار فصلی در انعام دادن نشان میدهند؟
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | ---
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/16-communication/README.md b/translations/fa/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..bb9d36ac
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# چرخه حیات علم داده: ارتباطات
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| چرخه حیات علم داده: ارتباطات - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+## [آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+دانش خود را درباره موضوعات پیش رو با آزمون پیش از درس بالا بسنجید!
+
+# مقدمه
+
+### ارتباطات چیست؟
+بیایید این درس را با تعریف ارتباطات آغاز کنیم. **ارتباطات یعنی انتقال یا تبادل اطلاعات.** اطلاعات میتواند ایدهها، افکار، احساسات، پیامها، سیگنالهای پنهان، دادهها – هر چیزی که یک **_فرستنده_** (کسی که اطلاعات را ارسال میکند) میخواهد یک **_گیرنده_** (کسی که اطلاعات را دریافت میکند) آن را درک کند، باشد. در این درس، به فرستندهها به عنوان ارتباطگیرنده و به گیرندهها به عنوان مخاطب اشاره خواهیم کرد.
+
+### ارتباطات داده و داستانسرایی
+ما میدانیم که هدف از ارتباطات، انتقال یا تبادل اطلاعات است. اما وقتی صحبت از ارتباطات داده میشود، هدف شما نباید صرفاً انتقال اعداد به مخاطب باشد. هدف شما باید انتقال یک داستان باشد که از دادههای شما الهام گرفته شده است – ارتباطات داده مؤثر و داستانسرایی دست در دست هم دارند. مخاطب شما احتمالاً داستانی که تعریف میکنید را بیشتر به خاطر میسپارد تا عددی که ارائه میدهید. در ادامه این درس، به چند روش اشاره خواهیم کرد که میتوانید از طریق آنها داستانسرایی را برای انتقال دادههای خود به کار بگیرید.
+
+### انواع ارتباطات
+در طول این درس، دو نوع مختلف از ارتباطات مورد بحث قرار خواهد گرفت: ارتباطات یکطرفه و ارتباطات دوطرفه.
+
+**ارتباطات یکطرفه** زمانی اتفاق میافتد که فرستنده اطلاعاتی را به گیرنده ارسال میکند، بدون اینکه بازخورد یا پاسخی دریافت کند. ما هر روز نمونههایی از ارتباطات یکطرفه را میبینیم – در ایمیلهای انبوه، زمانی که اخبار جدیدترین داستانها را ارائه میدهد، یا حتی وقتی یک تبلیغ تلویزیونی پخش میشود و شما را از مزایای محصول خود مطلع میکند. در هر یک از این موارد، فرستنده به دنبال تبادل اطلاعات نیست. او فقط به دنبال انتقال یا ارائه اطلاعات است.
+
+**ارتباطات دوطرفه** زمانی اتفاق میافتد که تمام طرفهای درگیر هم به عنوان فرستنده و هم به عنوان گیرنده عمل میکنند. یک فرستنده با ارتباط با یک گیرنده شروع میکند و گیرنده بازخورد یا پاسخی ارائه میدهد. ارتباطات دوطرفه همان چیزی است که معمولاً وقتی درباره ارتباطات صحبت میکنیم به ذهن میآید. ما معمولاً به مکالمه بین افراد فکر میکنیم – چه حضوری، چه از طریق تماس تلفنی، شبکههای اجتماعی یا پیامک.
+
+وقتی دادهها را منتقل میکنید، مواردی وجود خواهد داشت که از ارتباطات یکطرفه استفاده میکنید (مثلاً ارائه در یک کنفرانس یا به گروه بزرگی که بلافاصله بعد از آن سؤالی نخواهند پرسید) و مواردی که از ارتباطات دوطرفه استفاده میکنید (مثلاً استفاده از دادهها برای متقاعد کردن چند سهامدار برای حمایت، یا قانع کردن یک همتیمی که باید زمان و تلاش برای ساخت چیزی جدید صرف شود).
+
+# ارتباطات مؤثر
+
+### مسئولیتهای شما به عنوان یک ارتباطگیرنده
+وقتی ارتباط برقرار میکنید، وظیفه شما این است که مطمئن شوید گیرنده(ها) اطلاعاتی را که میخواهید دریافت کنند، به درستی درک میکنند. وقتی دادهها را منتقل میکنید، نمیخواهید گیرندهها فقط اعداد را دریافت کنند، بلکه میخواهید داستانی را که از دادههای شما الهام گرفته شده است، درک کنند. یک ارتباطگیرنده داده خوب، یک داستانسرای خوب است.
+
+چگونه میتوانید با دادهها داستان بگویید؟ روشهای بیشماری وجود دارد – اما در این درس به ۶ مورد اشاره خواهیم کرد:
+1. مخاطب، کانال و روش ارتباطی خود را بشناسید.
+2. با هدف نهایی در ذهن شروع کنید.
+3. آن را مانند یک داستان واقعی پیش ببرید.
+4. از کلمات و عبارات معنادار استفاده کنید.
+5. از احساسات بهره بگیرید.
+
+هر یک از این استراتژیها در ادامه به تفصیل توضیح داده شدهاند.
+
+### 1. مخاطب، کانال و روش ارتباطی خود را بشناسید
+نحوه ارتباط شما با اعضای خانواده احتمالاً با نحوه ارتباط شما با دوستانتان متفاوت است. احتمالاً از کلمات و عباراتی استفاده میکنید که افرادی که با آنها صحبت میکنید، بهتر درک کنند. باید همین رویکرد را هنگام انتقال دادهها به کار بگیرید. به این فکر کنید که با چه کسی ارتباط برقرار میکنید. به اهداف آنها و زمینهای که درباره موضوع مورد نظر دارند، فکر کنید.
+
+شما احتمالاً میتوانید اکثر مخاطبان خود را در یک دستهبندی قرار دهید. در مقالهای از _Harvard Business Review_ با عنوان “[چگونه با دادهها داستان بگوییم](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)”، جیم استیکلیدر، استراتژیست اجرایی دل، پنج دسته از مخاطبان را شناسایی کرده است:
+
+- **مبتدی**: اولین مواجهه با موضوع، اما نمیخواهد بیش از حد سادهسازی شود.
+- **عمومی**: آگاه به موضوع، اما به دنبال درک کلی و تمهای اصلی.
+- **مدیریتی**: درک عمیق و قابل اجرا از جزئیات و روابط با دسترسی به جزئیات.
+- **متخصص**: بیشتر به اکتشاف و کشف علاقهمند است و کمتر به داستانسرایی با جزئیات زیاد.
+- **مدیر اجرایی**: فقط زمان دارد تا اهمیت و نتیجهگیری احتمالات وزنی را درک کند.
+
+این دستهبندیها میتوانند نحوه ارائه دادهها به مخاطبان شما را شکل دهند.
+
+علاوه بر فکر کردن به دستهبندی مخاطبان، باید کانالی را که برای ارتباط با آنها استفاده میکنید نیز در نظر بگیرید. رویکرد شما باید کمی متفاوت باشد اگر در حال نوشتن یک یادداشت یا ایمیل هستید در مقایسه با برگزاری یک جلسه یا ارائه در یک کنفرانس.
+
+علاوه بر شناخت مخاطب، دانستن اینکه چگونه با آنها ارتباط برقرار خواهید کرد (استفاده از ارتباطات یکطرفه یا دوطرفه) نیز حیاتی است.
+
+اگر با مخاطبان عمدتاً مبتدی ارتباط برقرار میکنید و از ارتباطات یکطرفه استفاده میکنید، ابتدا باید مخاطب را آموزش دهید و زمینه مناسب را فراهم کنید. سپس باید دادههای خود را به آنها ارائه دهید و توضیح دهید که دادههای شما چه معنایی دارند و چرا مهم هستند. در این حالت، ممکن است بخواهید بر شفافیت تمرکز کنید، زیرا مخاطبان شما نمیتوانند مستقیماً سؤالی بپرسند.
+
+اگر با مخاطبان عمدتاً مدیریتی ارتباط برقرار میکنید و از ارتباطات دوطرفه استفاده میکنید، احتمالاً نیازی به آموزش مخاطب یا ارائه زمینه زیادی ندارید. شما ممکن است بتوانید مستقیماً به بحث درباره دادههایی که جمعآوری کردهاید و اهمیت آنها بپردازید. در این سناریو، باید بر زمانبندی و کنترل ارائه خود تمرکز کنید. وقتی از ارتباطات دوطرفه استفاده میکنید (بهویژه با مخاطبان مدیریتی که به دنبال "درک عملی از جزئیات و روابط با دسترسی به جزئیات" هستند)، ممکن است سؤالاتی در طول تعامل شما مطرح شود که بحث را به سمتی ببرد که با داستانی که میخواهید بگویید مرتبط نباشد. در این مواقع، میتوانید اقدام کنید و بحث را به مسیر داستان خود بازگردانید.
+
+### 2. با هدف نهایی در ذهن شروع کنید
+شروع با هدف نهایی در ذهن به معنای درک برداشتهای مورد نظر شما برای مخاطبانتان قبل از شروع ارتباط با آنها است. اندیشیدن به آنچه میخواهید مخاطبانتان از ارتباط شما دریافت کنند، میتواند به شما کمک کند داستانی بسازید که مخاطبانتان بتوانند آن را دنبال کنند. شروع با هدف نهایی در ذهن برای هر دو نوع ارتباطات یکطرفه و دوطرفه مناسب است.
+
+چگونه با هدف نهایی در ذهن شروع کنیم؟ قبل از انتقال دادههای خود، برداشتهای کلیدی خود را یادداشت کنید. سپس، در هر مرحله از آمادهسازی داستانی که میخواهید با دادههای خود بگویید، از خود بپرسید: "این چگونه در داستانی که میخواهم بگویم جای میگیرد؟"
+
+آگاه باشید – در حالی که شروع با هدف نهایی در ذهن ایدهآل است، نمیخواهید فقط دادههایی را منتقل کنید که از برداشتهای مورد نظر شما حمایت میکنند. این کار به نام "انتخاب گزینشی" شناخته میشود، که زمانی اتفاق میافتد که یک ارتباطگیرنده فقط دادههایی را منتقل کند که از نقطه نظر او حمایت میکنند و سایر دادهها را نادیده بگیرد.
+
+اگر تمام دادههایی که جمعآوری کردهاید به وضوح از برداشتهای مورد نظر شما حمایت میکنند، عالی است. اما اگر دادههایی وجود دارند که از برداشتهای شما حمایت نمیکنند، یا حتی از استدلالی علیه برداشتهای کلیدی شما حمایت میکنند، باید آن دادهها را نیز منتقل کنید. اگر این اتفاق افتاد، با مخاطبان خود صادق باشید و به آنها بگویید چرا با وجود اینکه تمام دادهها از داستان شما حمایت نمیکنند، همچنان به داستان خود پایبند هستید.
+
+### 3. آن را مانند یک داستان واقعی پیش ببرید
+یک داستان سنتی در ۵ مرحله اتفاق میافتد. ممکن است این مراحل را به صورت مقدمه، اوجگیری، اوج، فرود و نتیجهگیری شنیده باشید. یا به صورت سادهتر: زمینه، تعارض، اوج، خاتمه، نتیجهگیری. وقتی دادهها و داستان خود را منتقل میکنید، میتوانید رویکرد مشابهی را اتخاذ کنید.
+
+میتوانید با زمینه شروع کنید، صحنه را آماده کنید و مطمئن شوید که مخاطبانتان در یک صفحه هستند. سپس تعارض را معرفی کنید. چرا نیاز به جمعآوری این دادهها داشتید؟ چه مشکلاتی را میخواستید حل کنید؟ بعد از آن، اوج. دادهها چیست؟ دادهها چه معنایی دارند؟ دادهها چه راهحلهایی را به ما نشان میدهند؟ سپس به خاتمه میرسید، جایی که میتوانید مشکل و راهحل(های) پیشنهادی را تکرار کنید. در نهایت، به نتیجهگیری میرسید، جایی که میتوانید برداشتهای کلیدی و گامهای بعدی پیشنهادی خود را خلاصه کنید.
+
+### 4. از کلمات و عبارات معنادار استفاده کنید
+اگر من و شما با هم روی یک محصول کار میکردیم و من به شما میگفتم "کاربران ما زمان زیادی برای ثبتنام در پلتفرم ما صرف میکنند"، شما چقدر زمان را تخمین میزدید که "زمان زیاد" باشد؟ یک ساعت؟ یک هفته؟ مشخص نیست. اگر این را به یک مخاطب کامل بگویم چه؟ هر کسی در مخاطب ممکن است ایده متفاوتی از اینکه کاربران چقدر زمان برای ثبتنام صرف میکنند، داشته باشد.
+
+در عوض، اگر بگویم "کاربران ما به طور متوسط ۳ دقیقه برای ثبتنام و ورود به پلتفرم ما صرف میکنند"، این پیام واضحتر است.
+
+وقتی دادهها را منتقل میکنید، ممکن است فکر کنید که همه مخاطبان شما دقیقاً مثل شما فکر میکنند. اما این همیشه درست نیست. ایجاد شفافیت در مورد دادهها و معنای آنها یکی از مسئولیتهای شما به عنوان یک ارتباطگیرنده است. اگر دادهها یا داستان شما واضح نباشند، مخاطبان شما در دنبال کردن آن مشکل خواهند داشت و احتمال کمتری وجود دارد که برداشتهای کلیدی شما را درک کنند.
+
+میتوانید با استفاده از کلمات و عبارات معنادار به جای مبهم، دادهها را واضحتر منتقل کنید. در زیر چند مثال آورده شده است:
+
+- ما سال *چشمگیری* داشتیم!
+ - یک نفر ممکن است فکر کند چشمگیر به معنای افزایش ۲٪ - ۳٪ در درآمد است، و یک نفر دیگر ممکن است فکر کند به معنای افزایش ۵۰٪ - ۶۰٪ است.
+- نرخ موفقیت کاربران ما *به طور چشمگیری* افزایش یافت.
+ - افزایش چشمگیر چقدر است؟
+- این پروژه نیاز به تلاش *قابل توجهی* دارد.
+ - چقدر تلاش قابل توجه است؟
+
+استفاده از کلمات مبهم میتواند به عنوان مقدمهای برای دادههای بیشتر یا به عنوان خلاصهای از داستانی که به تازگی گفتهاید مفید باشد. اما اطمینان حاصل کنید که هر بخش از ارائه شما برای مخاطبانتان واضح است.
+
+### 5. از احساسات بهره بگیرید
+احساسات در داستانسرایی کلیدی هستند. این موضوع در داستانسرایی با دادهها حتی مهمتر است. وقتی دادهها را منتقل میکنید، همه چیز بر برداشتهایی که میخواهید مخاطبانتان داشته باشند متمرکز است. وقتی احساسی را در مخاطب برانگیزید، به آنها کمک میکنید همدلی کنند و احتمال بیشتری وجود دارد که اقدام کنند. احساسات همچنین احتمال به خاطر سپردن پیام شما را افزایش میدهند.
+
+ممکن است این موضوع را قبلاً در تبلیغات تلویزیونی تجربه کرده باشید. برخی تبلیغات بسیار غمانگیز هستند و از یک احساس ناراحتی برای ارتباط با مخاطب و برجسته کردن دادههایی که ارائه میدهند استفاده میکنند. یا، برخی تبلیغات بسیار شاد و پرانرژی هستند و ممکن است شما را با یک احساس خوشایند به دادههایشان مرتبط کنند.
+
+چگونه میتوانید هنگام انتقال دادهها از احساسات استفاده کنید؟ در زیر چند روش آورده شده است:
+
+- از داستانهای شخصی و تجربیات استفاده کنید
+ - هنگام جمعآوری دادهها، سعی کنید هم دادههای کمی و هم کیفی جمعآوری کنید و هر دو نوع داده را هنگام انتقال به کار بگیرید. اگر دادههای شما عمدتاً کمی هستند، به دنبال داستانهایی از افراد باشید تا بیشتر درباره تجربه آنها با آنچه دادههای شما میگوید، بیاموزید.
+- از تصاویر استفاده کنید
+ - تصاویر به مخاطب کمک میکنند خود را در یک موقعیت تصور کنند. وقتی از تصاویر استفاده میکنید، میتوانید مخاطب را به سمت احساسی که فکر میکنید باید درباره دادههای شما داشته باشد، هدایت کنید.
+- از رنگها استفاده کنید
+ - رنگهای مختلف احساسات مختلفی را برمیانگیزند. رنگهای محبوب و احساساتی که برمیانگیزند در زیر آورده شدهاند. توجه داشته باشید که رنگها ممکن است در فرهنگهای مختلف معانی متفاوتی داشته باشند.
+ - آبی معمولاً احساسات صلح و اعتماد را برمیانگیزد.
+ - سبز معمولاً به طبیعت و محیط زیست مرتبط است.
+ - قرمز معمولاً نشاندهنده شور و هیجان است.
+ - زرد معمولاً خوشبینی و شادی را نشان میدهد.
+
+# مطالعه موردی ارتباطات
+امرسون مدیر محصول یک اپلیکیشن موبایل است. امرسون متوجه شده است که مشتریان در آخر هفتهها ۴۲٪ بیشتر شکایات و گزارشهای اشکال ارسال میکنند. امرسون همچنین متوجه شده است که مشتریانی که شکایتی ارسال میکنند و پس از ۴۸ ساعت پاسخی دریافت نمیکنند، ۳۲٪ بیشتر احتمال دارد که به اپلیکیشن امتیاز ۱ یا ۲ در فروشگاه اپلیکیشن بدهند.
+
+پس از انجام تحقیقات، امرسون چند راهحل دارد که مشکل را برطرف میکند. امرسون یک جلسه ۳۰ دقیقهای با ۳ مدیر شرکت ترتیب میدهد تا دادهها و راهحلهای پیشنهادی را منتقل کند.
+
+در طول این جلسه، هدف امرسون این است که مدیران شرکت درک کنند که دو راهحل زیر میتوانند رتبهبندی اپلیکیشن را بهبود بخشند، که احتمالاً به درآمد بالاتر ترجمه خواهد شد.
+
+**راهحل ۱.** استخدام نمایندگان خدمات مشتری برای کار در آخر هفتهها
+
+**راهحل ۲.** خرید یک سیستم تیکتینگ خدمات مشتری جدید که در آن نمایندگان خدمات مشتری بتوانند به راحتی تشخیص دهند کدام شکایات بیشترین زمان را در صف بودهاند – تا بتوانند تشخیص دهند کدام را باید سریعتر رسیدگی کنند.
+در جلسه، امرسون ۵ دقیقه توضیح میدهد که چرا داشتن امتیاز پایین در فروشگاه اپلیکیشنها بد است، ۱۰ دقیقه درباره فرآیند تحقیق و نحوه شناسایی روندها صحبت میکند، ۱۰ دقیقه به بررسی برخی از شکایات اخیر مشتریان میپردازد و در آخرین ۵ دقیقه به طور سطحی دو راهحل احتمالی را مرور میکند.
+
+آیا این روش مؤثری برای امرسون در برقراری ارتباط در این جلسه بود؟
+
+در طول جلسه، یکی از مدیران شرکت بر ۱۰ دقیقهای که امرسون شکایات مشتریان را بررسی کرد، تمرکز کرد. پس از جلسه، این شکایات تنها چیزی بود که این مدیر به یاد داشت. مدیر دیگری بیشتر بر توضیحات امرسون درباره فرآیند تحقیق تمرکز کرد. مدیر سوم راهحلهای پیشنهادی امرسون را به یاد داشت اما مطمئن نبود که چگونه این راهحلها قابل اجرا هستند.
+
+در وضعیت بالا، میتوان دید که فاصله قابل توجهی بین آنچه امرسون میخواست مدیران شرکت از جلسه برداشت کنند و آنچه در نهایت برداشت کردند وجود داشت. در ادامه، یک رویکرد دیگر که امرسون میتواند در نظر بگیرد آورده شده است.
+
+چگونه امرسون میتواند این رویکرد را بهبود دهد؟
+زمینه، تعارض، اوج، خاتمه، نتیجهگیری
+**زمینه** - امرسون میتواند ۵ دقیقه اول را صرف معرفی کل وضعیت کند و مطمئن شود که مدیران شرکت درک میکنند چگونه مشکلات بر معیارهای حیاتی شرکت، مانند درآمد، تأثیر میگذارند.
+
+میتوان اینگونه بیان کرد: "در حال حاضر، امتیاز اپلیکیشن ما در فروشگاه اپلیکیشنها ۲.۵ است. امتیاز در فروشگاه اپلیکیشنها برای بهینهسازی فروشگاه اپلیکیشنها حیاتی است، که بر تعداد کاربرانی که اپلیکیشن ما را در جستجو میبینند و نحوه دیده شدن اپلیکیشن ما توسط کاربران بالقوه تأثیر میگذارد. و البته، تعداد کاربران ما مستقیماً به درآمد مرتبط است."
+
+**تعارض** امرسون سپس میتواند حدود ۵ دقیقه بعدی را صرف صحبت درباره تعارض کند.
+
+میتوان اینگونه بیان کرد: "کاربران در آخر هفتهها ۴۲٪ بیشتر شکایات و گزارشهای اشکال ارسال میکنند. مشتریانی که شکایتی ارسال میکنند و پس از ۴۸ ساعت پاسخی دریافت نمیکنند، ۳۲٪ کمتر احتمال دارد که به اپلیکیشن ما امتیازی بالاتر از ۲ در فروشگاه اپلیکیشنها بدهند. بهبود امتیاز اپلیکیشن ما در فروشگاه اپلیکیشنها به ۴، دیدپذیری ما را ۲۰-۳۰٪ افزایش میدهد، که پیشبینی میکنم درآمد را ۱۰٪ افزایش دهد." البته، امرسون باید آماده باشد تا این اعداد را توجیه کند.
+
+**اوج** پس از ایجاد زمینه، امرسون میتواند حدود ۵ دقیقه به اوج بپردازد.
+
+امرسون میتواند راهحلهای پیشنهادی را معرفی کند، توضیح دهد که چگونه این راهحلها مسائل مطرحشده را حل میکنند، چگونه این راهحلها میتوانند در جریانهای کاری موجود اجرا شوند، هزینه این راهحلها چقدر است، بازگشت سرمایه این راهحلها چه خواهد بود، و حتی ممکن است اسکرینشاتها یا نمونههایی از نحوه اجرای این راهحلها را نشان دهد. امرسون همچنین میتواند نظرات کاربران را که بیش از ۴۸ ساعت منتظر پاسخ به شکایت خود بودهاند، و حتی نظر یکی از نمایندگان خدمات مشتری فعلی شرکت که درباره سیستم تیکتینگ فعلی نظر داده است، به اشتراک بگذارد.
+
+**خاتمه** اکنون امرسون میتواند ۵ دقیقه صرف بازگویی مشکلات شرکت، مرور راهحلهای پیشنهادی و بررسی اینکه چرا این راهحلها مناسب هستند، کند.
+
+**نتیجهگیری** از آنجا که این جلسه با چند ذینفع برگزار میشود و ارتباط دوطرفه مورد استفاده قرار میگیرد، امرسون میتواند ۱۰ دقیقه برای پرسشها برنامهریزی کند تا مطمئن شود هر چیزی که برای مدیران شرکت گیجکننده بوده است، قبل از پایان جلسه روشن شود.
+
+اگر امرسون رویکرد شماره ۲ را اتخاذ کند، احتمال بیشتری وجود دارد که مدیران شرکت دقیقاً همان چیزی را که امرسون قصد داشت از جلسه برداشت کنند – اینکه نحوه رسیدگی به شکایات و اشکالات میتواند بهبود یابد و دو راهحل وجود دارد که میتوان برای ایجاد این بهبود اجرا کرد. این رویکرد، رویکرد بسیار مؤثرتری برای برقراری ارتباط دادهها و داستانی است که امرسون میخواهد منتقل کند.
+
+# نتیجهگیری
+### خلاصه نکات اصلی
+- ارتباط برقرار کردن یعنی انتقال یا تبادل اطلاعات.
+- هنگام برقراری ارتباط دادهها، هدف شما نباید صرفاً انتقال اعداد به مخاطبان باشد. هدف شما باید انتقال داستانی باشد که از دادههای شما اطلاع گرفته است.
+- دو نوع ارتباط وجود دارد: ارتباط یکطرفه (اطلاعات بدون قصد دریافت پاسخ منتقل میشوند) و ارتباط دوطرفه (اطلاعات به صورت رفت و برگشت منتقل میشوند).
+- استراتژیهای زیادی برای روایت داستان با دادهها وجود دارد، ۵ استراتژی که بررسی کردیم عبارتند از:
+ - مخاطب، رسانه و روش ارتباط خود را درک کنید
+ - با هدف نهایی شروع کنید
+ - آن را مانند یک داستان واقعی مطرح کنید
+ - از کلمات و عبارات معنادار استفاده کنید
+ - از احساسات استفاده کنید
+
+### منابع پیشنهادی برای مطالعه خودآموز
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [آزمون پس از سخنرانی](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+آنچه را که تازه یاد گرفتهاید با آزمون پس از سخنرانی بالا مرور کنید!
+
+## تکلیف
+
+[تحقیق بازار](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/fa/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..3b666677
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,24 @@
+
+# تعریف یک داستان
+
+## دستورالعملها
+
+علم دادهها درباره روایت داستان است. یک مجموعه داده انتخاب کنید و یک مقاله کوتاه درباره داستانی که میتوانید از آن تعریف کنید بنویسید. امیدوارید مجموعه داده شما چه چیزی را آشکار کند؟ اگر آشکارسازیهای آن مشکلساز باشند، چه خواهید کرد؟ اگر دادههای شما به راحتی اسرار خود را فاش نکنند، چه میکنید؟ سناریوهایی که ممکن است مجموعه داده شما ارائه دهد را در نظر بگیرید و آنها را یادداشت کنید.
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | --- |
+
+یک مقاله یک صفحهای در قالب .doc ارائه شده است که مجموعه داده توضیح داده شده، مستند شده، اعتبار داده شده و یک داستان منسجم درباره آن با مثالهای دقیق از دادهها ارائه شده است.| یک مقاله کوتاهتر با جزئیات کمتر ارائه شده است | مقاله در یکی از جزئیات فوق کمبود دارد.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/4-Data-Science-Lifecycle/README.md b/translations/fa/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..bda5f55e
--- /dev/null
+++ b/translations/fa/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,28 @@
+
+# چرخه حیات علم داده
+
+
+> عکس از Headway در Unsplash
+
+در این درسها، برخی از جنبههای چرخه حیات علم داده را بررسی خواهید کرد، از جمله تحلیل و ارتباطات پیرامون دادهها.
+
+### موضوعات
+
+1. [مقدمه](14-Introduction/README.md)
+2. [تحلیل](15-analyzing/README.md)
+3. [ارتباطات](16-communication/README.md)
+
+### اعتبارها
+
+این درسها با ❤️ توسط [جالن مکگی](https://twitter.com/JalenMCG) و [جاسمین گریناوی](https://twitter.com/paladique) نوشته شدهاند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/fa/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..ca701b94
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# مقدمهای بر علم داده در فضای ابری
+
+|](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| علم داده در فضای ابری: مقدمه - _طرحنگاری توسط [@nitya](https://twitter.com/nitya)_ |
+
+در این درس، اصول اولیه فضای ابری را یاد خواهید گرفت، سپس خواهید دید چرا استفاده از خدمات ابری برای اجرای پروژههای علم داده میتواند برای شما جذاب باشد و به چند نمونه از پروژههای علم داده که در فضای ابری اجرا شدهاند، نگاهی خواهیم انداخت.
+
+## [پیش آزمون](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## فضای ابری چیست؟
+
+فضای ابری یا محاسبات ابری، ارائه طیف گستردهای از خدمات محاسباتی به صورت پرداخت به میزان استفاده است که بر روی زیرساختی در اینترنت میزبانی میشود. این خدمات شامل راهحلهایی مانند ذخیرهسازی، پایگاههای داده، شبکهسازی، نرمافزار، تحلیلها و خدمات هوشمند میشود.
+
+معمولاً فضای ابری عمومی، خصوصی و ترکیبی به صورت زیر تفکیک میشوند:
+
+* فضای ابری عمومی: فضای ابری عمومی توسط یک ارائهدهنده خدمات ابری شخص ثالث مالکیت و مدیریت میشود که منابع محاسباتی خود را از طریق اینترنت به عموم ارائه میدهد.
+* فضای ابری خصوصی: به منابع محاسبات ابری که به طور انحصاری توسط یک کسبوکار یا سازمان استفاده میشود، اشاره دارد. خدمات و زیرساختها در یک شبکه خصوصی نگهداری میشوند.
+* فضای ابری ترکیبی: فضای ابری ترکیبی سیستمی است که فضای ابری عمومی و خصوصی را ترکیب میکند. کاربران میتوانند از یک مرکز داده داخلی استفاده کنند، در حالی که اجازه میدهند دادهها و برنامهها بر روی یک یا چند فضای ابری عمومی اجرا شوند.
+
+بیشتر خدمات محاسبات ابری در سه دسته قرار میگیرند: زیرساخت به عنوان سرویس (IaaS)، پلتفرم به عنوان سرویس (PaaS) و نرمافزار به عنوان سرویس (SaaS).
+
+* زیرساخت به عنوان سرویس (IaaS): کاربران زیرساختهای فناوری اطلاعات مانند سرورها و ماشینهای مجازی (VMs)، ذخیرهسازی، شبکهها و سیستمهای عامل را اجاره میکنند.
+* پلتفرم به عنوان سرویس (PaaS): کاربران محیطی برای توسعه، آزمایش، ارائه و مدیریت برنامههای نرمافزاری اجاره میکنند. کاربران نیازی به نگرانی در مورد تنظیم یا مدیریت زیرساختهای زیرین مانند سرورها، ذخیرهسازی، شبکه و پایگاههای داده ندارند.
+* نرمافزار به عنوان سرویس (SaaS): کاربران به برنامههای نرمافزاری از طریق اینترنت دسترسی پیدا میکنند، به صورت تقاضا و معمولاً بر اساس اشتراک. کاربران نیازی به نگرانی در مورد میزبانی و مدیریت برنامه نرمافزاری، زیرساختهای زیرین یا نگهداری مانند بهروزرسانیهای نرمافزاری و وصلههای امنیتی ندارند.
+
+برخی از بزرگترین ارائهدهندگان خدمات ابری شامل Amazon Web Services، Google Cloud Platform و Microsoft Azure هستند.
+
+## چرا فضای ابری را برای علم داده انتخاب کنیم؟
+
+توسعهدهندگان و متخصصان فناوری اطلاعات به دلایل مختلفی تصمیم به کار با فضای ابری میگیرند، از جمله:
+
+* نوآوری: شما میتوانید برنامههای خود را با ادغام خدمات نوآورانهای که توسط ارائهدهندگان فضای ابری ایجاد شدهاند، تقویت کنید.
+* انعطافپذیری: شما فقط برای خدماتی که نیاز دارید پرداخت میکنید و میتوانید از طیف گستردهای از خدمات انتخاب کنید. معمولاً پرداخت به میزان استفاده انجام میشود و خدمات شما بر اساس نیازهای در حال تغییر شما تنظیم میشود.
+* بودجه: نیازی به سرمایهگذاری اولیه برای خرید سختافزار و نرمافزار، تنظیم و اجرای مراکز داده داخلی ندارید و فقط برای آنچه استفاده میکنید پرداخت میکنید.
+* مقیاسپذیری: منابع شما میتوانند بر اساس نیازهای پروژه شما مقیاسپذیر باشند، به این معنی که برنامههای شما میتوانند قدرت محاسباتی، ذخیرهسازی و پهنای باند بیشتری یا کمتری استفاده کنند و به عوامل خارجی در هر زمان پاسخ دهند.
+* بهرهوری: شما میتوانید بر کسبوکار خود تمرکز کنید به جای صرف زمان بر وظایفی که میتوانند توسط دیگران مدیریت شوند، مانند مدیریت مراکز داده.
+* قابلیت اطمینان: محاسبات ابری راههای مختلفی برای پشتیبانگیری مداوم از دادههای شما ارائه میدهد و میتوانید برنامههای بازیابی از بحران تنظیم کنید تا کسبوکار و خدمات شما حتی در زمانهای بحرانی ادامه یابد.
+* امنیت: شما میتوانید از سیاستها، فناوریها و کنترلهایی بهرهمند شوید که امنیت پروژه شما را تقویت میکنند.
+
+اینها برخی از رایجترین دلایلی هستند که افراد تصمیم به استفاده از خدمات ابری میگیرند. حال که درک بهتری از فضای ابری و مزایای اصلی آن داریم، بیایید به طور خاص به وظایف دانشمندان داده و توسعهدهندگانی که با داده کار میکنند نگاه کنیم و ببینیم چگونه فضای ابری میتواند به آنها در مواجهه با چالشهای مختلف کمک کند:
+
+* ذخیرهسازی حجم زیادی از دادهها: به جای خرید، مدیریت و حفاظت از سرورهای بزرگ، میتوانید دادههای خود را مستقیماً در فضای ابری ذخیره کنید، با راهحلهایی مانند Azure Cosmos DB، Azure SQL Database و Azure Data Lake Storage.
+* انجام یکپارچهسازی دادهها: یکپارچهسازی دادهها بخش ضروری علم داده است که به شما امکان میدهد از جمعآوری دادهها به اقدام کردن برسید. با خدمات یکپارچهسازی دادهها که در فضای ابری ارائه میشوند، میتوانید دادهها را از منابع مختلف جمعآوری، تبدیل و یکپارچه کنید و آنها را در یک انبار داده واحد ذخیره کنید، با استفاده از Data Factory.
+* پردازش دادهها: پردازش حجم زیادی از دادهها نیاز به قدرت محاسباتی زیادی دارد و همه افراد به ماشینهای قدرتمند دسترسی ندارند، به همین دلیل بسیاری از افراد تصمیم میگیرند مستقیماً از قدرت محاسباتی عظیم فضای ابری برای اجرای و ارائه راهحلهای خود استفاده کنند.
+* استفاده از خدمات تحلیل دادهها: خدمات ابری مانند Azure Synapse Analytics، Azure Stream Analytics و Azure Databricks به شما کمک میکنند دادههای خود را به بینشهای قابل اجرا تبدیل کنید.
+* استفاده از خدمات یادگیری ماشین و هوش داده: به جای شروع از ابتدا، میتوانید از الگوریتمهای یادگیری ماشین ارائهشده توسط ارائهدهنده فضای ابری استفاده کنید، با خدماتی مانند AzureML. همچنین میتوانید از خدمات شناختی مانند تبدیل گفتار به متن، متن به گفتار، بینایی کامپیوتری و موارد دیگر استفاده کنید.
+
+## نمونههایی از علم داده در فضای ابری
+
+بیایید این موضوع را با بررسی چند سناریو ملموستر کنیم.
+
+### تحلیل احساسات شبکههای اجتماعی به صورت لحظهای
+
+با یک سناریو که معمولاً توسط افرادی که با یادگیری ماشین شروع میکنند مطالعه میشود، شروع میکنیم: تحلیل احساسات شبکههای اجتماعی به صورت لحظهای.
+
+فرض کنید شما یک وبسایت خبری دارید و میخواهید از دادههای زنده استفاده کنید تا بفهمید خوانندگان شما به چه محتوایی علاقهمند هستند. برای دانستن بیشتر در این مورد، میتوانید برنامهای بسازید که تحلیل احساسات دادههای منتشرشده در توییتر را به صورت لحظهای انجام دهد، در موضوعاتی که برای خوانندگان شما مرتبط هستند.
+
+شاخصهای کلیدی که بررسی خواهید کرد شامل حجم توییتها در موضوعات خاص (هشتگها) و احساسات است که با استفاده از ابزارهای تحلیل احساسات در موضوعات مشخصشده تعیین میشود.
+
+مراحل لازم برای ایجاد این پروژه به شرح زیر است:
+
+* ایجاد یک مرکز رویداد برای جمعآوری دادههای ورودی از توییتر
+* پیکربندی و شروع یک برنامه کلاینت توییتر که APIهای استریمینگ توییتر را فراخوانی میکند
+* ایجاد یک شغل تحلیل استریم
+* مشخص کردن ورودی و پرسوجوی شغل
+* ایجاد یک مقصد خروجی و مشخص کردن خروجی شغل
+* شروع شغل
+
+برای مشاهده فرآیند کامل، به [مستندات](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099) مراجعه کنید.
+
+### تحلیل مقالات علمی
+
+بیایید به مثال دیگری از پروژهای که توسط [دمیتری سوشنیکوف](http://soshnikov.com)، یکی از نویسندگان این دوره آموزشی، ایجاد شده است، نگاه کنیم.
+
+دمیتری ابزاری ایجاد کرده است که مقالات مرتبط با کووید را تحلیل میکند. با بررسی این پروژه، خواهید دید چگونه میتوانید ابزاری ایجاد کنید که از مقالات علمی دانش استخراج کند، بینش کسب کند و به محققان کمک کند تا به طور کارآمد در میان مجموعههای بزرگ مقالات حرکت کنند.
+
+بیایید مراحل مختلف استفادهشده برای این پروژه را ببینیم:
+
+* استخراج و پیشپردازش اطلاعات با [تحلیل متن برای سلامت](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* استفاده از [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) برای موازیسازی پردازش
+* ذخیرهسازی و پرسوجوی اطلاعات با [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* ایجاد داشبورد تعاملی برای کاوش و بصریسازی دادهها با استفاده از Power BI
+
+برای مشاهده فرآیند کامل، به [وبلاگ دمیتری](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) مراجعه کنید.
+
+همانطور که میبینید، میتوانیم از خدمات ابری به روشهای مختلفی برای انجام علم داده استفاده کنیم.
+
+## پاورقی
+
+منابع:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## آزمون پس از درس
+
+[آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## تکلیف
+
+[تحقیق بازار](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/fa/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..d9140e6a
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,23 @@
+
+# تحقیقات بازار
+
+## دستورالعملها
+
+در این درس یاد گرفتید که چندین ارائهدهنده مهم خدمات ابری وجود دارند. تحقیقاتی در بازار انجام دهید تا کشف کنید هر کدام چه خدماتی میتوانند به دانشمند داده ارائه دهند. آیا این خدمات قابل مقایسه هستند؟ مقالهای بنویسید که خدمات سه یا بیشتر از این ارائهدهندگان خدمات ابری را توصیف کند.
+
+## معیار ارزیابی
+
+عالی | کافی | نیاز به بهبود
+--- | --- | --- |
+یک مقاله یک صفحهای خدمات دادهمحور سه ارائهدهنده خدمات ابری را توصیف کرده و تفاوتهای آنها را مشخص میکند. | مقالهای کوتاهتر ارائه شده است | مقالهای ارائه شده بدون تکمیل تحلیل
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/fa/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..5c8ecbe6
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,348 @@
+
+# علم داده در فضای ابری: روش "کد کم/بدون کد"
+
+|](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| علم داده در فضای ابری: کد کم - _طرح دستی توسط [@nitya](https://twitter.com/nitya)_ |
+
+فهرست مطالب:
+
+- [علم داده در فضای ابری: روش "کد کم/بدون کد"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [پیش آزمون درس](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. مقدمه](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Azure Machine Learning چیست؟](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 پروژه پیشبینی نارسایی قلبی:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 مجموعه داده نارسایی قلبی:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. آموزش مدل با کد کم/بدون کد در Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 ایجاد یک فضای کاری Azure ML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 منابع محاسباتی](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 انتخاب گزینههای مناسب برای منابع محاسباتی](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 ایجاد یک خوشه محاسباتی](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 بارگذاری مجموعه داده](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 آموزش با کد کم/بدون کد با AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. استقرار مدل با کد کم/بدون کد و مصرف نقطه پایانی](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 استقرار مدل](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 مصرف نقطه پایانی](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 چالش](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [آزمون پس از درس](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [مرور و مطالعه شخصی](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [تکلیف](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [پیش آزمون درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. مقدمه
+### 1.1 Azure Machine Learning چیست؟
+
+پلتفرم ابری Azure شامل بیش از ۲۰۰ محصول و خدمات ابری است که برای کمک به شما در ایجاد راهحلهای جدید طراحی شدهاند. دانشمندان داده زمان زیادی را صرف بررسی و پیشپردازش دادهها و آزمایش انواع مختلف الگوریتمهای آموزش مدل میکنند تا مدلهای دقیقی تولید کنند. این وظایف زمانبر هستند و اغلب استفاده ناکارآمدی از سختافزارهای محاسباتی گرانقیمت دارند.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) یک پلتفرم مبتنی بر فضای ابری برای ساخت و اجرای راهحلهای یادگیری ماشین در Azure است. این پلتفرم شامل ویژگیها و قابلیتهای گستردهای است که به دانشمندان داده کمک میکند دادهها را آماده کنند، مدلها را آموزش دهند، خدمات پیشبینی را منتشر کنند و استفاده از آنها را نظارت کنند. مهمتر از همه، این پلتفرم با خودکارسازی بسیاری از وظایف زمانبر مرتبط با آموزش مدلها، کارایی آنها را افزایش میدهد و امکان استفاده از منابع محاسباتی مبتنی بر فضای ابری را فراهم میکند که به طور مؤثر مقیاسپذیر هستند و هزینهها فقط در زمان استفاده واقعی اعمال میشوند.
+
+Azure ML ابزارهای مورد نیاز توسعهدهندگان و دانشمندان داده برای جریانهای کاری یادگیری ماشین را فراهم میکند. این ابزارها شامل موارد زیر هستند:
+
+- **Azure Machine Learning Studio**: یک پورتال وب در Azure Machine Learning برای گزینههای کد کم و بدون کد برای آموزش مدل، استقرار، خودکارسازی، ردیابی و مدیریت داراییها. این استودیو با Azure Machine Learning SDK ادغام شده است تا تجربهای یکپارچه ارائه دهد.
+- **دفترچههای Jupyter**: نمونهسازی سریع و آزمایش مدلهای یادگیری ماشین.
+- **Azure Machine Learning Designer**: امکان کشیدن و رها کردن ماژولها برای ساخت آزمایشها و سپس استقرار خطوط لوله در محیط کد کم.
+- **رابط کاربری یادگیری ماشین خودکار (AutoML)**: وظایف تکراری توسعه مدلهای یادگیری ماشین را خودکار میکند و امکان ساخت مدلهای یادگیری ماشین با مقیاس بالا، کارایی و بهرهوری را فراهم میکند، در حالی که کیفیت مدل حفظ میشود.
+- **برچسبگذاری دادهها**: ابزاری کمکی برای یادگیری ماشین که به طور خودکار دادهها را برچسبگذاری میکند.
+- **افزونه یادگیری ماشین برای Visual Studio Code**: محیط توسعه کامل برای ساخت و مدیریت پروژههای یادگیری ماشین.
+- **رابط خط فرمان یادگیری ماشین**: دستورات برای مدیریت منابع Azure ML از طریق خط فرمان.
+- **ادغام با چارچوبهای متنباز** مانند PyTorch، TensorFlow، Scikit-learn و بسیاری دیگر برای آموزش، استقرار و مدیریت فرآیند یادگیری ماشین از ابتدا تا انتها.
+- **MLflow**: یک کتابخانه متنباز برای مدیریت چرخه عمر آزمایشهای یادگیری ماشین. **MLFlow Tracking** بخشی از MLflow است که معیارهای اجرای آموزش و مصنوعات مدل شما را ثبت و ردیابی میکند، صرفنظر از محیط آزمایش شما.
+
+### 1.2 پروژه پیشبینی نارسایی قلبی:
+
+بدون شک، ساخت و ایجاد پروژهها بهترین راه برای آزمایش مهارتها و دانش شماست. در این درس، ما دو روش مختلف برای ساخت یک پروژه علم داده برای پیشبینی حملات نارسایی قلبی در Azure ML Studio را بررسی خواهیم کرد: از طریق کد کم/بدون کد و از طریق Azure ML SDK، همانطور که در نمودار زیر نشان داده شده است:
+
+
+
+هر روش مزایا و معایب خاص خود را دارد. روش کد کم/بدون کد برای شروع آسانتر است زیرا شامل تعامل با یک رابط کاربری گرافیکی (GUI) است و نیازی به دانش قبلی کدنویسی ندارد. این روش امکان آزمایش سریع قابلیت پروژه و ایجاد نمونه اولیه (POC) را فراهم میکند. با این حال، با رشد پروژه و نیاز به آمادهسازی برای تولید، ایجاد منابع از طریق GUI عملی نیست. ما باید همه چیز را به صورت برنامهریزی شده خودکار کنیم، از ایجاد منابع گرفته تا استقرار مدل. اینجاست که دانستن نحوه استفاده از Azure ML SDK اهمیت پیدا میکند.
+
+| | کد کم/بدون کد | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| تخصص در کدنویسی | لازم نیست | لازم است |
+| زمان توسعه | سریع و آسان | بستگی به تخصص کدنویسی دارد |
+| آماده برای تولید | خیر | بله |
+
+### 1.3 مجموعه داده نارسایی قلبی:
+
+بیماریهای قلبی عروقی (CVDs) علت شماره ۱ مرگ و میر در جهان هستند و ۳۱٪ از کل مرگ و میرهای جهانی را تشکیل میدهند. عوامل خطر محیطی و رفتاری مانند استفاده از تنباکو، رژیم غذایی ناسالم و چاقی، فعالیت بدنی کم و مصرف مضر الکل میتوانند به عنوان ویژگیهایی برای مدلهای تخمینی استفاده شوند. توانایی تخمین احتمال توسعه CVD میتواند برای جلوگیری از حملات در افراد پرخطر بسیار مفید باشد.
+
+Kaggle یک [مجموعه داده نارسایی قلبی](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) را به صورت عمومی در دسترس قرار داده است که ما قصد داریم از آن برای این پروژه استفاده کنیم. شما میتوانید این مجموعه داده را اکنون دانلود کنید. این مجموعه داده جدولی شامل ۱۳ ستون (۱۲ ویژگی و ۱ متغیر هدف) و ۲۹۹ ردیف است.
+
+| | نام متغیر | نوع | توضیحات | مثال |
+|----|---------------------------|-----------------|-------------------------------------------------------|-------------------|
+| 1 | age | عددی | سن بیمار | ۲۵ |
+| 2 | anaemia | بولی | کاهش گلبولهای قرمز یا هموگلوبین | ۰ یا ۱ |
+| 3 | creatinine_phosphokinase | عددی | سطح آنزیم CPK در خون | ۵۴۲ |
+| 4 | diabetes | بولی | آیا بیمار دیابت دارد | ۰ یا ۱ |
+| 5 | ejection_fraction | عددی | درصد خون خارج شده از قلب در هر انقباض | ۴۵ |
+| 6 | high_blood_pressure | بولی | آیا بیمار فشار خون بالا دارد | ۰ یا ۱ |
+| 7 | platelets | عددی | پلاکتها در خون | ۱۴۹۰۰۰ |
+| 8 | serum_creatinine | عددی | سطح کراتینین سرم در خون | ۰.۵ |
+| 9 | serum_sodium | عددی | سطح سدیم سرم در خون | jun |
+| 10 | sex | بولی | زن یا مرد | ۰ یا ۱ |
+| 11 | smoking | بولی | آیا بیمار سیگار میکشد | ۰ یا ۱ |
+| 12 | time | عددی | دوره پیگیری (روزها) | ۴ |
+|----|---------------------------|-----------------|-------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [هدف] | بولی | آیا بیمار در دوره پیگیری فوت کرده است | ۰ یا ۱ |
+
+پس از دریافت مجموعه داده، میتوانیم پروژه را در Azure شروع کنیم.
+
+## 2. آموزش مدل با کد کم/بدون کد در Azure ML Studio
+### 2.1 ایجاد یک فضای کاری Azure ML
+برای آموزش یک مدل در Azure ML ابتدا باید یک فضای کاری Azure ML ایجاد کنید. فضای کاری منبع سطح بالای Azure Machine Learning است که مکانی مرکزی برای کار با تمام مصنوعات ایجاد شده هنگام استفاده از Azure Machine Learning فراهم میکند. فضای کاری تاریخچه تمام اجرایهای آموزشی، شامل گزارشها، معیارها، خروجیها و یک عکس فوری از اسکریپتهای شما را نگه میدارد. شما از این اطلاعات برای تعیین اینکه کدام اجرای آموزشی بهترین مدل را تولید میکند استفاده میکنید. [بیشتر بدانید](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+توصیه میشود از مرورگر بهروز و سازگار با سیستمعامل خود استفاده کنید. مرورگرهای زیر پشتیبانی میشوند:
+
+- Microsoft Edge (نسخه جدید Microsoft Edge، آخرین نسخه. نه نسخه قدیمی Microsoft Edge)
+- Safari (آخرین نسخه، فقط Mac)
+- Chrome (آخرین نسخه)
+- Firefox (آخرین نسخه)
+
+برای استفاده از Azure Machine Learning، یک فضای کاری در اشتراک Azure خود ایجاد کنید. سپس میتوانید از این فضای کاری برای مدیریت دادهها، منابع محاسباتی، کد، مدلها و سایر مصنوعات مرتبط با بارهای کاری یادگیری ماشین خود استفاده کنید.
+
+> **_توجه:_** اشتراک Azure شما برای ذخیره دادهها هزینه کمی دریافت خواهد کرد تا زمانی که فضای کاری Azure Machine Learning در اشتراک شما وجود داشته باشد، بنابراین توصیه میکنیم فضای کاری Azure Machine Learning را زمانی که دیگر از آن استفاده نمیکنید حذف کنید.
+
+1. وارد [پرتال Azure](https://ms.portal.azure.com/) شوید و از اعتبار Microsoft مرتبط با اشتراک Azure خود استفاده کنید.
+2. گزینه **+ایجاد یک منبع** را انتخاب کنید.
+
+ 
+
+ جستجو کنید برای Machine Learning و کاشی Machine Learning را انتخاب کنید.
+
+ 
+
+ دکمه ایجاد را کلیک کنید.
+
+ 
+
+ تنظیمات را به صورت زیر پر کنید:
+ - اشتراک: اشتراک Azure شما
+ - گروه منابع: ایجاد یا انتخاب یک گروه منابع
+ - نام فضای کاری: یک نام منحصر به فرد برای فضای کاری خود وارد کنید
+ - منطقه: منطقه جغرافیایی نزدیک به شما را انتخاب کنید
+ - حساب ذخیرهسازی: توجه به حساب ذخیرهسازی جدیدی که برای فضای کاری شما ایجاد خواهد شد
+ - کلید مخزن: توجه به کلید مخزن جدیدی که برای فضای کاری شما ایجاد خواهد شد
+ - بینشهای برنامه: توجه به منبع جدید بینشهای برنامه که برای فضای کاری شما ایجاد خواهد شد
+ - رجیستری کانتینر: هیچ (یکی به طور خودکار اولین بار که یک مدل را به کانتینر مستقر میکنید ایجاد خواهد شد)
+
+ 
+
+ - دکمه ایجاد + بررسی را کلیک کنید و سپس دکمه ایجاد را فشار دهید.
+3. منتظر بمانید تا فضای کاری شما ایجاد شود (این ممکن است چند دقیقه طول بکشد). سپس به آن در پرتال بروید. شما میتوانید آن را از طریق سرویس Azure Machine Learning پیدا کنید.
+4. در صفحه نمای کلی فضای کاری خود، Azure Machine Learning studio را راهاندازی کنید (یا یک برگه جدید مرورگر باز کنید و به https://ml.azure.com بروید)، و وارد Azure Machine Learning studio شوید و از حساب Microsoft خود استفاده کنید. اگر درخواست شد، دایرکتوری و اشتراک Azure خود و فضای کاری Azure Machine Learning خود را انتخاب کنید.
+
+
+
+5. در Azure Machine Learning studio، نماد ☰ در بالا سمت چپ را تغییر دهید تا صفحات مختلف در رابط کاربری را مشاهده کنید. شما میتوانید از این صفحات برای مدیریت منابع در فضای کاری خود استفاده کنید.
+
+
+
+شما میتوانید فضای کاری خود را با استفاده از پرتال Azure مدیریت کنید، اما برای دانشمندان داده و مهندسان عملیات یادگیری ماشین، Azure Machine Learning Studio یک رابط کاربری متمرکزتر برای مدیریت منابع فضای کاری فراهم میکند.
+
+### 2.2 منابع محاسباتی
+
+منابع محاسباتی منابع مبتنی بر فضای ابری هستند که میتوانید فرآیندهای آموزش مدل و بررسی دادهها را روی آنها اجرا کنید. چهار نوع منبع محاسباتی وجود دارد که میتوانید ایجاد کنید:
+
+- **نمونههای محاسباتی**: ایستگاههای کاری توسعه که دانشمندان داده میتوانند برای کار با دادهها و مدلها استفاده کنند. این شامل ایجاد یک ماشین مجازی (VM) و راهاندازی یک نمونه دفترچه است. سپس میتوانید یک مدل را با فراخوانی یک خوشه محاسباتی از دفترچه آموزش دهید.
+- **خوشههای محاسباتی**: خوشههای مقیاسپذیر ماشینهای مجازی برای پردازش کد آزمایش به صورت درخواستی. شما به آن نیاز خواهید داشت هنگام آموزش یک مدل. خوشههای محاسباتی همچنین میتوانند از منابع تخصصی GPU یا CPU استفاده کنند.
+- **خوشههای استنتاج**: اهداف استقرار برای خدمات پیشبینی که از مدلهای آموزشدیده شما استفاده میکنند.
+- **اتصال به منابع محاسباتی**: لینکدهی به منابع محاسباتی موجود در Azure، مانند ماشینهای مجازی یا کلاسترهای Azure Databricks.
+
+#### 2.2.1 انتخاب گزینههای مناسب برای منابع محاسباتی
+
+برخی عوامل کلیدی وجود دارند که هنگام ایجاد یک منبع محاسباتی باید در نظر گرفته شوند و این انتخابها میتوانند تصمیمات حیاتی باشند.
+
+**آیا به CPU نیاز دارید یا GPU؟**
+
+یک CPU (واحد پردازش مرکزی) مداری الکترونیکی است که دستورالعملهای یک برنامه کامپیوتری را اجرا میکند. یک GPU (واحد پردازش گرافیکی) مداری الکترونیکی تخصصی است که میتواند کدهای مرتبط با گرافیک را با سرعت بسیار بالا اجرا کند.
+
+تفاوت اصلی بین معماری CPU و GPU این است که CPU برای انجام طیف گستردهای از وظایف به سرعت طراحی شده است (که با سرعت کلاک CPU اندازهگیری میشود)، اما در همزمانی وظایف محدود است. GPUها برای محاسبات موازی طراحی شدهاند و بنابراین برای وظایف یادگیری عمیق بسیار بهتر هستند.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| ارزانتر | گرانتر |
+| سطح همزمانی پایینتر | سطح همزمانی بالاتر |
+| کندتر در آموزش مدلهای یادگیری عمیق | بهینه برای یادگیری عمیق |
+
+**اندازه کلاستر**
+
+کلاسترهای بزرگتر گرانتر هستند اما پاسخگویی بهتری ارائه میدهند. بنابراین، اگر زمان دارید اما بودجه کافی ندارید، باید با یک کلاستر کوچک شروع کنید. برعکس، اگر بودجه دارید اما زمان کمی دارید، باید با یک کلاستر بزرگتر شروع کنید.
+
+**اندازه ماشین مجازی (VM)**
+
+بسته به محدودیتهای زمانی و بودجهای خود، میتوانید اندازه RAM، دیسک، تعداد هستهها و سرعت کلاک را تغییر دهید. افزایش این پارامترها هزینه بیشتری خواهد داشت، اما عملکرد بهتری ارائه میدهد.
+
+**نمونههای اختصاصی یا با اولویت پایین؟**
+
+یک نمونه با اولویت پایین به این معناست که قابل قطع شدن است: اساساً، Microsoft Azure میتواند این منابع را گرفته و به وظیفه دیگری اختصاص دهد، بنابراین یک کار را متوقف کند. یک نمونه اختصاصی یا غیرقابل قطع به این معناست که کار بدون اجازه شما هرگز متوقف نخواهد شد.
+این نیز یک ملاحظه بین زمان و هزینه است، زیرا نمونههای قابل قطع ارزانتر از نمونههای اختصاصی هستند.
+
+#### 2.2.2 ایجاد یک کلاستر محاسباتی
+
+در [محیط کاری Azure ML](https://ml.azure.com/) که قبلاً ایجاد کردیم، به بخش Compute بروید و میتوانید منابع محاسباتی مختلفی که قبلاً بحث کردیم (مانند نمونههای محاسباتی، کلاسترهای محاسباتی، کلاسترهای استنتاج و منابع محاسباتی متصل) را مشاهده کنید. برای این پروژه، ما به یک کلاستر محاسباتی برای آموزش مدل نیاز داریم. در Studio، روی منوی "Compute" کلیک کنید، سپس به تب "Compute cluster" بروید و روی دکمه "+ New" کلیک کنید تا یک کلاستر محاسباتی ایجاد کنید.
+
+
+
+1. گزینههای خود را انتخاب کنید: اختصاصی یا با اولویت پایین، CPU یا GPU، اندازه VM و تعداد هستهها (میتوانید تنظیمات پیشفرض را برای این پروژه نگه دارید).
+2. روی دکمه Next کلیک کنید.
+
+
+
+3. به کلاستر یک نام محاسباتی بدهید.
+4. گزینههای خود را انتخاب کنید: حداقل/حداکثر تعداد نودها، ثانیههای بیکار قبل از کاهش مقیاس، دسترسی SSH. توجه داشته باشید که اگر حداقل تعداد نودها 0 باشد، هنگام بیکار بودن کلاستر، هزینه کمتری خواهید داشت. توجه داشته باشید که هرچه تعداد نودهای حداکثری بیشتر باشد، آموزش کوتاهتر خواهد بود. تعداد حداکثری نودهای پیشنهادی 3 است.
+5. روی دکمه "Create" کلیک کنید. این مرحله ممکن است چند دقیقه طول بکشد.
+
+
+
+عالی! حالا که یک کلاستر محاسباتی داریم، باید دادهها را به Azure ML Studio بارگذاری کنیم.
+
+### 2.3 بارگذاری مجموعه داده
+
+1. در [محیط کاری Azure ML](https://ml.azure.com/) که قبلاً ایجاد کردیم، روی "Datasets" در منوی سمت چپ کلیک کنید و روی دکمه "+ Create dataset" کلیک کنید تا یک مجموعه داده ایجاد کنید. گزینه "From local files" را انتخاب کنید و مجموعه داده Kaggle که قبلاً دانلود کردیم را انتخاب کنید.
+
+ 
+
+2. به مجموعه داده خود یک نام، نوع و توضیح بدهید. روی Next کلیک کنید. دادهها را از فایلها آپلود کنید. روی Next کلیک کنید.
+
+ 
+
+3. در بخش Schema، نوع داده را برای ویژگیهای زیر به Boolean تغییر دهید: anaemia، diabetes، high blood pressure، sex، smoking، و DEATH_EVENT. روی Next کلیک کنید و سپس روی Create کلیک کنید.
+
+ 
+
+عالی! حالا که مجموعه داده در جای خود قرار دارد و کلاستر محاسباتی ایجاد شده است، میتوانیم آموزش مدل را شروع کنیم!
+
+### 2.4 آموزش کمکد/بدون کد با AutoML
+
+توسعه مدلهای یادگیری ماشین سنتی نیازمند منابع زیادی است، به دانش تخصصی قابل توجهی نیاز دارد و زمان زیادی برای تولید و مقایسه دهها مدل میطلبد.
+یادگیری ماشین خودکار (AutoML) فرآیند خودکارسازی وظایف زمانبر و تکراری توسعه مدلهای یادگیری ماشین است. این امکان را به دانشمندان داده، تحلیلگران و توسعهدهندگان میدهد تا مدلهای یادگیری ماشین را با مقیاس بالا، کارایی و بهرهوری بسازند، در حالی که کیفیت مدل حفظ میشود. این فرآیند زمان لازم برای دستیابی به مدلهای آماده تولید را کاهش میدهد و با سهولت و کارایی بالا انجام میشود. [بیشتر بخوانید](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. در [محیط کاری Azure ML](https://ml.azure.com/) که قبلاً ایجاد کردیم، روی "Automated ML" در منوی سمت چپ کلیک کنید و مجموعه دادهای که بهتازگی آپلود کردید را انتخاب کنید. روی Next کلیک کنید.
+
+ 
+
+2. یک نام آزمایش جدید، ستون هدف (DEATH_EVENT) و کلاستر محاسباتی که ایجاد کردیم را وارد کنید. روی Next کلیک کنید.
+
+ 
+
+3. "Classification" را انتخاب کنید و روی Finish کلیک کنید. این مرحله ممکن است بین 30 دقیقه تا 1 ساعت طول بکشد، بسته به اندازه کلاستر محاسباتی شما.
+
+ 
+
+4. پس از اتمام اجرا، روی تب "Automated ML" کلیک کنید، روی اجرای خود کلیک کنید و روی الگوریتم در کارت "Best model summary" کلیک کنید.
+
+ 
+
+در اینجا میتوانید توضیحات دقیقی از بهترین مدلی که AutoML تولید کرده است مشاهده کنید. همچنین میتوانید مدلهای دیگر تولید شده را در تب Models بررسی کنید. چند دقیقه وقت بگذارید و مدلها را در بخش Explanations (پیشنمایش) بررسی کنید. پس از انتخاب مدلی که میخواهید استفاده کنید (در اینجا ما بهترین مدل انتخابشده توسط AutoML را انتخاب میکنیم)، خواهیم دید که چگونه میتوان آن را مستقر کرد.
+
+## 3. استقرار مدل کمکد/بدون کد و مصرف نقطه پایانی
+### 3.1 استقرار مدل
+
+رابط کاربری یادگیری ماشین خودکار به شما امکان میدهد بهترین مدل را بهعنوان یک سرویس وب در چند مرحله مستقر کنید. استقرار به معنای یکپارچهسازی مدل است تا بتواند بر اساس دادههای جدید پیشبینی کند و مناطق بالقوه فرصت را شناسایی کند. برای این پروژه، استقرار بهعنوان یک سرویس وب به این معناست که برنامههای پزشکی میتوانند مدل را مصرف کنند تا پیشبینیهای زنده از خطر حمله قلبی بیماران خود انجام دهند.
+
+در توضیحات بهترین مدل، روی دکمه "Deploy" کلیک کنید.
+
+
+
+15. به آن یک نام، توضیح، نوع محاسبات (Azure Container Instance)، احراز هویت فعال و روی Deploy کلیک کنید. این مرحله ممکن است حدود 20 دقیقه طول بکشد. فرآیند استقرار شامل چندین مرحله از جمله ثبت مدل، تولید منابع و پیکربندی آنها برای سرویس وب است. یک پیام وضعیت در زیر Deploy status ظاهر میشود. برای بررسی وضعیت استقرار، بهطور دورهای روی Refresh کلیک کنید. زمانی که وضعیت "Healthy" باشد، استقرار کامل و در حال اجرا است.
+
+
+
+16. پس از استقرار، روی تب Endpoint کلیک کنید و روی نقطه پایانی که بهتازگی مستقر کردهاید کلیک کنید. در اینجا میتوانید تمام جزئیاتی که باید درباره نقطه پایانی بدانید را پیدا کنید.
+
+
+
+شگفتانگیز! حالا که یک مدل مستقر کردهایم، میتوانیم مصرف نقطه پایانی را شروع کنیم.
+
+### 3.2 مصرف نقطه پایانی
+
+روی تب "Consume" کلیک کنید. در اینجا میتوانید نقطه پایانی REST و یک اسکریپت پایتون در گزینه مصرف پیدا کنید. زمانی را برای خواندن کد پایتون اختصاص دهید.
+
+این اسکریپت میتواند مستقیماً از ماشین محلی شما اجرا شود و نقطه پایانی شما را مصرف کند.
+
+
+
+لحظهای وقت بگذارید و این دو خط کد را بررسی کنید:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+متغیر `url` نقطه پایانی REST است که در تب مصرف یافت میشود و متغیر `api_key` کلید اصلی است که در تب مصرف نیز یافت میشود (فقط در صورتی که احراز هویت را فعال کرده باشید). این همان روشی است که اسکریپت میتواند نقطه پایانی را مصرف کند.
+
+18. با اجرای اسکریپت، باید خروجی زیر را مشاهده کنید:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+این به این معناست که پیشبینی نارسایی قلبی برای دادههای دادهشده درست است. این منطقی است زیرا اگر به دادههای بهطور خودکار تولیدشده در اسکریپت نگاه کنید، همه چیز بهطور پیشفرض 0 و false است. میتوانید دادهها را با نمونه ورودی زیر تغییر دهید:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+اسکریپت باید این خروجی را بازگرداند:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+تبریک میگوییم! شما بهتازگی مدل مستقرشده را مصرف کردید و آن را در Azure ML آموزش دادید!
+
+> **_توجه:_** پس از اتمام پروژه، فراموش نکنید که تمام منابع را حذف کنید.
+
+## 🚀 چالش
+
+به توضیحات مدل و جزئیاتی که AutoML برای مدلهای برتر تولید کرده است، با دقت نگاه کنید. سعی کنید بفهمید چرا بهترین مدل بهتر از مدلهای دیگر است. چه الگوریتمهایی مقایسه شدند؟ تفاوتهای آنها چیست؟ چرا بهترین مدل در این مورد عملکرد بهتری دارد؟
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## مرور و مطالعه شخصی
+
+در این درس، یاد گرفتید که چگونه یک مدل را برای پیشبینی خطر نارسایی قلبی بهصورت کمکد/بدون کد در فضای ابری آموزش دهید، مستقر کنید و مصرف کنید. اگر هنوز این کار را نکردهاید، به توضیحات مدل که AutoML برای مدلهای برتر تولید کرده است عمیقتر نگاه کنید و سعی کنید بفهمید چرا بهترین مدل بهتر از دیگران است.
+
+میتوانید با خواندن این [مستندات](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) بیشتر درباره AutoML کمکد/بدون کد یاد بگیرید.
+
+## تکلیف
+
+[پروژه علم داده کمکد/بدون کد در Azure ML](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/fa/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..9b411d33
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,23 @@
+
+# پروژه علم داده با کدنویسی کم/بدون کدنویسی در Azure ML
+
+## دستورالعملها
+
+ما دیدیم که چگونه میتوان از پلتفرم Azure ML برای آموزش، استقرار و استفاده از یک مدل به صورت کدنویسی کم/بدون کدنویسی استفاده کرد. حالا به دنبال دادههایی بگردید که بتوانید از آنها برای آموزش یک مدل دیگر، استقرار و استفاده از آن بهره ببرید. میتوانید مجموعه دادهها را در [Kaggle](https://kaggle.com) و [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) پیدا کنید.
+
+## معیار ارزیابی
+
+| عالی | قابل قبول | نیاز به بهبود |
+|-----------|----------|-------------------|
+| هنگام بارگذاری دادهها، به تغییر نوع ویژگیها در صورت نیاز توجه کردهاید. همچنین دادهها را در صورت لزوم پاکسازی کردهاید. شما یک آموزش روی مجموعه داده از طریق AutoML انجام دادهاید و توضیحات مدل را بررسی کردهاید. بهترین مدل را مستقر کرده و توانستهاید از آن استفاده کنید. | هنگام بارگذاری دادهها، به تغییر نوع ویژگیها در صورت نیاز توجه کردهاید. شما یک آموزش روی مجموعه داده از طریق AutoML انجام دادهاید، بهترین مدل را مستقر کرده و توانستهاید از آن استفاده کنید. | شما بهترین مدل آموزشدیده توسط AutoML را مستقر کرده و توانستهاید از آن استفاده کنید. |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/fa/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..c3be7d7d
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,310 @@
+
+# علم داده در فضای ابری: روش "Azure ML SDK"
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| علم داده در فضای ابری: Azure ML SDK - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+فهرست مطالب:
+
+- [علم داده در فضای ابری: روش "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [پرسشهای پیش از درس](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. مقدمه](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Azure ML SDK چیست؟](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 معرفی پروژه پیشبینی نارسایی قلبی و مجموعه داده](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. آموزش مدل با Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 ایجاد یک فضای کاری Azure ML](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 ایجاد یک نمونه محاسباتی](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 بارگذاری مجموعه داده](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 ایجاد نوتبوکها](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 آموزش مدل](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 تنظیم فضای کاری، آزمایش، خوشه محاسباتی و مجموعه داده](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 پیکربندی AutoML و آموزش](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. استقرار مدل و مصرف نقطه پایانی با Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 ذخیره بهترین مدل](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 استقرار مدل](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 مصرف نقطه پایانی](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 چالش](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [پرسشهای پس از درس](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [مرور و مطالعه خودآموز](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [تکلیف](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [پرسشهای پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. مقدمه
+
+### 1.1 Azure ML SDK چیست؟
+
+دانشمندان داده و توسعهدهندگان هوش مصنوعی از Azure Machine Learning SDK برای ساخت و اجرای جریانهای کاری یادگیری ماشین با استفاده از سرویس Azure Machine Learning استفاده میکنند. شما میتوانید در هر محیط پایتون، از جمله Jupyter Notebooks، Visual Studio Code یا IDE مورد علاقه خود، با این سرویس تعامل داشته باشید.
+
+حوزههای کلیدی SDK شامل موارد زیر است:
+
+- بررسی، آمادهسازی و مدیریت چرخه عمر مجموعه دادههایی که در آزمایشهای یادگیری ماشین استفاده میشوند.
+- مدیریت منابع ابری برای نظارت، ثبت و سازماندهی آزمایشهای یادگیری ماشین.
+- آموزش مدلها به صورت محلی یا با استفاده از منابع ابری، از جمله آموزش مدلهای شتابیافته با GPU.
+- استفاده از یادگیری ماشین خودکار که پارامترهای پیکربندی و دادههای آموزشی را میپذیرد و به طور خودکار الگوریتمها و تنظیمات هایپرپارامترها را بررسی میکند تا بهترین مدل برای پیشبینیها را پیدا کند.
+- استقرار خدمات وب برای تبدیل مدلهای آموزشدیده به خدمات RESTful که میتوانند در هر برنامهای مصرف شوند.
+
+[اطلاعات بیشتر درباره Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+در [درس قبلی](../18-Low-Code/README.md)، دیدیم که چگونه میتوان یک مدل را به صورت کمکد/بدونکد آموزش داد، استقرار داد و مصرف کرد. ما از مجموعه داده نارسایی قلبی برای ایجاد مدل پیشبینی نارسایی قلبی استفاده کردیم. در این درس، قصد داریم دقیقاً همین کار را انجام دهیم اما با استفاده از Azure Machine Learning SDK.
+
+
+
+### 1.2 معرفی پروژه پیشبینی نارسایی قلبی و مجموعه داده
+
+برای مشاهده معرفی پروژه پیشبینی نارسایی قلبی و مجموعه داده، [اینجا کلیک کنید](../18-Low-Code/README.md).
+
+## 2. آموزش مدل با Azure ML SDK
+### 2.1 ایجاد یک فضای کاری Azure ML
+
+برای سادگی، ما قصد داریم در یک نوتبوک Jupyter کار کنیم. این به این معناست که شما قبلاً یک فضای کاری و یک نمونه محاسباتی دارید. اگر قبلاً فضای کاری دارید، میتوانید مستقیماً به بخش 2.3 ایجاد نوتبوک بروید.
+
+اگر ندارید، لطفاً دستورالعملهای بخش **2.1 ایجاد یک فضای کاری Azure ML** در [درس قبلی](../18-Low-Code/README.md) را دنبال کنید تا یک فضای کاری ایجاد کنید.
+
+### 2.2 ایجاد یک نمونه محاسباتی
+
+در [فضای کاری Azure ML](https://ml.azure.com/) که قبلاً ایجاد کردیم، به منوی محاسبات بروید و منابع محاسباتی مختلف موجود را مشاهده خواهید کرد.
+
+
+
+بیایید یک نمونه محاسباتی برای فراهم کردن یک نوتبوک Jupyter ایجاد کنیم.
+1. روی دکمه + New کلیک کنید.
+2. یک نام برای نمونه محاسباتی خود انتخاب کنید.
+3. گزینههای خود را انتخاب کنید: CPU یا GPU، اندازه VM و تعداد هستهها.
+4. روی دکمه Create کلیک کنید.
+
+تبریک میگوییم، شما یک نمونه محاسباتی ایجاد کردید! ما از این نمونه محاسباتی برای ایجاد یک نوتبوک در بخش [ایجاد نوتبوکها](../../../../5-Data-Science-In-Cloud/19-Azure) استفاده خواهیم کرد.
+
+### 2.3 بارگذاری مجموعه داده
+اگر هنوز مجموعه داده را بارگذاری نکردهاید، به بخش **2.3 بارگذاری مجموعه داده** در [درس قبلی](../18-Low-Code/README.md) مراجعه کنید.
+
+### 2.4 ایجاد نوتبوکها
+
+> **_توجه:_** برای مرحله بعدی، میتوانید یک نوتبوک جدید از ابتدا ایجاد کنید یا [نوتبوکی که قبلاً ایجاد کردیم](../../../../5-Data-Science-In-Cloud/19-Azure/notebook.ipynb) را در Azure ML Studio خود آپلود کنید. برای آپلود، کافی است روی منوی "Notebook" کلیک کنید و نوتبوک را آپلود کنید.
+
+نوتبوکها بخش بسیار مهمی از فرآیند علم داده هستند. آنها میتوانند برای انجام تحلیل دادههای اکتشافی (EDA)، فراخوانی به خوشه محاسباتی برای آموزش مدل، یا فراخوانی به خوشه استنتاج برای استقرار نقطه پایانی استفاده شوند.
+
+برای ایجاد یک نوتبوک، به یک گره محاسباتی نیاز داریم که نمونه نوتبوک Jupyter را ارائه دهد. به [فضای کاری Azure ML](https://ml.azure.com/) بازگردید و روی نمونههای محاسباتی کلیک کنید. در لیست نمونههای محاسباتی باید [نمونه محاسباتی که قبلاً ایجاد کردیم](../../../../5-Data-Science-In-Cloud/19-Azure) را مشاهده کنید.
+
+1. در بخش Applications، روی گزینه Jupyter کلیک کنید.
+2. کادر "بله، من متوجه هستم" را علامت بزنید و روی دکمه Continue کلیک کنید.
+
+3. این باید یک تب جدید در مرورگر شما باز کند که نمونه نوتبوک Jupyter شما را نشان میدهد. روی دکمه "New" کلیک کنید تا یک نوتبوک ایجاد کنید.
+
+
+
+حالا که یک نوتبوک داریم، میتوانیم آموزش مدل با Azure ML SDK را شروع کنیم.
+
+### 2.5 آموزش مدل
+
+ابتدا، اگر شک دارید، به [مستندات Azure ML SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) مراجعه کنید. این مستندات شامل تمام اطلاعات لازم برای درک ماژولهایی است که در این درس خواهیم دید.
+
+#### 2.5.1 تنظیم فضای کاری، آزمایش، خوشه محاسباتی و مجموعه داده
+
+شما باید `workspace` را از فایل پیکربندی با استفاده از کد زیر بارگذاری کنید:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+این یک شیء از نوع `Workspace` بازمیگرداند که نمایانگر فضای کاری است. سپس باید یک `experiment` ایجاد کنید با استفاده از کد زیر:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+برای دریافت یا ایجاد یک آزمایش از فضای کاری، شما آزمایش را با استفاده از نام آزمایش درخواست میکنید. نام آزمایش باید بین 3 تا 36 کاراکتر باشد، با حرف یا عدد شروع شود و فقط شامل حروف، اعداد، زیرخط و خط تیره باشد. اگر آزمایش در فضای کاری پیدا نشود، یک آزمایش جدید ایجاد میشود.
+
+حالا باید یک خوشه محاسباتی برای آموزش ایجاد کنید با استفاده از کد زیر. توجه داشته باشید که این مرحله ممکن است چند دقیقه طول بکشد.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+شما میتوانید مجموعه داده را از فضای کاری با استفاده از نام مجموعه داده به روش زیر دریافت کنید:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 پیکربندی AutoML و آموزش
+
+برای تنظیم پیکربندی AutoML، از کلاس [AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) استفاده کنید.
+
+همانطور که در مستندات توضیح داده شده است، پارامترهای زیادی وجود دارد که میتوانید با آنها بازی کنید. برای این پروژه، ما از پارامترهای زیر استفاده خواهیم کرد:
+
+- `experiment_timeout_minutes`: حداکثر زمان (به دقیقه) که آزمایش اجازه دارد اجرا شود قبل از اینکه به طور خودکار متوقف شود و نتایج به طور خودکار در دسترس قرار گیرد.
+- `max_concurrent_iterations`: حداکثر تعداد تکرارهای آموزشی همزمان که برای آزمایش مجاز است.
+- `primary_metric`: معیار اصلی که برای تعیین وضعیت آزمایش استفاده میشود.
+- `compute_target`: هدف محاسباتی Azure Machine Learning برای اجرای آزمایش یادگیری ماشین خودکار.
+- `task`: نوع وظیفهای که باید اجرا شود. مقادیر میتوانند 'classification'، 'regression' یا 'forecasting' باشند بسته به نوع مسئله یادگیری ماشین خودکار.
+- `training_data`: دادههای آموزشی که باید در آزمایش استفاده شوند. باید شامل ویژگیهای آموزشی و یک ستون برچسب باشد (اختیاری یک ستون وزن نمونه).
+- `label_column_name`: نام ستون برچسب.
+- `path`: مسیر کامل به پوشه پروژه Azure Machine Learning.
+- `enable_early_stopping`: آیا توقف زودهنگام در صورت عدم بهبود امتیاز در کوتاهمدت فعال شود یا خیر.
+- `featurization`: نشانگر اینکه آیا مرحله ویژگیسازی باید به طور خودکار انجام شود یا خیر، یا اینکه آیا باید از ویژگیسازی سفارشی استفاده شود.
+- `debug_log`: فایل لاگ برای نوشتن اطلاعات اشکالزدایی.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+حالا که پیکربندی شما تنظیم شده است، میتوانید مدل را با استفاده از کد زیر آموزش دهید. این مرحله ممکن است تا یک ساعت بسته به اندازه خوشه شما طول بکشد.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+شما میتوانید ویجت RunDetails را اجرا کنید تا آزمایشهای مختلف را نشان دهد.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. استقرار مدل و مصرف نقطه پایانی با Azure ML SDK
+
+### 3.1 ذخیره بهترین مدل
+
+شیء `remote_run` از نوع [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) است. این شیء شامل متد `get_output()` است که بهترین اجرا و مدل مناسب مربوطه را بازمیگرداند.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+شما میتوانید پارامترهای استفادهشده برای بهترین مدل را با چاپ fitted_model مشاهده کنید و خواص بهترین مدل را با استفاده از متد [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) مشاهده کنید.
+
+```python
+best_run.get_properties()
+```
+
+حالا مدل را با استفاده از متد [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) ثبت کنید.
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 استقرار مدل
+
+پس از ذخیره بهترین مدل، میتوانیم آن را با کلاس [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109) مستقر کنیم. InferenceConfig نمایانگر تنظیمات پیکربندی برای محیط سفارشی استفادهشده برای استقرار است. کلاس [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) نمایانگر یک مدل یادگیری ماشین مستقرشده به عنوان نقطه پایانی سرویس وب در Azure Container Instances است. یک سرویس مستقرشده از یک مدل، اسکریپت و فایلهای مرتبط ایجاد میشود. سرویس وب حاصل یک نقطه پایانی HTTP متعادلشده با REST API است. شما میتوانید دادهها را به این API ارسال کنید و پیشبینی بازگشتی توسط مدل را دریافت کنید.
+
+مدل با استفاده از متد [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) مستقر میشود.
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+این مرحله باید چند دقیقه طول بکشد.
+
+### 3.3 مصرف نقطه پایانی
+
+شما نقطه پایانی خود را با ایجاد یک ورودی نمونه مصرف میکنید:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+و سپس میتوانید این ورودی را به مدل خود برای پیشبینی ارسال کنید:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+این باید خروجی `'{"result": [false]}'` را تولید کند. این به این معناست که ورودی بیمار که به نقطه پایانی ارسال کردیم، پیشبینی `false` را تولید کرده است، یعنی این فرد احتمالاً دچار حمله قلبی نخواهد شد.
+
+تبریک میگوییم! شما مدل مستقر و آموزشدیده در Azure ML را با استفاده از Azure ML SDK مصرف کردید!
+
+> **_NOTE:_** پس از اتمام پروژه، فراموش نکنید که تمام منابع را حذف کنید.
+
+## 🚀 چالش
+
+کارهای زیادی وجود دارد که میتوانید از طریق SDK انجام دهید، اما متأسفانه نمیتوانیم همه آنها را در این درس بررسی کنیم. خبر خوب این است که یادگیری نحوه مرور مستندات SDK میتواند شما را در مسیر طولانی به جلو ببرد. به مستندات Azure ML SDK نگاهی بیندازید و کلاس `Pipeline` را پیدا کنید که به شما امکان ایجاد پایپلاینها را میدهد. پایپلاین مجموعهای از مراحل است که میتوانند به عنوان یک جریان کاری اجرا شوند.
+
+**راهنما:** به [مستندات SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) بروید و کلمات کلیدی مانند "Pipeline" را در نوار جستجو تایپ کنید. باید کلاس `azureml.pipeline.core.Pipeline` را در نتایج جستجو مشاهده کنید.
+
+## [آزمون پس از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## مرور و مطالعه شخصی
+
+در این درس، یاد گرفتید که چگونه یک مدل را برای پیشبینی خطر نارسایی قلبی با Azure ML SDK در فضای ابری آموزش دهید، مستقر کنید و مصرف کنید. این [مستندات](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) را برای اطلاعات بیشتر درباره Azure ML SDK بررسی کنید. سعی کنید مدل خود را با Azure ML SDK ایجاد کنید.
+
+## تکلیف
+
+[پروژه علم داده با استفاده از Azure ML SDK](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/fa/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..4181b7dd
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,23 @@
+
+# پروژه علم داده با استفاده از Azure ML SDK
+
+## دستورالعملها
+
+ما مشاهده کردیم که چگونه میتوان از پلتفرم Azure ML برای آموزش، استقرار و استفاده از یک مدل با Azure ML SDK استفاده کرد. حالا به دنبال دادههایی بگردید که بتوانید از آنها برای آموزش یک مدل دیگر، استقرار و استفاده از آن بهره ببرید. میتوانید مجموعه دادهها را در [Kaggle](https://kaggle.com) و [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) پیدا کنید.
+
+## معیار ارزیابی
+
+| عالی | قابل قبول | نیاز به بهبود |
+|------|-----------|---------------|
+|هنگام تنظیم AutoML Configuration، مستندات SDK را بررسی کردید تا ببینید چه پارامترهایی میتوانید استفاده کنید. شما یک آموزش را روی یک مجموعه داده از طریق AutoML با استفاده از Azure ML SDK اجرا کردید و توضیحات مدل را بررسی کردید. بهترین مدل را مستقر کردید و توانستید از آن از طریق Azure ML SDK استفاده کنید. | شما یک آموزش را روی یک مجموعه داده از طریق AutoML با استفاده از Azure ML SDK اجرا کردید و توضیحات مدل را بررسی کردید. بهترین مدل را مستقر کردید و توانستید از آن از طریق Azure ML SDK استفاده کنید. | شما یک آموزش را روی یک مجموعه داده از طریق AutoML با استفاده از Azure ML SDK اجرا کردید. بهترین مدل را مستقر کردید و توانستید از آن از طریق Azure ML SDK استفاده کنید. |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/5-Data-Science-In-Cloud/README.md b/translations/fa/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..e1ca5d5f
--- /dev/null
+++ b/translations/fa/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,33 @@
+
+# علم داده در فضای ابری
+
+
+
+> عکس از [Jelleke Vanooteghem](https://unsplash.com/@ilumire) در [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+وقتی صحبت از انجام علم داده با دادههای بزرگ میشود، فضای ابری میتواند یک تغییر اساسی ایجاد کند. در سه درس بعدی، بررسی خواهیم کرد که فضای ابری چیست و چرا میتواند بسیار مفید باشد. همچنین یک مجموعه داده مربوط به نارسایی قلبی را بررسی کرده و مدلی برای ارزیابی احتمال نارسایی قلبی در افراد ایجاد خواهیم کرد. از قدرت فضای ابری برای آموزش، استقرار و استفاده از مدل به دو روش مختلف استفاده خواهیم کرد. یک روش با استفاده از رابط کاربری به صورت "کد کم/بدون کد"، و روش دیگر با استفاده از کیت توسعه نرمافزار Azure Machine Learning (Azure ML SDK).
+
+
+
+### موضوعات
+
+1. [چرا از فضای ابری برای علم داده استفاده کنیم؟](17-Introduction/README.md)
+2. [علم داده در فضای ابری: روش "کد کم/بدون کد"](18-Low-Code/README.md)
+3. [علم داده در فضای ابری: روش "Azure ML SDK"](19-Azure/README.md)
+
+### اعتبارها
+این درسها با ☁️ و 💕 توسط [Maud Levy](https://twitter.com/maudstweets) و [Tiffany Souterre](https://twitter.com/TiffanySouterre) نوشته شدهاند.
+
+دادههای پروژه پیشبینی نارسایی قلبی از [
+Larxel](https://www.kaggle.com/andrewmvd) در [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) گرفته شده است. این دادهها تحت مجوز [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/) منتشر شدهاند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/fa/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..100f435b
--- /dev/null
+++ b/translations/fa/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,153 @@
+
+# علم داده در دنیای واقعی
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| علم داده در دنیای واقعی - _اسکیچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+ما تقریباً به پایان این مسیر یادگیری رسیدهایم!
+
+ما با تعریفهای علم داده و اخلاقیات شروع کردیم، ابزارها و تکنیکهای مختلف برای تحلیل و مصورسازی دادهها را بررسی کردیم، چرخه عمر علم داده را مرور کردیم و به مقیاسپذیری و خودکارسازی جریانهای کاری علم داده با استفاده از خدمات رایانش ابری پرداختیم. بنابراین احتمالاً از خود میپرسید: _"چطور میتوانم تمام این آموختهها را به زمینههای دنیای واقعی مرتبط کنم؟"_
+
+در این درس، به کاربردهای دنیای واقعی علم داده در صنایع مختلف میپردازیم و مثالهای خاصی در زمینههای تحقیقاتی، علوم انسانی دیجیتال و پایداری بررسی میکنیم. همچنین فرصتهای پروژههای دانشجویی را بررسی کرده و با منابع مفیدی برای ادامه مسیر یادگیری شما به پایان میرسیم.
+
+## آزمون پیش از درس
+
+[آزمون پیش از درس](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## علم داده + صنعت
+
+به لطف دموکراتیزه شدن هوش مصنوعی، توسعهدهندگان اکنون راحتتر میتوانند تصمیمگیریهای مبتنی بر هوش مصنوعی و بینشهای مبتنی بر داده را در تجربههای کاربری و جریانهای کاری توسعه ادغام کنند. در اینجا چند مثال از چگونگی "کاربرد" علم داده در دنیای واقعی در صنایع مختلف آورده شده است:
+
+- [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) از علم داده برای ارتباط دادن اصطلاحات جستجو با روندهای آنفولانزا استفاده کرد. اگرچه این روش نقصهایی داشت، اما آگاهی از امکانات (و چالشهای) پیشبینیهای بهداشتی مبتنی بر داده را افزایش داد.
+
+- [پیشبینی مسیرهای UPS](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - توضیح میدهد که چگونه UPS از علم داده و یادگیری ماشین برای پیشبینی مسیرهای بهینه تحویل استفاده میکند، با در نظر گرفتن شرایط آب و هوایی، الگوهای ترافیکی، مهلتهای تحویل و موارد دیگر.
+
+- [مصورسازی مسیرهای تاکسیهای نیویورک](http://chriswhong.github.io/nyctaxi/) - دادههای جمعآوریشده با استفاده از [قوانین آزادی اطلاعات](https://chriswhong.com/open-data/foil_nyc_taxi/) به ما کمک کرد تا یک روز از زندگی تاکسیهای نیویورک را مصور کنیم و بفهمیم چگونه در شهر شلوغ حرکت میکنند، چقدر درآمد دارند و مدت زمان سفرهایشان در هر دوره ۲۴ ساعته چقدر است.
+
+- [محیط کار علم داده اوبر](https://eng.uber.com/dsw/) - از دادههای جمعآوریشده از میلیونها سفر اوبر *روزانه* (مانند مکانهای سوار و پیاده شدن، مدت زمان سفر، مسیرهای ترجیحی و غیره) برای ساخت یک ابزار تحلیل داده استفاده میکند که به تصمیمگیری در مورد قیمتگذاری، ایمنی، تشخیص تقلب و مسیریابی کمک میکند.
+
+- [تحلیلهای ورزشی](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - بر تحلیلهای پیشبینیکننده (تحلیل تیم و بازیکن - مانند [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - و مدیریت هواداران) و مصورسازی دادهها (داشبوردهای تیم و هواداران، بازیها و غیره) تمرکز دارد، با کاربردهایی مانند استعدادیابی، شرطبندی ورزشی و مدیریت موجودی/مکان.
+
+- [علم داده در بانکداری](https://data-flair.training/blogs/data-science-in-banking/) - ارزش علم داده در صنعت مالی را با کاربردهایی از مدلسازی ریسک و تشخیص تقلب گرفته تا تقسیمبندی مشتریان، پیشبینیهای بلادرنگ و سیستمهای توصیهگر برجسته میکند. تحلیلهای پیشبینیکننده همچنین اقدامات حیاتی مانند [امتیازات اعتباری](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit) را هدایت میکنند.
+
+- [علم داده در مراقبتهای بهداشتی](https://data-flair.training/blogs/data-science-in-healthcare/) - کاربردهایی مانند تصویربرداری پزشکی (مانند MRI، اشعه ایکس، سیتیاسکن)، ژنومیک (توالییابی DNA)، توسعه دارو (ارزیابی ریسک، پیشبینی موفقیت)، تحلیلهای پیشبینیکننده (مراقبت از بیمار و لجستیک تأمین)، ردیابی و پیشگیری از بیماری و غیره را برجسته میکند.
+
+ اعتبار تصویر: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+این تصویر حوزهها و مثالهای دیگری برای کاربرد تکنیکهای علم داده را نشان میدهد. میخواهید کاربردهای دیگری را کشف کنید؟ به بخش [مرور و مطالعه خودآموز](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) زیر مراجعه کنید.
+
+## علم داده + تحقیق
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| علم داده و تحقیق - _اسکیچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+در حالی که کاربردهای دنیای واقعی اغلب بر موارد استفاده صنعتی در مقیاس بزرگ تمرکز دارند، کاربردها و پروژههای _تحقیقاتی_ میتوانند از دو منظر مفید باشند:
+
+- _فرصتهای نوآوری_ - بررسی نمونهسازی سریع مفاهیم پیشرفته و آزمایش تجربههای کاربری برای برنامههای نسل بعدی.
+- _چالشهای پیادهسازی_ - بررسی آسیبهای احتمالی یا پیامدهای ناخواسته فناوریهای علم داده در زمینههای دنیای واقعی.
+
+برای دانشجویان، این پروژههای تحقیقاتی میتوانند فرصتهای یادگیری و همکاری فراهم کنند که درک شما از موضوع را بهبود بخشیده و آگاهی و تعامل شما با افراد یا تیمهای مرتبط در حوزههای مورد علاقه را گسترش دهند. بنابراین پروژههای تحقیقاتی چگونه به نظر میرسند و چگونه میتوانند تأثیرگذار باشند؟
+
+بیایید یک مثال را بررسی کنیم - [مطالعه Gender Shades MIT](http://gendershades.org/overview.html) از جوی بوالاموینی (آزمایشگاههای رسانهای MIT) با یک [مقاله تحقیقاتی برجسته](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) که با تیمنیت گبرو (در آن زمان در مایکروسافت ریسرچ) همنویسنده شده بود و بر موارد زیر تمرکز داشت:
+
+- **چه چیزی:** هدف پروژه تحقیقاتی _ارزیابی تعصب موجود در الگوریتمها و مجموعه دادههای تحلیل خودکار چهره_ بر اساس جنسیت و نوع پوست بود.
+- **چرا:** تحلیل چهره در زمینههایی مانند اجرای قانون، امنیت فرودگاه، سیستمهای استخدام و موارد دیگر استفاده میشود - زمینههایی که طبقهبندیهای نادرست (مثلاً به دلیل تعصب) میتوانند آسیبهای اقتصادی و اجتماعی بالقوهای به افراد یا گروههای تحت تأثیر وارد کنند. درک (و حذف یا کاهش) تعصبها برای عدالت در استفاده کلیدی است.
+- **چگونه:** محققان دریافتند که معیارهای موجود عمدتاً از افراد با پوست روشنتر استفاده میکنند و یک مجموعه داده جدید (بیش از ۱۰۰۰ تصویر) ایجاد کردند که از نظر جنسیت و نوع پوست _متعادلتر_ بود. این مجموعه داده برای ارزیابی دقت سه محصول طبقهبندی جنسیت (از مایکروسافت، IBM و Face++) استفاده شد.
+
+نتایج نشان داد که اگرچه دقت کلی طبقهبندی خوب بود، اما تفاوت قابل توجهی در نرخ خطا بین زیرگروههای مختلف وجود داشت - با **اشتباه در تشخیص جنسیت** که برای زنان یا افراد با پوست تیرهتر بیشتر بود، که نشاندهنده تعصب است.
+
+**نتایج کلیدی:** این تحقیق آگاهی را افزایش داد که علم داده به مجموعه دادههای _نمایندهتر_ (زیرگروههای متعادل) و تیمهای _فراگیرتر_ (پیشینههای متنوع) نیاز دارد تا این تعصبها را زودتر در راهحلهای هوش مصنوعی شناسایی و حذف یا کاهش دهد. تلاشهای تحقیقاتی مانند این همچنین در تعریف اصول و شیوههای _هوش مصنوعی مسئولانه_ در بسیاری از سازمانها برای بهبود عدالت در محصولات و فرآیندهای هوش مصنوعی آنها نقش اساسی دارند.
+
+**میخواهید درباره تلاشهای تحقیقاتی مرتبط در مایکروسافت بیشتر بدانید؟**
+
+- پروژههای [تحقیقات مایکروسافت](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) در زمینه هوش مصنوعی را بررسی کنید.
+- پروژههای دانشجویی [مدرسه تابستانی علم داده مایکروسافت ریسرچ](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/) را کاوش کنید.
+- پروژه [Fairlearn](https://fairlearn.org/) و ابتکارات [هوش مصنوعی مسئولانه](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) را بررسی کنید.
+
+## علم داده + علوم انسانی
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| علم داده و علوم انسانی دیجیتال - _اسکیچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+علوم انسانی دیجیتال [به این صورت تعریف شده است](https://digitalhumanities.stanford.edu/about-dh-stanford): "مجموعهای از شیوهها و رویکردها که روشهای محاسباتی را با پژوهشهای انسانی ترکیب میکند". پروژههای [استنفورد](https://digitalhumanities.stanford.edu/projects) مانند _"بازنگری تاریخ"_ و _"تفکر شاعرانه"_ پیوند بین [علوم انسانی دیجیتال و علم داده](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) را نشان میدهند - با تأکید بر تکنیکهایی مانند تحلیل شبکه، مصورسازی اطلاعات، تحلیل فضایی و متنی که میتوانند به ما کمک کنند مجموعه دادههای تاریخی و ادبی را بازنگری کرده و بینشها و دیدگاههای جدیدی به دست آوریم.
+
+*میخواهید پروژهای در این حوزه را کاوش و گسترش دهید؟*
+
+پروژه ["امیلی دیکینسون و وزن احساس"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) را بررسی کنید - مثالی عالی از [جن لوپر](https://twitter.com/jenlooper) که میپرسد چگونه میتوانیم از علم داده برای بازنگری در اشعار آشنا و ارزیابی مجدد معنای آنها و مشارکتهای نویسنده در زمینههای جدید استفاده کنیم. برای مثال، _آیا میتوانیم با تحلیل لحن یا احساسات یک شعر، فصل نگارش آن را پیشبینی کنیم_ - و این موضوع چه چیزی درباره حالت ذهنی نویسنده در دوره مربوطه به ما میگوید؟
+
+برای پاسخ به این سؤال، مراحل چرخه عمر علم داده را دنبال میکنیم:
+- [`جمعآوری داده`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - برای جمعآوری یک مجموعه داده مرتبط برای تحلیل. گزینهها شامل استفاده از یک API (مانند [Poetry DB API](https://poetrydb.org/index.html)) یا خزش صفحات وب (مانند [پروژه گوتنبرگ](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) با استفاده از ابزارهایی مانند [Scrapy](https://scrapy.org/) است.
+- [`پاکسازی داده`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - توضیح میدهد که چگونه متن میتواند با استفاده از ابزارهای سادهای مانند Visual Studio Code و Microsoft Excel قالببندی، بهینهسازی و ساده شود.
+- [`تحلیل داده`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - توضیح میدهد که چگونه میتوانیم اکنون مجموعه داده را برای تحلیل با استفاده از بستههای پایتون (مانند pandas، numpy و matplotlib) وارد "دفترچهها" کنیم تا دادهها را سازماندهی و مصور کنیم.
+- [`تحلیل احساسات`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - توضیح میدهد که چگونه میتوانیم خدمات ابری مانند Text Analytics را با استفاده از ابزارهای کمکد مانند [Power Automate](https://flow.microsoft.com/en-us/) برای جریانهای کاری پردازش داده خودکار ادغام کنیم.
+
+با استفاده از این جریان کاری، میتوانیم تأثیرات فصلی بر احساسات اشعار را بررسی کنیم و به ما کمک کنیم دیدگاههای خود را درباره نویسنده شکل دهیم. خودتان امتحان کنید - سپس دفترچه را گسترش دهید تا سؤالات دیگری بپرسید یا دادهها را به روشهای جدید مصور کنید!
+
+> میتوانید از برخی ابزارهای موجود در [جعبهابزار علوم انسانی دیجیتال](https://github.com/Digital-Humanities-Toolkit) برای پیگیری این مسیرهای تحقیقاتی استفاده کنید.
+
+## علم داده + پایداری
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| علم داده و پایداری - _اسکیچنوت توسط [@nitya](https://twitter.com/nitya)_ |
+
+[دستور کار ۲۰۳۰ برای توسعه پایدار](https://sdgs.un.org/2030agenda) - که در سال ۲۰۱۵ توسط تمام اعضای سازمان ملل متحد تصویب شد - ۱۷ هدف را شناسایی میکند که شامل اهدافی برای **حفاظت از سیاره** در برابر تخریب و تأثیر تغییرات اقلیمی است. ابتکار [پایداری مایکروسافت](https://www.microsoft.com/en-us/sustainability) از این اهداف حمایت میکند و راههایی را بررسی میکند که راهحلهای فناوری میتوانند آیندههای پایدارتر را پشتیبانی و ایجاد کنند، با [تمرکز بر ۴ هدف](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - کربن منفی، آب مثبت، بدون زباله و تنوع زیستی تا سال ۲۰۳۰.
+
+مقابله با این چالشها به صورت مقیاسپذیر و بهموقع نیازمند تفکر در مقیاس ابری و دادههای بزرگ است. ابتکار [کامپیوتر سیارهای](https://planetarycomputer.microsoft.com/) ۴ مؤلفه را برای کمک به دانشمندان داده و توسعهدهندگان در این تلاش ارائه میدهد:
+
+- [کاتالوگ داده](https://planetarycomputer.microsoft.com/catalog) - با پتابایتهایی از دادههای سیستمهای زمین (رایگان و میزبانیشده در Azure).
+- [API سیارهای](https://planetarycomputer.microsoft.com/docs/reference/stac/) - برای کمک به کاربران در جستجوی دادههای مرتبط در فضا و زمان.
+- [هاب](https://planetarycomputer.microsoft.com/docs/overview/environment/) - محیط مدیریتشده برای دانشمندان برای پردازش مجموعه دادههای عظیم جغرافیایی.
+- [برنامهها](https://planetarycomputer.microsoft.com/applications) - نمایش موارد استفاده و ابزارهایی برای بینشهای پایداری.
+**پروژه کامپیوتر سیارهای در حال حاضر در مرحله پیشنمایش است (از سپتامبر 2021)** - در اینجا نحوه شروع مشارکت در راهحلهای پایداری با استفاده از علم داده آورده شده است.
+
+* [درخواست دسترسی](https://planetarycomputer.microsoft.com/account/request) برای شروع کاوش و ارتباط با همتایان.
+* [کاوش مستندات](https://planetarycomputer.microsoft.com/docs/overview/about) برای درک مجموعه دادهها و APIهای پشتیبانیشده.
+* برنامههایی مانند [پایش اکوسیستم](https://analytics-lab.org/ecosystemmonitoring/) را برای الهام گرفتن از ایدههای کاربردی بررسی کنید.
+
+به این فکر کنید که چگونه میتوانید از تجسم دادهها برای آشکار کردن یا تقویت بینشهای مرتبط در زمینههایی مانند تغییرات اقلیمی و جنگلزدایی استفاده کنید. یا به این فکر کنید که چگونه میتوان از این بینشها برای ایجاد تجربیات کاربری جدید استفاده کرد که تغییرات رفتاری را برای زندگی پایدارتر انگیزه میبخشد.
+
+## علم داده + دانشجویان
+
+ما درباره کاربردهای دنیای واقعی در صنعت و پژوهش صحبت کردهایم و نمونههایی از کاربردهای علم داده در علوم انسانی دیجیتال و پایداری را بررسی کردهایم. حالا چگونه میتوانید مهارتهای خود را بسازید و تخصص خود را به عنوان مبتدیان علم داده به اشتراک بگذارید؟
+
+در اینجا چند نمونه از پروژههای دانشجویی علم داده برای الهام گرفتن آورده شده است.
+
+* [مدرسه تابستانی علم داده MSR](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) با [پروژههای](https://github.com/msr-ds3) گیتهاب که موضوعاتی مانند موارد زیر را بررسی میکنند:
+ - [تعصب نژادی در استفاده پلیس از زور](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [گیتهاب](https://github.com/msr-ds3/stop-question-frisk)
+ - [قابلیت اطمینان سیستم متروی نیویورک](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [گیتهاب](https://github.com/msr-ds3/nyctransit)
+* [دیجیتالی کردن فرهنگ مادی: بررسی توزیعهای اجتماعی-اقتصادی در سیرکاپ](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - از [اورنلا آلتونیان](https://twitter.com/ornelladotcom) و تیمش در کلرمونت، با استفاده از [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 چالش
+
+به دنبال مقالاتی بگردید که پروژههای علم داده مناسب برای مبتدیان را توصیه میکنند - مانند [این 50 حوزه موضوعی](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) یا [این 21 ایده پروژه](https://www.intellspot.com/data-science-project-ideas) یا [این 16 پروژه با کد منبع](https://data-flair.training/blogs/data-science-project-ideas/) که میتوانید آنها را تجزیه و تحلیل و بازسازی کنید. و فراموش نکنید که درباره سفرهای یادگیری خود وبلاگ بنویسید و بینشهای خود را با همه ما به اشتراک بگذارید.
+
+## آزمون پس از سخنرانی
+
+[آزمون پس از سخنرانی](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## مرور و مطالعه شخصی
+
+میخواهید موارد استفاده بیشتری را بررسی کنید؟ در اینجا چند مقاله مرتبط آورده شده است:
+* [17 کاربرد و مثال علم داده](https://builtin.com/data-science/data-science-applications-examples) - جولای 2021
+* [11 کاربرد شگفتانگیز علم داده در دنیای واقعی](https://myblindbird.com/data-science-applications-real-world/) - مه 2021
+* [علم داده در دنیای واقعی](https://towardsdatascience.com/data-science-in-the-real-world/home) - مجموعه مقالات
+* علم داده در: [آموزش](https://data-flair.training/blogs/data-science-in-education/)، [کشاورزی](https://data-flair.training/blogs/data-science-in-agriculture/)، [مالی](https://data-flair.training/blogs/data-science-in-finance/)، [فیلمها](https://data-flair.training/blogs/data-science-at-movies/) و موارد دیگر.
+
+## تکلیف
+
+[یک مجموعه داده از کامپیوتر سیارهای را بررسی کنید](assignment.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/fa/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..74103fc7
--- /dev/null
+++ b/translations/fa/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,48 @@
+
+# بررسی یک مجموعه داده از کامپیوتر سیارهای
+
+## دستورالعملها
+
+در این درس، درباره حوزههای مختلف کاربرد علم داده صحبت کردیم - با بررسی عمیق مثالهایی مرتبط با تحقیق، پایداری و علوم انسانی دیجیتال. در این تکلیف، شما یکی از این مثالها را با جزئیات بیشتری بررسی خواهید کرد و برخی از آموختههای خود در زمینه مصورسازی دادهها و تحلیل را به کار خواهید گرفت تا بینشهایی درباره دادههای مرتبط با پایداری به دست آورید.
+
+پروژه [کامپیوتر سیارهای](https://planetarycomputer.microsoft.com/) دارای مجموعه دادهها و APIهایی است که با داشتن حساب کاربری قابل دسترسی هستند - اگر میخواهید مرحله اضافی این تکلیف را امتحان کنید، درخواست دسترسی دهید. این سایت همچنین ویژگی [Explorer](https://planetarycomputer.microsoft.com/explore) را ارائه میدهد که میتوانید بدون ایجاد حساب کاربری از آن استفاده کنید.
+
+`مراحل:`
+رابط Explorer (که در تصویر زیر نشان داده شده است) به شما امکان میدهد یک مجموعه داده (از گزینههای ارائهشده)، یک پرسش از پیش تنظیمشده (برای فیلتر کردن دادهها) و یک گزینه رندر (برای ایجاد مصورسازی مرتبط) انتخاب کنید. در این تکلیف، وظیفه شما این است که:
+
+ 1. [مستندات Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) را بخوانید - گزینهها را درک کنید.
+ 2. مجموعه دادههای [Catalog](https://planetarycomputer.microsoft.com/catalog) را بررسی کنید - هدف هر کدام را یاد بگیرید.
+ 3. از Explorer استفاده کنید - یک مجموعه داده مورد علاقه انتخاب کنید، یک پرسش مرتبط و گزینه رندر مناسب انتخاب کنید.
+
+
+
+`وظیفه شما:`
+اکنون مصورسازیای که در مرورگر رندر شده است را بررسی کنید و به سوالات زیر پاسخ دهید:
+ * چه _ویژگیهایی_ در مجموعه داده وجود دارد؟
+ * چه _بینشها_ یا نتایجی از مصورسازی ارائه شده است؟
+ * _پیامدهای_ این بینشها برای اهداف پایداری پروژه چیست؟
+ * _محدودیتهای_ مصورسازی چیست (یعنی چه بینشی دریافت نکردید؟)
+ * اگر بتوانید به دادههای خام دسترسی پیدا کنید، چه _مصورسازیهای جایگزینی_ ایجاد میکنید و چرا؟
+
+`امتیاز اضافی:`
+برای یک حساب کاربری درخواست دهید - و پس از پذیرش وارد شوید.
+ * از گزینه _Launch Hub_ استفاده کنید تا دادههای خام را در یک Notebook باز کنید.
+ * دادهها را به صورت تعاملی بررسی کنید و مصورسازیهای جایگزینی که به آن فکر کردهاید را اجرا کنید.
+ * اکنون مصورسازیهای سفارشی خود را تحلیل کنید - آیا توانستید بینشهایی که قبلاً از دست داده بودید را به دست آورید؟
+
+## معیار ارزیابی
+
+عالی | قابل قبول | نیاز به بهبود
+--- | --- | -- |
+پاسخ به هر پنج سوال اصلی داده شده است. دانشجو به وضوح نشان داده است که چگونه مصورسازیهای فعلی و جایگزین میتوانند بینشهایی درباره اهداف یا نتایج پایداری ارائه دهند.| دانشجو حداقل به سه سوال اصلی با جزئیات زیاد پاسخ داده است، نشاندهنده تجربه عملی با Explorer است.| دانشجو به چندین سوال پاسخ نداده یا جزئیات کافی ارائه نکرده است - نشاندهنده تلاش ناکافی برای انجام پروژه |
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/6-Data-Science-In-Wild/README.md b/translations/fa/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..d9ea6824
--- /dev/null
+++ b/translations/fa/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,23 @@
+
+# علم داده در دنیای واقعی
+
+کاربردهای عملی علم داده در صنایع مختلف.
+
+### موضوعات
+
+1. [علم داده در دنیای واقعی](20-Real-World-Examples/README.md)
+
+### اعتبارها
+
+نوشته شده با ❤️ توسط [نیتیا ناراسیمهان](https://twitter.com/nitya)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/CODE_OF_CONDUCT.md b/translations/fa/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..f242d6cf
--- /dev/null
+++ b/translations/fa/CODE_OF_CONDUCT.md
@@ -0,0 +1,21 @@
+
+# منشور رفتار کد متنباز مایکروسافت
+
+این پروژه منشور رفتار کد متنباز مایکروسافت را پذیرفته است. [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/)
+
+منابع:
+
+- [منشور رفتار کد متنباز مایکروسافت](https://opensource.microsoft.com/codeofconduct/)
+- [پرسشهای متداول درباره منشور رفتار مایکروسافت](https://opensource.microsoft.com/codeofconduct/faq/)
+- برای سوالات یا نگرانیها با [opencode@microsoft.com](mailto:opencode@microsoft.com) تماس بگیرید
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/CONTRIBUTING.md b/translations/fa/CONTRIBUTING.md
new file mode 100644
index 00000000..29fb7e16
--- /dev/null
+++ b/translations/fa/CONTRIBUTING.md
@@ -0,0 +1,20 @@
+
+# مشارکت
+
+این پروژه از مشارکتها و پیشنهادات استقبال میکند. بیشتر مشارکتها نیاز دارند که شما با یک توافقنامه مجوز مشارکتکننده (CLA) موافقت کنید که اعلام میکند شما حق این را دارید و واقعاً این حق را به ما میدهید که از مشارکت شما استفاده کنیم. برای جزئیات بیشتر، به https://cla.microsoft.com مراجعه کنید.
+
+وقتی یک درخواست pull ارسال میکنید، یک ربات CLA به طور خودکار تعیین میکند که آیا نیاز است یک CLA ارائه دهید و درخواست شما را به طور مناسب تزئین میکند (مثلاً با برچسب یا نظر). فقط کافی است دستورالعملهایی که ربات ارائه میدهد را دنبال کنید. شما فقط یک بار نیاز دارید این کار را برای تمام مخازن استفادهکننده از CLA ما انجام دهید.
+
+این پروژه [قوانین رفتاری متنباز مایکروسافت](https://opensource.microsoft.com/codeofconduct/) را پذیرفته است.
+برای اطلاعات بیشتر، به [پرسشهای متداول قوانین رفتاری](https://opensource.microsoft.com/codeofconduct/faq/) مراجعه کنید یا با [opencode@microsoft.com](mailto:opencode@microsoft.com) تماس بگیرید اگر سوالات یا نظرات بیشتری دارید.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادقتیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/README.md b/translations/fa/README.md
new file mode 100644
index 00000000..2671e52d
--- /dev/null
+++ b/translations/fa/README.md
@@ -0,0 +1,162 @@
+
+# علوم داده برای مبتدیان - یک برنامه آموزشی
+
+Azure Cloud Advocates در مایکروسافت با افتخار یک برنامه آموزشی ۱۰ هفتهای و ۲۰ درس درباره علوم داده ارائه میدهند. هر درس شامل آزمونهای پیش از درس و پس از درس، دستورالعملهای نوشتاری برای تکمیل درس، راهحل و تکلیف است. روش آموزشی مبتنی بر پروژه ما به شما امکان میدهد در حین ساختن یاد بگیرید، روشی اثباتشده برای تثبیت مهارتهای جدید.
+
+**تشکر ویژه از نویسندگان ما:** [جاسمین گریناوی](https://www.twitter.com/paladique)، [دمیتری سوشنیکوف](http://soshnikov.com)، [نیتیا ناراسیمهان](https://twitter.com/nitya)، [جالن مکگی](https://twitter.com/JalenMcG)، [جن لوپر](https://twitter.com/jenlooper)، [مود لوی](https://twitter.com/maudstweets)، [تیفانی سوتر](https://twitter.com/TiffanySouterre)، [کریستوفر هریسون](https://www.twitter.com/geektrainer).
+
+**🙏 تشکر ویژه 🙏 از [سفیران دانشجویی مایکروسافت](https://studentambassadors.microsoft.com/) نویسندگان، بازبینان و مشارکتکنندگان محتوا،** بهویژه آریان آرورا، [آدیتیا گارگ](https://github.com/AdityaGarg00)، [آلوندرا سانچز](https://www.linkedin.com/in/alondra-sanchez-molina/)، [آنکیتا سینگ](https://www.linkedin.com/in/ankitasingh007)، [انوپام میشرا](https://www.linkedin.com/in/anupam--mishra/)، [آرپیتا داس](https://www.linkedin.com/in/arpitadas01/)، چهلبیهاری دوبی، [دیبری نسوفور](https://www.linkedin.com/in/dibrinsofor)، [دیشیتا باسین](https://www.linkedin.com/in/dishita-bhasin-7065281bb)، [مجید صافی](https://www.linkedin.com/in/majd-s/)، [مکس بلوم](https://www.linkedin.com/in/max-blum-6036a1186/)، [میگل کوریا](https://www.linkedin.com/in/miguelmque/)، [محمد افتخار (ایفتو) ابن جلال](https://twitter.com/iftu119)، [ناورین تبسم](https://www.linkedin.com/in/nawrin-tabassum)، [ریموند وانگسا پوترا](https://www.linkedin.com/in/raymond-wp/)، [روهیت یاداو](https://www.linkedin.com/in/rty2423)، سامریدی شارما، [سانیا سینها](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200)، [شینا نارولا](https://www.linkedin.com/in/sheena-narua-n/)، [توقیر احمد](https://www.linkedin.com/in/tauqeerahmad5201/)، یوگندرا سینگ پاوار، [ویدوشی گوپتا](https://www.linkedin.com/in/vidushi-gupta07/)، [جسلین سوندی](https://www.linkedin.com/in/jasleen-sondhi/)
+
+|](./sketchnotes/00-Title.png)|
+|:---:|
+| علوم داده برای مبتدیان - _اسکچنوت توسط [@نیتیا](https://twitter.com/nitya)_ |
+
+## اطلاعیه - برنامه آموزشی جدید درباره هوش مصنوعی مولد منتشر شد!
+
+ما بهتازگی یک برنامه آموزشی ۱۲ درس درباره هوش مصنوعی مولد منتشر کردهایم. بیایید چیزهایی مانند:
+
+- مهندسی درخواستها
+- تولید متن و تصویر
+- برنامههای جستجو
+
+را یاد بگیرید. همانند همیشه، هر درس شامل تکالیف، بررسی دانش و چالشها است.
+
+مشاهده کنید:
+
+> https://aka.ms/genai-beginners
+
+# آیا شما دانشجو هستید؟
+
+با منابع زیر شروع کنید:
+
+- [صفحه مرکز دانشجویی](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) در این صفحه، منابع مبتدی، بستههای دانشجویی و حتی راههایی برای دریافت یک کوپن گواهی رایگان را خواهید یافت. این صفحهای است که باید نشانکگذاری کنید و هر از گاهی بررسی کنید، زیرا ما حداقل ماهانه محتوا را تغییر میدهیم.
+- [سفیران دانشجویی مایکروسافت](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) به یک جامعه جهانی از سفیران دانشجویی بپیوندید، این میتواند راه شما به مایکروسافت باشد.
+
+# شروع به کار
+
+> **معلمان**: ما [برخی پیشنهادات](for-teachers.md) درباره نحوه استفاده از این برنامه آموزشی را درج کردهایم. ما مشتاقانه منتظر بازخورد شما [در انجمن بحث ما](https://github.com/microsoft/Data-Science-For-Beginners/discussions) هستیم!
+
+> **[دانشجویان](https://aka.ms/student-page)**: برای استفاده از این برنامه آموزشی بهصورت مستقل، کل مخزن را فورک کنید و تمرینها را بهصورت مستقل انجام دهید، با آزمون پیش از درس شروع کنید. سپس درس را بخوانید و بقیه فعالیتها را تکمیل کنید. سعی کنید پروژهها را با درک درسها ایجاد کنید، نه با کپی کردن کد راهحل؛ با این حال، آن کد در پوشههای /solutions در هر درس مبتنی بر پروژه موجود است. ایده دیگر این است که یک گروه مطالعه با دوستان تشکیل دهید و محتوا را با هم مرور کنید. برای مطالعه بیشتر، ما [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum) را توصیه میکنیم.
+
+## آشنایی با تیم
+
+[](https://youtu.be/8mzavjQSMM4 "ویدئوی تبلیغاتی")
+
+**گیف توسط** [موهیت جایسال](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 روی تصویر بالا کلیک کنید تا ویدئویی درباره پروژه و افرادی که آن را ایجاد کردهاند مشاهده کنید!
+
+## روش آموزشی
+
+ما دو اصل آموزشی را هنگام ساخت این برنامه آموزشی انتخاب کردهایم: اطمینان از اینکه مبتنی بر پروژه است و شامل آزمونهای مکرر میشود. تا پایان این سری، دانشجویان اصول اولیه علوم داده را یاد خواهند گرفت، از جمله مفاهیم اخلاقی، آمادهسازی دادهها، روشهای مختلف کار با دادهها، مصورسازی دادهها، تحلیل دادهها، موارد استفاده واقعی از علوم داده و موارد دیگر.
+
+علاوه بر این، یک آزمون کمفشار قبل از کلاس، قصد دانشجو را برای یادگیری یک موضوع تعیین میکند، در حالی که یک آزمون دوم پس از کلاس، حفظ بیشتر را تضمین میکند. این برنامه آموزشی بهگونهای طراحی شده است که انعطافپذیر و سرگرمکننده باشد و میتوان آن را بهصورت کامل یا جزئی گذراند. پروژهها کوچک شروع میشوند و تا پایان چرخه ۱۰ هفتهای بهتدریج پیچیدهتر میشوند.
+
+> [قوانین رفتاری](CODE_OF_CONDUCT.md)، [مشارکت](CONTRIBUTING.md)، [راهنمای ترجمه](TRANSLATIONS.md) ما را پیدا کنید. ما از بازخورد سازنده شما استقبال میکنیم!
+
+## هر درس شامل موارد زیر است:
+
+- اسکچنوت اختیاری
+- ویدئوی تکمیلی اختیاری
+- آزمون گرمآپ پیش از درس
+- درس نوشتاری
+- برای درسهای مبتنی بر پروژه، راهنمای گامبهگام برای ساخت پروژه
+- بررسی دانش
+- یک چالش
+- مطالعه تکمیلی
+- تکلیف
+- آزمون پس از درس
+
+> **نکتهای درباره آزمونها**: تمام آزمونها در پوشه Quiz-App قرار دارند، برای مجموع ۴۰ آزمون هر کدام شامل سه سؤال. آنها از داخل درسها لینک شدهاند، اما اپلیکیشن آزمون میتواند بهصورت محلی اجرا شود یا در Azure مستقر شود؛ دستورالعملها را در پوشه `quiz-app` دنبال کنید. آنها بهتدریج در حال بومیسازی هستند.
+
+## درسها
+
+|](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| علوم داده برای مبتدیان: نقشه راه - _اسکچنوت توسط [@نیتیا](https://twitter.com/nitya)_ |
+
+| شماره درس | موضوع | گروهبندی درس | اهداف یادگیری | درس مرتبط | نویسنده |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | تعریف علوم داده | [مقدمه](1-Introduction/README.md) | یادگیری مفاهیم پایهای علوم داده و ارتباط آن با هوش مصنوعی، یادگیری ماشین و دادههای کلان. | [درس](1-Introduction/01-defining-data-science/README.md) [ویدئو](https://youtu.be/beZ7Mb_oz9I) | [دمیتری](http://soshnikov.com) |
+| 02 | اخلاق در علوم داده | [مقدمه](1-Introduction/README.md) | مفاهیم اخلاق داده، چالشها و چارچوبها. | [درس](1-Introduction/02-ethics/README.md) | [نیتیا](https://twitter.com/nitya) |
+| 03 | تعریف داده | [مقدمه](1-Introduction/README.md) | نحوه طبقهبندی دادهها و منابع رایج آنها. | [درس](1-Introduction/03-defining-data/README.md) | [جاسمین](https://www.twitter.com/paladique) |
+| 04 | مقدمهای بر آمار و احتمال | [مقدمه](1-Introduction/README.md) | تکنیکهای ریاضی احتمال و آمار برای درک دادهها. | [درس](1-Introduction/04-stats-and-probability/README.md) [ویدئو](https://youtu.be/Z5Zy85g4Yjw) | [دمیتری](http://soshnikov.com) |
+| 05 | کار با دادههای رابطهای | [کار با دادهها](2-Working-With-Data/README.md) | مقدمهای بر دادههای رابطهای و اصول کاوش و تحلیل دادههای رابطهای با زبان Structured Query Language، معروف به SQL (تلفظ "سیکوئل"). | [درس](2-Working-With-Data/05-relational-databases/README.md) | [کریستوفر](https://www.twitter.com/geektrainer) | | |
+| 06 | کار با دادههای NoSQL | [کار با دادهها](2-Working-With-Data/README.md) | مقدمهای بر دادههای غیررابطهای، انواع مختلف آن و اصول کاوش و تحلیل پایگاههای داده سندی. | [درس](2-Working-With-Data/06-non-relational/README.md) | [جاسمین](https://twitter.com/paladique)|
+| 07 | کار با پایتون | [کار با دادهها](2-Working-With-Data/README.md) | اصول استفاده از پایتون برای کاوش دادهها با کتابخانههایی مانند Pandas. درک پایهای از برنامهنویسی پایتون توصیه میشود. | [درس](2-Working-With-Data/07-python/README.md) [ویدئو](https://youtu.be/dZjWOGbsN4Y) | [دمیتری](http://soshnikov.com) |
+| 08 | آمادهسازی داده | [کار با داده](2-Working-With-Data/README.md) | موضوعاتی درباره تکنیکهای پاکسازی و تبدیل داده برای مقابله با چالشهای دادههای ناقص، نادرست یا ناکامل. | [درس](2-Working-With-Data/08-data-preparation/README.md) | [جاسمین](https://www.twitter.com/paladique) |
+| 09 | مصورسازی مقادیر | [مصورسازی داده](3-Data-Visualization/README.md) | یادگیری نحوه استفاده از Matplotlib برای مصورسازی دادههای پرندگان 🦆 | [درس](3-Data-Visualization/09-visualization-quantities/README.md) | [جن](https://twitter.com/jenlooper) |
+| 10 | مصورسازی توزیع دادهها | [مصورسازی داده](3-Data-Visualization/README.md) | مصورسازی مشاهدات و روندها در یک بازه. | [درس](3-Data-Visualization/10-visualization-distributions/README.md) | [جن](https://twitter.com/jenlooper) |
+| 11 | مصورسازی نسبتها | [مصورسازی داده](3-Data-Visualization/README.md) | مصورسازی درصدهای گسسته و گروهبندیشده. | [درس](3-Data-Visualization/11-visualization-proportions/README.md) | [جن](https://twitter.com/jenlooper) |
+| 12 | مصورسازی روابط | [مصورسازی داده](3-Data-Visualization/README.md) | مصورسازی ارتباطات و همبستگیها بین مجموعههای داده و متغیرهای آنها. | [درس](3-Data-Visualization/12-visualization-relationships/README.md) | [جن](https://twitter.com/jenlooper) |
+| 13 | مصورسازیهای معنادار | [مصورسازی داده](3-Data-Visualization/README.md) | تکنیکها و راهنماییهایی برای ارزشمند کردن مصورسازیها جهت حل مؤثر مسائل و کسب بینش. | [درس](3-Data-Visualization/13-meaningful-visualizations/README.md) | [جن](https://twitter.com/jenlooper) |
+| 14 | مقدمهای بر چرخه عمر علم داده | [چرخه عمر](4-Data-Science-Lifecycle/README.md) | مقدمهای بر چرخه عمر علم داده و اولین گام آن یعنی جمعآوری و استخراج داده. | [درس](4-Data-Science-Lifecycle/14-Introduction/README.md) | [جاسمین](https://twitter.com/paladique) |
+| 15 | تحلیل | [چرخه عمر](4-Data-Science-Lifecycle/README.md) | این مرحله از چرخه عمر علم داده بر تکنیکهای تحلیل داده تمرکز دارد. | [درس](4-Data-Science-Lifecycle/15-analyzing/README.md) | [جاسمین](https://twitter.com/paladique) | | |
+| 16 | ارتباط | [چرخه عمر](4-Data-Science-Lifecycle/README.md) | این مرحله از چرخه عمر علم داده بر ارائه بینشهای حاصل از داده به گونهای که تصمیمگیرندگان به راحتی آن را درک کنند، تمرکز دارد. | [درس](4-Data-Science-Lifecycle/16-communication/README.md) | [جیلن](https://twitter.com/JalenMcG) | | |
+| 17 | علم داده در فضای ابری | [داده ابری](5-Data-Science-In-Cloud/README.md) | این مجموعه درسها علم داده در فضای ابری و مزایای آن را معرفی میکند. | [درس](5-Data-Science-In-Cloud/17-Introduction/README.md) | [تیفانی](https://twitter.com/TiffanySouterre) و [مود](https://twitter.com/maudstweets) |
+| 18 | علم داده در فضای ابری | [داده ابری](5-Data-Science-In-Cloud/README.md) | آموزش مدلها با استفاده از ابزارهای کمکد. | [درس](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [تیفانی](https://twitter.com/TiffanySouterre) و [مود](https://twitter.com/maudstweets) |
+| 19 | علم داده در فضای ابری | [داده ابری](5-Data-Science-In-Cloud/README.md) | استقرار مدلها با استفاده از Azure Machine Learning Studio. | [درس](5-Data-Science-In-Cloud/19-Azure/README.md) | [تیفانی](https://twitter.com/TiffanySouterre) و [مود](https://twitter.com/maudstweets) |
+| 20 | علم داده در دنیای واقعی | [در دنیای واقعی](6-Data-Science-In-Wild/README.md) | پروژههای مبتنی بر علم داده در دنیای واقعی. | [درس](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [نیتیا](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+این مراحل را دنبال کنید تا این نمونه را در یک Codespace باز کنید:
+1. روی منوی کشویی Code کلیک کنید و گزینه Open with Codespaces را انتخاب کنید.
+2. در پایین پنل، گزینه + New codespace را انتخاب کنید.
+برای اطلاعات بیشتر، به [مستندات GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace) مراجعه کنید.
+
+## VSCode Remote - Containers
+
+این مراحل را دنبال کنید تا این مخزن را با استفاده از ماشین محلی خود و VSCode در یک کانتینر باز کنید، با استفاده از افزونه VS Code Remote - Containers:
+
+1. اگر این اولین بار است که از یک کانتینر توسعه استفاده میکنید، لطفاً مطمئن شوید که سیستم شما پیشنیازها (مانند نصب Docker) را دارد. [مستندات شروع به کار](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started) را بررسی کنید.
+
+برای استفاده از این مخزن، میتوانید آن را در یک حجم ایزوله Docker باز کنید:
+
+**توجه**: در پشت صحنه، این کار از دستور Remote-Containers: **Clone Repository in Container Volume...** برای کلون کردن کد منبع در یک حجم Docker به جای سیستم فایل محلی استفاده میکند. [Volumes](https://docs.docker.com/storage/volumes/) مکانیزم ترجیحی برای نگهداری دادههای کانتینر هستند.
+
+یا نسخهای که به صورت محلی کلون یا دانلود شده است را باز کنید:
+
+- این مخزن را به سیستم فایل محلی خود کلون کنید.
+- کلید F1 را فشار دهید و دستور **Remote-Containers: Open Folder in Container...** را انتخاب کنید.
+- نسخه کلونشده این پوشه را انتخاب کنید، منتظر بمانید تا کانتینر شروع شود و موارد را امتحان کنید.
+
+## دسترسی آفلاین
+
+میتوانید این مستندات را به صورت آفلاین با استفاده از [Docsify](https://docsify.js.org/#/) اجرا کنید. این مخزن را فورک کنید، [Docsify را نصب کنید](https://docsify.js.org/#/quickstart) روی ماشین محلی خود، سپس در پوشه اصلی این مخزن، دستور `docsify serve` را تایپ کنید. وبسایت روی پورت 3000 در localhost شما ارائه خواهد شد: `localhost:3000`.
+
+> توجه داشته باشید، نوتبوکها از طریق Docsify رندر نمیشوند، بنابراین زمانی که نیاز به اجرای یک نوتبوک دارید، آن را جداگانه در VS Code با اجرای یک کرنل پایتون انجام دهید.
+
+## نیاز به کمک!
+
+اگر مایل به ترجمه تمام یا بخشی از این برنامه درسی هستید، لطفاً راهنمای [ترجمهها](TRANSLATIONS.md) ما را دنبال کنید.
+
+## سایر برنامههای درسی
+
+تیم ما برنامههای درسی دیگری نیز تولید میکند! بررسی کنید:
+
+- [هوش مصنوعی مولد برای مبتدیان](https://aka.ms/genai-beginners)
+- [هوش مصنوعی مولد برای مبتدیان .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [هوش مصنوعی مولد با جاوااسکریپت](https://github.com/microsoft/generative-ai-with-javascript)
+- [هوش مصنوعی مولد با جاوا](https://aka.ms/genaijava)
+- [هوش مصنوعی برای مبتدیان](https://aka.ms/ai-beginners)
+- [علم داده برای مبتدیان](https://aka.ms/datascience-beginners)
+- [یادگیری ماشین برای مبتدیان](https://aka.ms/ml-beginners)
+- [امنیت سایبری برای مبتدیان](https://github.com/microsoft/Security-101)
+- [توسعه وب برای مبتدیان](https://aka.ms/webdev-beginners)
+- [اینترنت اشیا برای مبتدیان](https://aka.ms/iot-beginners)
+- [توسعه XR برای مبتدیان](https://github.com/microsoft/xr-development-for-beginners)
+- [تسلط بر GitHub Copilot برای برنامهنویسی جفتی](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [تسلط بر GitHub Copilot برای توسعهدهندگان C#/.NET](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [ماجراجویی خود را با Copilot انتخاب کنید](https://github.com/microsoft/CopilotAdventures)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/SECURITY.md b/translations/fa/SECURITY.md
new file mode 100644
index 00000000..fa952e25
--- /dev/null
+++ b/translations/fa/SECURITY.md
@@ -0,0 +1,49 @@
+
+## امنیت
+
+مایکروسافت امنیت محصولات و خدمات نرمافزاری خود را جدی میگیرد، که شامل تمامی مخازن کد منبع مدیریتشده از طریق سازمانهای GitHub ما میشود، از جمله [Microsoft](https://github.com/Microsoft)، [Azure](https://github.com/Azure)، [DotNet](https://github.com/dotnet)، [AspNet](https://github.com/aspnet)، [Xamarin](https://github.com/xamarin) و [سازمانهای GitHub ما](https://opensource.microsoft.com/).
+
+اگر فکر میکنید که یک آسیبپذیری امنیتی در هر مخزن متعلق به مایکروسافت پیدا کردهاید که مطابق با [تعریف مایکروسافت از آسیبپذیری امنیتی](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)) است، لطفاً آن را به ما گزارش دهید، همانطور که در زیر توضیح داده شده است.
+
+## گزارش مسائل امنیتی
+
+**لطفاً آسیبپذیریهای امنیتی را از طریق مسائل عمومی GitHub گزارش ندهید.**
+
+در عوض، لطفاً آنها را به مرکز پاسخگویی امنیتی مایکروسافت (MSRC) در [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report) گزارش دهید.
+
+اگر ترجیح میدهید بدون ورود به سیستم گزارش دهید، ایمیلی به [secure@microsoft.com](mailto:secure@microsoft.com) ارسال کنید. اگر ممکن است، پیام خود را با کلید PGP ما رمزگذاری کنید؛ لطفاً آن را از صفحه [کلید PGP مرکز پاسخگویی امنیتی مایکروسافت](https://www.microsoft.com/en-us/msrc/pgp-key-msrc) دانلود کنید.
+
+شما باید ظرف ۲۴ ساعت پاسخی دریافت کنید. اگر به هر دلیلی پاسخی دریافت نکردید، لطفاً از طریق ایمیل پیگیری کنید تا مطمئن شوید پیام اصلی شما دریافت شده است. اطلاعات بیشتر را میتوانید در [microsoft.com/msrc](https://www.microsoft.com/msrc) پیدا کنید.
+
+لطفاً اطلاعات درخواستی زیر را (تا حد امکان) ارائه دهید تا به ما کمک کنید ماهیت و دامنه مشکل احتمالی را بهتر درک کنیم:
+
+ * نوع مشکل (مانند سرریز بافر، تزریق SQL، اسکریپتنویسی بینسایتی و غیره)
+ * مسیرهای کامل فایلهای منبع مرتبط با بروز مشکل
+ * مکان کد منبع آسیبدیده (برچسب/شاخه/تعهد یا URL مستقیم)
+ * هرگونه پیکربندی خاص مورد نیاز برای بازتولید مشکل
+ * دستورالعملهای گامبهگام برای بازتولید مشکل
+ * کد اثبات مفهوم یا کد بهرهبرداری (در صورت امکان)
+ * تأثیر مشکل، از جمله نحوهای که یک مهاجم ممکن است از مشکل سوءاستفاده کند
+
+این اطلاعات به ما کمک میکند گزارش شما را سریعتر بررسی کنیم.
+
+اگر برای یک برنامه جایزه اشکال گزارش میدهید، گزارشهای کاملتر میتوانند به دریافت جایزه بالاتر کمک کنند. لطفاً برای جزئیات بیشتر درباره برنامههای فعال ما به صفحه [برنامه جایزه اشکال مایکروسافت](https://microsoft.com/msrc/bounty) مراجعه کنید.
+
+## زبانهای ترجیحی
+
+ما ترجیح میدهیم تمامی ارتباطات به زبان انگلیسی باشد.
+
+## سیاست
+
+مایکروسافت از اصل [افشای هماهنگشده آسیبپذیری](https://www.microsoft.com/en-us/msrc/cvd) پیروی میکند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان بومی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/SUPPORT.md b/translations/fa/SUPPORT.md
new file mode 100644
index 00000000..46b2bef6
--- /dev/null
+++ b/translations/fa/SUPPORT.md
@@ -0,0 +1,22 @@
+
+# پشتیبانی
+## چگونه مشکلات را گزارش دهیم و کمک بگیریم
+
+این پروژه از GitHub Issues برای پیگیری باگها و درخواستهای ویژگی استفاده میکند. لطفاً قبل از ثبت مشکلات جدید، مشکلات موجود را جستجو کنید تا از ایجاد موارد تکراری جلوگیری شود. برای مشکلات جدید، باگ یا درخواست ویژگی خود را بهعنوان یک Issue جدید ثبت کنید.
+
+برای کمک و سوالات در مورد استفاده از این پروژه، یک Issue ثبت کنید.
+
+## سیاست پشتیبانی مایکروسافت
+
+پشتیبانی از این مخزن محدود به منابعی است که در بالا فهرست شدهاند.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/docs/_sidebar.md b/translations/fa/docs/_sidebar.md
new file mode 100644
index 00000000..b31f3cdf
--- /dev/null
+++ b/translations/fa/docs/_sidebar.md
@@ -0,0 +1,38 @@
+
+- مقدمه
+ - [تعریف علم داده](../1-Introduction/01-defining-data-science/README.md)
+ - [اخلاق در علم داده](../1-Introduction/02-ethics/README.md)
+ - [تعریف داده](../1-Introduction/03-defining-data/README.md)
+ - [احتمال و آمار](../1-Introduction/04-stats-and-probability/README.md)
+- کار با دادهها
+ - [پایگاههای داده رابطهای](../2-Working-With-Data/05-relational-databases/README.md)
+ - [پایگاههای داده غیررابطهای](../2-Working-With-Data/06-non-relational/README.md)
+ - [پایتون](../2-Working-With-Data/07-python/README.md)
+ - [آمادهسازی دادهها](../2-Working-With-Data/08-data-preparation/README.md)
+- مصورسازی دادهها
+ - [مصورسازی مقادیر](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [مصورسازی توزیعها](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [مصورسازی نسبتها](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [مصورسازی روابط](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [مصورسازیهای معنادار](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- چرخه عمر علم داده
+ - [مقدمه](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [تحلیل](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [ارتباطات](../4-Data-Science-Lifecycle/16-communication/README.md)
+- علم داده در فضای ابری
+ - [مقدمه](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [کدنویسی کم](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- علم داده در دنیای واقعی
+ - [علم داده در دنیای واقعی](../6-Data-Science-In-Wild/README.md)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/for-teachers.md b/translations/fa/for-teachers.md
new file mode 100644
index 00000000..ea03bae5
--- /dev/null
+++ b/translations/fa/for-teachers.md
@@ -0,0 +1,76 @@
+
+## برای معلمان
+
+آیا دوست دارید از این برنامه درسی در کلاس خود استفاده کنید؟ لطفاً با خیال راحت این کار را انجام دهید!
+
+در واقع، میتوانید از آن مستقیماً در گیتهاب با استفاده از GitHub Classroom استفاده کنید.
+
+برای این کار، این مخزن را فورک کنید. شما نیاز دارید برای هر درس یک مخزن جداگانه ایجاد کنید، بنابراین باید هر پوشه را به یک مخزن جداگانه استخراج کنید. به این ترتیب، [GitHub Classroom](https://classroom.github.com/classrooms) میتواند هر درس را به صورت جداگانه شناسایی کند.
+
+این [دستورالعملهای کامل](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) به شما ایدهای میدهد که چگونه کلاس خود را تنظیم کنید.
+
+## استفاده از مخزن به شکل فعلی
+
+اگر میخواهید از این مخزن به همان شکلی که هست استفاده کنید، بدون استفاده از GitHub Classroom، این کار نیز امکانپذیر است. شما باید با دانشآموزان خود هماهنگ کنید که کدام درس را با هم مرور کنند.
+
+در یک قالب آنلاین (مانند Zoom، Teams یا دیگر ابزارها) میتوانید اتاقهای جداگانهای برای آزمونها ایجاد کنید و دانشآموزان را راهنمایی کنید تا برای یادگیری آماده شوند. سپس از دانشآموزان دعوت کنید که در آزمونها شرکت کنند و پاسخهای خود را به عنوان 'issues' در زمان مشخصی ارسال کنند. میتوانید همین کار را با تکالیف نیز انجام دهید، اگر میخواهید دانشآموزان به صورت گروهی و در فضای باز کار کنند.
+
+اگر یک قالب خصوصیتر را ترجیح میدهید، از دانشآموزان بخواهید که برنامه درسی را درس به درس به مخازن گیتهاب خصوصی خود فورک کنند و به شما دسترسی بدهند. سپس میتوانند آزمونها و تکالیف را به صورت خصوصی تکمیل کرده و از طریق issues در مخزن کلاس شما به شما ارسال کنند.
+
+راههای زیادی برای اجرای این برنامه درسی در یک کلاس آنلاین وجود دارد. لطفاً به ما اطلاع دهید که چه چیزی برای شما بهتر عمل میکند!
+
+## شامل در این برنامه درسی:
+
+20 درس، 40 آزمون و 20 تکلیف. یادداشتهای تصویری برای یادگیرندگان بصری همراه با درسها ارائه شده است. بسیاری از درسها به هر دو زبان Python و R در دسترس هستند و میتوانند با استفاده از Jupyter notebooks در VS Code تکمیل شوند. اطلاعات بیشتر در مورد نحوه تنظیم کلاس خود برای استفاده از این تکنولوژی: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+تمام یادداشتهای تصویری، از جمله یک پوستر با فرمت بزرگ، در [این پوشه](../../sketchnotes) قرار دارند.
+
+کل برنامه درسی [به صورت PDF](../../pdf/readme.pdf) نیز در دسترس است.
+
+همچنین میتوانید این برنامه درسی را به عنوان یک وبسایت مستقل و آفلاین با استفاده از [Docsify](https://docsify.js.org/#/) اجرا کنید. [Docsify را نصب کنید](https://docsify.js.org/#/quickstart) روی دستگاه محلی خود، سپس در پوشه اصلی نسخه محلی این مخزن، دستور `docsify serve` را اجرا کنید. وبسایت روی پورت 3000 در localhost شما ارائه خواهد شد: `localhost:3000`.
+
+نسخه آفلاین این برنامه درسی به عنوان یک صفحه وب مستقل باز خواهد شد: https://localhost:3000
+
+درسها به 6 بخش تقسیم شدهاند:
+
+- 1: مقدمه
+ - 1: تعریف علم داده
+ - 2: اخلاق
+ - 3: تعریف داده
+ - 4: مرور احتمال و آمار
+- 2: کار با دادهها
+ - 5: پایگاههای داده رابطهای
+ - 6: پایگاههای داده غیررابطهای
+ - 7: پایتون
+ - 8: آمادهسازی دادهها
+- 3: مصورسازی دادهها
+ - 9: مصورسازی مقادیر
+ - 10: مصورسازی توزیعها
+ - 11: مصورسازی نسبتها
+ - 12: مصورسازی روابط
+ - 13: مصورسازی معنادار
+- 4: چرخه عمر علم داده
+ - 14: مقدمه
+ - 15: تحلیل
+ - 16: ارتباط
+- 5: علم داده در فضای ابری
+ - 17: مقدمه
+ - 18: گزینههای کمکد
+ - 19: Azure
+- 6: علم داده در دنیای واقعی
+ - 20: مرور کلی
+
+## لطفاً نظرات خود را با ما در میان بگذارید!
+
+ما میخواهیم این برنامه درسی برای شما و دانشآموزانتان مفید باشد. لطفاً بازخورد خود را در تابلوهای بحث با ما به اشتراک بگذارید! همچنین میتوانید یک بخش کلاس در تابلوهای بحث برای دانشآموزان خود ایجاد کنید.
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشد. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/quiz-app/README.md b/translations/fa/quiz-app/README.md
new file mode 100644
index 00000000..1619c1fc
--- /dev/null
+++ b/translations/fa/quiz-app/README.md
@@ -0,0 +1,137 @@
+
+# آزمونها
+
+این آزمونها شامل آزمونهای قبل و بعد از جلسات آموزشی برای برنامه درسی علم داده در https://aka.ms/datascience-beginners هستند.
+
+## افزودن مجموعه آزمون ترجمهشده
+
+برای افزودن ترجمه آزمون، ساختارهای آزمون مشابه را در پوشههای `assets/translations` ایجاد کنید. آزمونهای اصلی در `assets/translations/en` قرار دارند. آزمونها به چند گروه تقسیم شدهاند. مطمئن شوید که شمارهگذاری با بخش مناسب آزمون هماهنگ باشد. در این برنامه درسی، مجموعاً ۴۰ آزمون وجود دارد که شمارش از ۰ شروع میشود.
+
+پس از ویرایش ترجمهها، فایل `index.js` را در پوشه ترجمه ویرایش کنید تا تمام فایلها را مطابق با قواعد موجود در `en` وارد کنید.
+
+فایل `index.js` را در `assets/translations` ویرایش کنید تا فایلهای ترجمهشده جدید وارد شوند.
+
+سپس، منوی کشویی در `App.vue` را در این برنامه ویرایش کنید تا زبان شما اضافه شود. مخفف محلیسازی را با نام پوشه زبان خود مطابقت دهید.
+
+در نهایت، تمام لینکهای آزمون در درسهای ترجمهشده را، اگر وجود دارند، ویرایش کنید تا این محلیسازی به عنوان یک پارامتر کوئری اضافه شود: به عنوان مثال `?loc=fr`.
+
+## تنظیم پروژه
+
+```
+npm install
+```
+
+### کامپایل و بارگذاری مجدد برای توسعه
+
+```
+npm run serve
+```
+
+### کامپایل و کوچکسازی برای تولید
+
+```
+npm run build
+```
+
+### بررسی و اصلاح فایلها
+
+```
+npm run lint
+```
+
+### سفارشیسازی تنظیمات
+
+به [مرجع تنظیمات](https://cli.vuejs.org/config/) مراجعه کنید.
+
+اعتبار: تشکر از نسخه اصلی این برنامه آزمون: https://github.com/arpan45/simple-quiz-vue
+
+## استقرار در Azure
+
+در اینجا یک راهنمای گامبهگام برای شروع کار آورده شده است:
+
+1. مخزن GitHub را فورک کنید
+اطمینان حاصل کنید که کد برنامه وب استاتیک شما در مخزن GitHub شما قرار دارد. این مخزن را فورک کنید.
+
+2. ایجاد یک برنامه وب استاتیک Azure
+- یک [حساب Azure](http://azure.microsoft.com) ایجاد کنید.
+- به [پرتال Azure](https://portal.azure.com) بروید.
+- روی "ایجاد یک منبع" کلیک کنید و "Static Web App" را جستجو کنید.
+- روی "ایجاد" کلیک کنید.
+
+3. پیکربندی برنامه وب استاتیک
+- اصول:
+ - اشتراک: اشتراک Azure خود را انتخاب کنید.
+ - گروه منابع: یک گروه منابع جدید ایجاد کنید یا از یک گروه موجود استفاده کنید.
+ - نام: یک نام برای برنامه وب استاتیک خود ارائه دهید.
+ - منطقه: منطقهای را انتخاب کنید که به کاربران شما نزدیکتر باشد.
+
+- #### جزئیات استقرار:
+ - منبع: "GitHub" را انتخاب کنید.
+ - حساب GitHub: اجازه دسترسی Azure به حساب GitHub خود را بدهید.
+ - سازمان: سازمان GitHub خود را انتخاب کنید.
+ - مخزن: مخزنی را انتخاب کنید که برنامه وب استاتیک شما در آن قرار دارد.
+ - شاخه: شاخهای را انتخاب کنید که میخواهید از آن استقرار انجام شود.
+
+- #### جزئیات ساخت:
+ - پیشتنظیمهای ساخت: چارچوبی را که برنامه شما با آن ساخته شده است انتخاب کنید (مانند React، Angular، Vue و غیره).
+ - مکان برنامه: پوشهای را مشخص کنید که کد برنامه شما در آن قرار دارد (مانند / اگر در ریشه باشد).
+ - مکان API: اگر API دارید، مکان آن را مشخص کنید (اختیاری).
+ - مکان خروجی: پوشهای را مشخص کنید که خروجی ساخت در آن تولید میشود (مانند build یا dist).
+
+4. بررسی و ایجاد
+تنظیمات خود را بررسی کنید و روی "ایجاد" کلیک کنید. Azure منابع لازم را تنظیم کرده و یک گردش کار GitHub Actions در مخزن شما ایجاد خواهد کرد.
+
+5. گردش کار GitHub Actions
+Azure به طور خودکار یک فایل گردش کار GitHub Actions در مخزن شما ایجاد میکند (.github/workflows/azure-static-web-apps-.yml). این گردش کار فرآیند ساخت و استقرار را مدیریت خواهد کرد.
+
+6. نظارت بر استقرار
+به تب "Actions" در مخزن GitHub خود بروید.
+باید یک گردش کار در حال اجرا را مشاهده کنید. این گردش کار برنامه وب استاتیک شما را در Azure میسازد و مستقر میکند.
+پس از تکمیل گردش کار، برنامه شما در URL ارائهشده Azure فعال خواهد بود.
+
+### فایل نمونه گردش کار
+
+در اینجا نمونهای از فایل گردش کار GitHub Actions آورده شده است:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### منابع اضافی
+- [مستندات برنامههای وب استاتیک Azure](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [مستندات GitHub Actions](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/fa/sketchnotes/README.md b/translations/fa/sketchnotes/README.md
new file mode 100644
index 00000000..5dc5e6bb
--- /dev/null
+++ b/translations/fa/sketchnotes/README.md
@@ -0,0 +1,19 @@
+
+تمام اسکچنوتها را اینجا پیدا کنید!
+
+## اعتبارها
+
+نیتیا ناراسیمهان، هنرمند
+
+
+
+**سلب مسئولیت**:
+این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه حرفهای انسانی استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/01-defining-data-science/README.md b/translations/hi/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..d50abcde
--- /dev/null
+++ b/translations/hi/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,76 @@
+
+## डेटा के प्रकार
+
+जैसा कि हमने पहले ही उल्लेख किया है, डेटा हर जगह है। हमें बस इसे सही तरीके से कैप्चर करना है! यह **संरचित** और **असंरचित** डेटा के बीच अंतर करना उपयोगी है। संरचित डेटा आमतौर पर किसी सुव्यवस्थित रूप में प्रस्तुत किया जाता है, अक्सर एक तालिका या कई तालिकाओं के रूप में, जबकि असंरचित डेटा केवल फाइलों का संग्रह होता है। कभी-कभी हम **अर्ध-संरचित** डेटा की भी बात कर सकते हैं, जिसमें कुछ हद तक संरचना होती है, लेकिन यह काफी भिन्न हो सकती है।
+
+| संरचित | अर्ध-संरचित | असंरचित |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | ------------------------------------- |
+| लोगों की सूची उनके फोन नंबरों के साथ | विकिपीडिया पेज जिनमें लिंक शामिल हैं | एनसाइक्लोपीडिया ब्रिटानिका का पाठ |
+| पिछले 20 वर्षों में हर मिनट पर एक इमारत के सभी कमरों का तापमान | वैज्ञानिक पत्रों का संग्रह JSON प्रारूप में, जिसमें लेखक, प्रकाशन की तारीख और सार शामिल हैं | कॉर्पोरेट दस्तावेज़ों के साथ फाइल शेयर |
+| इमारत में प्रवेश करने वाले सभी लोगों की उम्र और लिंग का डेटा | इंटरनेट पेज | निगरानी कैमरे से कच्चा वीडियो फीड |
+
+## डेटा कहां से प्राप्त करें
+
+डेटा के कई संभावित स्रोत हैं, और उन सभी को सूचीबद्ध करना असंभव होगा! हालांकि, आइए कुछ सामान्य स्थानों का उल्लेख करें जहां से आप डेटा प्राप्त कर सकते हैं:
+
+* **संरचित**
+ - **इंटरनेट ऑफ थिंग्स** (IoT), जिसमें विभिन्न सेंसरों (जैसे तापमान या दबाव सेंसर) से डेटा शामिल है, बहुत उपयोगी डेटा प्रदान करता है। उदाहरण के लिए, यदि किसी कार्यालय भवन में IoT सेंसर लगे हैं, तो हम स्वचालित रूप से हीटिंग और लाइटिंग को नियंत्रित कर सकते हैं ताकि लागत को कम किया जा सके।
+ - **सर्वेक्षण**, जो हम उपयोगकर्ताओं से खरीदारी के बाद या किसी वेबसाइट पर जाने के बाद पूरा करने के लिए कहते हैं।
+ - **व्यवहार का विश्लेषण**, जो हमें यह समझने में मदद कर सकता है कि उपयोगकर्ता साइट पर कितनी गहराई तक जाते हैं और साइट छोड़ने का सामान्य कारण क्या है।
+* **असंरचित**
+ - **पाठ** एक समृद्ध अंतर्दृष्टि का स्रोत हो सकता है, जैसे समग्र **भाव स्कोर**, या कीवर्ड और अर्थपूर्ण जानकारी निकालना।
+ - **छवियां** या **वीडियो**। निगरानी कैमरे से वीडियो का उपयोग सड़क पर यातायात का अनुमान लगाने और संभावित ट्रैफिक जाम के बारे में लोगों को सूचित करने के लिए किया जा सकता है।
+ - वेब सर्वर **लॉग्स** का उपयोग यह समझने के लिए किया जा सकता है कि हमारी साइट के कौन से पेज सबसे अधिक बार देखे जाते हैं और कितनी देर तक।
+* **अर्ध-संरचित**
+ - **सोशल नेटवर्क** ग्राफ उपयोगकर्ता व्यक्तित्व और जानकारी फैलाने में संभावित प्रभावशीलता के बारे में डेटा के महान स्रोत हो सकते हैं।
+ - जब हमारे पास किसी पार्टी की ढेर सारी तस्वीरें होती हैं, तो हम एक-दूसरे के साथ तस्वीरें लेने वाले लोगों का ग्राफ बनाकर **समूह गतिशीलता** डेटा निकालने की कोशिश कर सकते हैं।
+
+विभिन्न संभावित डेटा स्रोतों को जानकर, आप विभिन्न परिदृश्यों के बारे में सोच सकते हैं जहां डेटा विज्ञान तकनीकों का उपयोग स्थिति को बेहतर ढंग से समझने और व्यावसायिक प्रक्रियाओं में सुधार करने के लिए किया जा सकता है।
+
+## डेटा के साथ आप क्या कर सकते हैं
+
+डेटा विज्ञान में, हम डेटा यात्रा के निम्नलिखित चरणों पर ध्यान केंद्रित करते हैं:
+
+## डिजिटलीकरण और डिजिटल परिवर्तन
+
+पिछले दशक में, कई व्यवसायों ने यह समझना शुरू कर दिया है कि व्यावसायिक निर्णय लेने में डेटा कितना महत्वपूर्ण है। व्यवसाय चलाने में डेटा विज्ञान के सिद्धांतों को लागू करने के लिए, सबसे पहले कुछ डेटा एकत्र करना आवश्यक है, यानी व्यावसायिक प्रक्रियाओं को डिजिटल रूप में अनुवादित करना। इसे **डिजिटलीकरण** कहा जाता है। इस डेटा पर डेटा विज्ञान तकनीकों को लागू करना और निर्णय लेने का मार्गदर्शन करना उत्पादकता में महत्वपूर्ण वृद्धि (या यहां तक कि व्यवसाय में बदलाव) ला सकता है, जिसे **डिजिटल परिवर्तन** कहा जाता है।
+
+आइए एक उदाहरण पर विचार करें। मान लीजिए कि हमारे पास एक डेटा विज्ञान कोर्स है (जैसे यह कोर्स) जिसे हम छात्रों को ऑनलाइन प्रदान करते हैं, और हम इसे बेहतर बनाने के लिए डेटा विज्ञान का उपयोग करना चाहते हैं। हम इसे कैसे कर सकते हैं?
+
+हम यह पूछकर शुरू कर सकते हैं, "क्या डिजिटलीकृत किया जा सकता है?" सबसे सरल तरीका यह होगा कि प्रत्येक छात्र को प्रत्येक मॉड्यूल पूरा करने में लगने वाले समय को मापा जाए, और प्रत्येक मॉड्यूल के अंत में एक बहुविकल्पीय परीक्षण देकर प्राप्त ज्ञान को मापा जाए। सभी छात्रों के बीच औसत समय-से-पूर्णता का पता लगाकर, हम यह पता लगा सकते हैं कि कौन से मॉड्यूल छात्रों के लिए सबसे अधिक कठिनाई पैदा करते हैं और उन्हें सरल बनाने पर काम कर सकते हैं।
+आप यह तर्क दे सकते हैं कि यह तरीका आदर्श नहीं है, क्योंकि मॉड्यूल्स की लंबाई अलग-अलग हो सकती है। शायद समय को मॉड्यूल की लंबाई (अक्षरों की संख्या में) के आधार पर विभाजित करना और उन मानों की तुलना करना अधिक उचित होगा।
+जब हम बहुविकल्पीय परीक्षाओं के परिणामों का विश्लेषण शुरू करते हैं, तो हम यह पता लगाने की कोशिश कर सकते हैं कि छात्र किन अवधारणाओं को समझने में कठिनाई महसूस करते हैं, और उस जानकारी का उपयोग सामग्री को बेहतर बनाने के लिए कर सकते हैं। ऐसा करने के लिए, हमें परीक्षाओं को इस तरह से डिज़ाइन करना होगा कि प्रत्येक प्रश्न किसी विशेष अवधारणा या ज्ञान के हिस्से से जुड़ा हो।
+
+अगर हम इसे और अधिक जटिल बनाना चाहें, तो हम प्रत्येक मॉड्यूल में लगने वाले समय को छात्रों की आयु श्रेणी के साथ तुलना कर सकते हैं। हमें यह पता चल सकता है कि कुछ आयु श्रेणियों के लिए मॉड्यूल पूरा करने में अनुचित रूप से अधिक समय लगता है, या छात्र इसे पूरा करने से पहले ही छोड़ देते हैं। यह हमें मॉड्यूल के लिए आयु अनुशंसाएँ प्रदान करने में मदद कर सकता है और गलत अपेक्षाओं से होने वाली असंतुष्टि को कम कर सकता है।
+
+## 🚀 चुनौती
+
+इस चुनौती में, हम डेटा साइंस के क्षेत्र से संबंधित अवधारणाओं को खोजने की कोशिश करेंगे, और इसके लिए हम पाठों का विश्लेषण करेंगे। हम डेटा साइंस पर एक विकिपीडिया लेख लेंगे, पाठ को डाउनलोड और प्रोसेस करेंगे, और फिर एक वर्ड क्लाउड बनाएंगे, जैसा कि नीचे दिखाया गया है:
+
+
+
+[`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') पर जाएं और कोड को पढ़ें। आप कोड को चला भी सकते हैं और देख सकते हैं कि यह वास्तविक समय में सभी डेटा ट्रांसफॉर्मेशन कैसे करता है।
+
+> अगर आपको पता नहीं है कि जुपिटर नोटबुक में कोड कैसे चलाना है, तो [इस लेख](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) को देखें।
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## असाइनमेंट्स
+
+* **कार्य 1**: ऊपर दिए गए कोड को संशोधित करें ताकि **बिग डेटा** और **मशीन लर्निंग** के क्षेत्रों के लिए संबंधित अवधारणाओं का पता लगाया जा सके।
+* **कार्य 2**: [डेटा साइंस परिदृश्यों के बारे में सोचें](assignment.md)
+
+## क्रेडिट्स
+
+यह पाठ ♥️ के साथ [दिमित्री सॉश्निकोव](http://soshnikov.com) द्वारा लिखा गया है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/01-defining-data-science/assignment.md b/translations/hi/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..83967835
--- /dev/null
+++ b/translations/hi/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,44 @@
+
+# असाइनमेंट: डेटा साइंस परिदृश्य
+
+इस पहले असाइनमेंट में, हम आपसे यह सोचने के लिए कहते हैं कि विभिन्न समस्या क्षेत्रों में किसी वास्तविक जीवन की प्रक्रिया या समस्या को कैसे बेहतर बनाया जा सकता है, और इसे डेटा साइंस प्रक्रिया का उपयोग करके कैसे सुधार सकते हैं। निम्नलिखित पर विचार करें:
+
+1. आप कौन सा डेटा एकत्र कर सकते हैं?
+1. आप इसे कैसे एकत्र करेंगे?
+1. आप डेटा को कैसे संग्रहीत करेंगे? डेटा कितना बड़ा हो सकता है?
+1. इस डेटा से आपको कौन-कौन सी जानकारी मिल सकती है? इस डेटा के आधार पर हम कौन-कौन से निर्णय ले सकते हैं?
+
+3 अलग-अलग समस्याओं/प्रक्रियाओं के बारे में सोचने की कोशिश करें और प्रत्येक समस्या क्षेत्र के लिए ऊपर दिए गए बिंदुओं का वर्णन करें।
+
+यहां कुछ समस्या क्षेत्र और समस्याएं दी गई हैं जो आपको सोचने में मदद कर सकती हैं:
+
+1. आप बच्चों के स्कूलों में शिक्षा प्रक्रिया को बेहतर बनाने के लिए डेटा का उपयोग कैसे कर सकते हैं?
+1. आप महामारी के दौरान टीकाकरण को नियंत्रित करने के लिए डेटा का उपयोग कैसे कर सकते हैं?
+1. आप यह सुनिश्चित करने के लिए डेटा का उपयोग कैसे कर सकते हैं कि आप काम पर उत्पादक हैं?
+
+## निर्देश
+
+निम्नलिखित तालिका को भरें (यदि आवश्यक हो तो सुझाए गए समस्या क्षेत्रों को अपने स्वयं के क्षेत्रों से बदलें):
+
+| समस्या क्षेत्र | समस्या | कौन सा डेटा एकत्र करना है | डेटा को कैसे संग्रहीत करें | कौन-कौन सी जानकारी/निर्णय हम ले सकते हैं |
+|----------------|---------|-----------------------|-----------------------|--------------------------------------|
+| शिक्षा | | | | |
+| टीकाकरण | | | | |
+| उत्पादकता | | | | |
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता है
+--- | --- | -- |
+सभी समस्या क्षेत्रों के लिए उचित डेटा स्रोत, डेटा संग्रहीत करने के तरीके और संभावित निर्णय/जानकारी की पहचान की गई है | समाधान के कुछ पहलू विस्तृत नहीं हैं, डेटा संग्रहण पर चर्चा नहीं की गई है, कम से कम 2 समस्या क्षेत्रों का वर्णन किया गया है | केवल डेटा समाधान के कुछ हिस्सों का वर्णन किया गया है, केवल एक समस्या क्षेत्र पर विचार किया गया है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/hi/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..c6b50816
--- /dev/null
+++ b/translations/hi/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,46 @@
+
+# असाइनमेंट: डेटा साइंस परिदृश्य
+
+इस पहले असाइनमेंट में, हम आपसे यह सोचने के लिए कहते हैं कि वास्तविक जीवन की किसी प्रक्रिया या समस्या को विभिन्न समस्या क्षेत्रों में कैसे बेहतर बनाया जा सकता है, और डेटा साइंस प्रक्रिया का उपयोग करके इसे कैसे सुधार सकते हैं। निम्नलिखित पर विचार करें:
+
+1. आप कौन सा डेटा एकत्र कर सकते हैं?
+1. आप इसे कैसे एकत्र करेंगे?
+1. आप डेटा को कैसे संग्रहीत करेंगे? डेटा कितना बड़ा हो सकता है?
+1. आप इस डेटा से कौन सी अंतर्दृष्टि प्राप्त कर सकते हैं? इस डेटा के आधार पर कौन से निर्णय लिए जा सकते हैं?
+
+3 अलग-अलग समस्याओं/प्रक्रियाओं के बारे में सोचने की कोशिश करें और प्रत्येक समस्या क्षेत्र के लिए ऊपर दिए गए बिंदुओं का वर्णन करें।
+
+यहां कुछ समस्या क्षेत्र और समस्याएं दी गई हैं जो आपको सोचने में मदद कर सकती हैं:
+
+1. आप स्कूलों में बच्चों के शिक्षा प्रक्रिया को बेहतर बनाने के लिए डेटा का उपयोग कैसे कर सकते हैं?
+1. आप महामारी के दौरान टीकाकरण को नियंत्रित करने के लिए डेटा का उपयोग कैसे कर सकते हैं?
+1. आप यह सुनिश्चित करने के लिए डेटा का उपयोग कैसे कर सकते हैं कि आप काम पर उत्पादक हैं?
+
+## निर्देश
+
+निम्नलिखित तालिका को भरें (यदि आवश्यक हो तो सुझाए गए समस्या क्षेत्रों को अपने स्वयं के क्षेत्रों से बदलें):
+
+| समस्या क्षेत्र | समस्या | कौन सा डेटा एकत्र करना है | डेटा को कैसे संग्रहीत करना है | कौन सी अंतर्दृष्टि/निर्णय लिए जा सकते हैं |
+|----------------|---------|-----------------------|-----------------------|--------------------------------------|
+| शिक्षा | विश्वविद्यालय में, आमतौर पर व्याख्यानों में उपस्थिति कम होती है, और हमारा अनुमान है कि जो छात्र व्याख्यानों में भाग लेते हैं, वे औसतन परीक्षाओं में बेहतर प्रदर्शन करते हैं। हम उपस्थिति को प्रोत्साहित करना चाहते हैं और इस अनुमान का परीक्षण करना चाहते हैं। | हम कक्षा में सुरक्षा कैमरे द्वारा ली गई तस्वीरों के माध्यम से उपस्थिति को ट्रैक कर सकते हैं, या कक्षा में छात्रों के मोबाइल फोन के ब्लूटूथ/वाईफाई पते को ट्रैक करके। परीक्षा डेटा पहले से ही विश्वविद्यालय डेटाबेस में उपलब्ध है। | यदि हम सुरक्षा कैमरे की छवियों को ट्रैक करते हैं - तो हमें कक्षा के दौरान कुछ (5-10) तस्वीरें संग्रहीत करनी होंगी (असंरचित डेटा), और फिर एआई का उपयोग करके छात्रों के चेहरों की पहचान करनी होगी (डेटा को संरचित रूप में बदलना)। | हम प्रत्येक छात्र के लिए औसत उपस्थिति डेटा की गणना कर सकते हैं, और देख सकते हैं कि क्या परीक्षा के अंकों के साथ कोई संबंध है। हम [प्रायिकता और सांख्यिकी](../../04-stats-and-probability/README.md) अनुभाग में संबंध के बारे में अधिक बात करेंगे। छात्र उपस्थिति को प्रोत्साहित करने के लिए, हम स्कूल पोर्टल पर साप्ताहिक उपस्थिति रेटिंग प्रकाशित कर सकते हैं, और उच्चतम उपस्थिति वाले छात्रों के बीच पुरस्कार दे सकते हैं। |
+| टीकाकरण | | | | |
+| उत्पादकता | | | | |
+
+> *हम केवल एक उत्तर प्रदान करते हैं ताकि आप समझ सकें कि इस असाइनमेंट में क्या अपेक्षित है।*
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता है
+--- | --- | -- |
+सभी समस्या क्षेत्रों के लिए उचित डेटा स्रोत, डेटा संग्रहीत करने के तरीके और संभावित निर्णय/अंतर्दृष्टि की पहचान की गई | समाधान के कुछ पहलू विस्तृत नहीं हैं, डेटा संग्रहण पर चर्चा नहीं की गई है, कम से कम 2 समस्या क्षेत्रों का वर्णन किया गया है | केवल डेटा समाधान के कुछ हिस्सों का वर्णन किया गया है, केवल एक समस्या क्षेत्र पर विचार किया गया है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/02-ethics/README.md b/translations/hi/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..f38b9bf4
--- /dev/null
+++ b/translations/hi/1-Introduction/02-ethics/README.md
@@ -0,0 +1,264 @@
+
+# डेटा नैतिकता का परिचय
+
+| द्वारा ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| डेटा साइंस नैतिकता - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+---
+
+हम सभी एक डेटा-प्रधान दुनिया में डेटा नागरिक हैं।
+
+बाजार के रुझान बताते हैं कि 2022 तक, हर 3 में से 1 बड़ी कंपनी अपना डेटा ऑनलाइन [मार्केटप्लेस और एक्सचेंज](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) के माध्यम से खरीदेगी और बेचेगी। एक **ऐप डेवलपर** के रूप में, हमारे लिए डेटा-आधारित अंतर्दृष्टि और एल्गोरिदम-आधारित स्वचालन को दैनिक उपयोगकर्ता अनुभवों में एकीकृत करना आसान और सस्ता हो जाएगा। लेकिन जैसे-जैसे एआई सर्वव्यापी होता जा रहा है, हमें यह भी समझने की आवश्यकता होगी कि बड़े पैमाने पर ऐसे एल्गोरिदम के [हथियारकरण](https://www.youtube.com/watch?v=TQHs8SA1qpk) से क्या संभावित नुकसान हो सकते हैं।
+
+रुझान यह भी बताते हैं कि हम 2025 तक [180 ज़ेटाबाइट्स](https://www.statista.com/statistics/871513/worldwide-data-created/) से अधिक डेटा बनाएंगे और उपभोग करेंगे। एक **डेटा वैज्ञानिक** के रूप में, यह हमें व्यक्तिगत डेटा तक अभूतपूर्व स्तर की पहुंच प्रदान करता है। इसका मतलब है कि हम उपयोगकर्ताओं की व्यवहारिक प्रोफाइल बना सकते हैं और निर्णय लेने को इस तरह प्रभावित कर सकते हैं कि यह [मुक्त चुनाव का भ्रम](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) पैदा करे, जबकि उपयोगकर्ताओं को उन परिणामों की ओर धकेल सकता है जो हमें पसंद हैं। यह डेटा गोपनीयता और उपयोगकर्ता सुरक्षा पर व्यापक सवाल भी उठाता है।
+
+डेटा नैतिकता अब डेटा विज्ञान और इंजीनियरिंग के लिए _आवश्यक सुरक्षा उपाय_ बन गई है, जो हमारे डेटा-आधारित कार्यों से संभावित नुकसान और अनपेक्षित परिणामों को कम करने में मदद करती है। [गार्टनर हाइप साइकिल फॉर एआई](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) डिजिटल नैतिकता, जिम्मेदार एआई, और एआई गवर्नेंस में प्रासंगिक रुझानों की पहचान करता है, जो एआई के _लोकतंत्रीकरण_ और _औद्योगिकीकरण_ जैसे बड़े मेगाट्रेंड्स के प्रमुख चालक हैं।
+
+
+
+इस पाठ में, हम डेटा नैतिकता के आकर्षक क्षेत्र का अन्वेषण करेंगे - मुख्य अवधारणाओं और चुनौतियों से लेकर केस स्टडी और एआई अवधारणाओं जैसे गवर्नेंस तक - जो डेटा और एआई के साथ काम करने वाली टीमों और संगठनों में नैतिकता की संस्कृति स्थापित करने में मदद करती हैं।
+
+## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## बुनियादी परिभाषाएँ
+
+आइए बुनियादी शब्दावली को समझने से शुरू करें।
+
+"नैतिकता" शब्द [ग्रीक शब्द "एथिकोस"](https://en.wikipedia.org/wiki/Ethics) (और इसकी जड़ "एथोस") से आया है, जिसका अर्थ है _चरित्र या नैतिक प्रकृति_।
+
+**नैतिकता** उन साझा मूल्यों और नैतिक सिद्धांतों के बारे में है जो समाज में हमारे व्यवहार को नियंत्रित करते हैं। नैतिकता कानूनों पर आधारित नहीं है, बल्कि इस बात पर आधारित है कि "सही बनाम गलत" क्या है, इसके व्यापक रूप से स्वीकृत मानदंड क्या हैं। हालांकि, नैतिक विचार कॉर्पोरेट गवर्नेंस पहलों और सरकारी नियमों को प्रभावित कर सकते हैं, जो अनुपालन के लिए अधिक प्रोत्साहन पैदा करते हैं।
+
+**डेटा नैतिकता** नैतिकता की एक [नई शाखा](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) है जो "_डेटा, एल्गोरिदम और संबंधित प्रथाओं_" से संबंधित नैतिक समस्याओं का अध्ययन और मूल्यांकन करती है। यहां, **"डेटा"** डेटा के निर्माण, रिकॉर्डिंग, क्यूरेशन, प्रोसेसिंग, प्रसार, साझाकरण और उपयोग से संबंधित कार्यों पर केंद्रित है, **"एल्गोरिदम"** एआई, एजेंट, मशीन लर्निंग और रोबोट पर केंद्रित है, और **"प्रथाएं"** जिम्मेदार नवाचार, प्रोग्रामिंग, हैकिंग और नैतिकता कोड जैसे विषयों पर केंद्रित हैं।
+
+**लागू नैतिकता** नैतिक विचारों का [व्यावहारिक अनुप्रयोग](https://en.wikipedia.org/wiki/Applied_ethics) है। यह _वास्तविक दुनिया के कार्यों, उत्पादों और प्रक्रियाओं_ के संदर्भ में नैतिक मुद्दों की सक्रिय रूप से जांच करने और यह सुनिश्चित करने के लिए सुधारात्मक उपाय करने की प्रक्रिया है कि ये हमारे परिभाषित नैतिक मूल्यों के साथ संरेखित रहें।
+
+**नैतिकता संस्कृति** [_लागू नैतिकता_ को लागू करने](https://hbr.org/2019/05/how-to-design-an-ethical-organization) के बारे में है ताकि यह सुनिश्चित किया जा सके कि हमारे नैतिक सिद्धांत और प्रथाएं पूरे संगठन में लगातार और मापनीय तरीके से अपनाई जाएं। सफल नैतिकता संस्कृतियां संगठन-व्यापी नैतिक सिद्धांतों को परिभाषित करती हैं, अनुपालन के लिए सार्थक प्रोत्साहन प्रदान करती हैं, और संगठन के हर स्तर पर वांछित व्यवहार को प्रोत्साहित और बढ़ावा देकर नैतिकता के मानदंडों को सुदृढ़ करती हैं।
+
+## नैतिकता की अवधारणाएँ
+
+इस खंड में, हम **साझा मूल्य** (सिद्धांत) और **नैतिक चुनौतियों** (समस्याओं) जैसी अवधारणाओं पर चर्चा करेंगे, और **केस स्टडी** का अन्वेषण करेंगे जो आपको वास्तविक दुनिया के संदर्भों में इन अवधारणाओं को समझने में मदद करती हैं।
+
+### 1. नैतिकता के सिद्धांत
+
+हर डेटा नैतिकता रणनीति _नैतिक सिद्धांतों_ को परिभाषित करने से शुरू होती है - "साझा मूल्य" जो स्वीकार्य व्यवहारों का वर्णन करते हैं और हमारे डेटा और एआई परियोजनाओं में अनुपालन कार्यों का मार्गदर्शन करते हैं। आप इन्हें व्यक्तिगत या टीम स्तर पर परिभाषित कर सकते हैं। हालांकि, अधिकांश बड़े संगठन इन्हें एक _नैतिक एआई_ मिशन स्टेटमेंट या ढांचे में परिभाषित करते हैं, जो कॉर्पोरेट स्तरों पर परिभाषित और सभी टीमों में लगातार लागू किया जाता है।
+
+**उदाहरण:** माइक्रोसॉफ्ट का [जिम्मेदार एआई](https://www.microsoft.com/en-us/ai/responsible-ai) मिशन स्टेटमेंट कहता है: _"हम एआई के विकास के लिए प्रतिबद्ध हैं, जो नैतिक सिद्धांतों द्वारा संचालित है जो लोगों को प्राथमिकता देता है"_ - जो नीचे दिए गए ढांचे में 6 नैतिक सिद्धांतों की पहचान करता है:
+
+
+
+आइए इन सिद्धांतों का संक्षेप में अन्वेषण करें। _पारदर्शिता_ और _जवाबदेही_ वे बुनियादी मूल्य हैं जिन पर अन्य सिद्धांत आधारित हैं - तो चलिए वहीं से शुरू करते हैं:
+
+* [**जवाबदेही**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) यह सुनिश्चित करती है कि डेटा और एआई संचालन के लिए अभ्यासकर्ता _जिम्मेदार_ हों और इन नैतिक सिद्धांतों का अनुपालन करें।
+* [**पारदर्शिता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) यह सुनिश्चित करती है कि डेटा और एआई कार्य _समझने योग्य_ (व्याख्यात्मक) हों, उपयोगकर्ताओं को निर्णयों के पीछे "क्या और क्यों" समझाने में सक्षम बनाएं।
+* [**निष्पक्षता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - यह सुनिश्चित करने पर केंद्रित है कि एआई _सभी लोगों_ के साथ निष्पक्ष व्यवहार करे, डेटा और प्रणालियों में किसी भी प्रणालीगत या निहित सामाजिक-तकनीकी पूर्वाग्रह को संबोधित करे।
+* [**विश्वसनीयता और सुरक्षा**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - यह सुनिश्चित करती है कि एआई _परिभाषित मूल्यों_ के साथ लगातार व्यवहार करे, संभावित नुकसान या अनपेक्षित परिणामों को कम करे।
+* [**गोपनीयता और सुरक्षा**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - डेटा की उत्पत्ति को समझने और उपयोगकर्ताओं को _डेटा गोपनीयता और संबंधित सुरक्षा_ प्रदान करने के बारे में है।
+* [**समावेशिता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - यह इरादे के साथ एआई समाधान डिजाइन करने के बारे में है, उन्हें _मानव आवश्यकताओं और क्षमताओं की एक विस्तृत श्रृंखला_ को पूरा करने के लिए अनुकूलित करना।
+
+> 🚨 सोचें कि आपका डेटा नैतिकता मिशन स्टेटमेंट क्या हो सकता है। अन्य संगठनों के नैतिक एआई ढांचे का अन्वेषण करें - यहां [आईबीएम](https://www.ibm.com/cloud/learn/ai-ethics), [गूगल](https://ai.google/principles), और [फेसबुक](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) के उदाहरण हैं। उनके साझा मूल्यों में क्या समानता है? ये सिद्धांत उनके एआई उत्पाद या उद्योग से कैसे संबंधित हैं?
+
+### 2. नैतिकता की चुनौतियाँ
+
+एक बार जब हमने नैतिक सिद्धांतों को परिभाषित कर लिया, तो अगला कदम यह मूल्यांकन करना है कि क्या हमारे डेटा और एआई कार्य उन साझा मूल्यों के साथ संरेखित हैं। अपने कार्यों को दो श्रेणियों में सोचें: _डेटा संग्रह_ और _एल्गोरिदम डिज़ाइन_।
+
+डेटा संग्रह के साथ, कार्यों में संभवतः **व्यक्तिगत डेटा** या व्यक्तिगत रूप से पहचान योग्य जानकारी (PII) शामिल होगी जो जीवित व्यक्तियों की पहचान करती है। इसमें [गैर-व्यक्तिगत डेटा की विविध वस्तुएं](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) शामिल हैं जो _सामूहिक रूप से_ किसी व्यक्ति की पहचान करती हैं। नैतिक चुनौतियाँ _डेटा गोपनीयता_, _डेटा स्वामित्व_, और _सहमति_ और _बौद्धिक संपदा अधिकार_ जैसे संबंधित विषयों से संबंधित हो सकती हैं।
+
+एल्गोरिदम डिज़ाइन के साथ, कार्यों में **डेटासेट** एकत्र करना और क्यूरेट करना, फिर उन्हें वास्तविक दुनिया के संदर्भों में परिणामों की भविष्यवाणी करने या निर्णयों को स्वचालित करने के लिए **डेटा मॉडल** को प्रशिक्षित और तैनात करना शामिल होगा। नैतिक चुनौतियाँ _डेटासेट पूर्वाग्रह_, _डेटा गुणवत्ता_ मुद्दों, _अन्याय_, और एल्गोरिदम में _गलत प्रस्तुति_ से उत्पन्न हो सकती हैं - जिनमें से कुछ मुद्दे प्रणालीगत प्रकृति के हो सकते हैं।
+
+दोनों मामलों में, नैतिकता की चुनौतियाँ उन क्षेत्रों को उजागर करती हैं जहाँ हमारे कार्य हमारे साझा मूल्यों के साथ संघर्ष कर सकते हैं। इन चिंताओं का पता लगाने, कम करने, न्यूनतम करने, या समाप्त करने के लिए - हमें अपने कार्यों से संबंधित नैतिक "हां/नहीं" प्रश्न पूछने की आवश्यकता है, फिर आवश्यकतानुसार सुधारात्मक कार्रवाई करें। आइए कुछ नैतिक चुनौतियों और उनके द्वारा उठाए गए नैतिक प्रश्नों पर एक नज़र डालें:
+
+#### 2.1 डेटा स्वामित्व
+
+डेटा संग्रह में अक्सर व्यक्तिगत डेटा शामिल होता है जो डेटा विषयों की पहचान कर सकता है। [डेटा स्वामित्व](https://permission.io/blog/data-ownership) डेटा के निर्माण, प्रोसेसिंग, और प्रसार से संबंधित _नियंत्रण_ और [_उपयोगकर्ता अधिकारों_](https://permission.io/blog/data-ownership) के बारे में है।
+
+पूछे जाने वाले नैतिक प्रश्न:
+ * डेटा का स्वामी कौन है? (उपयोगकर्ता या संगठन)
+ * डेटा विषयों के क्या अधिकार हैं? (जैसे: पहुंच, मिटाना, पोर्टेबिलिटी)
+ * संगठनों के क्या अधिकार हैं? (जैसे: दुर्भावनापूर्ण उपयोगकर्ता समीक्षाओं को सुधारना)
+
+#### 2.2 सूचित सहमति
+
+[सूचित सहमति](https://legaldictionary.net/informed-consent/) उपयोगकर्ताओं द्वारा किसी कार्रवाई (जैसे डेटा संग्रह) के लिए _संपूर्ण समझ_ के साथ सहमति देने की प्रक्रिया को परिभाषित करती है, जिसमें उद्देश्य, संभावित जोखिम, और विकल्प शामिल हैं।
+
+यहाँ पूछे जाने वाले प्रश्न:
+ * क्या उपयोगकर्ता (डेटा विषय) ने डेटा कैप्चर और उपयोग के लिए अनुमति दी?
+ * क्या उपयोगकर्ता ने समझा कि डेटा किस उद्देश्य से कैप्चर किया गया था?
+ * क्या उपयोगकर्ता ने अपनी भागीदारी से संभावित जोखिमों को समझा?
+
+#### 2.3 बौद्धिक संपदा
+
+[बौद्धिक संपदा](https://en.wikipedia.org/wiki/Intellectual_property) मानव पहल से उत्पन्न अमूर्त रचनाओं को संदर्भित करती है, जिनका _आर्थिक मूल्य_ व्यक्तियों या व्यवसायों के लिए हो सकता है।
+
+यहाँ पूछे जाने वाले प्रश्न:
+ * क्या एकत्रित डेटा का उपयोगकर्ता या व्यवसाय के लिए आर्थिक मूल्य था?
+ * क्या उपयोगकर्ता के पास यहाँ बौद्धिक संपदा है?
+ * क्या संगठन के पास यहाँ बौद्धिक संपदा है?
+ * यदि ये अधिकार मौजूद हैं, तो हम उन्हें कैसे सुरक्षित कर रहे हैं?
+
+#### 2.4 डेटा गोपनीयता
+
+[डेटा गोपनीयता](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) या सूचना गोपनीयता उपयोगकर्ता गोपनीयता और व्यक्तिगत रूप से पहचान योग्य जानकारी के संबंध में उपयोगकर्ता पहचान की सुरक्षा को संदर्भित करती है।
+
+यहाँ पूछे जाने वाले प्रश्न:
+ * क्या उपयोगकर्ताओं का (व्यक्तिगत) डेटा हैक और लीक से सुरक्षित है?
+ * क्या उपयोगकर्ताओं का डेटा केवल अधिकृत उपयोगकर्ताओं और संदर्भों तक ही सुलभ है?
+ * क्या डेटा साझा या प्रसारित करते समय उपयोगकर्ताओं की गुमनामी संरक्षित है?
+ * क्या उपयोगकर्ता को गुमनाम डेटासेट से पुनः पहचाना जा सकता है?
+
+#### 2.5 भुलाए जाने का अधिकार
+
+[भुलाए जाने का अधिकार](https://en.wikipedia.org/wiki/Right_to_be_forgotten) या [मिटाने का अधिकार](https://www.gdpreu.org/right-to-be-forgotten/) उपयोगकर्ताओं को अतिरिक्त व्यक्तिगत डेटा सुरक्षा प्रदान करता है। विशेष रूप से, यह उपयोगकर्ताओं को इंटरनेट खोजों और अन्य स्थानों से व्यक्तिगत डेटा को हटाने या हटाने का अनुरोध करने का अधिकार देता है, _विशिष्ट परिस्थितियों_ के तहत - उन्हें ऑनलाइन एक नई शुरुआत करने की अनुमति देता है।
+
+यहाँ पूछे जाने वाले प्रश्न:
+ * क्या सिस्टम डेटा विषयों को मिटाने का अनुरोध करने की अनुमति देता है?
+ * क्या उपयोगकर्ता की सहमति की वापसी स्वचालित मिटाने को ट्रिगर करनी चाहिए?
+ * क्या डेटा बिना सहमति या अवैध तरीकों से एकत्र किया गया था?
+ * क्या हम डेटा गोपनीयता के लिए सरकारी नियमों का पालन कर रहे हैं?
+
+#### 2.6 डेटासेट पूर्वाग्रह
+
+डेटासेट या [संग्रह पूर्वाग्रह](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) एक _गैर-प्रतिनिधि_ डेटा उपसमुच्चय का चयन करने के बारे में है, जो विविध समूहों के लिए परिणामों में संभावित अन्याय पैदा करता है। पूर्वाग्रह के प्रकारों में चयन या सैंपलिंग पूर्वाग्रह, स्वयंसेवक पूर्वाग्रह, और उपकरण पूर्वाग्रह शामिल हैं।
+
+यहाँ पूछे जाने वाले प्रश्न:
+ * क्या हमने डेटा विषयों का एक प्रतिनिधि सेट भर्ती किया?
+ * क्या हमने विभिन्न पूर्वाग्रहों के लिए अपने एकत्रित या क्यूरेटेड डेटासेट का परीक्षण किया?
+ * क्या हम किसी भी खोजे गए पूर्वाग्रहों को कम या हटा सकते हैं?
+
+#### 2.7 डेटा गुणवत्ता
+
+[डेटा गुणवत्ता](https://lakefs.io/data-quality-testing/) हमारे एल्गोरिदम को विकसित करने के लिए उपयोग किए गए क्यूरेटेड डेटासेट की वैधता को देखती है, यह जांचते हुए कि क्या विशेषताएँ और रिकॉर्ड हमारे एआई उद्देश्य के लिए आवश्यक सटीकता और स्थिरता के स्तर को पूरा करते हैं।
+
+यहाँ पूछे जाने वाले प्रश्न:
+ * क्या हमने अपने उपयोग के मामले के लिए वैध _विशेषताएँ_ कैप्चर कीं?
+ * क्या डेटा को विभिन्न डेटा स्रोतों में _संगत रूप से_ कैप्चर किया गया था?
+ * क्या डेटासेट विविध परिस्थितियों या परिदृश्यों के लिए _पूर्ण_ है?
+ * क्या जानकारी वास्तविकता को दर्शाने में _सटीक_ रूप से कैप्चर की गई है?
+
+#### 2.8 एल्गोरिदम निष्पक्षता
+[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) यह जांचता है कि क्या एल्गोरिदम डिज़ाइन किसी विशेष डेटा समूह के खिलाफ व्यवस्थित रूप से भेदभाव करता है, जिससे _संसाधन आवंटन_ (जहां संसाधन उस समूह से वंचित या रोके जाते हैं) और _सेवा की गुणवत्ता_ (जहां एआई कुछ समूहों के लिए उतना सटीक नहीं है जितना कि दूसरों के लिए है) में [संभावित नुकसान](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) हो सकते हैं।
+
+यहां विचार करने वाले प्रश्न हैं:
+ * क्या हमने विभिन्न समूहों और परिस्थितियों के लिए मॉडल की सटीकता का मूल्यांकन किया?
+ * क्या हमने प्रणाली में संभावित नुकसान (जैसे, रूढ़िवादिता) की जांच की?
+ * क्या हम पहचाने गए नुकसान को कम करने के लिए डेटा को संशोधित या मॉडल को पुनः प्रशिक्षित कर सकते हैं?
+
+[AI Fairness चेकलिस्ट्स](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) जैसे संसाधनों का अन्वेषण करें और अधिक जानें।
+
+#### 2.9 गलत प्रस्तुति
+
+[डेटा की गलत प्रस्तुति](https://www.sciencedirect.com/topics/computer-science/misrepresentation) यह पूछने के बारे में है कि क्या हम ईमानदारी से रिपोर्ट किए गए डेटा से अंतर्दृष्टि को एक वांछित कथा का समर्थन करने के लिए भ्रामक तरीके से प्रस्तुत कर रहे हैं।
+
+यहां विचार करने वाले प्रश्न हैं:
+ * क्या हम अधूरे या गलत डेटा की रिपोर्ट कर रहे हैं?
+ * क्या हम डेटा को इस तरह से विज़ुअलाइज़ कर रहे हैं जो भ्रामक निष्कर्षों की ओर ले जाता है?
+ * क्या हम परिणामों में हेरफेर करने के लिए चयनात्मक सांख्यिकीय तकनीकों का उपयोग कर रहे हैं?
+ * क्या वैकल्पिक व्याख्याएं हैं जो एक अलग निष्कर्ष प्रदान कर सकती हैं?
+
+#### 2.10 स्वतंत्र विकल्प
+[स्वतंत्र विकल्प का भ्रम](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) तब होता है जब सिस्टम "चॉइस आर्किटेक्चर" निर्णय लेने वाले एल्गोरिदम का उपयोग करके लोगों को एक पसंदीदा परिणाम की ओर प्रेरित करते हैं, जबकि उन्हें विकल्प और नियंत्रण देने का आभास देते हैं। ये [डार्क पैटर्न्स](https://www.darkpatterns.org/) उपयोगकर्ताओं को सामाजिक और आर्थिक नुकसान पहुंचा सकते हैं। क्योंकि उपयोगकर्ता के निर्णय व्यवहार प्रोफाइल को प्रभावित करते हैं, ये क्रियाएं संभावित रूप से भविष्य के विकल्पों को बढ़ा सकती हैं या उनके प्रभाव को बढ़ा सकती हैं।
+
+यहां विचार करने वाले प्रश्न हैं:
+ * क्या उपयोगकर्ता ने उस विकल्प को चुनने के परिणामों को समझा?
+ * क्या उपयोगकर्ता (वैकल्पिक) विकल्पों और उनके फायदे और नुकसान से अवगत था?
+ * क्या उपयोगकर्ता बाद में एक स्वचालित या प्रभावित विकल्प को उलट सकता है?
+
+### 3. केस स्टडीज
+
+इन नैतिक चुनौतियों को वास्तविक दुनिया के संदर्भों में समझने के लिए, उन केस स्टडीज को देखना उपयोगी होता है जो व्यक्तियों और समाज पर संभावित नुकसान और परिणामों को उजागर करते हैं, जब इन नैतिक उल्लंघनों को नजरअंदाज किया जाता है।
+
+यहां कुछ उदाहरण दिए गए हैं:
+
+| नैतिक चुनौती | केस स्टडी |
+|--- |--- |
+| **सूचित सहमति** | 1972 - [टस्केगी सिफलिस अध्ययन](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - अफ्रीकी अमेरिकी पुरुषों को अध्ययन में भाग लेने के लिए मुफ्त चिकित्सा देखभाल का वादा किया गया था, _लेकिन शोधकर्ताओं ने उन्हें उनके निदान या उपचार की उपलब्धता के बारे में सूचित नहीं किया।_ कई प्रतिभागियों की मृत्यु हो गई और उनके साथी या बच्चे प्रभावित हुए; अध्ययन 40 वर्षों तक चला। |
+| **डेटा गोपनीयता** | 2007 - [नेटफ्लिक्स डेटा पुरस्कार](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ने शोधकर्ताओं को _50K ग्राहकों की 10M गुमनाम मूवी रेटिंग्स_ प्रदान कीं ताकि सिफारिश एल्गोरिदम में सुधार हो सके। हालांकि, शोधकर्ता बाहरी डेटासेट्स (जैसे IMDb टिप्पणियां) में व्यक्तिगत रूप से पहचान योग्य डेटा के साथ गुमनाम डेटा को सहसंबंधित करने में सक्षम थे - प्रभावी रूप से कुछ नेटफ्लिक्स ग्राहकों को "डी-गुमनाम" कर दिया।|
+| **संग्रह पूर्वाग्रह** | 2013 - बोस्टन शहर ने [स्ट्रीट बंप](https://www.boston.gov/transportation/street-bump) विकसित किया, एक ऐप जिसने नागरिकों को गड्ढों की रिपोर्ट करने दी, जिससे शहर को बेहतर सड़क डेटा मिला। हालांकि, [कम आय वाले समूहों के लोगों के पास कारों और फोन तक कम पहुंच थी](https://hbr.org/2013/04/the-hidden-biases-in-big-data), जिससे उनके सड़क मुद्दे इस ऐप में अदृश्य हो गए। डेवलपर्स ने निष्पक्षता के लिए _समान पहुंच और डिजिटल विभाजन_ मुद्दों पर अकादमिकों के साथ काम किया। |
+| **एल्गोरिदम निष्पक्षता** | 2018 - एमआईटी [जेंडर शेड्स अध्ययन](http://gendershades.org/overview.html) ने जेंडर वर्गीकरण एआई उत्पादों की सटीकता का मूल्यांकन किया, महिलाओं और रंग के लोगों के लिए सटीकता में अंतर को उजागर किया। एक [2019 एप्पल कार्ड](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ने महिलाओं को पुरुषों की तुलना में कम क्रेडिट की पेशकश की। दोनों ने सामाजिक-आर्थिक नुकसान की ओर ले जाने वाले एल्गोरिदम पूर्वाग्रह के मुद्दों को दर्शाया।|
+| **डेटा की गलत प्रस्तुति** | 2020 - [जॉर्जिया डिपार्टमेंट ऑफ पब्लिक हेल्थ ने COVID-19 चार्ट जारी किए](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) जो नागरिकों को पुष्टि किए गए मामलों में रुझानों के बारे में गुमराह करते हुए प्रतीत हुए, जिसमें x-अक्ष पर गैर-कालानुक्रमिक क्रम था। यह विज़ुअलाइज़ेशन ट्रिक्स के माध्यम से गलत प्रस्तुति को दर्शाता है। |
+| **स्वतंत्र विकल्प का भ्रम** | 2020 - लर्निंग ऐप [ABCmouse ने FTC शिकायत को निपटाने के लिए $10M का भुगतान किया](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) जहां माता-पिता को ऐसी सदस्यताओं के लिए भुगतान करने के लिए फंसा दिया गया जिसे वे रद्द नहीं कर सकते थे। यह चॉइस आर्किटेक्चर में डार्क पैटर्न्स को दर्शाता है, जहां उपयोगकर्ताओं को संभावित हानिकारक विकल्पों की ओर प्रेरित किया गया। |
+| **डेटा गोपनीयता और उपयोगकर्ता अधिकार** | 2021 - फेसबुक [डेटा उल्लंघन](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ने 530M उपयोगकर्ताओं का डेटा उजागर किया, जिसके परिणामस्वरूप FTC को $5B का निपटान करना पड़ा। हालांकि, इसने उपयोगकर्ताओं को उल्लंघन के बारे में सूचित करने से इनकार कर दिया, जिससे डेटा पारदर्शिता और पहुंच के आसपास उपयोगकर्ता अधिकारों का उल्लंघन हुआ। |
+
+अधिक केस स्टडीज का अन्वेषण करना चाहते हैं? इन संसाधनों को देखें:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - विभिन्न उद्योगों में नैतिक दुविधाएं।
+* [डेटा साइंस एथिक्स कोर्स](https://www.coursera.org/learn/data-science-ethics#syllabus) - प्रमुख केस स्टडीज का अन्वेषण।
+* [जहां चीजें गलत हुईं](https://deon.drivendata.org/examples/) - डिऑन चेकलिस्ट के साथ उदाहरण।
+
+> 🚨 उन केस स्टडीज के बारे में सोचें जो आपने देखी हैं - क्या आपने अपने जीवन में इसी तरह की नैतिक चुनौती का अनुभव किया है या उससे प्रभावित हुए हैं? क्या आप एक और केस स्टडी के बारे में सोच सकते हैं जो इस खंड में चर्चा की गई नैतिक चुनौतियों में से एक को दर्शाता है?
+
+## व्यावहारिक नैतिकता
+
+हमने नैतिकता की अवधारणाओं, चुनौतियों और वास्तविक दुनिया के संदर्भों में केस स्टडीज के बारे में बात की। लेकिन हम अपने प्रोजेक्ट्स में नैतिक सिद्धांतों और प्रथाओं को _लागू_ करना कैसे शुरू करें? और बेहतर शासन के लिए इन प्रथाओं को _संचालित_ कैसे करें? आइए कुछ वास्तविक दुनिया के समाधानों का अन्वेषण करें:
+
+### 1. पेशेवर कोड
+
+पेशेवर कोड संगठनों को अपने नैतिक सिद्धांतों और मिशन स्टेटमेंट का समर्थन करने के लिए सदस्यों को "प्रेरित" करने का एक विकल्प प्रदान करते हैं। कोड पेशेवर व्यवहार के लिए _नैतिक दिशानिर्देश_ हैं, जो कर्मचारियों या सदस्यों को निर्णय लेने में मदद करते हैं जो उनके संगठन के सिद्धांतों के साथ मेल खाते हैं। ये केवल सदस्यों की स्वैच्छिक अनुपालन पर निर्भर होते हैं; हालांकि, कई संगठन सदस्यों से अनुपालन को प्रेरित करने के लिए अतिरिक्त पुरस्कार और दंड प्रदान करते हैं।
+
+उदाहरण:
+ * [ऑक्सफोर्ड म्यूनिख](http://www.code-of-ethics.org/code-of-conduct/) कोड ऑफ एथिक्स
+ * [डेटा साइंस एसोसिएशन](http://datascienceassn.org/code-of-conduct.html) आचार संहिता (2013 में बनाया गया)
+ * [ACM कोड ऑफ एथिक्स एंड प्रोफेशनल कंडक्ट](https://www.acm.org/code-of-ethics) (1993 से)
+
+> 🚨 क्या आप किसी पेशेवर इंजीनियरिंग या डेटा साइंस संगठन के सदस्य हैं? उनके साइट का अन्वेषण करें और देखें कि क्या वे एक पेशेवर नैतिकता कोड को परिभाषित करते हैं। यह उनके नैतिक सिद्धांतों के बारे में क्या कहता है? वे सदस्यों को कोड का पालन करने के लिए कैसे "प्रेरित" कर रहे हैं?
+
+### 2. नैतिकता चेकलिस्ट्स
+
+जबकि पेशेवर कोड चिकित्सकों से अपेक्षित _नैतिक व्यवहार_ को परिभाषित करते हैं, वे [प्रवर्तन में ज्ञात सीमाएं](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) रखते हैं, विशेष रूप से बड़े पैमाने पर प्रोजेक्ट्स में। इसके बजाय, कई डेटा साइंस विशेषज्ञ [चेकलिस्ट्स की वकालत करते हैं](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), जो **सिद्धांतों को प्रथाओं से जोड़ सकते हैं** अधिक निर्णायक और क्रियाशील तरीकों से।
+
+चेकलिस्ट्स प्रश्नों को "हां/नहीं" कार्यों में परिवर्तित करते हैं जिन्हें संचालित किया जा सकता है, जिससे उन्हें मानक उत्पाद रिलीज़ वर्कफ़्लो का हिस्सा बनाया जा सकता है।
+
+उदाहरण:
+ * [डिऑन](https://deon.drivendata.org/) - [उद्योग सिफारिशों](https://deon.drivendata.org/#checklist-citations) से बनाया गया एक सामान्य-उद्देश्य डेटा नैतिकता चेकलिस्ट, जिसमें आसान एकीकरण के लिए एक कमांड-लाइन टूल है।
+ * [गोपनीयता ऑडिट चेकलिस्ट](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - कानूनी और सामाजिक जोखिम दृष्टिकोण से सूचना प्रबंधन प्रथाओं के लिए सामान्य मार्गदर्शन प्रदान करता है।
+ * [एआई निष्पक्षता चेकलिस्ट](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - एआई विकास चक्रों में निष्पक्षता जांच को अपनाने और एकीकृत करने के लिए एआई चिकित्सकों द्वारा बनाया गया।
+ * [डेटा और एआई में नैतिकता के लिए 22 प्रश्न](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - डिजाइन, कार्यान्वयन, और संगठनात्मक संदर्भों में नैतिक मुद्दों की प्रारंभिक खोज के लिए संरचित एक अधिक खुला ढांचा।
+
+### 3. नैतिकता नियम
+
+नैतिकता साझा मूल्यों को परिभाषित करने और _स्वेच्छा से_ सही काम करने के बारे में है। **अनुपालन** उन कानूनों का पालन करने के बारे में है जो परिभाषित किए गए हैं। **शासन** व्यापक रूप से उन सभी तरीकों को कवर करता है जिनमें संगठन नैतिक सिद्धांतों को लागू करने और स्थापित कानूनों का पालन करने के लिए काम करते हैं।
+
+आज, संगठनों के भीतर शासन दो रूप लेता है। पहला, यह **नैतिक एआई** सिद्धांतों को परिभाषित करने और संगठन में सभी एआई-संबंधित परियोजनाओं में अपनाने को संचालित करने के लिए प्रथाओं को स्थापित करने के बारे में है। दूसरा, यह उन सभी सरकारी-निर्दिष्ट **डेटा संरक्षण नियमों** का पालन करने के बारे में है जिन क्षेत्रों में यह संचालित होता है।
+
+डेटा संरक्षण और गोपनीयता नियमों के उदाहरण:
+
+ * `1974`, [यूएस प्राइवेसी एक्ट](https://www.justice.gov/opcl/privacy-act-1974) - _संघीय सरकार_ द्वारा व्यक्तिगत जानकारी के संग्रह, उपयोग और प्रकटीकरण को नियंत्रित करता है।
+ * `1996`, [यूएस हेल्थ इंश्योरेंस पोर्टेबिलिटी एंड अकाउंटेबिलिटी एक्ट (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - व्यक्तिगत स्वास्थ्य डेटा की सुरक्षा करता है।
+ * `1998`, [यूएस चिल्ड्रन्स ऑनलाइन प्राइवेसी प्रोटेक्शन एक्ट (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - 13 वर्ष से कम उम्र के बच्चों के डेटा गोपनीयता की रक्षा करता है।
+ * `2018`, [जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR)](https://gdpr-info.eu/) - उपयोगकर्ता अधिकार, डेटा संरक्षण और गोपनीयता प्रदान करता है।
+ * `2018`, [कैलिफोर्निया कंज्यूमर प्राइवेसी एक्ट (CCPA)](https://www.oag.ca.gov/privacy/ccpa) उपभोक्ताओं को उनके (व्यक्तिगत) डेटा पर अधिक _अधिकार_ देता है।
+ * `2021`, चीन का [पर्सनल इंफॉर्मेशन प्रोटेक्शन लॉ](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) हाल ही में पारित हुआ, जो दुनिया में सबसे मजबूत ऑनलाइन डेटा गोपनीयता नियमों में से एक है।
+
+> 🚨 यूरोपीय संघ द्वारा परिभाषित GDPR (जनरल डेटा प्रोटेक्शन रेगुलेशन) आज सबसे प्रभावशाली डेटा गोपनीयता नियमों में से एक है। क्या आप जानते हैं कि यह [8 उपयोगकर्ता अधिकारों](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) को भी परिभाषित करता है ताकि नागरिकों की डिजिटल गोपनीयता और व्यक्तिगत डेटा की रक्षा की जा सके? जानें कि ये क्या हैं और क्यों महत्वपूर्ण हैं।
+
+### 4. नैतिकता संस्कृति
+
+ध्यान दें कि _अनुपालन_ (कानून के "शब्द" को पूरा करने के लिए पर्याप्त करना) और [सिस्टमेटिक मुद्दों](https://www.coursera.org/learn/data-science-ethics/home/week/4) (जैसे जड़ता, सूचना विषमता, और वितरणीय अन्याय) को संबोधित करने के बीच एक अमूर्त अंतर बना रहता है, जो एआई के हथियारकरण को तेज कर सकता है।
+
+उत्तरार्द्ध के लिए [नैतिकता संस्कृतियों को परिभाषित करने के लिए सहयोगात्मक दृष्टिकोण](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) की आवश्यकता होती है जो उद्योग में _संगठनों_ के बीच भावनात्मक संबंध और सुसंगत साझा मूल्य बनाते हैं। यह संगठनों में अधिक [औपचारिक डेटा नैतिकता संस्कृतियों](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) के लिए कहता है - जिससे _कोई भी_ [एंडन कॉर्ड खींच सके](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (प्रक्रिया में जल्दी नैतिक चिंताओं को उठाने के लिए) और _नैतिक आकलन_ (जैसे, भर्ती में) एआई परियोजनाओं में टीम गठन का एक मुख्य मानदंड बना सके।
+
+---
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## समीक्षा और स्व-अध्ययन
+
+पाठ्यक्रम और पुस्तकें मुख्य नैतिकता अवधारणाओं और चुनौतियों को समझने में मदद करती हैं, जबकि केस स्टडीज और उपकरण वास्तविक दुनिया के संदर्भों में व्यावहारिक नैतिकता प्रथाओं में मदद करते हैं। यहां शुरू करने के लिए कुछ संसाधन दिए गए हैं:
+
+* [शुरुआती के लिए मशीन लर्निंग](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/
+* [जिम्मेदार AI के सिद्धांत](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn से मुफ्त लर्निंग पाथ।
+* [एथिक्स और डेटा साइंस](https://resources.oreilly.com/examples/0636920203964) - ओ'रेली ईबुक (एम. लुकाइड्स, एच. मेसन आदि)
+* [डेटा साइंस एथिक्स](https://www.coursera.org/learn/data-science-ethics#syllabus) - मिशिगन विश्वविद्यालय का ऑनलाइन कोर्स।
+* [एथिक्स अनरैप्ड](https://ethicsunwrapped.utexas.edu/case-studies) - टेक्सास विश्वविद्यालय से केस स्टडीज।
+
+# असाइनमेंट
+
+[डेटा एथिक्स केस स्टडी लिखें](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/02-ethics/assignment.md b/translations/hi/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..d8594fea
--- /dev/null
+++ b/translations/hi/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,33 @@
+
+## डेटा एथिक्स केस स्टडी लिखें
+
+## निर्देश
+
+आपने विभिन्न [डेटा एथिक्स चुनौतियों](README.md#2-ethics-challenges) के बारे में सीखा है और [केस स्टडीज](README.md#3-case-studies) के कुछ उदाहरण देखे हैं, जो वास्तविक दुनिया के संदर्भों में डेटा एथिक्स चुनौतियों को दर्शाते हैं।
+
+इस असाइनमेंट में, आप अपनी खुद की केस स्टडी लिखेंगे, जो आपके अनुभव से या किसी प्रासंगिक वास्तविक दुनिया के संदर्भ से संबंधित डेटा एथिक्स चुनौती को दर्शाएगी। बस इन चरणों का पालन करें:
+
+1. `डेटा एथिक्स चुनौती चुनें`। [पाठ के उदाहरण](README.md#2-ethics-challenges) देखें या [Deon Checklist](https://deon.drivendata.org/examples/) जैसे ऑनलाइन उदाहरणों का पता लगाएं और प्रेरणा लें।
+
+2. `एक वास्तविक दुनिया का उदाहरण वर्णित करें`। किसी ऐसी स्थिति के बारे में सोचें जिसके बारे में आपने सुना हो (समाचार, शोध अध्ययन आदि) या अनुभव किया हो (स्थानीय समुदाय), जहां यह विशेष चुनौती सामने आई हो। इस चुनौती से संबंधित डेटा एथिक्स प्रश्नों के बारे में सोचें - और उन संभावित नुकसानों या अनपेक्षित परिणामों पर चर्चा करें जो इस मुद्दे के कारण उत्पन्न होते हैं। बोनस अंक: उन संभावित समाधानों या प्रक्रियाओं के बारे में सोचें जिन्हें यहां लागू किया जा सकता है ताकि इस चुनौती के प्रतिकूल प्रभाव को समाप्त या कम किया जा सके।
+
+3. `संबंधित संसाधनों की सूची प्रदान करें`। एक या अधिक संसाधन साझा करें (किसी लेख का लिंक, व्यक्तिगत ब्लॉग पोस्ट या छवि, ऑनलाइन शोध पत्र आदि) यह साबित करने के लिए कि यह एक वास्तविक घटना थी। बोनस अंक: ऐसे संसाधन साझा करें जो घटना से होने वाले संभावित नुकसानों और परिणामों को भी उजागर करते हैं, या इसके पुनरावृत्ति को रोकने के लिए उठाए गए सकारात्मक कदमों को हाइलाइट करते हैं।
+
+
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता है
+--- | --- | -- |
+एक या अधिक डेटा एथिक्स चुनौतियों की पहचान की गई है।
केस स्टडी स्पष्ट रूप से एक वास्तविक घटना का वर्णन करती है जो उस चुनौती को दर्शाती है, और इसके कारण हुए अवांछनीय परिणामों या नुकसानों को उजागर करती है।
कम से कम एक लिंक किया गया संसाधन है जो यह साबित करता है कि यह घटना हुई थी। | एक डेटा एथिक्स चुनौती की पहचान की गई है।
कम से कम एक प्रासंगिक नुकसान या परिणाम पर संक्षेप में चर्चा की गई है।
हालांकि चर्चा सीमित है या वास्तविक घटना का प्रमाण नहीं है। | एक डेटा चुनौती की पहचान की गई है।
हालांकि विवरण या संसाधन उस चुनौती को पर्याप्त रूप से नहीं दर्शाते हैं या इसकी वास्तविक घटना को साबित नहीं करते हैं। |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/03-defining-data/README.md b/translations/hi/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..bbd0e95c
--- /dev/null
+++ b/translations/hi/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,83 @@
+
+# डेटा को परिभाषित करना
+
+| द्वारा ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|डेटा को परिभाषित करना - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+डेटा तथ्य, जानकारी, अवलोकन और माप हैं, जिनका उपयोग खोज करने और सूचित निर्णय लेने में सहायता के लिए किया जाता है। एक डेटा पॉइंट डेटा का एकल इकाई है, जो एक डेटा सेट के भीतर होता है। डेटा सेट डेटा पॉइंट्स का संग्रह होता है। डेटा सेट विभिन्न प्रारूपों और संरचनाओं में हो सकते हैं और आमतौर पर उनके स्रोत या डेटा कहां से आया है, इस पर आधारित होते हैं। उदाहरण के लिए, किसी कंपनी की मासिक आय एक स्प्रेडशीट में हो सकती है, लेकिन स्मार्टवॉच से प्राप्त प्रति घंटे की हृदय गति डेटा [JSON](https://stackoverflow.com/a/383699) प्रारूप में हो सकता है। डेटा वैज्ञानिकों के लिए यह सामान्य है कि वे एक ही डेटा सेट में विभिन्न प्रकार के डेटा के साथ काम करें।
+
+यह पाठ डेटा की विशेषताओं और उसके स्रोतों के आधार पर उसे पहचानने और वर्गीकृत करने पर केंद्रित है।
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+
+## डेटा का वर्णन कैसे किया जाता है
+
+### कच्चा डेटा (Raw Data)
+कच्चा डेटा वह डेटा है, जो अपने स्रोत से अपनी प्रारंभिक स्थिति में आता है और जिसका विश्लेषण या संगठन नहीं किया गया है। यह समझने के लिए कि डेटा सेट में क्या हो रहा है, इसे एक ऐसे प्रारूप में व्यवस्थित करना आवश्यक है, जिसे मनुष्य और वह तकनीक समझ सके, जिसका उपयोग वे इसे और अधिक विश्लेषण करने के लिए कर सकते हैं। डेटा सेट की संरचना यह बताती है कि इसे कैसे व्यवस्थित किया गया है और इसे संरचित, असंरचित और अर्ध-संरचित के रूप में वर्गीकृत किया जा सकता है। ये संरचनाएं स्रोत के आधार पर भिन्न हो सकती हैं, लेकिन अंततः इन तीन श्रेणियों में फिट होती हैं।
+
+### मात्रात्मक डेटा (Quantitative Data)
+मात्रात्मक डेटा डेटा सेट के भीतर संख्यात्मक अवलोकन है और आमतौर पर इसका विश्लेषण, मापन और गणितीय रूप से उपयोग किया जा सकता है। मात्रात्मक डेटा के कुछ उदाहरण हैं: किसी देश की जनसंख्या, किसी व्यक्ति की ऊंचाई या किसी कंपनी की तिमाही आय। कुछ अतिरिक्त विश्लेषण के साथ, मात्रात्मक डेटा का उपयोग वायु गुणवत्ता सूचकांक (AQI) के मौसमी रुझानों की खोज करने या किसी सामान्य कार्य दिवस पर ट्रैफिक की संभावना का अनुमान लगाने के लिए किया जा सकता है।
+
+### गुणात्मक डेटा (Qualitative Data)
+गुणात्मक डेटा, जिसे श्रेणीबद्ध डेटा (categorical data) भी कहा जाता है, वह डेटा है जिसे मात्रात्मक डेटा के अवलोकन की तरह वस्तुनिष्ठ रूप से मापा नहीं जा सकता। यह आमतौर पर विभिन्न प्रारूपों में व्यक्तिपरक डेटा होता है, जो किसी उत्पाद या प्रक्रिया की गुणवत्ता को कैप्चर करता है। कभी-कभी, गुणात्मक डेटा संख्यात्मक होता है, लेकिन इसे आमतौर पर गणितीय रूप से उपयोग नहीं किया जाता, जैसे फोन नंबर या टाइमस्टैम्प। गुणात्मक डेटा के कुछ उदाहरण हैं: वीडियो टिप्पणियां, कार का ब्रांड और मॉडल, या आपके सबसे करीबी दोस्तों का पसंदीदा रंग। गुणात्मक डेटा का उपयोग यह समझने के लिए किया जा सकता है कि उपभोक्ताओं को कौन से उत्पाद सबसे अधिक पसंद हैं या नौकरी आवेदन रिज्यूमे में लोकप्रिय कीवर्ड की पहचान करने के लिए।
+
+### संरचित डेटा (Structured Data)
+संरचित डेटा वह डेटा है, जिसे पंक्तियों और स्तंभों में व्यवस्थित किया गया है, जहां प्रत्येक पंक्ति में समान सेट के स्तंभ होंगे। स्तंभ किसी विशेष प्रकार के मान का प्रतिनिधित्व करते हैं और यह नामित होते हैं, जो यह बताते हैं कि मान क्या दर्शाता है, जबकि पंक्तियां वास्तविक मानों को रखती हैं। स्तंभों में अक्सर मानों पर एक विशिष्ट सेट के नियम या प्रतिबंध होते हैं, ताकि यह सुनिश्चित किया जा सके कि मान सही तरीके से स्तंभ का प्रतिनिधित्व करते हैं। उदाहरण के लिए, ग्राहकों की एक स्प्रेडशीट की कल्पना करें, जहां प्रत्येक पंक्ति में एक फोन नंबर होना चाहिए और फोन नंबरों में कभी भी वर्णमाला के अक्षर नहीं होने चाहिए। फोन नंबर स्तंभ पर यह सुनिश्चित करने के लिए नियम लागू किए जा सकते हैं कि यह कभी खाली न हो और केवल संख्याएं ही हों।
+
+संरचित डेटा का एक लाभ यह है कि इसे इस तरह से व्यवस्थित किया जा सकता है कि इसे अन्य संरचित डेटा से जोड़ा जा सके। हालांकि, क्योंकि डेटा को एक विशिष्ट तरीके से व्यवस्थित करने के लिए डिज़ाइन किया गया है, इसकी समग्र संरचना में परिवर्तन करना काफी प्रयास ले सकता है। उदाहरण के लिए, ग्राहक स्प्रेडशीट में एक ईमेल स्तंभ जोड़ना, जो खाली नहीं हो सकता, इसका मतलब है कि आपको यह पता लगाना होगा कि मौजूदा ग्राहकों की पंक्तियों में इन मानों को कैसे जोड़ा जाए।
+
+संरचित डेटा के उदाहरण: स्प्रेडशीट, रिलेशनल डेटाबेस, फोन नंबर, बैंक स्टेटमेंट
+
+### असंरचित डेटा (Unstructured Data)
+असंरचित डेटा आमतौर पर पंक्तियों या स्तंभों में वर्गीकृत नहीं किया जा सकता और इसमें किसी प्रारूप या नियमों का सेट नहीं होता। क्योंकि असंरचित डेटा की संरचना पर कम प्रतिबंध होते हैं, इसकी तुलना में नए डेटा को जोड़ना आसान होता है। उदाहरण के लिए, यदि एक सेंसर जो हर 2 मिनट पर वायुमंडलीय दबाव का डेटा कैप्चर करता है, को एक अपडेट मिलता है, जो अब इसे तापमान मापने और रिकॉर्ड करने की अनुमति देता है, तो यदि यह असंरचित है, तो मौजूदा डेटा को बदलने की आवश्यकता नहीं होती। हालांकि, इस प्रकार के डेटा का विश्लेषण या जांच करने में अधिक समय लग सकता है। उदाहरण के लिए, एक वैज्ञानिक जो पिछले महीने के औसत तापमान को सेंसर के डेटा से निकालना चाहता है, लेकिन यह पाता है कि सेंसर ने अपने कुछ रिकॉर्ड किए गए डेटा में "e" दर्ज किया है, यह बताने के लिए कि यह टूट गया था, जिससे डेटा अधूरा हो गया।
+
+असंरचित डेटा के उदाहरण: टेक्स्ट फाइलें, टेक्स्ट संदेश, वीडियो फाइलें
+
+### अर्ध-संरचित डेटा (Semi-structured Data)
+अर्ध-संरचित डेटा में ऐसी विशेषताएं होती हैं, जो इसे संरचित और असंरचित डेटा का संयोजन बनाती हैं। यह आमतौर पर पंक्तियों और स्तंभों के प्रारूप का पालन नहीं करता, लेकिन इसे इस तरह से व्यवस्थित किया जाता है, जिसे संरचित माना जाता है और यह एक निश्चित प्रारूप या नियमों के सेट का पालन कर सकता है। संरचना स्रोतों के बीच भिन्न होगी, जैसे कि एक अच्छी तरह से परिभाषित पदानुक्रम से लेकर कुछ अधिक लचीला, जो नई जानकारी के आसान एकीकरण की अनुमति देता है। मेटाडेटा संकेतक होते हैं, जो यह तय करने में मदद करते हैं कि डेटा को कैसे व्यवस्थित और संग्रहीत किया जाए और इसे डेटा के प्रकार के आधार पर विभिन्न नाम दिए जाते हैं। मेटाडेटा के कुछ सामान्य नाम हैं टैग, तत्व, इकाइयां और विशेषताएं। उदाहरण के लिए, एक सामान्य ईमेल संदेश में एक विषय, मुख्य भाग और प्राप्तकर्ताओं का एक सेट होगा और इसे इस आधार पर व्यवस्थित किया जा सकता है कि इसे किसने या कब भेजा।
+
+अर्ध-संरचित डेटा के उदाहरण: HTML, CSV फाइलें, जावास्क्रिप्ट ऑब्जेक्ट नोटेशन (JSON)
+
+## डेटा के स्रोत
+
+डेटा स्रोत वह प्रारंभिक स्थान है, जहां डेटा उत्पन्न हुआ या "रहता" है और यह इस बात पर निर्भर करेगा कि इसे कैसे और कब एकत्र किया गया। उपयोगकर्ता द्वारा उत्पन्न डेटा को प्राथमिक डेटा कहा जाता है, जबकि माध्यमिक डेटा उस स्रोत से आता है, जिसने सामान्य उपयोग के लिए डेटा एकत्र किया है। उदाहरण के लिए, वर्षावन में अवलोकन एकत्र करने वाले वैज्ञानिकों का एक समूह प्राथमिक माना जाएगा और यदि वे इसे अन्य वैज्ञानिकों के साथ साझा करने का निर्णय लेते हैं, तो इसे उन लोगों के लिए माध्यमिक माना जाएगा, जो इसका उपयोग करते हैं।
+
+डेटाबेस एक सामान्य स्रोत हैं और डेटा को होस्ट और बनाए रखने के लिए डेटाबेस प्रबंधन प्रणाली पर निर्भर करते हैं, जहां उपयोगकर्ता डेटा का पता लगाने के लिए क्वेरी नामक कमांड का उपयोग करते हैं। फाइलें डेटा स्रोत के रूप में ऑडियो, छवि और वीडियो फाइलें हो सकती हैं, साथ ही एक्सेल जैसी स्प्रेडशीट भी। इंटरनेट स्रोत डेटा को होस्ट करने के लिए एक सामान्य स्थान है, जहां डेटाबेस और फाइलें दोनों पाई जा सकती हैं। एप्लिकेशन प्रोग्रामिंग इंटरफेस, जिसे एपीआई भी कहा जाता है, प्रोग्रामर्स को इंटरनेट के माध्यम से बाहरी उपयोगकर्ताओं के साथ डेटा साझा करने के तरीके बनाने की अनुमति देते हैं, जबकि वेब स्क्रैपिंग एक वेब पेज से डेटा निकालने की प्रक्रिया है। [डेटा के साथ काम करने वाले पाठ](../../../../../../../../../2-Working-With-Data) विभिन्न डेटा स्रोतों का उपयोग करने पर ध्यान केंद्रित करते हैं।
+
+## निष्कर्ष
+
+इस पाठ में हमने सीखा:
+
+- डेटा क्या है
+- डेटा का वर्णन कैसे किया जाता है
+- डेटा को कैसे वर्गीकृत और श्रेणीबद्ध किया जाता है
+- डेटा कहां पाया जा सकता है
+
+## 🚀 चुनौती
+
+Kaggle खुले डेटा सेट्स का एक उत्कृष्ट स्रोत है। [डेटा सेट खोज उपकरण](https://www.kaggle.com/datasets) का उपयोग करके कुछ रोचक डेटा सेट खोजें और 3-5 डेटा सेट को इस मानदंड के साथ वर्गीकृत करें:
+
+- क्या डेटा मात्रात्मक है या गुणात्मक?
+- क्या डेटा संरचित, असंरचित या अर्ध-संरचित है?
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## समीक्षा और स्व-अध्ययन
+
+- Microsoft Learn की यह इकाई, जिसका शीर्षक है [अपने डेटा को वर्गीकृत करें](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), संरचित, अर्ध-संरचित और असंरचित डेटा का विस्तृत विवरण प्रदान करती है।
+
+## असाइनमेंट
+
+[डेटा सेट्स को वर्गीकृत करना](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/03-defining-data/assignment.md b/translations/hi/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..fbdded4e
--- /dev/null
+++ b/translations/hi/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,77 @@
+
+# डेटा सेट वर्गीकृत करना
+
+## निर्देश
+
+इस असाइनमेंट में दिए गए संकेतों का पालन करें और प्रत्येक डेटा प्रकार के साथ डेटा की पहचान करें और उसे वर्गीकृत करें:
+
+**संरचना प्रकार**: संरचित, अर्ध-संरचित, या असंरचित
+
+**मूल्य प्रकार**: गुणात्मक या मात्रात्मक
+
+**स्रोत प्रकार**: प्राथमिक या द्वितीयक
+
+1. एक कंपनी का अधिग्रहण किया गया है और अब उसका एक मूल कंपनी है। डेटा वैज्ञानिकों को मूल कंपनी से ग्राहकों के फोन नंबरों की एक स्प्रेडशीट प्राप्त हुई है।
+
+संरचना प्रकार:
+
+मूल्य प्रकार:
+
+स्रोत प्रकार:
+
+---
+
+2. एक स्मार्ट वॉच अपने उपयोगकर्ता से हार्ट रेट डेटा एकत्र कर रही है, और कच्चा डेटा JSON प्रारूप में है।
+
+संरचना प्रकार:
+
+मूल्य प्रकार:
+
+स्रोत प्रकार:
+
+---
+
+3. कर्मचारी मनोबल पर एक कार्यस्थल सर्वेक्षण जो CSV फ़ाइल में संग्रहीत है।
+
+संरचना प्रकार:
+
+मूल्य प्रकार:
+
+स्रोत प्रकार:
+
+---
+
+4. खगोल भौतिकीविद एक अंतरिक्ष जांच द्वारा एकत्रित आकाशगंगाओं के डेटाबेस तक पहुंच रहे हैं। डेटा में प्रत्येक आकाशगंगा में ग्रहों की संख्या शामिल है।
+
+संरचना प्रकार:
+
+मूल्य प्रकार:
+
+स्रोत प्रकार:
+
+---
+
+5. एक व्यक्तिगत वित्त ऐप उपयोगकर्ता के वित्तीय खातों से जुड़ने के लिए API का उपयोग करता है ताकि उनकी कुल संपत्ति की गणना की जा सके। वे अपनी सभी लेन-देन को पंक्तियों और स्तंभों के प्रारूप में देख सकते हैं, जो स्प्रेडशीट के समान दिखता है।
+
+संरचना प्रकार:
+
+मूल्य प्रकार:
+
+स्रोत प्रकार:
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+सभी संरचना, मूल्य, और स्रोतों को सही ढंग से पहचानता है | 3 संरचना, मूल्य, और स्रोतों को सही ढंग से पहचानता है | 2 या उससे कम संरचना, मूल्य, और स्रोतों को सही ढंग से पहचानता है |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/04-stats-and-probability/README.md b/translations/hi/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..1783136c
--- /dev/null
+++ b/translations/hi/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,217 @@
+
+# सांख्यिकी और संभाव्यता का संक्षिप्त परिचय
+
+| द्वारा ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| सांख्यिकी और संभाव्यता - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+सांख्यिकी और संभाव्यता सिद्धांत गणित के दो अत्यधिक संबंधित क्षेत्र हैं जो डेटा विज्ञान के लिए बहुत प्रासंगिक हैं। गणित का गहन ज्ञान न होने पर भी डेटा के साथ काम करना संभव है, लेकिन कुछ बुनियादी अवधारणाओं को जानना हमेशा बेहतर होता है। यहां हम एक छोटा परिचय प्रस्तुत करेंगे जो आपको शुरुआत करने में मदद करेगा।
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [पूर्व-व्याख्यान क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## संभाव्यता और रैंडम वेरिएबल्स
+
+**संभाव्यता** 0 और 1 के बीच की एक संख्या है जो किसी **घटना** के होने की संभावना को व्यक्त करती है। इसे सकारात्मक परिणामों की संख्या (जो घटना की ओर ले जाते हैं) को कुल परिणामों की संख्या से विभाजित करके परिभाषित किया जाता है, यह मानते हुए कि सभी परिणाम समान रूप से संभावित हैं। उदाहरण के लिए, जब हम एक पासा फेंकते हैं, तो एक सम संख्या प्राप्त करने की संभावना 3/6 = 0.5 है।
+
+जब हम घटनाओं के बारे में बात करते हैं, तो हम **रैंडम वेरिएबल्स** का उपयोग करते हैं। उदाहरण के लिए, पासा फेंकने पर प्राप्त संख्या का प्रतिनिधित्व करने वाला रैंडम वेरिएबल 1 से 6 तक के मान लेगा। 1 से 6 तक की संख्या का सेट **सैंपल स्पेस** कहलाता है। हम रैंडम वेरिएबल के किसी निश्चित मान लेने की संभावना के बारे में बात कर सकते हैं, जैसे P(X=3)=1/6।
+
+पिछले उदाहरण में रैंडम वेरिएबल को **डिस्क्रीट** कहा जाता है, क्योंकि इसका सैंपल स्पेस गिनने योग्य है, यानी अलग-अलग मान हैं जिन्हें सूचीबद्ध किया जा सकता है। ऐसे मामले भी होते हैं जब सैंपल स्पेस वास्तविक संख्याओं की एक सीमा या पूरे वास्तविक संख्याओं का सेट होता है। ऐसे वेरिएबल्स को **कंटीन्यस** कहा जाता है। एक अच्छा उदाहरण है बस के आने का समय।
+
+## संभाव्यता वितरण
+
+डिस्क्रीट रैंडम वेरिएबल्स के मामले में, प्रत्येक घटना की संभावना को एक फ़ंक्शन P(X) द्वारा वर्णित करना आसान है। सैंपल स्पेस *S* से प्रत्येक मान *s* के लिए यह 0 से 1 तक की संख्या देगा, ताकि सभी घटनाओं के लिए P(X=s) के सभी मानों का योग 1 हो।
+
+सबसे प्रसिद्ध डिस्क्रीट वितरण **यूनिफॉर्म वितरण** है, जिसमें N तत्वों का सैंपल स्पेस होता है, और प्रत्येक के लिए समान संभावना 1/N होती है।
+
+कंटीन्यस वेरिएबल के संभाव्यता वितरण का वर्णन करना अधिक कठिन है, जिसमें मान [a,b] के कुछ अंतराल या पूरे वास्तविक संख्याओं ℝ से लिए जाते हैं। बस के आने के समय के मामले पर विचार करें। वास्तव में, प्रत्येक सटीक समय *t* पर बस के आने की संभावना 0 है!
+
+> अब आप जानते हैं कि 0 संभावना वाली घटनाएं होती हैं, और बहुत बार होती हैं! कम से कम हर बार जब बस आती है!
+
+हम केवल वेरिएबल के किसी दिए गए मानों के अंतराल में गिरने की संभावना के बारे में बात कर सकते हैं, जैसे P(t1≤X2)। इस मामले में, संभाव्यता वितरण को **संभाव्यता घनत्व फ़ंक्शन** p(x) द्वारा वर्णित किया जाता है, ताकि
+
+![P(t_1\le X1, x2, ..., xn। हम अनुक्रम के **माध्य** (या **गणितीय औसत**) मान को पारंपरिक तरीके से परिभाषित कर सकते हैं: (x1+x2+xn)/n। जैसे-जैसे हम नमूने का आकार बढ़ाते हैं (यानी n→∞ की सीमा लेते हैं), हम वितरण का माध्य (जिसे **अपेक्षा** भी कहा जाता है) प्राप्त करेंगे। हम अपेक्षा को **E**(x) द्वारा दर्शाएंगे।
+
+> यह प्रदर्शित किया जा सकता है कि किसी भी डिस्क्रीट वितरण के लिए, जिसमें मान {x1, x2, ..., xN} और संबंधित संभावनाएं p1, p2, ..., pN हैं, अपेक्षा E(X)=x1p1+x2p2+...+xNpN के बराबर होगी।
+
+यह पहचानने के लिए कि मान कितने दूर फैले हुए हैं, हम विचलन σ2 = ∑(xi - μ)2/n की गणना कर सकते हैं, जहां μ अनुक्रम का माध्य है। मान σ को **मानक विचलन** कहा जाता है, और σ2 को **विचलन** कहा जाता है।
+
+## मोड, माध्यिका और क्वारटाइल्स
+
+कभी-कभी, माध्य डेटा के "सामान्य" मान को पर्याप्त रूप से प्रस्तुत नहीं करता। उदाहरण के लिए, जब कुछ चरम मान होते हैं जो पूरी तरह से सीमा से बाहर होते हैं, तो वे माध्य को प्रभावित कर सकते हैं। एक अन्य अच्छा संकेतक **माध्यिका** है, एक ऐसा मान जिसके नीचे आधे डेटा पॉइंट होते हैं, और आधे - ऊपर।
+
+डेटा के वितरण को समझने में मदद करने के लिए, **क्वारटाइल्स** के बारे में बात करना उपयोगी है:
+
+* पहला क्वारटाइल, या Q1, एक ऐसा मान है, जिसके नीचे 25% डेटा गिरता है
+* तीसरा क्वारटाइल, या Q3, एक ऐसा मान है जिसके नीचे 75% डेटा गिरता है
+
+ग्राफ़िक रूप से हम माध्यिका और क्वारटाइल्स के बीच संबंध को **बॉक्स प्लॉट** नामक एक आरेख में प्रस्तुत कर सकते हैं:
+
+
+
+यहां हम **इंटर-क्वारटाइल रेंज** IQR=Q3-Q1 और तथाकथित **आउटलायर्स** - मान, जो सीमाओं [Q1-1.5*IQR,Q3+1.5*IQR] के बाहर होते हैं, की भी गणना करते हैं।
+
+एक सीमित वितरण जिसमें संभावित मानों की संख्या कम होती है, एक अच्छा "सामान्य" मान वह होता है जो सबसे अधिक बार प्रकट होता है, जिसे **मोड** कहा जाता है। यह अक्सर श्रेणीबद्ध डेटा, जैसे रंगों, पर लागू होता है। मान लें कि हमारे पास दो समूह हैं - कुछ जो लाल रंग को बहुत पसंद करते हैं, और अन्य जो नीले रंग को पसंद करते हैं। यदि हम रंगों को संख्याओं द्वारा कोड करते हैं, तो पसंदीदा रंग के लिए माध्य मान कहीं नारंगी-हरे स्पेक्ट्रम में होगा, जो किसी भी समूह की वास्तविक पसंद को इंगित नहीं करता। हालांकि, मोड या तो एक रंग होगा, या दोनों रंग, यदि उनके लिए वोट करने वाले लोगों की संख्या समान है (इस मामले में हम नमूने को **मल्टीमोडल** कहते हैं)।
+
+## वास्तविक दुनिया का डेटा
+
+जब हम वास्तविक जीवन के डेटा का विश्लेषण करते हैं, तो वे अक्सर रैंडम वेरिएबल्स के रूप में नहीं होते हैं, इस अर्थ में कि हम अज्ञात परिणामों के साथ प्रयोग नहीं करते। उदाहरण के लिए, बेसबॉल खिलाड़ियों की एक टीम पर विचार करें, और उनके शरीर के डेटा, जैसे ऊंचाई, वजन और उम्र। ये संख्याएं बिल्कुल रैंडम नहीं हैं, लेकिन हम अभी भी उन्हीं गणितीय अवधारणाओं को लागू कर सकते हैं। उदाहरण के लिए, लोगों के वजन का अनुक्रम कुछ रैंडम वेरिएबल से लिए गए मानों का अनुक्रम माना जा सकता है। नीचे [मेजर लीग बेसबॉल](http://mlb.mlb.com/index.jsp) के वास्तविक बेसबॉल खिलाड़ियों के वजन का अनुक्रम है, जो [इस डेटासेट](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) से लिया गया है (आपकी सुविधा के लिए, केवल पहले 20 मान दिखाए गए हैं):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **नोट**: इस डेटासेट के साथ काम करने के उदाहरण को देखने के लिए, [संबंधित नोटबुक](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) पर एक नज़र डालें। इस पाठ में कई चुनौतियां भी हैं, और आप उस नोटबुक में कुछ कोड जोड़कर उन्हें पूरा कर सकते हैं। यदि आप डेटा पर काम करने के तरीके के बारे में सुनिश्चित नहीं हैं, तो चिंता न करें - हम बाद में Python का उपयोग करके डेटा पर काम करने पर वापस आएंगे। यदि आप Jupyter Notebook में कोड चलाने का तरीका नहीं जानते हैं, तो [इस लेख](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) को देखें।
+
+यहां हमारे डेटा के लिए माध्य, माध्यिका और क्वारटाइल्स दिखाने वाला बॉक्स प्लॉट है:
+
+
+
+चूंकि हमारे डेटा में विभिन्न खिलाड़ी **भूमिकाओं** के बारे में जानकारी है, हम भूमिका के अनुसार बॉक्स प्लॉट भी बना सकते हैं - यह हमें यह विचार करने की अनुमति देगा कि पैरामीटर मान भूमिकाओं के बीच कैसे भिन्न होते हैं। इस बार हम ऊंचाई पर विचार करेंगे:
+
+
+
+यह आरेख सुझाव देता है कि, औसतन, पहले बेसमैन की ऊंचाई दूसरे बेसमैन की ऊंचाई से अधिक है। इस पाठ में बाद में हम सीखेंगे कि हम इस परिकल्पना का अधिक औपचारिक रूप से परीक्षण कैसे कर सकते हैं, और यह प्रदर्शित कर सकते हैं कि हमारे डेटा सांख्यिकीय रूप से महत्वपूर्ण है।
+
+> जब वास्तविक दुनिया के डेटा के साथ काम करते हैं, तो हम मानते हैं कि सभी डेटा पॉइंट्स कुछ संभाव्यता वितरण से लिए गए नमूने हैं। यह धारणा हमें मशीन लर्निंग तकनीकों को लागू करने और काम करने वाले भविष्यवाणी मॉडल बनाने की अनुमति देती है।
+
+हमारे डेटा का वितरण देखने के लिए, हम **हिस्टोग्राम** नामक एक ग्राफ़ बना सकते हैं। X-अक्ष में विभिन्न वजन अंतराल (जिसे **बिन्स** कहा जाता है) की संख्या होगी, और वर्टिकल अक्ष में यह दिखाएगा कि हमारा रैंडम वेरिएबल नमूना दिए गए अंतराल में कितनी बार था।
+
+
+
+इस हिस्टोग्राम से आप देख सकते हैं कि सभी मान एक निश्चित औसत वजन के आसपास केंद्रित हैं, और जैसे-जैसे हम उस वजन से दूर जाते हैं - उस मान के वजन कम बार मिलते हैं। यानी, यह बहुत ही असंभावित है कि बेसबॉल खिलाड़ी का वजन औसत वजन से बहुत अलग होगा। वजन का विचलन दिखाता है कि वजन औसत से कितना भिन्न होने की संभावना है।
+
+> यदि हम अन्य लोगों के वजन लेते हैं, जो बेसबॉल लीग से नहीं हैं, तो वितरण अलग होने की संभावना है। हालांकि, वितरण का आकार समान रहेगा, लेकिन माध्य और विचलन बदल जाएंगे। इसलिए, यदि हम अपने मॉडल को बेसबॉल खिलाड़ियों पर प्रशिक्षित करते हैं, तो यह विश्वविद्यालय के छात्रों पर लागू होने पर गलत परिणाम देने की संभावना है, क्योंकि अंतर्निहित वितरण अलग है।
+
+## नॉर्मल वितरण
+
+ऊपर हमने जो वजन का वितरण देखा वह बहुत सामान्य है, और वास्तविक दुनिया से कई माप एक ही प्रकार के वितरण का पालन करते हैं, लेकिन अलग-अलग माध्य और विचलन के साथ। इस वितरण को **नॉर्मल वितरण** कहा जाता है, और यह सांख्यिकी में बहुत महत्वपूर्ण भूमिका निभाता है।
+
+नॉर्मल वितरण का उपयोग संभावित बेसबॉल खिलाड़ियों के यादृच्छिक वजन उत्पन्न करने का सही तरीका है। एक बार जब हम औसत वजन `mean` और मानक विचलन `std` जानते हैं, तो हम निम्नलिखित तरीके से 1000 वजन नमूने उत्पन्न कर सकते हैं:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+यदि हम उत्पन्न नमूनों का हिस्टोग्राम बनाते हैं, तो हम ऊपर दिखाए गए चित्र के समान चित्र देखेंगे। और यदि हम नमूनों की संख्या और बिन्स की संख्या बढ़ाते हैं, तो हम नॉर्मल वितरण की एक अधिक आदर्श तस्वीर उत्पन्न कर सकते हैं:
+
+
+
+*माध्य=0 और मानक विचलन=1 के साथ नॉर्मल वितरण*
+
+## विश्वास अंतराल
+
+जब हम बेसबॉल खिलाड़ियों के वजन के बारे में बात करते हैं, तो हम मानते हैं कि एक निश्चित **रैंडम वेरिएबल W** है जो सभी बेसबॉल खिलाड़ियों के वजन के आदर्श संभाव्यता वितरण (जिसे **पॉपुलेशन** कहा जाता है) से मेल खाता है। हमारे वजन का अनुक्रम सभी बेसबॉल खिलाड़ियों के एक उपसमुच्चय से मेल खाता है जिसे हम **नमूना** कहते हैं। एक दिलचस्प सवाल यह है कि क्या हम W के वितरण के पैरामीटर, यानी पॉपुलेशन के माध्य और विचलन को जान सकते हैं?
+
+सबसे आसान उत्तर होगा हमारे नमूने के माध्य और विचलन की गणना करना। हालांकि, ऐसा हो सकता है कि हमारा यादृच्छिक नमूना पूरी पॉपुलेशन का सटीक प्रतिनिधित्व न करे। इसलिए **विश्वास अंतराल** के बारे में बात करना समझ में आता है।
+> **कॉन्फिडेंस इंटरवल** हमारे सैंपल के आधार पर जनसंख्या के सही औसत का अनुमान है, जो एक निश्चित संभावना (या **विश्वास स्तर**) के साथ सटीक होता है।
+मान लीजिए हमारे वितरण से X1, ..., Xn का एक नमूना है। हर बार जब हम अपने वितरण से एक नमूना लेते हैं, तो हमें अलग-अलग औसत मान μ प्राप्त होता है। इसलिए μ को एक यादृच्छिक चर माना जा सकता है। **विश्वास अंतराल** (confidence interval) जिसमें विश्वास p है, दो मानों (Lp,Rp) का एक जोड़ा है, ऐसा कि **P**(Lp≤μ≤Rp) = p, यानी मापा गया औसत मान इस अंतराल में आने की संभावना p के बराबर है।
+
+यहां विस्तार से चर्चा करना कि ये विश्वास अंतराल कैसे गणना किए जाते हैं, हमारे संक्षिप्त परिचय से परे है। कुछ और विवरण [विकिपीडिया](https://en.wikipedia.org/wiki/Confidence_interval) पर पाए जा सकते हैं। संक्षेप में, हम जनसंख्या के वास्तविक औसत के सापेक्ष गणना किए गए नमूना औसत के वितरण को परिभाषित करते हैं, जिसे **स्टूडेंट वितरण** (student distribution) कहा जाता है।
+
+> **रोचक तथ्य**: स्टूडेंट वितरण का नाम गणितज्ञ विलियम सीली गॉसेट के नाम पर रखा गया है, जिन्होंने "स्टूडेंट" उपनाम के तहत अपना पेपर प्रकाशित किया। वह गिनीज ब्रुअरी में काम करते थे, और एक संस्करण के अनुसार, उनके नियोक्ता नहीं चाहते थे कि आम जनता को पता चले कि वे कच्चे माल की गुणवत्ता निर्धारित करने के लिए सांख्यिकीय परीक्षणों का उपयोग कर रहे थे।
+
+यदि हम अपनी जनसंख्या के औसत μ को विश्वास p के साथ अनुमानित करना चाहते हैं, तो हमें स्टूडेंट वितरण A का *(1-p)/2-थ प्रतिशतक* लेना होगा, जिसे या तो तालिकाओं से लिया जा सकता है, या सांख्यिकीय सॉफ़्टवेयर (जैसे Python, R, आदि) के कुछ अंतर्निहित कार्यों का उपयोग करके गणना किया जा सकता है। फिर μ के लिए अंतराल X±A*D/√n होगा, जहां X नमूने का प्राप्त औसत है, और D मानक विचलन है।
+
+> **नोट**: हम [डिग्री ऑफ फ्रीडम](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)) की एक महत्वपूर्ण अवधारणा की चर्चा भी छोड़ देते हैं, जो स्टूडेंट वितरण के संबंध में महत्वपूर्ण है। इस अवधारणा को गहराई से समझने के लिए आप सांख्यिकी पर अधिक पूर्ण पुस्तकों का संदर्भ ले सकते हैं।
+
+वजन और ऊंचाई के लिए विश्वास अंतराल की गणना का एक उदाहरण [संबंधित नोटबुक](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) में दिया गया है।
+
+| p | वजन का औसत |
+|-----|-----------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+ध्यान दें कि जैसे-जैसे विश्वास संभावना बढ़ती है, विश्वास अंतराल चौड़ा होता जाता है।
+
+## परिकल्पना परीक्षण
+
+हमारे बेसबॉल खिलाड़ियों के डेटासेट में विभिन्न खिलाड़ी भूमिकाएं हैं, जिन्हें नीचे सारांशित किया जा सकता है (देखें [संबंधित नोटबुक](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) कि यह तालिका कैसे गणना की जा सकती है):
+
+| भूमिका | ऊंचाई | वजन | संख्या |
+|------|--------|--------|-------|
+| कैचर | 72.723684 | 204.328947 | 76 |
+| डिज़िग्नेटेड हिटर | 74.222222 | 220.888889 | 18 |
+| फर्स्ट बेसमैन | 74.000000 | 213.109091 | 55 |
+| आउटफील्डर | 73.010309 | 199.113402 | 194 |
+| रिलीफ पिचर | 74.374603 | 203.517460 | 315 |
+| सेकंड बेसमैन | 71.362069 | 184.344828 | 58 |
+| शॉर्टस्टॉप | 71.903846 | 182.923077 | 52 |
+| स्टार्टिंग पिचर | 74.719457 | 205.163636 | 221 |
+| थर्ड बेसमैन | 73.044444 | 200.955556 | 45 |
+
+हम देख सकते हैं कि फर्स्ट बेसमैन की औसत ऊंचाई सेकंड बेसमैन की तुलना में अधिक है। इसलिए, हम यह निष्कर्ष निकालने के लिए प्रेरित हो सकते हैं कि **फर्स्ट बेसमैन सेकंड बेसमैन से ऊंचे हैं**।
+
+> इस कथन को **एक परिकल्पना** कहा जाता है, क्योंकि हमें नहीं पता कि यह तथ्य वास्तव में सही है या नहीं।
+
+हालांकि, यह हमेशा स्पष्ट नहीं होता कि हम यह निष्कर्ष निकाल सकते हैं। ऊपर की चर्चा से हम जानते हैं कि प्रत्येक औसत का एक संबंधित विश्वास अंतराल होता है, और इसलिए यह अंतर केवल एक सांख्यिकीय त्रुटि हो सकता है। हमें अपनी परिकल्पना का परीक्षण करने के लिए कुछ अधिक औपचारिक तरीके की आवश्यकता है।
+
+आइए फर्स्ट और सेकंड बेसमैन की ऊंचाई के लिए विश्वास अंतराल अलग-अलग गणना करें:
+
+| विश्वास | फर्स्ट बेसमैन | सेकंड बेसमैन |
+|------------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+हम देख सकते हैं कि किसी भी विश्वास स्तर पर अंतराल ओवरलैप नहीं करते। यह हमारी परिकल्पना को साबित करता है कि फर्स्ट बेसमैन सेकंड बेसमैन से ऊंचे हैं।
+
+अधिक औपचारिक रूप से, हम जिस समस्या को हल कर रहे हैं वह यह देखना है कि **दो संभावना वितरण समान हैं**, या कम से कम उनके समान पैरामीटर हैं। वितरण के आधार पर, हमें इसके लिए अलग-अलग परीक्षणों का उपयोग करना होगा। यदि हमें पता है कि हमारे वितरण सामान्य हैं, तो हम **[स्टूडेंट t-परीक्षण](https://en.wikipedia.org/wiki/Student%27s_t-test)** लागू कर सकते हैं।
+
+स्टूडेंट t-परीक्षण में, हम तथाकथित **t-मूल्य** की गणना करते हैं, जो औसत के बीच अंतर को इंगित करता है, और विचलन को ध्यान में रखता है। यह प्रदर्शित किया गया है कि t-मूल्य **स्टूडेंट वितरण** का अनुसरण करता है, जो हमें दिए गए विश्वास स्तर **p** के लिए सीमा मान प्राप्त करने की अनुमति देता है (यह गणना किया जा सकता है, या संख्यात्मक तालिकाओं में देखा जा सकता है)। फिर हम t-मूल्य की तुलना इस सीमा से करते हैं ताकि परिकल्पना को स्वीकार या अस्वीकार किया जा सके।
+
+Python में, हम **SciPy** पैकेज का उपयोग कर सकते हैं, जिसमें `ttest_ind` फ़ंक्शन शामिल है (सांख्यिकीय कार्यों के कई अन्य उपयोगी कार्यों के अलावा!)। यह हमारे लिए t-मूल्य की गणना करता है, और विश्वास p-मूल्य का रिवर्स लुकअप भी करता है, ताकि हम केवल विश्वास को देखकर निष्कर्ष निकाल सकें।
+
+उदाहरण के लिए, फर्स्ट और सेकंड बेसमैन की ऊंचाई की तुलना हमें निम्नलिखित परिणाम देती है:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+हमारे मामले में, p-मूल्य बहुत कम है, जिसका अर्थ है कि फर्स्ट बेसमैन के ऊंचे होने का समर्थन करने वाले मजबूत प्रमाण हैं।
+
+इसके अलावा, अन्य प्रकार की परिकल्पनाएं भी हैं जिन्हें हम परीक्षण करना चाह सकते हैं, जैसे:
+* यह साबित करना कि दिया गया नमूना किसी वितरण का अनुसरण करता है। हमारे मामले में हमने मान लिया है कि ऊंचाई सामान्य रूप से वितरित हैं, लेकिन इसे औपचारिक सांख्यिकीय सत्यापन की आवश्यकता है।
+* यह साबित करना कि नमूने का औसत मान किसी पूर्वनिर्धारित मान से मेल खाता है।
+* कई नमूनों के औसत की तुलना करना (जैसे विभिन्न आयु समूहों के बीच खुशी के स्तर में अंतर क्या है)।
+
+## बड़े संख्याओं का नियम और केंद्रीय सीमा प्रमेय
+
+सामान्य वितरण इतना महत्वपूर्ण क्यों है इसका एक कारण **केंद्रीय सीमा प्रमेय** है। मान लीजिए हमारे पास स्वतंत्र N मानों X1, ..., XN का एक बड़ा नमूना है, जिसे किसी भी वितरण से μ औसत और σ2 विचलन के साथ नमूना लिया गया है। फिर, पर्याप्त रूप से बड़े N के लिए (दूसरे शब्दों में, जब N→∞), औसत ΣiXi सामान्य रूप से वितरित होगा, μ औसत और σ2/N विचलन के साथ।
+
+> केंद्रीय सीमा प्रमेय को दूसरे तरीके से यह कहने के लिए भी व्याख्या किया जा सकता है कि वितरण की परवाह किए बिना, जब आप किसी भी यादृच्छिक चर मानों के योग का औसत गणना करते हैं तो आप सामान्य वितरण प्राप्त करते हैं।
+
+केंद्रीय सीमा प्रमेय से यह भी पता चलता है कि, जब N→∞, नमूना औसत के μ के बराबर होने की संभावना 1 हो जाती है। इसे **बड़े संख्याओं का नियम** कहा जाता है।
+
+## सहसंबंध और सहभिन्नता
+
+डेटा साइंस जो काम करती है उनमें से एक है डेटा के बीच संबंध ढूंढना। हम कहते हैं कि दो अनुक्रम **सहसंबद्ध** हैं जब वे एक ही समय में समान व्यवहार प्रदर्शित करते हैं, यानी वे या तो एक साथ बढ़ते/घटते हैं, या एक अनुक्रम बढ़ता है जब दूसरा घटता है और इसके विपरीत। दूसरे शब्दों में, दो अनुक्रमों के बीच कुछ संबंध प्रतीत होता है।
+
+> सहसंबंध जरूरी नहीं कि दो अनुक्रमों के बीच कारणात्मक संबंध को इंगित करता है; कभी-कभी दोनों चर किसी बाहरी कारण पर निर्भर हो सकते हैं, या यह केवल संयोग से हो सकता है कि दोनों अनुक्रम सहसंबद्ध हैं। हालांकि, मजबूत गणितीय सहसंबंध यह संकेत देता है कि दो चर किसी न किसी तरह से जुड़े हुए हैं।
+
+गणितीय रूप से, दो यादृच्छ
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/04-stats-and-probability/assignment.md b/translations/hi/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..e75d80e7
--- /dev/null
+++ b/translations/hi/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,38 @@
+
+# छोटे डायबिटीज अध्ययन
+
+इस असाइनमेंट में, हम डायबिटीज मरीजों के एक छोटे डेटा सेट के साथ काम करेंगे, जो [यहां](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html) से लिया गया है।
+
+| | आयु (AGE) | लिंग (SEX) | बीएमआई (BMI) | बीपी (BP) | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-----|-----|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## निर्देश
+
+* [असाइनमेंट नोटबुक](../../../../1-Introduction/04-stats-and-probability/assignment.ipynb) को जुपिटर नोटबुक वातावरण में खोलें।
+* नोटबुक में सूचीबद्ध सभी कार्य पूरे करें, जैसे:
+ * [ ] सभी मानों के औसत और वैरिएंस की गणना करें।
+ * [ ] लिंग के आधार पर BMI, BP और Y के लिए बॉक्सप्लॉट बनाएं।
+ * [ ] आयु, लिंग, BMI और Y वेरिएबल्स का वितरण क्या है?
+ * [ ] विभिन्न वेरिएबल्स और बीमारी की प्रगति (Y) के बीच सहसंबंध का परीक्षण करें।
+ * [ ] इस परिकल्पना का परीक्षण करें कि डायबिटीज प्रगति की डिग्री पुरुषों और महिलाओं के बीच अलग है।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+सभी आवश्यक कार्य पूरे हैं, ग्राफिकल रूप से प्रदर्शित और समझाए गए हैं | अधिकांश कार्य पूरे हैं, लेकिन ग्राफ और/या प्राप्त मानों से स्पष्टीकरण या निष्कर्ष गायब हैं | केवल बुनियादी कार्य जैसे औसत/वैरिएंस की गणना और बुनियादी प्लॉट पूरे हैं, डेटा से कोई निष्कर्ष नहीं निकाला गया है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/1-Introduction/README.md b/translations/hi/1-Introduction/README.md
new file mode 100644
index 00000000..47fe2886
--- /dev/null
+++ b/translations/hi/1-Introduction/README.md
@@ -0,0 +1,29 @@
+
+# डेटा साइंस का परिचय
+
+
+> फोटो स्टीफन डॉसन द्वारा अनस्प्लैश पर
+
+इन पाठों में, आप जानेंगे कि डेटा साइंस को कैसे परिभाषित किया जाता है और उन नैतिक विचारों के बारे में सीखेंगे जिन्हें एक डेटा वैज्ञानिक को ध्यान में रखना चाहिए। आप यह भी जानेंगे कि डेटा को कैसे परिभाषित किया जाता है और सांख्यिकी और संभावना के बारे में थोड़ा सीखेंगे, जो डेटा साइंस के मुख्य शैक्षणिक क्षेत्र हैं।
+
+### विषय
+
+1. [डेटा साइंस को परिभाषित करना](01-defining-data-science/README.md)
+2. [डेटा साइंस नैतिकता](02-ethics/README.md)
+3. [डेटा को परिभाषित करना](03-defining-data/README.md)
+4. [सांख्यिकी और संभावना का परिचय](04-stats-and-probability/README.md)
+
+### श्रेय
+
+ये पाठ ❤️ के साथ [नित्या नरसिम्हन](https://twitter.com/nitya) और [दिमित्री सोश्निकोव](https://twitter.com/shwars) द्वारा लिखे गए हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/05-relational-databases/README.md b/translations/hi/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..58c222b4
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,193 @@
+
+# डेटा के साथ काम करना: रिलेशनल डेटाबेस
+
+| द्वारा ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| डेटा के साथ काम करना: रिलेशनल डेटाबेस - _स्केच नोट [@nitya](https://twitter.com/nitya) द्वारा_ |
+
+संभावना है कि आपने पहले जानकारी संग्रहीत करने के लिए स्प्रेडशीट का उपयोग किया हो। आपके पास पंक्तियों और स्तंभों का एक सेट था, जहां पंक्तियों में जानकारी (या डेटा) होती थी, और स्तंभ उस जानकारी का वर्णन करते थे (कभी-कभी इसे मेटाडेटा कहा जाता है)। एक रिलेशनल डेटाबेस इसी मूल सिद्धांत पर आधारित होता है, जिसमें तालिकाओं में पंक्तियाँ और स्तंभ होते हैं, जो आपको जानकारी को कई तालिकाओं में फैलाने की अनुमति देता है। यह आपको अधिक जटिल डेटा के साथ काम करने, डुप्लीकेशन से बचने और डेटा को एक्सप्लोर करने के तरीके में लचीलापन प्रदान करता है। आइए रिलेशनल डेटाबेस की अवधारणाओं का पता लगाएं।
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## सब कुछ तालिकाओं से शुरू होता है
+
+एक रिलेशनल डेटाबेस का मुख्य भाग तालिकाएँ होती हैं। ठीक स्प्रेडशीट की तरह, एक तालिका स्तंभों और पंक्तियों का संग्रह होती है। पंक्ति में वह डेटा या जानकारी होती है जिसके साथ हम काम करना चाहते हैं, जैसे किसी शहर का नाम या वर्षा की मात्रा। स्तंभ उस डेटा का वर्णन करते हैं जिसे वे संग्रहीत करते हैं।
+
+आइए शहरों की जानकारी संग्रहीत करने के लिए एक तालिका बनाकर अपनी खोज शुरू करें। हम उनके नाम और देश से शुरुआत कर सकते हैं। आप इसे निम्नलिखित तालिका में संग्रहीत कर सकते हैं:
+
+| शहर | देश |
+| -------- | ------------- |
+| टोक्यो | जापान |
+| अटलांटा | संयुक्त राज्य |
+| ऑकलैंड | न्यूज़ीलैंड |
+
+ध्यान दें कि **शहर**, **देश** और **जनसंख्या** जैसे स्तंभ नाम संग्रहीत डेटा का वर्णन करते हैं, और प्रत्येक पंक्ति में एक शहर की जानकारी होती है।
+
+## एकल तालिका दृष्टिकोण की सीमाएँ
+
+संभावना है कि ऊपर दी गई तालिका आपको काफी परिचित लग रही होगी। आइए अपने बढ़ते डेटाबेस में कुछ अतिरिक्त डेटा जोड़ें - वार्षिक वर्षा (मिलीमीटर में)। हम 2018, 2019 और 2020 वर्षों पर ध्यान केंद्रित करेंगे। यदि हम इसे टोक्यो के लिए जोड़ें, तो यह कुछ इस तरह दिख सकता है:
+
+| शहर | देश | वर्ष | मात्रा |
+| ----- | ------- | ---- | ------ |
+| टोक्यो | जापान | 2020 | 1690 |
+| टोक्यो | जापान | 2019 | 1874 |
+| टोक्यो | जापान | 2018 | 1445 |
+
+आप हमारी तालिका में क्या देखते हैं? आप देख सकते हैं कि हम शहर का नाम और देश बार-बार दोहरा रहे हैं। यह काफी जगह ले सकता है, और कई प्रतियों की आवश्यकता नहीं है। आखिरकार, टोक्यो का केवल एक नाम है जिसमें हम रुचि रखते हैं।
+
+ठीक है, आइए कुछ और प्रयास करें। आइए प्रत्येक वर्ष के लिए नए स्तंभ जोड़ें:
+
+| शहर | देश | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| टोक्यो | जापान | 1445 | 1874 | 1690 |
+| अटलांटा | संयुक्त राज्य | 1779 | 1111 | 1683 |
+| ऑकलैंड | न्यूज़ीलैंड | 1386 | 942 | 1176 |
+
+हालांकि यह पंक्ति डुप्लीकेशन से बचाता है, यह कुछ अन्य चुनौतियाँ जोड़ता है। हमें हर बार एक नया वर्ष आने पर अपनी तालिका की संरचना को संशोधित करने की आवश्यकता होगी। इसके अलावा, जैसे-जैसे हमारा डेटा बढ़ता है, हमारे वर्षों को स्तंभों के रूप में रखना मानों डेटा को पुनः प्राप्त करना और गणना करना कठिन बना देगा।
+
+इसीलिए हमें कई तालिकाओं और संबंधों की आवश्यकता होती है। अपने डेटा को विभाजित करके हम डुप्लीकेशन से बच सकते हैं और अपने डेटा के साथ काम करने में अधिक लचीलापन प्राप्त कर सकते हैं।
+
+## संबंधों की अवधारणाएँ
+
+आइए अपने डेटा पर वापस लौटें और तय करें कि हम इसे कैसे विभाजित करना चाहते हैं। हम जानते हैं कि हमें अपने शहरों के नाम और देश को संग्रहीत करना है, इसलिए यह एक तालिका में सबसे अच्छा काम करेगा।
+
+| शहर | देश |
+| -------- | ------------- |
+| टोक्यो | जापान |
+| अटलांटा | संयुक्त राज्य |
+| ऑकलैंड | न्यूज़ीलैंड |
+
+लेकिन अगली तालिका बनाने से पहले, हमें यह पता लगाना होगा कि प्रत्येक शहर को कैसे संदर्भित किया जाए। हमें किसी प्रकार का पहचानकर्ता, आईडी या (तकनीकी डेटाबेस शब्दों में) एक प्राथमिक कुंजी की आवश्यकता है। एक प्राथमिक कुंजी एक मान है जिसका उपयोग एक तालिका में एक विशिष्ट पंक्ति की पहचान करने के लिए किया जाता है। हालांकि यह स्वयं एक मान पर आधारित हो सकता है (उदाहरण के लिए, हम शहर के नाम का उपयोग कर सकते हैं), यह लगभग हमेशा एक संख्या या अन्य पहचानकर्ता होना चाहिए। हम नहीं चाहते कि आईडी कभी बदले क्योंकि यह संबंध को तोड़ देगा। आप पाएंगे कि अधिकांश मामलों में प्राथमिक कुंजी या आईडी एक स्वचालित रूप से उत्पन्न संख्या होगी।
+
+> ✅ प्राथमिक कुंजी को अक्सर PK के रूप में संक्षिप्त किया जाता है
+
+### शहर
+
+| शहर_आईडी | शहर | देश |
+| -------- | -------- | ------------- |
+| 1 | टोक्यो | जापान |
+| 2 | अटलांटा | संयुक्त राज्य |
+| 3 | ऑकलैंड | न्यूज़ीलैंड |
+
+> ✅ आप देखेंगे कि हम इस पाठ के दौरान "आईडी" और "प्राथमिक कुंजी" शब्दों का परस्पर उपयोग करते हैं। यहां दी गई अवधारणाएँ डेटा फ्रेम पर भी लागू होती हैं, जिन्हें आप बाद में एक्सप्लोर करेंगे। डेटा फ्रेम "प्राथमिक कुंजी" शब्दावली का उपयोग नहीं करते हैं, हालांकि आप देखेंगे कि वे लगभग उसी तरह व्यवहार करते हैं।
+
+हमारी शहरों की तालिका बन जाने के बाद, आइए वर्षा को संग्रहीत करें। शहर की पूरी जानकारी को दोहराने के बजाय, हम आईडी का उपयोग कर सकते हैं। हमें यह भी सुनिश्चित करना चाहिए कि नई बनाई गई तालिका में एक *आईडी* कॉलम हो, क्योंकि सभी तालिकाओं में एक आईडी या प्राथमिक कुंजी होनी चाहिए।
+
+### वर्षा
+
+| वर्षा_आईडी | शहर_आईडी | वर्ष | मात्रा |
+| ---------- | -------- | ---- | ------ |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+ध्यान दें कि **शहर_आईडी** कॉलम नई बनाई गई **वर्षा** तालिका के अंदर है। इस कॉलम में वे मान होते हैं जो **शहरों** तालिका में आईडी को संदर्भित करते हैं। तकनीकी रिलेशनल डेटा शब्दों में, इसे **विदेशी कुंजी** कहा जाता है; यह दूसरी तालिका से एक प्राथमिक कुंजी है। आप इसे केवल एक संदर्भ या पॉइंटर के रूप में सोच सकते हैं। **शहर_आईडी** 1 टोक्यो को संदर्भित करता है।
+
+> [!NOTE] विदेशी कुंजी को अक्सर FK के रूप में संक्षिप्त किया जाता है
+
+## डेटा को पुनः प्राप्त करना
+
+हमारे डेटा को दो तालिकाओं में विभाजित करने के बाद, आप सोच सकते हैं कि इसे कैसे पुनः प्राप्त किया जाए। यदि हम MySQL, SQL Server या Oracle जैसे रिलेशनल डेटाबेस का उपयोग कर रहे हैं, तो हम एक भाषा का उपयोग कर सकते हैं जिसे स्ट्रक्चर्ड क्वेरी लैंग्वेज या SQL कहा जाता है। SQL (कभी-कभी सीक्वल के रूप में उच्चारित) एक मानक भाषा है जिसका उपयोग रिलेशनल डेटाबेस में डेटा को पुनः प्राप्त करने और संशोधित करने के लिए किया जाता है।
+
+डेटा को पुनः प्राप्त करने के लिए आप `SELECT` कमांड का उपयोग करते हैं। मूल रूप से, आप **उन स्तंभों को चुनते हैं जिन्हें आप देखना चाहते हैं** और **उन तालिकाओं से** जिनमें वे शामिल हैं। यदि आप केवल शहरों के नाम प्रदर्शित करना चाहते हैं, तो आप निम्नलिखित का उपयोग कर सकते हैं:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` वह जगह है जहां आप स्तंभों को सूचीबद्ध करते हैं, और `FROM` वह जगह है जहां आप तालिकाओं को सूचीबद्ध करते हैं।
+
+> [NOTE] SQL सिंटैक्स केस-सेंसिटिव नहीं है, जिसका अर्थ है कि `select` और `SELECT` का एक ही मतलब है। हालांकि, आप जिस प्रकार के डेटाबेस का उपयोग कर रहे हैं उसके आधार पर स्तंभ और तालिकाएँ केस-सेंसिटिव हो सकती हैं। परिणामस्वरूप, यह एक सर्वोत्तम अभ्यास है कि प्रोग्रामिंग में हर चीज को हमेशा केस-सेंसिटिव मानें। SQL क्वेरी लिखते समय सामान्य प्रथा यह है कि कीवर्ड को सभी बड़े अक्षरों में लिखा जाए।
+
+ऊपर दी गई क्वेरी सभी शहरों को प्रदर्शित करेगी। आइए कल्पना करें कि हम केवल न्यूज़ीलैंड के शहरों को प्रदर्शित करना चाहते हैं। हमें किसी प्रकार का फ़िल्टर चाहिए। SQL कीवर्ड इसके लिए `WHERE` है, या "जहां कुछ सत्य है"।
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## डेटा को जोड़ना
+
+अब तक हमने एक ही तालिका से डेटा पुनः प्राप्त किया है। अब हम **शहरों** और **वर्षा** दोनों से डेटा को एक साथ लाना चाहते हैं। यह उन्हें *जोड़कर* किया जाता है। आप प्रभावी रूप से दो तालिकाओं के बीच एक सीम बनाएंगे, और प्रत्येक तालिका के एक कॉलम से मानों को मिलाएंगे।
+
+हमारे उदाहरण में, हम **वर्षा** में **शहर_आईडी** कॉलम को **शहरों** में **शहर_आईडी** कॉलम के साथ मिलाएंगे। यह वर्षा के मान को उसके संबंधित शहर के साथ मिलाएगा। जिस प्रकार का जोड़ हम करेंगे उसे *आंतरिक* जोड़ कहा जाता है, जिसका अर्थ है कि यदि कोई पंक्तियाँ दूसरी तालिका से मेल नहीं खाती हैं तो उन्हें प्रदर्शित नहीं किया जाएगा। हमारे मामले में हर शहर की वर्षा है, इसलिए सब कुछ प्रदर्शित किया जाएगा।
+
+आइए 2019 के लिए सभी शहरों की वर्षा को पुनः प्राप्त करें।
+
+हम इसे चरणों में करेंगे। पहला चरण है डेटा को एक साथ जोड़ना और सीम के लिए कॉलम को इंगित करना - **शहर_आईडी** जैसा कि पहले हाइलाइट किया गया था।
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+हमने उन दो कॉलमों को हाइलाइट किया है जिन्हें हम चाहते हैं, और तथ्य यह है कि हम तालिकाओं को **शहर_आईडी** द्वारा जोड़ना चाहते हैं। अब हम केवल 2019 वर्ष को फ़िल्टर करने के लिए `WHERE` स्टेटमेंट जोड़ सकते हैं।
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## सारांश
+
+रिलेशनल डेटाबेस कई तालिकाओं के बीच जानकारी को विभाजित करने के इर्द-गिर्द केंद्रित होते हैं, जिसे फिर प्रदर्शन और विश्लेषण के लिए वापस एक साथ लाया जाता है। यह गणना करने और अन्यथा डेटा में हेरफेर करने के लिए उच्च स्तर का लचीलापन प्रदान करता है। आपने रिलेशनल डेटाबेस की मुख्य अवधारणाओं को देखा है, और दो तालिकाओं के बीच एक जोड़ कैसे किया जाता है।
+
+## 🚀 चुनौती
+
+इंटरनेट पर कई रिलेशनल डेटाबेस उपलब्ध हैं। आप ऊपर सीखी गई कौशलों का उपयोग करके डेटा का पता लगा सकते हैं।
+
+## पोस्ट-लेक्चर क्विज़
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## समीक्षा और स्व-अध्ययन
+
+SQL और रिलेशनल डेटाबेस अवधारणाओं की अपनी खोज जारी रखने के लिए [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) पर कई संसाधन उपलब्ध हैं:
+
+- [रिलेशनल डेटा की अवधारणाओं का वर्णन करें](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Transact-SQL के साथ क्वेरी करना शुरू करें](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL SQL का एक संस्करण है)
+- [Microsoft Learn पर SQL सामग्री](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## असाइनमेंट
+
+[असाइनमेंट शीर्षक](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/05-relational-databases/assignment.md b/translations/hi/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..6ee47734
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,71 @@
+
+# हवाई अड्डे के डेटा को प्रदर्शित करना
+
+आपको [SQLite](https://sqlite.org/index.html) पर आधारित एक [डेटाबेस](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) दिया गया है, जिसमें हवाई अड्डों की जानकारी है। इसका स्कीमा नीचे दिखाया गया है। आप [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) में [SQLite एक्सटेंशन](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) का उपयोग करके विभिन्न शहरों के हवाई अड्डों की जानकारी प्रदर्शित करेंगे।
+
+## निर्देश
+
+असाइनमेंट शुरू करने के लिए, आपको कुछ चरणों का पालन करना होगा। आपको कुछ टूल्स इंस्टॉल करने और सैंपल डेटाबेस डाउनलोड करने की आवश्यकता होगी।
+
+### अपने सिस्टम को सेटअप करें
+
+डेटाबेस के साथ इंटरैक्ट करने के लिए आप Visual Studio Code और SQLite एक्सटेंशन का उपयोग कर सकते हैं।
+
+1. [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) पर जाएं और Visual Studio Code इंस्टॉल करने के निर्देशों का पालन करें।
+1. [SQLite एक्सटेंशन](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) को मार्केटप्लेस पेज पर दिए गए निर्देशों के अनुसार इंस्टॉल करें।
+
+### डेटाबेस डाउनलोड करें और खोलें
+
+अब आप डेटाबेस डाउनलोड करेंगे और उसे खोलेंगे।
+
+1. [GitHub से डेटाबेस फाइल](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) डाउनलोड करें और इसे किसी डायरेक्टरी में सेव करें।
+1. Visual Studio Code खोलें।
+1. SQLite एक्सटेंशन में डेटाबेस खोलने के लिए **Ctl-Shift-P** (या Mac पर **Cmd-Shift-P**) दबाएं और `SQLite: Open database` टाइप करें।
+1. **Choose database from file** चुनें और पहले डाउनलोड की गई **airports.db** फाइल खोलें।
+1. डेटाबेस खोलने के बाद (स्क्रीन पर कोई अपडेट नहीं दिखेगा), एक नया क्वेरी विंडो बनाने के लिए **Ctl-Shift-P** (या Mac पर **Cmd-Shift-P**) दबाएं और `SQLite: New query` टाइप करें।
+
+एक बार खुलने के बाद, नया क्वेरी विंडो डेटाबेस पर SQL स्टेटमेंट्स चलाने के लिए उपयोग किया जा सकता है। डेटाबेस पर क्वेरी चलाने के लिए आप **Ctl-Shift-Q** (या Mac पर **Cmd-Shift-Q**) कमांड का उपयोग कर सकते हैं।
+
+> [!NOTE] SQLite एक्सटेंशन के बारे में अधिक जानकारी के लिए, आप [डॉक्यूमेंटेशन](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) देख सकते हैं।
+
+## डेटाबेस स्कीमा
+
+किसी डेटाबेस का स्कीमा उसकी टेबल डिज़ाइन और संरचना होती है। **airports** डेटाबेस में दो टेबल्स हैं: `cities`, जिसमें यूनाइटेड किंगडम और आयरलैंड के शहरों की सूची है, और `airports`, जिसमें सभी हवाई अड्डों की सूची है। क्योंकि कुछ शहरों में एक से अधिक हवाई अड्डे हो सकते हैं, जानकारी को स्टोर करने के लिए दो टेबल्स बनाई गई हैं। इस अभ्यास में आप विभिन्न शहरों की जानकारी प्रदर्शित करने के लिए जोइन्स का उपयोग करेंगे।
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK to id in **Cities**) |
+
+## असाइनमेंट
+
+निम्नलिखित जानकारी प्राप्त करने के लिए क्वेरी बनाएं:
+
+1. `Cities` टेबल में सभी शहरों के नाम।
+1. `Cities` टेबल में आयरलैंड के सभी शहर।
+1. सभी हवाई अड्डों के नाम उनके शहर और देश के साथ।
+1. लंदन, यूनाइटेड किंगडम के सभी हवाई अड्डे।
+
+## मूल्यांकन मानदंड
+
+| उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता |
+| -------- | -------- | ----------------- |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/06-non-relational/README.md b/translations/hi/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..b7d32018
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,156 @@
+
+# डेटा के साथ काम करना: गैर-संबंधात्मक डेटा
+
+| द्वारा ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|NoSQL डेटा के साथ काम करना - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+डेटा केवल संबंधात्मक डेटाबेस तक सीमित नहीं है। यह पाठ गैर-संबंधात्मक डेटा पर केंद्रित है और स्प्रेडशीट्स और NoSQL की मूल बातें कवर करेगा।
+
+## स्प्रेडशीट्स
+
+स्प्रेडशीट्स डेटा को स्टोर और एक्सप्लोर करने का एक लोकप्रिय तरीका हैं क्योंकि इसे सेटअप करने और शुरू करने में कम मेहनत लगती है। इस पाठ में आप स्प्रेडशीट के मूल घटकों, साथ ही फॉर्मूलों और फंक्शन्स के बारे में जानेंगे। उदाहरण Microsoft Excel के साथ दिखाए जाएंगे, लेकिन अधिकांश भाग और विषय अन्य स्प्रेडशीट सॉफ़्टवेयर की तुलना में समान नाम और चरणों वाले होंगे।
+
+
+
+स्प्रेडशीट एक फ़ाइल होती है और यह कंप्यूटर, डिवाइस, या क्लाउड आधारित फ़ाइल सिस्टम के फ़ाइल सिस्टम में उपलब्ध होगी। सॉफ़्टवेयर स्वयं ब्राउज़र आधारित हो सकता है या एक एप्लिकेशन जिसे कंप्यूटर पर इंस्टॉल करना होगा या ऐप के रूप में डाउनलोड करना होगा। Excel में इन फ़ाइलों को **वर्कबुक्स** के रूप में भी परिभाषित किया जाता है और इस पाठ के शेष भाग में इस शब्दावली का उपयोग किया जाएगा।
+
+एक वर्कबुक में एक या अधिक **वर्कशीट्स** होती हैं, जहां प्रत्येक वर्कशीट टैब द्वारा लेबल की जाती है। वर्कशीट के भीतर आयताकार **सेल्स** होते हैं, जो वास्तविक डेटा को रखते हैं। एक सेल पंक्ति और कॉलम के इंटरसेक्शन पर होता है, जहां कॉलम वर्णमाला के अक्षरों से लेबल किए जाते हैं और पंक्तियाँ संख्यात्मक रूप से लेबल की जाती हैं। कुछ स्प्रेडशीट्स में पहले कुछ पंक्तियों में हेडर होते हैं जो सेल में डेटा का वर्णन करते हैं।
+
+Excel वर्कबुक के इन मूल तत्वों के साथ, हम [Microsoft Templates](https://templates.office.com/) से एक इन्वेंटरी पर केंद्रित एक उदाहरण का उपयोग करेंगे ताकि स्प्रेडशीट के कुछ अतिरिक्त भागों को समझाया जा सके।
+
+### इन्वेंटरी प्रबंधन
+
+"InventoryExample" नामक स्प्रेडशीट फ़ाइल इन्वेंटरी में आइटम्स की एक फ़ॉर्मेटेड स्प्रेडशीट है जिसमें तीन वर्कशीट्स हैं, जहां टैब्स "Inventory List", "Inventory Pick List" और "Bin Lookup" के रूप में लेबल किए गए हैं। Inventory List वर्कशीट की पंक्ति 4 हेडर है, जो हेडर कॉलम में प्रत्येक सेल के मूल्य का वर्णन करती है।
+
+
+
+ऐसे उदाहरण होते हैं जहां एक सेल अन्य सेल्स के मूल्यों पर निर्भर करता है ताकि उसका मूल्य उत्पन्न हो सके। Inventory List स्प्रेडशीट अपनी इन्वेंटरी में प्रत्येक आइटम की लागत को ट्रैक करती है, लेकिन अगर हमें इन्वेंटरी में सब कुछ का मूल्य जानना हो तो क्या करें? [**फॉर्मूलाज**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) सेल डेटा पर क्रियाएं करते हैं और इस उदाहरण में इन्वेंटरी की लागत की गणना करने के लिए उपयोग किए जाते हैं। इस स्प्रेडशीट ने Inventory Value कॉलम में एक फॉर्मूला का उपयोग किया है ताकि QTY हेडर के तहत मात्रा और COST हेडर के तहत लागत को गुणा करके प्रत्येक आइटम का मूल्य गणना किया जा सके। किसी सेल पर डबल क्लिक करने या उसे हाइलाइट करने से फॉर्मूला दिखाई देगा। आप देखेंगे कि फॉर्मूलाज एक बराबर चिह्न से शुरू होते हैं, उसके बाद गणना या ऑपरेशन होता है।
+
+
+
+हम एक और फॉर्मूला का उपयोग करके Inventory Value के सभी मूल्यों को जोड़ सकते हैं ताकि उसका कुल मूल्य प्राप्त किया जा सके। इसे प्रत्येक सेल को जोड़कर गणना किया जा सकता है, लेकिन यह एक थकाऊ कार्य हो सकता है। Excel में [**फंक्शन्स**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89) होते हैं, या सेल मूल्यों पर गणना करने के लिए पूर्वनिर्धारित फॉर्मूलाज होते हैं। फंक्शन्स को तर्कों की आवश्यकता होती है, जो गणना करने के लिए आवश्यक मान होते हैं। जब फंक्शन्स को एक से अधिक तर्कों की आवश्यकता होती है, तो उन्हें एक विशेष क्रम में सूचीबद्ध करना होगा अन्यथा फंक्शन सही मूल्य की गणना नहीं कर सकता। इस उदाहरण में SUM फंक्शन का उपयोग किया गया है, और Inventory Value के मूल्यों को तर्क के रूप में उपयोग करके कुल सूचीबद्ध किया गया है जो पंक्ति 3, कॉलम B (जिसे B3 भी कहा जाता है) के तहत है।
+
+## NoSQL
+
+NoSQL गैर-संबंधात्मक डेटा को स्टोर करने के विभिन्न तरीकों के लिए एक छत्र शब्द है और इसे "non-SQL", "non-relational" या "not only SQL" के रूप में व्याख्या किया जा सकता है। इन प्रकार के डेटाबेस सिस्टम को 4 प्रकारों में वर्गीकृत किया जा सकता है।
+
+
+> स्रोत [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/) से
+
+[Key-value](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) डेटाबेस अद्वितीय कुंजियों को जोड़ते हैं, जो एक अद्वितीय पहचानकर्ता होता है जो एक मान से जुड़ा होता है। इन जोड़ों को [हैश टेबल](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) का उपयोग करके संग्रहीत किया जाता है जिसमें एक उपयुक्त हैशिंग फंक्शन होता है।
+
+
+> स्रोत [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example) से
+
+[Graph](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) डेटाबेस डेटा में संबंधों का वर्णन करते हैं और नोड्स और एजेस के संग्रह के रूप में प्रस्तुत किए जाते हैं। एक नोड एक इकाई का प्रतिनिधित्व करता है, कुछ ऐसा जो वास्तविक दुनिया में मौजूद होता है जैसे कि एक छात्र या बैंक स्टेटमेंट। एजेस दो इकाइयों के बीच संबंध का प्रतिनिधित्व करते हैं। प्रत्येक नोड और एजेस में गुण होते हैं जो प्रत्येक नोड और एजेस के बारे में अतिरिक्त जानकारी प्रदान करते हैं।
+
+
+
+[Columnar](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) डेटा स्टोर्स डेटा को कॉलम और पंक्तियों में व्यवस्थित करते हैं जैसे कि एक संबंधात्मक डेटा संरचना लेकिन प्रत्येक कॉलम को समूहों में विभाजित किया जाता है जिसे कॉलम परिवार कहा जाता है, जहां एक कॉलम के तहत सभी डेटा संबंधित होते हैं और एक इकाई में पुनः प्राप्त और बदले जा सकते हैं।
+
+### Azure Cosmos DB के साथ डॉक्यूमेंट डेटा स्टोर्स
+
+[Document](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) डेटा स्टोर्स की-वैल्यू डेटा स्टोर की अवधारणा पर आधारित होते हैं और फ़ील्ड्स और ऑब्जेक्ट्स की एक श्रृंखला से बने होते हैं। इस खंड में Cosmos DB एमुलेटर के साथ डॉक्यूमेंट डेटाबेस का अन्वेषण किया जाएगा।
+
+Cosmos DB डेटाबेस "Not Only SQL" की परिभाषा में फिट बैठता है, जहां Cosmos DB का डॉक्यूमेंट डेटाबेस डेटा को क्वेरी करने के लिए SQL पर निर्भर करता है। SQL पर [पिछले पाठ](../05-relational-databases/README.md) में भाषा की मूल बातें शामिल हैं, और हम यहां डॉक्यूमेंट डेटाबेस पर कुछ समान क्वेरीज़ लागू कर पाएंगे। हम Cosmos DB एमुलेटर का उपयोग करेंगे, जो हमें एक कंप्यूटर पर स्थानीय रूप से डॉक्यूमेंट डेटाबेस बनाने और एक्सप्लोर करने की अनुमति देता है। एमुलेटर के बारे में अधिक पढ़ें [यहां](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21)।
+
+एक डॉक्यूमेंट फ़ील्ड्स और ऑब्जेक्ट वैल्यूज़ का संग्रह होता है, जहां फ़ील्ड्स ऑब्जेक्ट वैल्यू का प्रतिनिधित्व करते हैं। नीचे एक डॉक्यूमेंट का उदाहरण दिया गया है।
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+इस डॉक्यूमेंट में रुचि के फ़ील्ड्स हैं: `firstname`, `id`, और `age`। बाकी फ़ील्ड्स जो अंडरस्कोर के साथ हैं, Cosmos DB द्वारा उत्पन्न किए गए थे।
+
+#### Cosmos DB एमुलेटर के साथ डेटा का अन्वेषण
+
+आप एमुलेटर को [Windows के लिए यहां](https://aka.ms/cosmosdb-emulator) डाउनलोड और इंस्टॉल कर सकते हैं। macOS और Linux के लिए एमुलेटर चलाने के विकल्पों के लिए इस [डॉक्यूमेंटेशन](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) को देखें।
+
+एमुलेटर एक ब्राउज़र विंडो लॉन्च करता है, जहां Explorer व्यू आपको डॉक्यूमेंट्स का अन्वेषण करने की अनुमति देता है।
+
+
+
+यदि आप साथ में कर रहे हैं, तो "Start with Sample" पर क्लिक करें ताकि SampleDB नामक एक नमूना डेटाबेस उत्पन्न हो सके। यदि आप Sample DB को तीर पर क्लिक करके विस्तारित करते हैं तो आपको `Persons` नामक एक कंटेनर मिलेगा, एक कंटेनर आइटम्स का संग्रह रखता है, जो कंटेनर के भीतर डॉक्यूमेंट्स होते हैं। आप `Items` के तहत चार व्यक्तिगत डॉक्यूमेंट्स का अन्वेषण कर सकते हैं।
+
+
+
+#### Cosmos DB एमुलेटर के साथ डॉक्यूमेंट डेटा को क्वेरी करना
+
+हम नमूना डेटा को क्वेरी भी कर सकते हैं नए SQL Query बटन (बाएँ से दूसरा बटन) पर क्लिक करके।
+
+`SELECT * FROM c` कंटेनर में सभी डॉक्यूमेंट्स को लौटाता है। चलिए एक where क्लॉज जोड़ते हैं और उन सभी को ढूंढते हैं जिनकी उम्र 40 से कम है।
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+क्वेरी दो डॉक्यूमेंट्स लौटाती है, ध्यान दें कि प्रत्येक डॉक्यूमेंट के age मान 40 से कम हैं।
+
+#### JSON और डॉक्यूमेंट्स
+
+यदि आप JavaScript Object Notation (JSON) से परिचित हैं तो आप देखेंगे कि डॉक्यूमेंट्स JSON के समान दिखते हैं। इस निर्देशिका में `PersonsData.json` नामक एक फ़ाइल है जिसमें अधिक डेटा है जिसे आप एमुलेटर में `Upload Item` बटन के माध्यम से Persons कंटेनर में अपलोड कर सकते हैं।
+
+अधिकांश मामलों में, JSON डेटा लौटाने वाले APIs को सीधे डॉक्यूमेंट डेटाबेस में स्थानांतरित और संग्रहीत किया जा सकता है। नीचे एक और डॉक्यूमेंट है, यह Microsoft Twitter अकाउंट से ट्वीट्स का प्रतिनिधित्व करता है जिसे Twitter API का उपयोग करके प्राप्त किया गया था, फिर Cosmos DB में डाला गया।
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+इस डॉक्यूमेंट में रुचि के फ़ील्ड्स हैं: `created_at`, `id`, और `text`।
+
+## 🚀 चुनौती
+
+एक `TwitterData.json` फ़ाइल है जिसे आप SampleDB डेटाबेस में अपलोड कर सकते हैं। यह अनुशंसा की जाती है कि आप इसे एक अलग कंटेनर में जोड़ें। इसे निम्नलिखित चरणों द्वारा किया जा सकता है:
+
+1. शीर्ष दाईं ओर नए कंटेनर बटन पर क्लिक करें
+1. मौजूदा डेटाबेस (SampleDB) का चयन करें और कंटेनर के लिए एक कंटेनर आईडी बनाएं
+1. `/id` को पार्टिशन की के रूप में सेट करें
+1. OK पर क्लिक करें (आप इस दृश्य में बाकी जानकारी को अनदेखा कर सकते हैं क्योंकि यह एक छोटा डेटासेट है जो आपके मशीन पर स्थानीय रूप से चल रहा है)
+1. अपने नए कंटेनर को खोलें और `Upload Item` बटन के साथ Twitter Data फ़ाइल अपलोड करें
+
+कुछ SELECT क्वेरी चलाने का प्रयास करें ताकि उन डॉक्यूमेंट्स को ढूंढा जा सके जिनके text फ़ील्ड में Microsoft है। संकेत: [LIKE कीवर्ड](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character) का उपयोग करने का प्रयास करें।
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## समीक्षा और स्व-अध्ययन
+
+- इस स्प्रेडशीट में कुछ अतिरिक्त फ़ॉर्मेटिंग और सुविधाएँ जोड़ी गई हैं जिन्हें यह पाठ कवर नहीं करता। यदि आप अधिक सीखने में रुचि रखते हैं तो Microsoft के पास Excel पर [डॉक्यूमेंटेशन और वीडियो की एक बड़ी लाइब्रेरी](https://support.microsoft.com/excel) है।
+
+- इस वास्तुशिल्प डॉक्यूमेंटेशन में गैर-संबंधात्मक डेटा के विभिन्न प्रकारों की विशेषताओं का विवरण दिया गया है: [गैर-संबंधात्मक डेटा और NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data)
+
+- Cosmos DB एक क्लाउड आधारित गैर-संबंधात्मक डेटाबेस है जो इस पाठ में उल्लिखित विभिन्न NoSQL प्रकारों को भी संग्रहीत कर सकता है। इन प्रकारों के बारे में अधिक जानें इस [Cosmos DB Microsoft Learn Module](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/) में।
+
+## असाइनमेंट
+
+[Soda Profits](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/06-non-relational/assignment.md b/translations/hi/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..5464a3f7
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,31 @@
+
+# सोडा मुनाफा
+
+## निर्देश
+
+[Coca Cola Co स्प्रेडशीट](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) में कुछ गणनाएँ गायब हैं। आपका कार्य है:
+
+1. FY '15, '16, '17, और '18 के सकल मुनाफे की गणना करें
+ - सकल मुनाफा = शुद्ध संचालन राजस्व - बेचे गए माल की लागत
+1. सभी सकल मुनाफों का औसत निकालें। इसे एक फ़ंक्शन के साथ करने की कोशिश करें।
+ - औसत = सकल मुनाफों का योग ÷ वित्तीय वर्षों की संख्या (10)
+ - [AVERAGE फ़ंक्शन](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6) पर दस्तावेज़ीकरण
+1. यह एक Excel फ़ाइल है, लेकिन इसे किसी भी स्प्रेडशीट प्लेटफ़ॉर्म में संपादित किया जा सकता है
+
+[डेटा स्रोत का श्रेय Yiyi Wang को](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/07-python/README.md b/translations/hi/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..294649d7
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,288 @@
+
+# डेटा के साथ काम करना: Python और Pandas लाइब्रेरी
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Python के साथ काम करना - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+हालांकि डेटाबेस डेटा को स्टोर करने और क्वेरी करने के लिए बहुत प्रभावी तरीके प्रदान करते हैं, डेटा प्रोसेसिंग का सबसे लचीला तरीका अपना प्रोग्राम लिखना है। कई मामलों में, डेटाबेस क्वेरी करना अधिक प्रभावी हो सकता है। लेकिन कुछ मामलों में, जब अधिक जटिल डेटा प्रोसेसिंग की आवश्यकता होती है, तो इसे SQL के माध्यम से आसानी से नहीं किया जा सकता।
+डेटा प्रोसेसिंग किसी भी प्रोग्रामिंग भाषा में की जा सकती है, लेकिन कुछ भाषाएँ डेटा के साथ काम करने के लिए उच्च स्तर की होती हैं। डेटा वैज्ञानिक आमतौर पर निम्नलिखित भाषाओं में से एक को प्राथमिकता देते हैं:
+
+* **[Python](https://www.python.org/)**, एक सामान्य-उद्देश्य प्रोग्रामिंग भाषा, जिसे इसकी सरलता के कारण शुरुआती लोगों के लिए सबसे अच्छा विकल्प माना जाता है। Python में कई अतिरिक्त लाइब्रेरी हैं जो आपको व्यावहारिक समस्याओं को हल करने में मदद कर सकती हैं, जैसे ZIP आर्काइव से डेटा निकालना या तस्वीर को ग्रेस्केल में बदलना। डेटा साइंस के अलावा, Python का उपयोग अक्सर वेब विकास के लिए भी किया जाता है।
+* **[R](https://www.r-project.org/)** एक पारंपरिक टूलबॉक्स है जिसे सांख्यिकीय डेटा प्रोसेसिंग के लिए विकसित किया गया है। इसमें बड़ी संख्या में लाइब्रेरी (CRAN) हैं, जो इसे डेटा प्रोसेसिंग के लिए एक अच्छा विकल्प बनाती हैं। हालांकि, R एक सामान्य-उद्देश्य प्रोग्रामिंग भाषा नहीं है और इसे डेटा साइंस के क्षेत्र के बाहर शायद ही कभी उपयोग किया जाता है।
+* **[Julia](https://julialang.org/)** एक और भाषा है जो विशेष रूप से डेटा साइंस के लिए विकसित की गई है। इसे Python की तुलना में बेहतर प्रदर्शन देने के लिए डिज़ाइन किया गया है, जिससे यह वैज्ञानिक प्रयोगों के लिए एक बेहतरीन उपकरण बनती है।
+
+इस पाठ में, हम सरल डेटा प्रोसेसिंग के लिए Python का उपयोग करने पर ध्यान केंद्रित करेंगे। हम यह मानेंगे कि आपको इस भाषा की बुनियादी जानकारी है। यदि आप Python का गहराई से अध्ययन करना चाहते हैं, तो आप निम्नलिखित संसाधनों का उपयोग कर सकते हैं:
+
+* [Learn Python in a Fun Way with Turtle Graphics and Fractals](https://github.com/shwars/pycourse) - Python प्रोग्रामिंग का एक GitHub-आधारित त्वरित परिचय पाठ्यक्रम
+* [Take your First Steps with Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) - [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum) पर एक लर्निंग पाथ
+
+डेटा कई रूपों में आ सकता है। इस पाठ में, हम तीन प्रकार के डेटा पर विचार करेंगे - **तालिकीय डेटा**, **पाठ** और **छवियाँ**।
+
+हम आपको संबंधित सभी लाइब्रेरी का पूरा अवलोकन देने के बजाय डेटा प्रोसेसिंग के कुछ उदाहरणों पर ध्यान केंद्रित करेंगे। यह आपको यह समझने में मदद करेगा कि क्या संभव है और जब आपको आवश्यकता हो तो अपनी समस्याओं के समाधान कहां से खोजें।
+
+> **सबसे उपयोगी सलाह**: जब आपको डेटा पर कोई विशेष ऑपरेशन करना हो और आपको यह न पता हो कि इसे कैसे करना है, तो इसे इंटरनेट पर खोजने का प्रयास करें। [Stackoverflow](https://stackoverflow.com/) पर अक्सर Python में कई सामान्य कार्यों के लिए उपयोगी कोड नमूने मिलते हैं।
+
+## [पाठ से पहले का क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## तालिकीय डेटा और डेटा फ्रेम्स
+
+आप पहले ही तालिकीय डेटा से परिचित हो चुके हैं जब हमने रिलेशनल डेटाबेस के बारे में बात की थी। जब आपके पास बहुत सारा डेटा होता है और यह कई अलग-अलग लिंक्ड टेबल्स में होता है, तो SQL का उपयोग करना निश्चित रूप से समझदारी है। हालांकि, कई बार ऐसा होता है जब हमारे पास डेटा की एक तालिका होती है और हमें इस डेटा के बारे में कुछ **समझ** या **अवलोकन** प्राप्त करने की आवश्यकता होती है, जैसे वितरण, मानों के बीच सहसंबंध आदि। डेटा साइंस में, कई बार हमें मूल डेटा में कुछ रूपांतरण करने की आवश्यकता होती है, जिसके बाद विज़ुअलाइज़ेशन किया जाता है। ये दोनों चरण Python का उपयोग करके आसानी से किए जा सकते हैं।
+
+Python में दो सबसे उपयोगी लाइब्रेरी हैं जो आपको तालिकीय डेटा के साथ काम करने में मदद कर सकती हैं:
+* **[Pandas](https://pandas.pydata.org/)** आपको **डेटा फ्रेम्स** के साथ काम करने की अनुमति देता है, जो रिलेशनल टेबल्स के समान होते हैं। आप नामित कॉलम रख सकते हैं और पंक्तियों, कॉलमों और डेटा फ्रेम्स पर विभिन्न ऑपरेशन कर सकते हैं।
+* **[Numpy](https://numpy.org/)** **टेंसर्स**, यानी बहु-आयामी **एरेज़** के साथ काम करने के लिए एक लाइब्रेरी है। एरे में समान प्रकार के मान होते हैं और यह डेटा फ्रेम की तुलना में सरल होता है, लेकिन यह अधिक गणितीय ऑपरेशन प्रदान करता है और कम ओवरहेड बनाता है।
+
+इसके अलावा, कुछ अन्य लाइब्रेरी भी हैं जिनके बारे में आपको पता होना चाहिए:
+* **[Matplotlib](https://matplotlib.org/)** डेटा विज़ुअलाइज़ेशन और ग्राफ़ प्लॉटिंग के लिए उपयोग की जाने वाली एक लाइब्रेरी है।
+* **[SciPy](https://www.scipy.org/)** कुछ अतिरिक्त वैज्ञानिक कार्यों वाली एक लाइब्रेरी है। हमने पहले ही इस लाइब्रेरी का उल्लेख संभावना और सांख्यिकी के संदर्भ में किया है।
+
+यहां एक कोड का टुकड़ा है जिसे आप आमतौर पर अपने Python प्रोग्राम की शुरुआत में इन लाइब्रेरी को आयात करने के लिए उपयोग करेंगे:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas कुछ बुनियादी अवधारणाओं के इर्द-गिर्द केंद्रित है।
+
+### सीरीज़
+
+**सीरीज़** मानों का एक अनुक्रम है, जो सूची या numpy एरे के समान है। मुख्य अंतर यह है कि सीरीज़ में एक **इंडेक्स** भी होता है, और जब हम सीरीज़ पर ऑपरेशन करते हैं (जैसे, उन्हें जोड़ते हैं), तो इंडेक्स को ध्यान में रखा जाता है। इंडेक्स उतना ही सरल हो सकता है जितना कि पूर्णांक पंक्ति संख्या (जब सूची या एरे से सीरीज़ बनाई जाती है तो यह डिफ़ॉल्ट रूप से उपयोग किया जाने वाला इंडेक्स है), या इसमें जटिल संरचना हो सकती है, जैसे कि दिनांक अंतराल।
+
+> **नोट**: [`notebook.ipynb`](../../../../2-Working-With-Data/07-python/notebook.ipynb) में Pandas का कुछ परिचयात्मक कोड है। हम यहां केवल कुछ उदाहरणों की रूपरेखा प्रस्तुत करते हैं, और आप निश्चित रूप से पूरे नोटबुक को देख सकते हैं।
+
+एक उदाहरण पर विचार करें: हम अपनी आइसक्रीम की बिक्री का विश्लेषण करना चाहते हैं। आइए कुछ समय अवधि के लिए बिक्री संख्या (प्रत्येक दिन बेची गई वस्तुओं की संख्या) की एक सीरीज़ उत्पन्न करें:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+अब मान लीजिए कि हर हफ्ते हम दोस्तों के लिए एक पार्टी आयोजित करते हैं और पार्टी के लिए 10 अतिरिक्त आइसक्रीम पैक लेते हैं। हम इसे दिखाने के लिए एक और सीरीज़ बना सकते हैं, जो सप्ताह के अनुसार इंडेक्स की गई हो:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+जब हम दो सीरीज़ को जोड़ते हैं, तो हमें कुल संख्या मिलती है:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **नोट** कि हम साधारण सिंटैक्स `total_items+additional_items` का उपयोग नहीं कर रहे हैं। यदि हम ऐसा करते, तो हमें परिणामी सीरीज़ में कई `NaN` (*Not a Number*) मान मिलते। ऐसा इसलिए है क्योंकि `additional_items` सीरीज़ में कुछ इंडेक्स पॉइंट्स के लिए मान गायब हैं, और `NaN` को किसी भी चीज़ में जोड़ने से `NaN` मिलता है। इसलिए हमें जोड़ने के दौरान `fill_value` पैरामीटर निर्दिष्ट करने की आवश्यकता होती है।
+
+टाइम सीरीज़ के साथ, हम विभिन्न समय अंतरालों के साथ सीरीज़ को **पुनः नमूना** भी कर सकते हैं। उदाहरण के लिए, मान लीजिए कि हम मासिक औसत बिक्री मात्रा की गणना करना चाहते हैं। हम निम्नलिखित कोड का उपयोग कर सकते हैं:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### डेटा फ्रेम
+
+डेटा फ्रेम मूल रूप से समान इंडेक्स वाली कई सीरीज़ का संग्रह है। हम कई सीरीज़ को एक साथ डेटा फ्रेम में जोड़ सकते हैं:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+यह इस तरह की एक क्षैतिज तालिका बनाएगा:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+हम सीरीज़ को कॉलम के रूप में भी उपयोग कर सकते हैं और डिक्शनरी का उपयोग करके कॉलम नाम निर्दिष्ट कर सकते हैं:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+यह हमें इस तरह की एक तालिका देगा:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**नोट** कि हम पिछले तालिका को ट्रांसपोज़ करके भी इस लेआउट को प्राप्त कर सकते हैं, जैसे कि
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+यहां `.T` डेटा फ्रेम को ट्रांसपोज़ करने का ऑपरेशन है, यानी पंक्तियों और कॉलमों को बदलना, और `rename` ऑपरेशन हमें कॉलमों का नाम बदलने की अनुमति देता है ताकि यह पिछले उदाहरण से मेल खाए।
+
+डेटा फ्रेम्स पर हम जो सबसे महत्वपूर्ण ऑपरेशन कर सकते हैं, वे हैं:
+
+**कॉलम चयन**। हम `df['A']` लिखकर व्यक्तिगत कॉलम का चयन कर सकते हैं - यह ऑपरेशन एक सीरीज़ लौटाता है। हम `df[['B','A']]` लिखकर कॉलमों के एक उपसमुच्चय को दूसरे डेटा फ्रेम में भी चुन सकते हैं - यह एक और डेटा फ्रेम लौटाता है।
+
+**केवल कुछ पंक्तियों को फ़िल्टर करना**। उदाहरण के लिए, केवल उन पंक्तियों को छोड़ने के लिए जिनमें कॉलम `A` का मान 5 से अधिक है, हम लिख सकते हैं `df[df['A']>5]`।
+
+> **नोट**: फ़िल्टरिंग इस प्रकार काम करता है। अभिव्यक्ति `df['A']<5` एक बूलियन सीरीज़ लौटाती है, जो यह इंगित करती है कि मूल सीरीज़ `df['A']` के प्रत्येक तत्व के लिए अभिव्यक्ति `True` या `False` है। जब बूलियन सीरीज़ को इंडेक्स के रूप में उपयोग किया जाता है, तो यह डेटा फ्रेम में पंक्तियों के उपसमुच्चय को लौटाता है। इसलिए, किसी भी सामान्य Python बूलियन अभिव्यक्ति का उपयोग करना संभव नहीं है, उदाहरण के लिए, `df[df['A']>5 and df['A']<7]` लिखना गलत होगा। इसके बजाय, आपको बूलियन सीरीज़ पर विशेष `&` ऑपरेशन का उपयोग करना चाहिए, जैसे `df[(df['A']>5) & (df['A']<7)]` (*ब्रैकेट्स यहां महत्वपूर्ण हैं*)।
+
+**नए गणनीय कॉलम बनाना**। हम अपने डेटा फ्रेम के लिए आसानी से नए गणनीय कॉलम बना सकते हैं, जैसे:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+यह उदाहरण `A` के औसत मान से उसके विचलन की गणना करता है। यहां वास्तव में होता यह है कि हम एक सीरीज़ की गणना कर रहे हैं और फिर इस सीरीज़ को बाईं ओर असाइन कर रहे हैं, जिससे एक और कॉलम बनता है। इसलिए, हम किसी भी ऐसे ऑपरेशन का उपयोग नहीं कर सकते जो सीरीज़ के साथ संगत न हो, उदाहरण के लिए, नीचे दिया गया कोड गलत है:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+हालांकि यह उदाहरण सिंटैक्टिक रूप से सही है, यह हमें गलत परिणाम देता है, क्योंकि यह कॉलम में सभी मानों को सीरीज़ `B` की लंबाई असाइन करता है, न कि व्यक्तिगत तत्वों की लंबाई जैसा कि हमने इरादा किया था।
+
+यदि हमें इस तरह के जटिल अभिव्यक्तियों की गणना करने की आवश्यकता है, तो हम `apply` फ़ंक्शन का उपयोग कर सकते हैं। अंतिम उदाहरण को इस प्रकार लिखा जा सकता है:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+उपरोक्त ऑपरेशनों के बाद, हमारे पास निम्नलिखित डेटा फ्रेम होगा:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**संख्या के आधार पर पंक्तियों का चयन** `iloc` का उपयोग करके किया जा सकता है। उदाहरण के लिए, डेटा फ्रेम से पहली 5 पंक्तियों का चयन करने के लिए:
+```python
+df.iloc[:5]
+```
+
+**ग्रुपिंग** का उपयोग अक्सर *पिवट टेबल्स* जैसे परिणाम प्राप्त करने के लिए किया जाता है। मान लीजिए कि हम `LenB` के प्रत्येक दिए गए मान के लिए कॉलम `A` का औसत मान गणना करना चाहते हैं। फिर हम अपने डेटा फ्रेम को `LenB` द्वारा ग्रुप कर सकते हैं और `mean` को कॉल कर सकते हैं:
+```python
+df.groupby(by='LenB').mean()
+```
+यदि हमें समूह में औसत और तत्वों की संख्या दोनों की गणना करनी है, तो हम अधिक जटिल `aggregate` फ़ंक्शन का उपयोग कर सकते हैं:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+यह हमें निम्नलिखित तालिका देता है:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### डेटा प्राप्त करना
+हमने देखा कि Python ऑब्जेक्ट्स से Series और DataFrames बनाना कितना आसान है। हालांकि, डेटा आमतौर पर टेक्स्ट फाइल या Excel टेबल के रूप में आता है। सौभाग्य से, Pandas हमें डिस्क से डेटा लोड करने का एक सरल तरीका प्रदान करता है। उदाहरण के लिए, CSV फाइल पढ़ना इतना आसान है:
+```python
+df = pd.read_csv('file.csv')
+```
+हम "चैलेंज" सेक्शन में डेटा लोड करने के और भी उदाहरण देखेंगे, जिसमें इसे बाहरी वेबसाइट्स से प्राप्त करना भी शामिल है।
+
+### प्रिंटिंग और प्लॉटिंग
+
+एक डेटा साइंटिस्ट को अक्सर डेटा का विश्लेषण करना पड़ता है, इसलिए इसे विज़ुअलाइज़ करने में सक्षम होना महत्वपूर्ण है। जब DataFrame बड़ा होता है, तो कई बार हम केवल यह सुनिश्चित करना चाहते हैं कि हम सब कुछ सही कर रहे हैं, इसके लिए पहले कुछ पंक्तियों को प्रिंट करना उपयोगी होता है। यह `df.head()` कॉल करके किया जा सकता है। यदि आप इसे Jupyter Notebook से चला रहे हैं, तो यह DataFrame को एक सुंदर टेबल के रूप में प्रिंट करेगा।
+
+हमने `plot` फ़ंक्शन का उपयोग करके कुछ कॉलम को विज़ुअलाइज़ करने का तरीका भी देखा है। जबकि `plot` कई कार्यों के लिए बहुत उपयोगी है और `kind=` पैरामीटर के माध्यम से कई अलग-अलग ग्राफ़ प्रकारों का समर्थन करता है, आप हमेशा कुछ अधिक जटिल प्लॉट करने के लिए कच्चे `matplotlib` लाइब्रेरी का उपयोग कर सकते हैं। हम डेटा विज़ुअलाइज़ेशन को अलग पाठ में विस्तार से कवर करेंगे।
+
+यह अवलोकन Pandas के सबसे महत्वपूर्ण अवधारणाओं को कवर करता है, हालांकि, यह लाइब्रेरी बहुत समृद्ध है, और आप इसके साथ क्या कर सकते हैं इसकी कोई सीमा नहीं है! अब चलिए इस ज्ञान का उपयोग करके एक विशिष्ट समस्या को हल करते हैं।
+
+## 🚀 चैलेंज 1: COVID के प्रसार का विश्लेषण
+
+पहली समस्या जिस पर हम ध्यान केंद्रित करेंगे, वह है COVID-19 के महामारी प्रसार का मॉडलिंग। ऐसा करने के लिए, हम विभिन्न देशों में संक्रमित व्यक्तियों की संख्या पर डेटा का उपयोग करेंगे, जो [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) द्वारा [Johns Hopkins University](https://jhu.edu/) में प्रदान किया गया है। यह डेटा [इस GitHub Repository](https://github.com/CSSEGISandData/COVID-19) में उपलब्ध है।
+
+चूंकि हम यह प्रदर्शित करना चाहते हैं कि डेटा के साथ कैसे काम किया जाए, हम आपको [`notebook-covidspread.ipynb`](../../../../2-Working-With-Data/07-python/notebook-covidspread.ipynb) खोलने और इसे ऊपर से नीचे तक पढ़ने के लिए आमंत्रित करते हैं। आप सेल्स को निष्पादित कर सकते हैं और अंत में छोड़ी गई कुछ चुनौतियों को हल कर सकते हैं।
+
+
+
+> यदि आप नहीं जानते कि Jupyter Notebook में कोड कैसे चलाना है, तो [इस लेख](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) को देखें।
+
+## असंरचित डेटा के साथ काम करना
+
+हालांकि डेटा अक्सर टेबलर फॉर्म में आता है, कुछ मामलों में हमें कम संरचित डेटा, जैसे टेक्स्ट या इमेज के साथ काम करना पड़ता है। इस स्थिति में, ऊपर देखी गई डेटा प्रोसेसिंग तकनीकों को लागू करने के लिए, हमें किसी तरह से संरचित डेटा **निकालना** होगा। यहां कुछ उदाहरण दिए गए हैं:
+
+* टेक्स्ट से कीवर्ड निकालना और यह देखना कि वे कितनी बार प्रकट होते हैं
+* तस्वीर में वस्तुओं के बारे में जानकारी निकालने के लिए न्यूरल नेटवर्क का उपयोग करना
+* वीडियो कैमरा फीड पर लोगों की भावनाओं की जानकारी प्राप्त करना
+
+## 🚀 चैलेंज 2: COVID पेपर्स का विश्लेषण
+
+इस चुनौती में, हम COVID महामारी के विषय को जारी रखेंगे और इस पर वैज्ञानिक पेपर्स को प्रोसेस करने पर ध्यान केंद्रित करेंगे। [CORD-19 Dataset](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) में COVID पर 7000 से अधिक (लेखन के समय) पेपर्स उपलब्ध हैं, जिनमें मेटाडेटा और सारांश शामिल हैं (और लगभग आधे के लिए पूर्ण पाठ भी उपलब्ध है)।
+
+इस डेटासेट का विश्लेषण करने का एक पूरा उदाहरण [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) कॉग्निटिव सर्विस का उपयोग करके [इस ब्लॉग पोस्ट](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) में वर्णित है। हम इस विश्लेषण के सरलीकृत संस्करण पर चर्चा करेंगे।
+
+> **NOTE**: हम इस रिपॉजिटरी के हिस्से के रूप में डेटासेट की एक प्रति प्रदान नहीं करते हैं। आपको पहले [इस डेटासेट](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) से [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) फाइल डाउनलोड करने की आवश्यकता हो सकती है। इसके लिए Kaggle पर पंजीकरण आवश्यक हो सकता है। आप बिना पंजीकरण के [यहां से](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html) भी डेटासेट डाउनलोड कर सकते हैं, लेकिन इसमें मेटाडेटा फाइल के अलावा सभी पूर्ण पाठ शामिल होंगे।
+
+[`notebook-papers.ipynb`](../../../../2-Working-With-Data/07-python/notebook-papers.ipynb) खोलें और इसे ऊपर से नीचे तक पढ़ें। आप सेल्स को निष्पादित कर सकते हैं और अंत में छोड़ी गई कुछ चुनौतियों को हल कर सकते हैं।
+
+
+
+## इमेज डेटा प्रोसेसिंग
+
+हाल ही में, बहुत शक्तिशाली AI मॉडल विकसित किए गए हैं जो हमें इमेज को समझने की अनुमति देते हैं। कई कार्य हैं जिन्हें प्री-ट्रेंड न्यूरल नेटवर्क या क्लाउड सेवाओं का उपयोग करके हल किया जा सकता है। कुछ उदाहरण शामिल हैं:
+
+* **इमेज क्लासिफिकेशन**, जो आपको इमेज को पूर्व-परिभाषित श्रेणियों में वर्गीकृत करने में मदद कर सकता है। आप [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) जैसी सेवाओं का उपयोग करके आसानी से अपने स्वयं के इमेज क्लासिफायर प्रशिक्षित कर सकते हैं।
+* **ऑब्जेक्ट डिटेक्शन** इमेज में विभिन्न वस्तुओं का पता लगाने के लिए। [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) जैसी सेवाएं कई सामान्य वस्तुओं का पता लगा सकती हैं, और आप [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) मॉडल को कुछ विशिष्ट वस्तुओं का पता लगाने के लिए प्रशिक्षित कर सकते हैं।
+* **फेस डिटेक्शन**, जिसमें आयु, लिंग और भावना का पता लगाना शामिल है। यह [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) के माध्यम से किया जा सकता है।
+
+इन सभी क्लाउड सेवाओं को [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) का उपयोग करके कॉल किया जा सकता है, और इस प्रकार इन्हें आसानी से आपके डेटा एक्सप्लोरेशन वर्कफ़्लो में शामिल किया जा सकता है।
+
+यहां इमेज डेटा स्रोतों से डेटा का पता लगाने के कुछ उदाहरण दिए गए हैं:
+* ब्लॉग पोस्ट [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) में, हम Instagram फ़ोटो का विश्लेषण करते हैं, यह समझने की कोशिश करते हैं कि कौन सी चीज़ें लोगों को किसी फ़ोटो को अधिक लाइक करने के लिए प्रेरित करती हैं। हम पहले [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) का उपयोग करके तस्वीरों से अधिकतम जानकारी निकालते हैं, और फिर [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) का उपयोग करके एक व्याख्यात्मक मॉडल बनाते हैं।
+* [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) में, हम [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) का उपयोग करके इवेंट्स की तस्वीरों में लोगों की भावनाओं को निकालते हैं, यह समझने की कोशिश करते हैं कि कौन सी चीज़ें लोगों को खुश करती हैं।
+
+## निष्कर्ष
+
+चाहे आपके पास पहले से संरचित डेटा हो या असंरचित डेटा, Python का उपयोग करके आप डेटा प्रोसेसिंग और समझ से संबंधित सभी चरणों को कर सकते हैं। यह डेटा प्रोसेसिंग का शायद सबसे लचीला तरीका है, और यही कारण है कि अधिकांश डेटा वैज्ञानिक Python को अपने प्राथमिक उपकरण के रूप में उपयोग करते हैं। यदि आप अपने डेटा साइंस के सफर को गंभीरता से लेना चाहते हैं, तो Python को गहराई से सीखना एक अच्छा विचार हो सकता है।
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## समीक्षा और स्व-अध्ययन
+
+**पुस्तकें**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**ऑनलाइन संसाधन**
+* आधिकारिक [10 मिनट में Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) ट्यूटोरियल
+* [Pandas विज़ुअलाइज़ेशन पर दस्तावेज़ीकरण](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Python सीखना**
+* [Turtle Graphics और Fractals के साथ Python को मज़ेदार तरीके से सीखें](https://github.com/shwars/pycourse)
+* [Python के साथ अपने पहले कदम उठाएं](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum) पर लर्निंग पाथ
+
+## असाइनमेंट
+
+[ऊपर दी गई चुनौतियों के लिए अधिक विस्तृत डेटा अध्ययन करें](assignment.md)
+
+## क्रेडिट्स
+
+यह पाठ [Dmitry Soshnikov](http://soshnikov.com) द्वारा ♥️ के साथ लिखा गया है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/07-python/assignment.md b/translations/hi/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..01adf71c
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,35 @@
+
+# पायथन में डेटा प्रोसेसिंग के लिए असाइनमेंट
+
+इस असाइनमेंट में, हम आपसे उन कोड्स को विस्तार से समझाने के लिए कहेंगे, जिन्हें हमने अपने चैलेंजेस में विकसित करना शुरू किया है। असाइनमेंट दो भागों में विभाजित है:
+
+## COVID-19 प्रसार मॉडलिंग
+
+- [ ] 5-6 विभिन्न देशों के लिए *R* ग्राफ़ को एक ही प्लॉट पर तुलना के लिए या साइड-बाय-साइड कई प्लॉट्स में प्रदर्शित करें।
+- [ ] देखें कि संक्रमित मामलों की संख्या के साथ मौतों और रिकवरी की संख्या का क्या संबंध है।
+- [ ] यह पता लगाएं कि एक सामान्य बीमारी कितने समय तक चलती है, संक्रमण दर और मृत्यु दर को दृष्टिगत रूप से सहसंबंधित करके और कुछ विसंगतियों को देखकर। इसके लिए आपको विभिन्न देशों का डेटा देखना पड़ सकता है।
+- [ ] मृत्यु दर की गणना करें और यह समय के साथ कैसे बदलती है। *आप बीमारी की अवधि (दिनों में) को ध्यान में रखते हुए एक समय श्रृंखला को शिफ्ट करके गणना कर सकते हैं।*
+
+## COVID-19 पेपर्स विश्लेषण
+
+- [ ] विभिन्न दवाओं का सह-अस्तित्व मैट्रिक्स बनाएं और देखें कि कौन सी दवाएं अक्सर एक साथ आती हैं (जैसे कि एक ही सारांश में उल्लेखित)। आप दवाओं और निदानों के लिए सह-अस्तित्व मैट्रिक्स बनाने के कोड को संशोधित कर सकते हैं।
+- [ ] इस मैट्रिक्स को हीटमैप का उपयोग करके विज़ुअलाइज़ करें।
+- [ ] एक अतिरिक्त चुनौती के रूप में, दवाओं के सह-अस्तित्व को [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram) का उपयोग करके विज़ुअलाइज़ करें। [यह लाइब्रेरी](https://pypi.org/project/chord/) आपको एक chord diagram बनाने में मदद कर सकती है।
+- [ ] एक और अतिरिक्त चुनौती के रूप में, विभिन्न दवाओं की खुराक (जैसे *400mg* में **400mg क्लोरोक्वीन रोज़ाना लें**) को नियमित अभिव्यक्तियों (regular expressions) का उपयोग करके निकालें, और एक डेटा फ्रेम बनाएं जो विभिन्न दवाओं के लिए अलग-अलग खुराक दिखाए। **नोट**: उन संख्यात्मक मानों पर विचार करें जो दवा के नाम के निकट पाठीय क्षेत्र में हैं।
+
+## मूल्यांकन मापदंड (Rubric)
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+सभी कार्य पूरे हैं, ग्राफ़िक रूप से प्रदर्शित और समझाए गए हैं, जिसमें कम से कम दो में से एक अतिरिक्त चुनौती शामिल है | 5 से अधिक कार्य पूरे हैं, कोई अतिरिक्त चुनौती नहीं की गई है, या परिणाम स्पष्ट नहीं हैं | 3 से अधिक लेकिन 5 से कम कार्य पूरे हैं, और विज़ुअलाइज़ेशन बिंदु को प्रदर्शित करने में मदद नहीं करते हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/08-data-preparation/README.md b/translations/hi/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..757c96e7
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,340 @@
+
+# डेटा के साथ काम करना: डेटा तैयारी
+
+| द्वारा ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|डेटा तैयारी - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+डेटा के स्रोत के आधार पर, कच्चे डेटा में कुछ असंगतियां हो सकती हैं जो विश्लेषण और मॉडलिंग में चुनौतियां पैदा करेंगी। दूसरे शब्दों में, इस डेटा को "गंदा" माना जा सकता है और इसे साफ करने की आवश्यकता होगी। यह पाठ डेटा को साफ करने और बदलने की तकनीकों पर केंद्रित है ताकि गायब, गलत या अधूरे डेटा की चुनौतियों का सामना किया जा सके। इस पाठ में शामिल विषयों का उपयोग पायथन और पांडा लाइब्रेरी के साथ किया जाएगा और इसे [नोटबुक में प्रदर्शित किया जाएगा](../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb) जो इस डायरेक्टरी में है।
+
+## डेटा को साफ करने का महत्व
+
+- **उपयोग और पुन: उपयोग में आसानी**: जब डेटा सही तरीके से व्यवस्थित और सामान्यीकृत होता है, तो इसे खोजना, उपयोग करना और दूसरों के साथ साझा करना आसान हो जाता है।
+
+- **संगति**: डेटा साइंस में अक्सर एक से अधिक डेटा सेट के साथ काम करना पड़ता है, जहां विभिन्न स्रोतों से डेटा सेट को एक साथ जोड़ा जाना होता है। यह सुनिश्चित करना कि प्रत्येक व्यक्तिगत डेटा सेट में सामान्य मानकीकरण है, यह सुनिश्चित करेगा कि जब वे सभी एक डेटा सेट में विलय किए जाते हैं, तो डेटा अभी भी उपयोगी है।
+
+- **मॉडल की सटीकता**: साफ किया गया डेटा उन मॉडलों की सटीकता में सुधार करता है जो उस पर निर्भर करते हैं।
+
+## सामान्य सफाई के लक्ष्य और रणनीतियां
+
+- **डेटासेट का अन्वेषण**: डेटा अन्वेषण, जिसे [बाद के पाठ](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing) में कवर किया गया है, आपको यह पता लगाने में मदद कर सकता है कि कौन सा डेटा साफ करने की आवश्यकता है। डेटासेट के भीतर मूल्यों को दृश्य रूप से देखना यह अपेक्षा सेट कर सकता है कि बाकी डेटा कैसा दिखेगा, या उन समस्याओं का अंदाजा दे सकता है जिन्हें हल किया जा सकता है। अन्वेषण में बुनियादी क्वेरी, विज़ुअलाइज़ेशन और सैंपलिंग शामिल हो सकते हैं।
+
+- **फॉर्मेटिंग**: स्रोत के आधार पर, डेटा को प्रस्तुत करने के तरीके में असंगतियां हो सकती हैं। यह डेटा को खोजने और प्रस्तुत करने में समस्याएं पैदा कर सकता है, जहां यह डेटासेट में देखा जाता है लेकिन विज़ुअलाइज़ेशन या क्वेरी परिणामों में सही ढंग से प्रस्तुत नहीं किया जाता है। सामान्य फॉर्मेटिंग समस्याओं में व्हाइटस्पेस, तिथियों और डेटा प्रकारों को हल करना शामिल है। फॉर्मेटिंग समस्याओं को हल करना आमतौर पर उन लोगों पर निर्भर करता है जो डेटा का उपयोग कर रहे हैं। उदाहरण के लिए, तिथियों और संख्याओं को प्रस्तुत करने के मानक देश के अनुसार भिन्न हो सकते हैं।
+
+- **डुप्लीकेशन**: डेटा जिसमें एक से अधिक बार उपस्थिति होती है, गलत परिणाम उत्पन्न कर सकता है और आमतौर पर इसे हटा दिया जाना चाहिए। यह तब आम हो सकता है जब दो या अधिक डेटा सेट को एक साथ जोड़ा जाता है। हालांकि, ऐसे उदाहरण भी हो सकते हैं जहां जुड़े डेटा सेट में डुप्लीकेशन अतिरिक्त जानकारी प्रदान कर सकता है और इसे संरक्षित करने की आवश्यकता हो सकती है।
+
+- **गायब डेटा**: गायब डेटा गलतियों के साथ-साथ कमजोर या पक्षपाती परिणाम पैदा कर सकता है। कभी-कभी इन्हें डेटा को "रीलोड" करके, गायब मूल्यों को पायथन जैसे कोड और गणना से भरकर, या बस उस मूल्य और संबंधित डेटा को हटाकर हल किया जा सकता है। डेटा के गायब होने के कई कारण हो सकते हैं और इन गायब मूल्यों को हल करने के लिए उठाए गए कदम इस बात पर निर्भर कर सकते हैं कि वे पहले स्थान पर कैसे और क्यों गायब हुए।
+
+## डेटा फ्रेम जानकारी का अन्वेषण
+> **सीखने का लक्ष्य:** इस उपखंड के अंत तक, आपको पांडा डेटा फ्रेम में संग्रहीत डेटा के बारे में सामान्य जानकारी प्राप्त करने में सहज होना चाहिए।
+
+एक बार जब आप अपना डेटा पांडा में लोड कर लेते हैं, तो यह अधिक संभावना है कि यह एक डेटा फ्रेम में होगा (पिछले [पाठ](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) का संदर्भ लें विस्तृत अवलोकन के लिए)। हालांकि, यदि आपके डेटा फ्रेम में 60,000 पंक्तियां और 400 कॉलम हैं, तो आप यह समझने की शुरुआत कैसे करेंगे कि आप किसके साथ काम कर रहे हैं? सौभाग्य से, [पांडा](https://pandas.pydata.org/) डेटा फ्रेम के बारे में समग्र जानकारी को जल्दी से देखने के लिए कुछ सुविधाजनक उपकरण प्रदान करता है, साथ ही पहले और अंतिम कुछ पंक्तियों को भी।
+
+इस कार्यक्षमता का अन्वेषण करने के लिए, हम पायथन स्की-किट-लर्न लाइब्रेरी आयात करेंगे और एक प्रसिद्ध डेटासेट का उपयोग करेंगे: **आईरिस डेटा सेट**।
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: शुरुआत करने के लिए, `info()` विधि का उपयोग `DataFrame` में मौजूद सामग्री का सारांश प्रिंट करने के लिए किया जाता है। आइए देखें कि इस डेटासेट में हमारे पास क्या है:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+इससे, हम जानते हैं कि *आईरिस* डेटासेट में चार कॉलम में 150 प्रविष्टियां हैं और कोई भी प्रविष्टि शून्य नहीं है। सभी डेटा 64-बिट फ्लोटिंग-पॉइंट नंबर के रूप में संग्रहीत हैं।
+
+- **DataFrame.head()**: अगला, `DataFrame` की वास्तविक सामग्री की जांच करने के लिए, हम `head()` विधि का उपयोग करते हैं। आइए देखें कि हमारे `iris_df` की पहली कुछ पंक्तियां कैसी दिखती हैं:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: इसके विपरीत, `DataFrame` की अंतिम कुछ पंक्तियों की जांच करने के लिए, हम `tail()` विधि का उपयोग करते हैं:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **निष्कर्ष:** केवल डेटा फ्रेम में जानकारी के मेटाडेटा को देखकर या पहले और अंतिम कुछ मूल्यों को देखकर, आप तुरंत उस डेटा के आकार, संरचना और सामग्री का अंदाजा लगा सकते हैं जिसके साथ आप काम कर रहे हैं।
+
+## गायब डेटा से निपटना
+> **सीखने का लक्ष्य:** इस उपखंड के अंत तक, आपको डेटा फ्रेम से शून्य मानों को बदलने या हटाने का तरीका पता होना चाहिए।
+
+अधिकांश समय, जिन डेटासेट्स का आप उपयोग करना चाहते हैं (या उपयोग करना पड़ता है) उनमें गायब मान होते हैं। गायब डेटा को संभालने का तरीका सूक्ष्म समझौतों के साथ आता है जो आपके अंतिम विश्लेषण और वास्तविक दुनिया के परिणामों को प्रभावित कर सकता है।
+
+पांडा गायब मानों को दो तरीकों से संभालता है। पहला आपने पहले के अनुभागों में देखा है: `NaN`, या नॉट ए नंबर। यह वास्तव में आईईईई फ्लोटिंग-पॉइंट स्पेसिफिकेशन का एक विशेष मान है और इसका उपयोग केवल गायब फ्लोटिंग-पॉइंट मानों को इंगित करने के लिए किया जाता है।
+
+फ्लोट्स के अलावा गायब मानों के लिए, पांडा पायथन `None` ऑब्जेक्ट का उपयोग करता है। जबकि यह भ्रमित करने वाला लग सकता है कि आप दो अलग-अलग प्रकार के मानों का सामना करेंगे जो मूल रूप से एक ही बात कहते हैं, इस डिज़ाइन विकल्प के लिए ठोस प्रोग्रामेटिक कारण हैं और, व्यवहार में, इस मार्ग पर जाने से पांडा अधिकांश मामलों के लिए एक अच्छा समझौता प्रदान करता है। इसके बावजूद, `None` और `NaN` दोनों में प्रतिबंध हैं जिनके बारे में आपको यह ध्यान रखना होगा कि उनका उपयोग कैसे किया जा सकता है।
+
+`NaN` और `None` के बारे में अधिक जानकारी के लिए [नोटबुक](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) देखें!
+
+- **शून्य मानों का पता लगाना**: `pandas` में, `isnull()` और `notnull()` विधियां शून्य डेटा का पता लगाने के लिए आपकी प्राथमिक विधियां हैं। दोनों आपके डेटा पर बूलियन मास्क लौटाते हैं। हम `NaN` मानों के लिए `numpy` का उपयोग करेंगे:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+आउटपुट को ध्यान से देखें। क्या इसमें से कुछ आपको आश्चर्यचकित करता है? जबकि `0` एक अंकगणितीय शून्य है, यह फिर भी एक पूरी संख्या है और पांडा इसे ऐसा ही मानता है। `''` थोड़ा अधिक सूक्ष्म है। जबकि हमने इसे खंड 1 में एक खाली स्ट्रिंग मान का प्रतिनिधित्व करने के लिए उपयोग किया, यह फिर भी एक स्ट्रिंग ऑब्जेक्ट है और पांडा के दृष्टिकोण से शून्य का प्रतिनिधित्व नहीं है।
+
+अब, आइए इसे पलटें और इन विधियों का उपयोग उस तरीके से करें जैसे आप व्यावहारिक रूप से उनका उपयोग करेंगे। आप बूलियन मास्क का सीधे एक ``Series`` या ``DataFrame`` इंडेक्स के रूप में उपयोग कर सकते हैं, जो गायब (या मौजूद) मानों के साथ काम करने की कोशिश करते समय उपयोगी हो सकता है।
+
+> **निष्कर्ष:** `isnull()` और `notnull()` दोनों विधियां `DataFrame` में उपयोग किए जाने पर समान परिणाम उत्पन्न करती हैं: वे परिणाम और उन परिणामों के इंडेक्स दिखाती हैं, जो आपके डेटा के साथ काम करते समय आपके लिए बहुत मददगार होंगे।
+
+- **शून्य मानों को हटाना**: गायब मानों की पहचान करने से परे, पांडा `Series` और `DataFrame` से शून्य मानों को हटाने का एक सुविधाजनक साधन प्रदान करता है। (विशेष रूप से बड़े डेटा सेट पर, विश्लेषण से गायब [NA] मानों को हटाना अन्य तरीकों से निपटने की तुलना में अधिक सलाहनीय होता है।) इसे क्रियान्वित रूप में देखने के लिए, आइए `example1` पर लौटें:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+ध्यान दें कि यह आपके `example3[example3.notnull()]` के आउटपुट जैसा दिखना चाहिए। यहां अंतर यह है कि, केवल मास्क किए गए मानों पर इंडेक्सिंग करने के बजाय, `dropna` ने `Series` `example1` से उन गायब मानों को हटा दिया है।
+
+क्योंकि `DataFrame` में दो आयाम होते हैं, वे डेटा को हटाने के लिए अधिक विकल्प प्रदान करते हैं।
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(क्या आपने देखा कि पांडा ने `NaN` को समायोजित करने के लिए दो कॉलम को फ्लोट्स में अपकास्ट किया?)
+
+आप `DataFrame` से एकल मान नहीं हटा सकते, इसलिए आपको पूरी पंक्तियों या कॉलम को हटाना होगा। आप जो कर रहे हैं उसके आधार पर, आप एक या दूसरे को हटाना चाह सकते हैं, और इसलिए पांडा आपको दोनों के लिए विकल्प देता है। क्योंकि डेटा साइंस में, कॉलम आमतौर पर वेरिएबल्स का प्रतिनिधित्व करते हैं और पंक्तियां अवलोकनों का प्रतिनिधित्व करती हैं, आप डेटा की पंक्तियों को हटाने की अधिक संभावना रखते हैं; `dropna()` के लिए डिफ़ॉल्ट सेटिंग यह है कि उन सभी पंक्तियों को हटा दें जिनमें कोई भी शून्य मान हो:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+यदि आवश्यक हो, तो आप कॉलम से NA मान हटा सकते हैं। ऐसा करने के लिए `axis=1` का उपयोग करें:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+ध्यान दें कि यह बहुत सारे डेटा को हटा सकता है जिसे आप रखना चाह सकते हैं, विशेष रूप से छोटे डेटा सेट में। क्या होगा यदि आप केवल उन पंक्तियों या कॉलम को हटाना चाहते हैं जिनमें कई या यहां तक कि सभी शून्य मान हैं? आप `dropna` में `how` और `thresh` पैरामीटर के साथ उन सेटिंग्स को निर्दिष्ट करते हैं।
+
+डिफ़ॉल्ट रूप से, `how='any'` (यदि आप स्वयं जांचना चाहते हैं या देखना चाहते हैं कि इस विधि में अन्य पैरामीटर क्या हैं, तो कोड सेल में `example4.dropna?` चलाएं)। आप वैकल्पिक रूप से `how='all'` निर्दिष्ट कर सकते हैं ताकि केवल उन पंक्तियों या कॉलम को हटाया जा सके जिनमें सभी शून्य मान हों। आइए इस क्रिया को देखने के लिए हमारे उदाहरण `DataFrame` का विस्तार करें।
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+`thresh` पैरामीटर आपको अधिक सटीक नियंत्रण देता है: आप उन पंक्तियों या कॉलम की संख्या सेट करते हैं जिनमें *गैर-शून्य* मान होने चाहिए ताकि उन्हें रखा जा सके:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+यहां, पहली और अंतिम पंक्तियां हटा दी गई हैं, क्योंकि उनमें केवल दो गैर-शून्य मान हैं।
+
+- **शून्य मानों को भरना**: आपके डेटासेट के आधार पर, कभी-कभी शून्य मानों को वैध मानों से भरना अधिक समझ में आता है बजाय उन्हें हटाने के। आप इसे इन-प्लेस करने के लिए `isnull` का उपयोग कर सकते हैं, लेकिन यह श्रमसाध्य हो सकता है, विशेष रूप से यदि आपके पास भरने के लिए बहुत सारे मान हैं। क्योंकि यह डेटा साइंस में एक सामान्य कार्य है, पांडा `fillna` प्रदान करता है, जो आपके द्वारा चुने गए मानों के साथ गायब मानों को बदलकर `Series` या `DataFrame` की एक प्रति लौटाता है। आइए देखें कि यह व्यवहार में कैसे काम करता है।
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+आप सभी शून्य प्रविष्टियों को एक ही मान, जैसे `0` से भर सकते हैं:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+आप शून्य मानों को **आगे-भर** सकते हैं, यानी पिछले वैध मान का उपयोग करके शून्य को भर सकते हैं:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+आप **पीछे-भर** भी कर सकते हैं, यानी अगले वैध मान को पीछे की ओर फैलाकर शून्य को भर सकते हैं:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+जैसा कि आप अनुमान लगा सकते हैं, यह `DataFrame` के साथ भी उसी तरह काम करता है, लेकिन आप शून्य मानों को भरने के लिए एक `axis` भी निर्दिष्ट कर सकते हैं। पहले उपयोग किए गए `example2` को फिर से लें:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+ध्यान दें कि जब पिछले मान उपलब्ध नहीं होता है, तो आगे-भरने के लिए, शून्य मान बना रहता है।
+> **मुख्य बात:** आपके डेटा सेट में गायब मानों से निपटने के कई तरीके हैं। आप जो विशेष रणनीति अपनाते हैं (उन्हें हटाना, बदलना, या उन्हें कैसे बदलना है) वह उस डेटा की विशिष्टताओं पर निर्भर होनी चाहिए। जितना अधिक आप डेटा सेट के साथ काम करेंगे और उन्हें समझेंगे, उतना ही बेहतर आप गायब मानों को संभालने में सक्षम होंगे।
+
+## डुप्लिकेट डेटा हटाना
+
+> **लक्ष्य:** इस उपखंड के अंत तक, आप DataFrames से डुप्लिकेट मानों की पहचान करने और उन्हें हटाने में सहज हो जाएंगे।
+
+गायब डेटा के अलावा, वास्तविक दुनिया के डेटा सेट में अक्सर डुप्लिकेट डेटा भी मिलता है। सौभाग्य से, `pandas` डुप्लिकेट प्रविष्टियों का पता लगाने और उन्हें हटाने का एक आसान तरीका प्रदान करता है।
+
+- **डुप्लिकेट की पहचान करना: `duplicated`**: आप `pandas` में `duplicated` विधि का उपयोग करके आसानी से डुप्लिकेट मानों को पहचान सकते हैं, जो एक Boolean मास्क लौटाती है जो यह इंगित करती है कि `DataFrame` में कोई प्रविष्टि पहले की प्रविष्टि का डुप्लिकेट है। इसे क्रियान्वित करने के लिए एक उदाहरण `DataFrame` बनाते हैं।
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **डुप्लिकेट हटाना: `drop_duplicates`:** यह केवल उन डेटा की एक कॉपी लौटाता है जिनके सभी `duplicated` मान `False` हैं:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+`duplicated` और `drop_duplicates` दोनों डिफ़ॉल्ट रूप से सभी कॉलम पर विचार करते हैं, लेकिन आप निर्दिष्ट कर सकते हैं कि वे आपके `DataFrame` में केवल कॉलमों के एक उपसमूह की जांच करें:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **मुख्य बात:** डुप्लिकेट डेटा हटाना लगभग हर डेटा-साइंस प्रोजेक्ट का एक आवश्यक हिस्सा है। डुप्लिकेट डेटा आपके विश्लेषण के परिणामों को बदल सकता है और आपको गलत परिणाम दे सकता है!
+
+## 🚀 चुनौती
+
+सभी चर्चा की गई सामग्री [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb) के रूप में प्रदान की गई है। इसके अतिरिक्त, प्रत्येक अनुभाग के बाद अभ्यास दिए गए हैं, उन्हें आज़माएं!
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+## समीक्षा और स्व-अध्ययन
+
+अपने डेटा को विश्लेषण और मॉडलिंग के लिए तैयार करने और उसे साफ करने के कई तरीके हैं, और डेटा को साफ करना एक "हैंड्स ऑन" अनुभव है। Kaggle से इन चुनौतियों को आज़माएं ताकि आप उन तकनीकों का पता लगा सकें जो इस पाठ में शामिल नहीं की गई हैं।
+
+- [डेटा क्लीनिंग चुनौती: तारीखों को पार्स करना](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [डेटा क्लीनिंग चुनौती: डेटा को स्केल और नॉर्मलाइज़ करना](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+## असाइनमेंट
+
+[फॉर्म से डेटा का मूल्यांकन करना](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/08-data-preparation/assignment.md b/translations/hi/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..143561f6
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,26 @@
+
+# फॉर्म से डेटा का मूल्यांकन
+
+एक क्लाइंट ने अपने ग्राहक आधार के बारे में कुछ बुनियादी डेटा इकट्ठा करने के लिए [छोटा फॉर्म](../../../../2-Working-With-Data/08-data-preparation/index.html) का परीक्षण किया है। उन्होंने अपने निष्कर्ष आपके पास लाए हैं ताकि आप उनके द्वारा इकट्ठा किए गए डेटा को मान्य कर सकें। आप ब्राउज़र में `index.html` पेज खोलकर फॉर्म देख सकते हैं।
+
+आपको [csv रिकॉर्ड्स का डेटासेट](../../../../data/form.csv) प्रदान किया गया है जिसमें फॉर्म से प्रविष्टियां और कुछ बुनियादी विज़ुअलाइज़ेशन शामिल हैं। क्लाइंट ने बताया कि कुछ विज़ुअलाइज़ेशन गलत दिख रहे हैं, लेकिन उन्हें यह समझ नहीं आ रहा कि इसे कैसे ठीक किया जाए। आप इसे [असाइनमेंट नोटबुक](../../../../2-Working-With-Data/08-data-preparation/assignment.ipynb) में एक्सप्लोर कर सकते हैं।
+
+## निर्देश
+
+इस पाठ में दिए गए तकनीकों का उपयोग करके फॉर्म के बारे में सिफारिशें करें ताकि यह सटीक और सुसंगत जानकारी कैप्चर कर सके।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/2-Working-With-Data/README.md b/translations/hi/2-Working-With-Data/README.md
new file mode 100644
index 00000000..f65ae528
--- /dev/null
+++ b/translations/hi/2-Working-With-Data/README.md
@@ -0,0 +1,29 @@
+
+# डेटा के साथ काम करना
+
+
+> फोटो Alexander Sinn द्वारा Unsplash पर
+
+इन पाठों में, आप सीखेंगे कि डेटा को कैसे प्रबंधित, संशोधित और अनुप्रयोगों में उपयोग किया जा सकता है। आप रिलेशनल और नॉन-रिलेशनल डेटाबेस के बारे में जानेंगे और डेटा को उनमें कैसे संग्रहीत किया जा सकता है। आप डेटा प्रबंधन के लिए Python के साथ काम करने की मूल बातें सीखेंगे, और आप यह भी खोजेंगे कि Python का उपयोग करके डेटा को प्रबंधित और माइन करने के कई तरीके क्या हैं।
+
+### विषय
+
+1. [रिलेशनल डेटाबेस](05-relational-databases/README.md)
+2. [नॉन-रिलेशनल डेटाबेस](06-non-relational/README.md)
+3. [Python के साथ काम करना](07-python/README.md)
+4. [डेटा तैयार करना](08-data-preparation/README.md)
+
+### क्रेडिट्स
+
+ये पाठ ❤️ के साथ [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) और [Jasmine Greenaway](https://twitter.com/paladique) द्वारा लिखे गए हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/09-visualization-quantities/README.md b/translations/hi/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..d3269f16
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,215 @@
+
+# मात्राओं का विज़ुअलाइज़ेशन
+
+| द्वारा ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| मात्राओं का विज़ुअलाइज़ेशन - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+इस पाठ में आप यह जानेंगे कि कैसे उपलब्ध कई Python लाइब्रेरीज़ में से एक का उपयोग करके मात्रा की अवधारणा के चारों ओर दिलचस्प विज़ुअलाइज़ेशन बनाना सीखा जा सकता है। मिनेसोटा के पक्षियों के बारे में एक साफ किए गए डेटा सेट का उपयोग करके, आप स्थानीय वन्यजीवों के बारे में कई दिलचस्प तथ्य जान सकते हैं।
+## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Matplotlib के साथ पंखों की चौड़ाई का निरीक्षण करें
+
+सरल और जटिल दोनों प्रकार के प्लॉट और चार्ट बनाने के लिए एक उत्कृष्ट लाइब्रेरी [Matplotlib](https://matplotlib.org/stable/index.html) है। सामान्य रूप से, इन लाइब्रेरीज़ का उपयोग करके डेटा को प्लॉट करने की प्रक्रिया में आपके डेटा फ्रेम के उन हिस्सों की पहचान करना शामिल है जिन्हें आप लक्षित करना चाहते हैं, उस डेटा पर आवश्यक कोई भी परिवर्तन करना, इसके x और y अक्ष मान असाइन करना, दिखाने के लिए किस प्रकार का प्लॉट चुनना है, और फिर प्लॉट दिखाना। Matplotlib कई प्रकार के विज़ुअलाइज़ेशन प्रदान करता है, लेकिन इस पाठ के लिए, आइए उन विज़ुअलाइज़ेशन पर ध्यान केंद्रित करें जो मात्रा को विज़ुअलाइज़ करने के लिए सबसे उपयुक्त हैं: लाइन चार्ट, स्कैटरप्लॉट्स, और बार प्लॉट्स।
+
+> ✅ अपने डेटा की संरचना और आप जो कहानी बताना चाहते हैं, उसके लिए सबसे अच्छा चार्ट चुनें।
+> - समय के साथ रुझानों का विश्लेषण करने के लिए: लाइन
+> - मानों की तुलना करने के लिए: बार, कॉलम, पाई, स्कैटरप्लॉट
+> - यह दिखाने के लिए कि भाग पूरे से कैसे संबंधित हैं: पाई
+> - डेटा के वितरण को दिखाने के लिए: स्कैटरप्लॉट, बार
+> - रुझानों को दिखाने के लिए: लाइन, कॉलम
+> - मानों के बीच संबंध दिखाने के लिए: लाइन, स्कैटरप्लॉट, बबल
+
+यदि आपके पास एक डेटा सेट है और आपको यह पता लगाना है कि किसी दिए गए आइटम की कितनी मात्रा शामिल है, तो आपके पास सबसे पहला कार्य इसके मानों का निरीक्षण करना होगा।
+
+✅ Matplotlib के लिए बहुत अच्छे 'चीट शीट्स' [यहां](https://matplotlib.org/cheatsheets/cheatsheets.pdf) उपलब्ध हैं।
+
+## पक्षियों की पंखों की अधिकतम चौड़ाई पर एक लाइन प्लॉट बनाएं
+
+इस पाठ फ़ोल्डर की जड़ में `notebook.ipynb` फ़ाइल खोलें और एक सेल जोड़ें।
+
+> नोट: डेटा इस रिपॉजिटरी की जड़ में `/data` फ़ोल्डर में संग्रहीत है।
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+यह डेटा टेक्स्ट और नंबरों का मिश्रण है:
+
+| | नाम | वैज्ञानिक नाम | श्रेणी | क्रम | परिवार | वंश | संरक्षण स्थिति | न्यूनतम लंबाई | अधिकतम लंबाई | न्यूनतम शरीर भार | अधिकतम शरीर भार | न्यूनतम पंख चौड़ाई | अधिकतम पंख चौड़ाई |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | ब्लैक-बेलिड व्हिसलिंग-डक | Dendrocygna autumnalis | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | फुल्वस व्हिसलिंग-डक | Dendrocygna bicolor | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | स्नो गूज़ | Anser caerulescens | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | रॉस का गूज़ | Anser rossii | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | ग्रेटर व्हाइट-फ्रंटेड गूज़ | Anser albifrons | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+आइए कुछ संख्यात्मक डेटा को एक बुनियादी लाइन प्लॉट का उपयोग करके प्लॉट करें। मान लीजिए कि आप इन दिलचस्प पक्षियों के लिए अधिकतम पंख चौड़ाई का दृश्य चाहते हैं।
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+आप तुरंत क्या नोटिस करते हैं? ऐसा लगता है कि कम से कम एक आउटलायर है - यह पंखों की चौड़ाई काफी बड़ी है! 2300 सेंटीमीटर पंख चौड़ाई 23 मीटर के बराबर है - क्या मिनेसोटा में पेटरोडैक्टाइल घूम रहे हैं? आइए जांच करें।
+
+हालांकि आप Excel में एक त्वरित सॉर्ट कर सकते हैं ताकि उन आउटलायरों को ढूंढा जा सके, जो शायद टाइपो हैं, प्लॉट के भीतर से विज़ुअलाइज़ेशन प्रक्रिया जारी रखें।
+
+x-अक्ष पर लेबल जोड़ें ताकि यह दिखाया जा सके कि किस प्रकार के पक्षी प्रश्न में हैं:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+लेबल्स को 45 डिग्री पर घुमाने के बावजूद, उन्हें पढ़ने के लिए बहुत अधिक हैं। आइए एक अलग रणनीति आजमाएं: केवल उन आउटलायरों को लेबल करें और चार्ट के भीतर लेबल सेट करें। आप लेबलिंग के लिए अधिक जगह बनाने के लिए एक स्कैटर चार्ट का उपयोग कर सकते हैं:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+यहां क्या हो रहा है? आपने `tick_params` का उपयोग करके नीचे के लेबल्स को छिपा दिया और फिर अपने पक्षियों के डेटा सेट पर एक लूप बनाया। छोटे गोल नीले बिंदुओं का उपयोग करके चार्ट को प्लॉट करते हुए (`bo`), आपने किसी भी पक्षी की जांच की जिसकी अधिकतम पंख चौड़ाई 500 से अधिक थी और यदि ऐसा हो तो बिंदु के बगल में उनका लेबल प्रदर्शित किया। आपने y अक्ष पर लेबल्स को थोड़ा ऑफसेट किया (`y * (1 - 0.05)`) और पक्षी का नाम लेबल के रूप में उपयोग किया।
+
+आपने क्या खोजा?
+
+
+## अपने डेटा को फ़िल्टर करें
+
+बाल्ड ईगल और प्रेयरी फाल्कन, हालांकि शायद बहुत बड़े पक्षी हैं, गलत लेबल किए गए प्रतीत होते हैं, उनकी अधिकतम पंख चौड़ाई में एक अतिरिक्त `0` जोड़ा गया है। यह संभावना नहीं है कि आप 25 मीटर पंख चौड़ाई वाले बाल्ड ईगल से मिलेंगे, लेकिन अगर ऐसा हो, तो कृपया हमें बताएं! आइए इन दो आउटलायरों के बिना एक नया डेटा फ्रेम बनाएं:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+आउटलायरों को फ़िल्टर करके, आपका डेटा अब अधिक सुसंगत और समझने योग्य है।
+
+
+
+अब जब हमारे पास कम से कम पंख चौड़ाई के मामले में एक साफ डेटा सेट है, तो आइए इन पक्षियों के बारे में और अधिक खोज करें।
+
+हालांकि लाइन और स्कैटर प्लॉट डेटा मानों और उनके वितरण के बारे में जानकारी प्रदर्शित कर सकते हैं, हम इस डेटा सेट में अंतर्निहित मानों के बारे में सोचना चाहते हैं। आप मात्रा के बारे में निम्नलिखित प्रश्नों का उत्तर देने के लिए विज़ुअलाइज़ेशन बना सकते हैं:
+
+> पक्षियों की कितनी श्रेणियां हैं, और उनकी संख्या क्या है?
+> कितने पक्षी विलुप्त, संकटग्रस्त, दुर्लभ, या सामान्य हैं?
+> लिनियस की शब्दावली में विभिन्न वंश और क्रम के कितने हैं?
+## बार चार्ट्स का अन्वेषण करें
+
+जब आपको डेटा के समूहों को दिखाने की आवश्यकता होती है, तो बार चार्ट व्यावहारिक होते हैं। आइए इस डेटा सेट में मौजूद पक्षियों की श्रेणियों का अन्वेषण करें ताकि यह देखा जा सके कि संख्या के हिसाब से कौन सा सबसे सामान्य है।
+
+नोटबुक फ़ाइल में, एक बुनियादी बार चार्ट बनाएं।
+
+✅ ध्यान दें, आप या तो पिछले अनुभाग में पहचाने गए दो आउटलायर पक्षियों को फ़िल्टर कर सकते हैं, उनकी पंख चौड़ाई में टाइपो को संपादित कर सकते हैं, या उन्हें इन अभ्यासों के लिए छोड़ सकते हैं जो पंख चौड़ाई मानों पर निर्भर नहीं करते।
+
+यदि आप एक बार चार्ट बनाना चाहते हैं, तो आप उस डेटा का चयन कर सकते हैं जिस पर आप ध्यान केंद्रित करना चाहते हैं। बार चार्ट कच्चे डेटा से बनाए जा सकते हैं:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+हालांकि, यह बार चार्ट पढ़ने योग्य नहीं है क्योंकि इसमें बहुत अधिक गैर-समूहित डेटा है। आपको केवल उस डेटा का चयन करना होगा जिसे आप प्लॉट करना चाहते हैं, तो आइए पक्षियों की श्रेणी के आधार पर उनकी लंबाई देखें।
+
+अपने डेटा को केवल पक्षियों की श्रेणी शामिल करने के लिए फ़िल्टर करें।
+
+✅ ध्यान दें कि आप डेटा को प्रबंधित करने के लिए Pandas का उपयोग करते हैं, और फिर Matplotlib को चार्टिंग करने देते हैं।
+
+चूंकि कई श्रेणियां हैं, आप इस चार्ट को लंबवत प्रदर्शित कर सकते हैं और सभी डेटा को समायोजित करने के लिए इसकी ऊंचाई को समायोजित कर सकते हैं:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+यह बार चार्ट पक्षियों की प्रत्येक श्रेणी में पक्षियों की संख्या का एक अच्छा दृश्य दिखाता है। एक झलक में, आप देख सकते हैं कि इस क्षेत्र में सबसे बड़ी संख्या में पक्षी बत्तख/हंस/जलपक्षी श्रेणी में हैं। मिनेसोटा '10,000 झीलों की भूमि' है, इसलिए यह आश्चर्यजनक नहीं है!
+
+✅ इस डेटा सेट पर कुछ अन्य गणनाएं आज़माएं। क्या कुछ आपको आश्चर्यचकित करता है?
+
+## डेटा की तुलना करना
+
+आप नए अक्ष बनाकर समूहित डेटा की विभिन्न तुलनाएं आज़मा सकते हैं। पक्षियों की श्रेणी के आधार पर पक्षियों की अधिकतम लंबाई की तुलना आज़माएं:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+यहां कुछ भी आश्चर्यजनक नहीं है: हमिंगबर्ड्स की अधिकतम लंबाई पेलिकन या गीज़ की तुलना में सबसे कम है। यह अच्छा है जब डेटा तार्किक रूप से समझ में आता है!
+
+आप बार चार्ट्स के अधिक दिलचस्प विज़ुअलाइज़ेशन बना सकते हैं। आइए न्यूनतम और अधिकतम लंबाई को एक दिए गए पक्षी श्रेणी पर सुपरइम्पोज़ करें:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+इस प्लॉट में, आप न्यूनतम लंबाई और अधिकतम लंबाई के पक्षी श्रेणी प्रति रेंज देख सकते हैं। आप सुरक्षित रूप से कह सकते हैं कि, इस डेटा को देखते हुए, पक्षी जितना बड़ा होता है, उसकी लंबाई रेंज उतनी ही बड़ी होती है। दिलचस्प!
+
+
+
+## 🚀 चुनौती
+
+यह पक्षी डेटा सेट एक विशेष पारिस्थितिकी तंत्र के भीतर विभिन्न प्रकार के पक्षियों के बारे में जानकारी का खजाना प्रदान करता है। इंटरनेट पर खोज करें और देखें कि क्या आप अन्य पक्षी-उन्मुख डेटा सेट पा सकते हैं। इन पक्षियों के चार्ट और ग्राफ़ बनाकर अभ्यास करें ताकि ऐसे तथ्य खोजे जा सकें जिनका आपको अंदाजा नहीं था।
+## [पाठ-उत्तर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## समीक्षा और स्व-अध्ययन
+
+इस पहले पाठ ने आपको मात्राओं को विज़ुअलाइज़ करने के लिए Matplotlib का उपयोग करने के बारे में कुछ जानकारी दी है। विज़ुअलाइज़ेशन के लिए डेटा सेट्स के साथ काम करने के अन्य तरीकों के बारे में शोध करें। [Plotly](https://github.com/plotly/plotly.py) एक ऐसा है जिसे हम इन पाठों में कवर नहीं करेंगे, इसलिए देखें कि यह क्या पेशकश कर सकता है।
+## असाइनमेंट
+
+[लाइन्स, स्कैटर्स, और बार्स](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/hi/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..959ca77b
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# रेखाएं, बिखराव और बार
+
+## निर्देश
+
+इस पाठ में, आपने रेखा चार्ट, बिखराव प्लॉट और बार चार्ट का उपयोग करके इस डेटा सेट के बारे में रोचक तथ्यों को प्रदर्शित किया। इस असाइनमेंट में, डेटा सेट में और गहराई से जाएं और किसी दिए गए पक्षी की प्रजाति के बारे में एक तथ्य खोजें। उदाहरण के लिए, एक नोटबुक बनाएं जिसमें आप Snow Geese के बारे में जितना रोचक डेटा खोज सकते हैं, उसे विज़ुअलाइज़ करें। अपनी नोटबुक में ऊपर बताए गए तीन प्लॉट्स का उपयोग करके एक कहानी बताएं।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+एक नोटबुक प्रस्तुत की गई है जिसमें अच्छे एनोटेशन, ठोस कहानी और आकर्षक ग्राफ़ हैं | नोटबुक में इनमें से एक तत्व गायब है | नोटबुक में इनमें से दो तत्व गायब हैं
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/10-visualization-distributions/README.md b/translations/hi/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..052d9241
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,216 @@
+
+# वितरणों को विज़ुअलाइज़ करना
+
+| द्वारा ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| वितरणों को विज़ुअलाइज़ करना - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+पिछले पाठ में, आपने मिनेसोटा के पक्षियों के बारे में एक डेटासेट से कुछ रोचक तथ्य सीखे। आपने बाहरी डेटा को विज़ुअलाइज़ करके कुछ त्रुटिपूर्ण डेटा पाया और पक्षी श्रेणियों के बीच उनके अधिकतम लंबाई के आधार पर अंतर देखा।
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## पक्षियों के डेटासेट का अन्वेषण करें
+
+डेटा में गहराई से जाने का एक और तरीका है इसके वितरण को देखना, या डेटा को एक अक्ष के साथ कैसे व्यवस्थित किया गया है। उदाहरण के लिए, हो सकता है कि आप मिनेसोटा के पक्षियों के लिए अधिकतम पंख फैलाव या अधिकतम शरीर द्रव्यमान के सामान्य वितरण के बारे में जानना चाहें।
+
+आइए इस डेटासेट में डेटा के वितरण के बारे में कुछ तथ्य खोजें। इस पाठ फ़ोल्डर की जड़ में _notebook.ipynb_ फ़ाइल में, Pandas, Matplotlib और अपने डेटा को आयात करें:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | नाम | वैज्ञानिक नाम | श्रेणी | क्रम | परिवार | वंश | संरक्षण स्थिति | न्यूनतम लंबाई | अधिकतम लंबाई | न्यूनतम शरीर द्रव्यमान | अधिकतम शरीर द्रव्यमान | न्यूनतम पंख फैलाव | अधिकतम पंख फैलाव |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | ब्लैक-बेलिड विसलिंग-डक | Dendrocygna autumnalis | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | फुल्वस विसलिंग-डक | Dendrocygna bicolor | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | स्नो गूज | Anser caerulescens | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | रॉस का गूज | Anser rossii | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | ग्रेटर व्हाइट-फ्रंटेड गूज | Anser albifrons | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+सामान्य तौर पर, आप पिछले पाठ में किए गए स्कैटर प्लॉट का उपयोग करके डेटा के वितरण को जल्दी से देख सकते हैं:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+यह पक्षी क्रम के अनुसार शरीर की लंबाई के सामान्य वितरण का एक अवलोकन देता है, लेकिन यह सच्चे वितरण को प्रदर्शित करने का सबसे अच्छा तरीका नहीं है। यह कार्य आमतौर पर एक हिस्टोग्राम बनाकर किया जाता है।
+
+## हिस्टोग्राम के साथ काम करना
+
+Matplotlib हिस्टोग्राम का उपयोग करके डेटा वितरण को विज़ुअलाइज़ करने के लिए बहुत अच्छे तरीके प्रदान करता है। इस प्रकार का चार्ट बार चार्ट जैसा होता है, जहां वितरण को बार के उतार-चढ़ाव के माध्यम से देखा जा सकता है। हिस्टोग्राम बनाने के लिए, आपको संख्यात्मक डेटा की आवश्यकता होती है। हिस्टोग्राम बनाने के लिए, आप 'hist' प्रकार को परिभाषित करके चार्ट बना सकते हैं। यह चार्ट पूरे डेटासेट के संख्यात्मक डेटा की सीमा के लिए MaxBodyMass के वितरण को दिखाता है। डेटा के दिए गए सरणी को छोटे बिन्स में विभाजित करके, यह डेटा के मानों के वितरण को प्रदर्शित कर सकता है:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+जैसा कि आप देख सकते हैं, इस डेटासेट के अधिकांश 400+ पक्षी उनके अधिकतम शरीर द्रव्यमान के लिए 2000 से कम की सीमा में आते हैं। `bins` पैरामीटर को 30 जैसे उच्च संख्या में बदलकर डेटा के बारे में अधिक जानकारी प्राप्त करें:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+यह चार्ट वितरण को थोड़ा अधिक विस्तृत तरीके से दिखाता है। एक चार्ट जो बाईं ओर कम झुका हुआ हो, उसे केवल एक दिए गए सीमा के भीतर डेटा का चयन करके बनाया जा सकता है:
+
+अपने डेटा को फ़िल्टर करें ताकि केवल वे पक्षी शामिल हों जिनका शरीर द्रव्यमान 60 से कम हो, और 40 `bins` दिखाएं:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ कुछ अन्य फ़िल्टर और डेटा पॉइंट आज़माएं। डेटा के पूर्ण वितरण को देखने के लिए, `['MaxBodyMass']` फ़िल्टर को हटा दें ताकि लेबल वाले वितरण दिखाए जा सकें।
+
+हिस्टोग्राम कुछ अच्छे रंग और लेबलिंग सुधार भी प्रदान करता है:
+
+दो वितरणों के बीच संबंध की तुलना करने के लिए 2D हिस्टोग्राम बनाएं। आइए `MaxBodyMass` बनाम `MaxLength` की तुलना करें। Matplotlib एक अंतर्निहित तरीका प्रदान करता है जो उज्जवल रंगों का उपयोग करके अभिसरण दिखाता है:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+ऐसा प्रतीत होता है कि इन दो तत्वों के बीच अपेक्षित अक्ष के साथ एक अपेक्षित सहसंबंध है, जिसमें अभिसरण का एक विशेष रूप से मजबूत बिंदु है:
+
+
+
+हिस्टोग्राम डिफ़ॉल्ट रूप से संख्यात्मक डेटा के लिए अच्छा काम करते हैं। यदि आपको टेक्स्ट डेटा के अनुसार वितरण देखना हो तो क्या होगा?
+
+## टेक्स्ट डेटा का उपयोग करके डेटासेट के वितरण का अन्वेषण करें
+
+इस डेटासेट में पक्षी श्रेणी और इसके वंश, प्रजाति, और परिवार के साथ-साथ इसके संरक्षण स्थिति के बारे में अच्छी जानकारी भी शामिल है। आइए इस संरक्षण जानकारी का अन्वेषण करें। पक्षियों का उनके संरक्षण स्थिति के अनुसार वितरण क्या है?
+
+> ✅ इस डेटासेट में, संरक्षण स्थिति का वर्णन करने के लिए कई संक्षेपाक्षर का उपयोग किया गया है। ये संक्षेपाक्षर [IUCN रेड लिस्ट श्रेणियों](https://www.iucnredlist.org/) से आते हैं, एक संगठन जो प्रजातियों की स्थिति को सूचीबद्ध करता है।
+>
+> - CR: गंभीर रूप से संकटग्रस्त
+> - EN: संकटग्रस्त
+> - EX: विलुप्त
+> - LC: कम चिंता
+> - NT: निकट संकटग्रस्त
+> - VU: असुरक्षित
+
+ये टेक्स्ट-आधारित मान हैं, इसलिए आपको हिस्टोग्राम बनाने के लिए एक ट्रांसफॉर्म करना होगा। फ़िल्टर किए गए पक्षियों के डेटा फ्रेम का उपयोग करके, इसकी संरक्षण स्थिति को न्यूनतम पंख फैलाव के साथ प्रदर्शित करें। आप क्या देखते हैं?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+न्यूनतम पंख फैलाव और संरक्षण स्थिति के बीच कोई अच्छा सहसंबंध प्रतीत नहीं होता। इस विधि का उपयोग करके डेटासेट के अन्य तत्वों का परीक्षण करें। आप विभिन्न फ़िल्टर भी आज़मा सकते हैं। क्या आपको कोई सहसंबंध मिलता है?
+
+## घनत्व प्लॉट्स
+
+आपने देखा होगा कि अब तक देखे गए हिस्टोग्राम 'स्टेप्ड' हैं और एक आर्क में आसानी से प्रवाहित नहीं होते। एक अधिक सुचारू घनत्व चार्ट दिखाने के लिए, आप घनत्व प्लॉट आज़मा सकते हैं।
+
+घनत्व प्लॉट्स के साथ काम करने के लिए, एक नई प्लॉटिंग लाइब्रेरी, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) से परिचित हों।
+
+Seaborn लोड करें और एक बुनियादी घनत्व प्लॉट आज़माएं:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+आप देख सकते हैं कि यह प्लॉट न्यूनतम पंख फैलाव डेटा के लिए पिछले प्लॉट को प्रतिध्वनित करता है; यह बस थोड़ा अधिक सुचारू है। Seaborn के दस्तावेज़ के अनुसार, "हिस्टोग्राम की तुलना में, KDE एक प्लॉट बना सकता है जो कम अव्यवस्थित और अधिक व्याख्यात्मक होता है, विशेष रूप से जब कई वितरण खींचे जाते हैं। लेकिन यह विकृतियों को पेश करने की संभावना रखता है यदि अंतर्निहित वितरण सीमित या सुचारू नहीं है।" [स्रोत](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) दूसरे शब्दों में, बाहरी तत्व हमेशा आपके चार्ट को खराब बना देंगे।
+
+यदि आप उस खुरदरे MaxBodyMass लाइन को फिर से देखना चाहते हैं जिसे आपने दूसरा चार्ट बनाते समय बनाया था, तो आप इसे इस विधि का उपयोग करके बहुत अच्छी तरह से सुचारू कर सकते हैं:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+यदि आप एक सुचारू, लेकिन बहुत अधिक सुचारू रेखा नहीं चाहते हैं, तो `bw_adjust` पैरामीटर को संपादित करें:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ इस प्रकार के प्लॉट के लिए उपलब्ध पैरामीटर के बारे में पढ़ें और प्रयोग करें!
+
+यह प्रकार का चार्ट सुंदर व्याख्यात्मक विज़ुअलाइज़ेशन प्रदान करता है। उदाहरण के लिए, कुछ कोड की मदद से, आप पक्षी क्रम के अनुसार अधिकतम शरीर द्रव्यमान घनत्व दिखा सकते हैं:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+आप एक चार्ट में कई चर की घनत्व को भी मैप कर सकते हैं। पक्षी की अधिकतम लंबाई और न्यूनतम लंबाई को उनकी संरक्षण स्थिति के साथ तुलना करें:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+शायद यह शोध करने लायक है कि 'असुरक्षित' पक्षियों का उनकी लंबाई के अनुसार समूह सार्थक है या नहीं।
+
+## 🚀 चुनौती
+
+हिस्टोग्राम बुनियादी स्कैटरप्लॉट्स, बार चार्ट्स, या लाइन चार्ट्स की तुलना में अधिक परिष्कृत प्रकार के चार्ट हैं। इंटरनेट पर खोज करें और हिस्टोग्राम के उपयोग के अच्छे उदाहरण खोजें। वे कैसे उपयोग किए जाते हैं, वे क्या प्रदर्शित करते हैं, और वे किन क्षेत्रों या पूछताछ के क्षेत्रों में उपयोग किए जाते हैं?
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## समीक्षा और स्व-अध्ययन
+
+इस पाठ में, आपने Matplotlib का उपयोग किया और अधिक परिष्कृत चार्ट दिखाने के लिए Seaborn के साथ काम करना शुरू किया। Seaborn में `kdeplot` पर शोध करें, एक "एक या अधिक आयामों में निरंतर संभावना घनत्व वक्र"। [दस्तावेज़](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) के माध्यम से पढ़ें और समझें कि यह कैसे काम करता है।
+
+## असाइनमेंट
+
+[अपनी कौशल लागू करें](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/hi/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..0dc3d9b9
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# अपने कौशल का उपयोग करें
+
+## निर्देश
+
+अब तक, आपने मिनेसोटा पक्षियों के डेटासेट के साथ काम किया है ताकि पक्षियों की संख्या और जनसंख्या घनत्व के बारे में जानकारी प्राप्त की जा सके। इन तकनीकों का अभ्यास करने के लिए एक अलग डेटासेट आज़माएं, जिसे आप [Kaggle](https://www.kaggle.com/) से प्राप्त कर सकते हैं। इस डेटासेट के बारे में एक कहानी बताने के लिए एक नोटबुक बनाएं, और इसे समझाने के दौरान हिस्टोग्राम का उपयोग करना सुनिश्चित करें।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+डेटासेट के बारे में टिप्पणियों सहित एक नोटबुक प्रस्तुत की गई है, जिसमें इसका स्रोत शामिल है, और डेटा के बारे में तथ्य खोजने के लिए कम से कम 5 हिस्टोग्राम का उपयोग किया गया है। | एक नोटबुक प्रस्तुत की गई है जिसमें टिप्पणियां अधूरी हैं या बग्स हैं। | एक नोटबुक प्रस्तुत की गई है जिसमें टिप्पणियां नहीं हैं और बग्स शामिल हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/11-visualization-proportions/README.md b/translations/hi/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..95c98002
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,201 @@
+
+# अनुपातों का दृश्यांकन
+
+| द्वारा ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|अनुपातों का दृश्यांकन - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+इस पाठ में, आप एक अलग प्रकृति-केंद्रित डेटा सेट का उपयोग करके अनुपातों का दृश्यांकन करेंगे, जैसे कि मशरूम के बारे में दिए गए डेटा सेट में कितने प्रकार के कवक पाए जाते हैं। आइए, इन अद्भुत कवकों का अध्ययन करें, जो ऑडुबॉन से प्राप्त डेटा सेट पर आधारित है, जिसमें Agaricus और Lepiota परिवारों के 23 प्रजातियों के गिल्ड मशरूम का विवरण है। आप इन स्वादिष्ट चार्ट्स के साथ प्रयोग करेंगे:
+
+- पाई चार्ट 🥧
+- डोनट चार्ट 🍩
+- वाफल चार्ट 🧇
+
+> 💡 माइक्रोसॉफ्ट रिसर्च द्वारा एक बहुत ही दिलचस्प प्रोजेक्ट [Charticulator](https://charticulator.com) एक मुफ्त ड्रैग और ड्रॉप इंटरफ़ेस प्रदान करता है, जो डेटा विज़ुअलाइज़ेशन के लिए है। उनके एक ट्यूटोरियल में, वे इस मशरूम डेटा सेट का भी उपयोग करते हैं! तो आप डेटा का अन्वेषण कर सकते हैं और साथ ही इस लाइब्रेरी को सीख सकते हैं: [Charticulator ट्यूटोरियल](https://charticulator.com/tutorials/tutorial4.html)।
+
+## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## अपने मशरूम को जानें 🍄
+
+मशरूम बहुत ही रोचक होते हैं। आइए, एक डेटा सेट आयात करें और उनका अध्ययन करें:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+एक तालिका प्रिंट होती है, जिसमें विश्लेषण के लिए शानदार डेटा है:
+
+| वर्ग | टोपी-आकार | टोपी-सतह | टोपी-रंग | चोटें | गंध | गिल-अटैचमेंट | गिल-दूरी | गिल-आकार | गिल-रंग | डंठल-आकार | डंठल-जड़ | डंठल-सतह-ऊपर-रिंग | डंठल-सतह-नीचे-रिंग | डंठल-रंग-ऊपर-रिंग | डंठल-रंग-नीचे-रिंग | घूंघट-प्रकार | घूंघट-रंग | रिंग-संख्या | रिंग-प्रकार | बीजाणु-प्रिंट-रंग | जनसंख्या | निवास |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| विषैला | उत्तल | चिकना | भूरा | चोटें | तीव्र | मुक्त | पास | संकीर्ण | काला | चौड़ा | समान | चिकना | चिकना | सफेद | सफेद | आंशिक | सफेद | एक | लटकता | काला | बिखरा हुआ | शहरी |
+| खाद्य | उत्तल | चिकना | पीला | चोटें | बादाम | मुक्त | पास | चौड़ा | काला | चौड़ा | क्लब | चिकना | चिकना | सफेद | सफेद | आंशिक | सफेद | एक | लटकता | भूरा | अनेक | घास |
+| खाद्य | घंटी | चिकना | सफेद | चोटें | सौंफ | मुक्त | पास | चौड़ा | भूरा | चौड़ा | क्लब | चिकना | चिकना | सफेद | सफेद | आंशिक | सफेद | एक | लटकता | भूरा | अनेक | घास |
+| विषैला | उत्तल | खुरदरा | सफेद | चोटें | तीव्र | मुक्त | पास | संकीर्ण | भूरा | चौड़ा | समान | चिकना | चिकना | सफेद | सफेद | आंशिक | सफेद | एक | लटकता | काला | बिखरा हुआ | शहरी |
+
+जैसे ही आप देखते हैं, सारा डेटा टेक्स्ट के रूप में है। आपको इस डेटा को चार्ट में उपयोग करने के लिए बदलना होगा। वास्तव में, अधिकांश डेटा एक ऑब्जेक्ट के रूप में प्रस्तुत किया गया है:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+आउटपुट है:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+इस डेटा को लें और 'वर्ग' कॉलम को एक श्रेणी में बदलें:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+अब, यदि आप मशरूम डेटा प्रिंट करते हैं, तो आप देख सकते हैं कि इसे विषैला/खाद्य वर्ग के अनुसार श्रेणियों में विभाजित कर दिया गया है:
+
+| | टोपी-आकार | टोपी-सतह | टोपी-रंग | चोटें | गंध | गिल-अटैचमेंट | गिल-दूरी | गिल-आकार | गिल-रंग | डंठल-आकार | ... | डंठल-सतह-नीचे-रिंग | डंठल-रंग-ऊपर-रिंग | डंठल-रंग-नीचे-रिंग | घूंघट-प्रकार | घूंघट-रंग | रिंग-संख्या | रिंग-प्रकार | बीजाणु-प्रिंट-रंग | जनसंख्या | निवास |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| वर्ग | | | | | | | | | | | | | | | | | | | | | |
+| खाद्य | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| विषैला | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+यदि आप इस तालिका में प्रस्तुत क्रम का पालन करते हैं, तो आप अपने वर्ग श्रेणी लेबल बना सकते हैं और एक पाई चार्ट बना सकते हैं:
+
+## पाई!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+देखिए, एक पाई चार्ट जो इस डेटा को विषैला और खाद्य वर्गों के अनुसार दिखाता है। लेबल के क्रम को सही रखना बहुत महत्वपूर्ण है, खासकर यहां, इसलिए सुनिश्चित करें कि लेबल एरे को बनाते समय क्रम सही हो!
+
+
+
+## डोनट्स!
+
+पाई चार्ट का एक और अधिक रोचक रूप डोनट चार्ट है, जिसमें बीच में एक छेद होता है। आइए, इस विधि का उपयोग करके अपने डेटा को देखें।
+
+मशरूम के विभिन्न निवास स्थानों पर एक नज़र डालें:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+यहां, आप अपने डेटा को निवास स्थान के अनुसार समूहित कर रहे हैं। 7 निवास स्थान सूचीबद्ध हैं, तो इन्हें अपने डोनट चार्ट के लेबल के रूप में उपयोग करें:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+यह कोड एक चार्ट और एक केंद्र वृत्त बनाता है, फिर उस केंद्र वृत्त को चार्ट में जोड़ता है। केंद्र वृत्त की चौड़ाई को बदलने के लिए `0.40` को किसी अन्य मान में बदलें।
+
+डोनट चार्ट को कई तरीकों से बदला जा सकता है, खासकर लेबल्स को पढ़ने में आसान बनाने के लिए। अधिक जानकारी के लिए [डॉक्स](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut) पढ़ें।
+
+अब जब आप जानते हैं कि अपने डेटा को कैसे समूहित करें और फिर इसे पाई या डोनट के रूप में प्रदर्शित करें, तो आप अन्य प्रकार के चार्ट का अन्वेषण कर सकते हैं। वाफल चार्ट आज़माएं, जो मात्रा का एक अलग तरीका है।
+
+## वाफल्स!
+
+'वाफल' प्रकार का चार्ट मात्रा को 2D वर्गों के रूप में दिखाने का एक अलग तरीका है। इस डेटा सेट में मशरूम टोपी के रंगों की विभिन्न मात्राओं को दिखाने के लिए इसे आज़माएं। ऐसा करने के लिए, आपको [PyWaffle](https://pypi.org/project/pywaffle/) नामक एक सहायक लाइब्रेरी को स्थापित करना होगा और Matplotlib का उपयोग करना होगा:
+
+```python
+pip install pywaffle
+```
+
+अपने डेटा का एक खंड चुनें और इसे समूहित करें:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+लेबल बनाकर और फिर अपने डेटा को समूहित करके एक वाफल चार्ट बनाएं:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+वाफल चार्ट का उपयोग करके, आप इस मशरूम डेटा सेट में टोपी के रंगों के अनुपात को स्पष्ट रूप से देख सकते हैं। दिलचस्प बात यह है कि कई हरे रंग की टोपी वाले मशरूम हैं!
+
+
+
+✅ PyWaffle चार्ट्स में आइकन का समर्थन करता है, जो [Font Awesome](https://fontawesome.com/) में उपलब्ध किसी भी आइकन का उपयोग कर सकते हैं। वर्गों के बजाय आइकन का उपयोग करके एक और अधिक रोचक वाफल चार्ट बनाने के लिए कुछ प्रयोग करें।
+
+इस पाठ में, आपने अनुपातों को दृश्यांकित करने के तीन तरीके सीखे। सबसे पहले, आपको अपने डेटा को श्रेणियों में समूहित करना होगा और फिर यह तय करना होगा कि डेटा को प्रदर्शित करने का सबसे अच्छा तरीका कौन सा है - पाई, डोनट, या वाफल। सभी स्वादिष्ट हैं और उपयोगकर्ता को डेटा सेट का एक त्वरित स्नैपशॉट प्रदान करते हैं।
+
+## 🚀 चुनौती
+
+इन स्वादिष्ट चार्ट्स को [Charticulator](https://charticulator.com) में फिर से बनाने का प्रयास करें।
+## [पाठ-उत्तर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## समीक्षा और स्व-अध्ययन
+
+कभी-कभी यह स्पष्ट नहीं होता कि पाई, डोनट, या वाफल चार्ट का उपयोग कब करना है। इस विषय पर पढ़ने के लिए यहां कुछ लेख दिए गए हैं:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+इस जटिल निर्णय पर अधिक जानकारी प्राप्त करने के लिए कुछ शोध करें।
+## असाइनमेंट
+
+[इसे Excel में आज़माएं](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/hi/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..1fb3b31f
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,23 @@
+
+# इसे Excel में आज़माएं
+
+## निर्देश
+
+क्या आप जानते हैं कि आप Excel में डोनट, पाई और वाफल चार्ट बना सकते हैं? अपनी पसंद के डेटा सेट का उपयोग करके, इन तीन चार्ट्स को सीधे एक Excel स्प्रेडशीट में बनाएं।
+
+## मूल्यांकन मानदंड
+
+| उत्कृष्टता | पर्याप्तता | सुधार की आवश्यकता |
+| ------------------------------------------------------- | ------------------------------------------------ | ----------------------------------------------------- |
+| एक Excel स्प्रेडशीट प्रस्तुत की गई है जिसमें सभी तीन चार्ट हैं | एक Excel स्प्रेडशीट प्रस्तुत की गई है जिसमें दो चार्ट हैं | एक Excel स्प्रेडशीट प्रस्तुत की गई है जिसमें केवल एक चार्ट है |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/12-visualization-relationships/README.md b/translations/hi/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..765d5141
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,184 @@
+
+# संबंधों का चित्रण: शहद के बारे में सब कुछ 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|संबंधों का चित्रण - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+हमारे शोध के प्रकृति-केंद्रित दृष्टिकोण को जारी रखते हुए, आइए विभिन्न प्रकार के शहद के बीच संबंधों को दिखाने के लिए दिलचस्प चित्रण खोजें। यह डेटा सेट [संयुक्त राज्य कृषि विभाग](https://www.nass.usda.gov/About_NASS/index.php) से लिया गया है।
+
+यह डेटा सेट लगभग 600 वस्तुओं का है, जो कई अमेरिकी राज्यों में शहद उत्पादन को दर्शाता है। उदाहरण के लिए, आप 1998-2012 के बीच किसी दिए गए राज्य में प्रति वर्ष कॉलोनियों की संख्या, प्रति कॉलोनी उत्पादन, कुल उत्पादन, स्टॉक्स, प्रति पाउंड कीमत और उत्पादित शहद के मूल्य को देख सकते हैं, जिसमें प्रत्येक राज्य के लिए प्रति वर्ष एक पंक्ति है।
+
+यह देखना दिलचस्प होगा कि किसी दिए गए राज्य के वार्षिक उत्पादन और उस राज्य में शहद की कीमत के बीच क्या संबंध है। वैकल्पिक रूप से, आप राज्यों के प्रति कॉलोनी शहद उत्पादन के बीच संबंध को चित्रित कर सकते हैं। यह समयावधि 'सीसीडी' या 'कॉलोनी कोलैप्स डिसऑर्डर' (http://npic.orst.edu/envir/ccd.html) के विनाशकारी प्रभाव को भी कवर करती है, जो पहली बार 2006 में देखा गया था। यह अध्ययन के लिए एक महत्वपूर्ण डेटा सेट है। 🐝
+
+## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+इस पाठ में, आप Seaborn का उपयोग कर सकते हैं, जिसे आपने पहले भी उपयोग किया है। यह एक अच्छी लाइब्रेरी है जो वेरिएबल्स के बीच संबंधों को चित्रित करने में मदद करती है। विशेष रूप से, Seaborn का `relplot` फ़ंक्शन उपयोगी है, जो स्कैटर प्लॉट्स और लाइन प्लॉट्स के माध्यम से '[सांख्यिकीय संबंधों](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)' को जल्दी से चित्रित करता है। यह डेटा वैज्ञानिक को वेरिएबल्स के बीच संबंधों को बेहतर ढंग से समझने में मदद करता है।
+
+## स्कैटरप्लॉट्स
+
+स्कैटरप्लॉट का उपयोग करके दिखाएं कि शहद की कीमत साल दर साल, प्रति राज्य कैसे विकसित हुई है। Seaborn का `relplot` राज्य डेटा को समूहित करता है और श्रेणीबद्ध और संख्यात्मक डेटा दोनों के लिए डेटा पॉइंट्स दिखाता है।
+
+आइए डेटा और Seaborn को इंपोर्ट करके शुरू करें:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+आप देखेंगे कि शहद डेटा में कई दिलचस्प कॉलम हैं, जिनमें वर्ष और प्रति पाउंड कीमत शामिल हैं। आइए इस डेटा का अन्वेषण करें, जिसे अमेरिकी राज्यों के अनुसार समूहित किया गया है:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+एक बेसिक स्कैटरप्लॉट बनाएं, जो शहद की प्रति पाउंड कीमत और उसके अमेरिकी राज्य के बीच संबंध दिखाए। `y` अक्ष को इतना लंबा बनाएं कि सभी राज्यों को दिखाया जा सके:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+अब, उसी डेटा को शहद के रंग योजना के साथ दिखाएं ताकि यह दिखाया जा सके कि कीमत वर्षों में कैसे विकसित हुई। आप 'hue' पैरामीटर जोड़कर यह कर सकते हैं, जो साल दर साल बदलाव दिखाता है:
+
+> ✅ Seaborn में उपयोग की जाने वाली [रंग योजनाओं के बारे में अधिक जानें](https://seaborn.pydata.org/tutorial/color_palettes.html) - एक सुंदर इंद्रधनुष रंग योजना आज़माएं!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+इस रंग योजना परिवर्तन के साथ, आप देख सकते हैं कि वर्षों में शहद की प्रति पाउंड कीमत में स्पष्ट रूप से एक मजबूत प्रगति है। वास्तव में, यदि आप डेटा के एक नमूने को सत्यापित करने के लिए देखते हैं (उदाहरण के लिए, एरिज़ोना राज्य को चुनें), तो आप देख सकते हैं कि कुछ अपवादों को छोड़कर, कीमत साल दर साल बढ़ रही है:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+एक और तरीका इस प्रगति को दिखाने का यह है कि रंग के बजाय आकार का उपयोग करें। रंग-अंधता वाले उपयोगकर्ताओं के लिए, यह एक बेहतर विकल्प हो सकता है। अपने विज़ुअलाइज़ेशन को संपादित करें ताकि कीमत में वृद्धि को डॉट के आकार में वृद्धि के रूप में दिखाया जा सके:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+आप देख सकते हैं कि डॉट्स का आकार धीरे-धीरे बढ़ रहा है।
+
+
+
+क्या यह केवल मांग और आपूर्ति का मामला है? जलवायु परिवर्तन और कॉलोनी कोलैप्स जैसे कारकों के कारण, क्या हर साल खरीदने के लिए कम शहद उपलब्ध है, और इसीलिए कीमत बढ़ रही है?
+
+इस डेटा सेट में कुछ वेरिएबल्स के बीच संबंध खोजने के लिए, आइए कुछ लाइन चार्ट्स का अन्वेषण करें।
+
+## लाइन चार्ट्स
+
+प्रश्न: क्या प्रति पाउंड शहद की कीमत में साल दर साल स्पष्ट वृद्धि है? आप इसे सबसे आसानी से एक सिंगल लाइन चार्ट बनाकर देख सकते हैं:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+उत्तर: हां, कुछ अपवादों के साथ, विशेष रूप से 2003 के आसपास:
+
+
+
+✅ चूंकि Seaborn डेटा को एक लाइन के चारों ओर एकत्रित कर रहा है, यह "प्रत्येक x मान पर कई मापों को औसत और औसत के चारों ओर 95% विश्वास अंतराल" दिखाता है। [स्रोत](https://seaborn.pydata.org/tutorial/relational.html)। इस समय लेने वाले व्यवहार को `ci=None` जोड़कर अक्षम किया जा सकता है।
+
+प्रश्न: खैर, क्या 2003 में शहद की आपूर्ति में भी वृद्धि देखी जा सकती है? यदि आप साल दर साल कुल उत्पादन को देखते हैं तो क्या होता है?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+उत्तर: वास्तव में नहीं। यदि आप कुल उत्पादन को देखते हैं, तो ऐसा लगता है कि उस विशेष वर्ष में यह वास्तव में बढ़ा है, हालांकि सामान्य रूप से इन वर्षों के दौरान उत्पादित शहद की मात्रा में गिरावट हो रही है।
+
+प्रश्न: उस स्थिति में, 2003 के आसपास शहद की कीमत में उस वृद्धि का कारण क्या हो सकता है?
+
+इसे खोजने के लिए, आप एक फेसट ग्रिड का अन्वेषण कर सकते हैं।
+
+## फेसट ग्रिड्स
+
+फेसट ग्रिड्स आपके डेटा सेट के एक पहलू को लेते हैं (हमारे मामले में, आप 'वर्ष' चुन सकते हैं ताकि बहुत अधिक ग्रिड न बनें)। Seaborn तब आपके चुने गए x और y निर्देशांक के लिए प्रत्येक फेसट का एक प्लॉट बना सकता है, जिससे तुलना करना आसान हो जाता है। क्या 2003 इस प्रकार की तुलना में अलग दिखता है?
+
+Seaborn के [डॉक्यूमेंटेशन](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid) द्वारा सुझाए गए अनुसार `relplot` का उपयोग जारी रखते हुए एक फेसट ग्रिड बनाएं।
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+इस विज़ुअलाइज़ेशन में, आप कॉलोनी की प्रति कॉलोनी उपज और कॉलोनियों की संख्या को साल दर साल, राज्य दर राज्य तुलना कर सकते हैं, जिसमें कॉलम के लिए रैप 3 पर सेट है:
+
+
+
+इस डेटा सेट के लिए, कॉलोनियों की संख्या और उनकी उपज के संबंध में, साल दर साल और राज्य दर राज्य कुछ खास नहीं दिखता। क्या इन दो वेरिएबल्स के बीच संबंध खोजने का कोई और तरीका है?
+
+## डुअल-लाइन प्लॉट्स
+
+Seaborn के 'despine' का उपयोग करके दो लाइनप्लॉट्स को एक-दूसरे के ऊपर सुपरइम्पोज़ करें, और `ax.twinx` [Matplotlib से लिया गया](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html) का उपयोग करें। Twinx एक चार्ट को x अक्ष साझा करने और दो y अक्ष प्रदर्शित करने की अनुमति देता है। तो, कॉलोनी की प्रति कॉलोनी उपज और कॉलोनियों की संख्या को सुपरइम्पोज़ करें:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+हालांकि 2003 के आसपास कुछ भी स्पष्ट रूप से नहीं दिखता, यह हमें इस पाठ को एक सकारात्मक नोट पर समाप्त करने की अनुमति देता है: जबकि कुल मिलाकर कॉलोनियों की संख्या में गिरावट हो रही है, कॉलोनियों की संख्या स्थिर हो रही है, भले ही उनकी प्रति कॉलोनी उपज घट रही हो।
+
+जाओ, मधुमक्खियों, जाओ!
+
+🐝❤️
+## 🚀 चुनौती
+
+इस पाठ में, आपने स्कैटरप्लॉट्स और लाइन ग्रिड्स, जिसमें फेसट ग्रिड्स शामिल हैं, के अन्य उपयोगों के बारे में थोड़ा और सीखा। खुद को चुनौती दें कि आप एक अलग डेटा सेट का उपयोग करके एक फेसट ग्रिड बनाएं, शायद वह जिसे आपने इन पाठों से पहले उपयोग किया हो। ध्यान दें कि इन्हें बनाने में कितना समय लगता है और आपको इन तकनीकों का उपयोग करते समय कितने ग्रिड्स बनाने की आवश्यकता है, इस पर सावधान रहना चाहिए।
+## [पाठ-उत्तर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## समीक्षा और स्व-अध्ययन
+
+लाइन प्लॉट्स सरल या काफी जटिल हो सकते हैं। [Seaborn डोक्यूमेंटेशन](https://seaborn.pydata.org/generated/seaborn.lineplot.html) में थोड़ा और पढ़ें कि आप उन्हें बनाने के विभिन्न तरीकों के बारे में जान सकते हैं। इस पाठ में आपने जो लाइन चार्ट बनाए हैं, उन्हें डोक्यूमेंटेशन में सूचीबद्ध अन्य तरीकों से बढ़ाने का प्रयास करें।
+## असाइनमेंट
+
+[मधुमक्खी के छत्ते में गोता लगाएं](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/hi/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..3d83dd94
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,23 @@
+
+# मधुमक्खी के छत्ते में गोता लगाएं
+
+## निर्देश
+
+इस पाठ में आपने मधुमक्खियों और उनके शहद उत्पादन से संबंधित एक डेटा सेट को देखा, जो उस समय अवधि को दर्शाता है जब मधुमक्खी कॉलोनी की आबादी में समग्र रूप से गिरावट आई। इस डेटा सेट में और गहराई से जाएं और एक नोटबुक बनाएं जो राज्य-दर-राज्य और वर्ष-दर-वर्ष मधुमक्खी आबादी के स्वास्थ्य की कहानी बता सके। क्या आपको इस डेटा सेट में कुछ दिलचस्प जानकारी मिलती है?
+
+## मूल्यांकन मानदंड
+
+| उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| एक नोटबुक प्रस्तुत की गई है जिसमें कम से कम तीन अलग-अलग चार्ट के साथ डेटा सेट के विभिन्न पहलुओं, राज्य-दर-राज्य और वर्ष-दर-वर्ष की कहानी दी गई है | नोटबुक में इनमें से एक तत्व की कमी है | नोटबुक में इनमें से दो तत्वों की कमी है |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..cbf4c2c2
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,180 @@
+
+# सार्थक विज़ुअलाइज़ेशन बनाना
+
+| द्वारा ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| सार्थक विज़ुअलाइज़ेशन - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+> "अगर आप डेटा को लंबे समय तक परेशान करेंगे, तो वह कुछ भी स्वीकार कर लेगा" -- [रॉनाल्ड कोस](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+एक डेटा वैज्ञानिक की बुनियादी कौशलों में से एक है सार्थक डेटा विज़ुअलाइज़ेशन बनाना, जो आपके सवालों का जवाब देने में मदद करता है। डेटा को विज़ुअलाइज़ करने से पहले, आपको यह सुनिश्चित करना होगा कि आपने इसे साफ और तैयार कर लिया है, जैसा कि आपने पिछले पाठों में किया था। इसके बाद, आप यह तय करना शुरू कर सकते हैं कि डेटा को सबसे अच्छे तरीके से कैसे प्रस्तुत किया जाए।
+
+इस पाठ में, आप निम्नलिखित की समीक्षा करेंगे:
+
+1. सही चार्ट प्रकार कैसे चुनें
+2. भ्रामक चार्टिंग से कैसे बचें
+3. रंगों के साथ कैसे काम करें
+4. अपने चार्ट को पढ़ने योग्य बनाने के लिए कैसे स्टाइल करें
+5. एनिमेटेड या 3D चार्टिंग समाधान कैसे बनाएं
+6. एक रचनात्मक विज़ुअलाइज़ेशन कैसे बनाएं
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## सही चार्ट प्रकार चुनें
+
+पिछले पाठों में, आपने Matplotlib और Seaborn का उपयोग करके विभिन्न प्रकार के डेटा विज़ुअलाइज़ेशन बनाने का अभ्यास किया। सामान्य तौर पर, आप इस तालिका का उपयोग करके [सही प्रकार का चार्ट](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) चुन सकते हैं:
+
+| आपको करना है: | आपको उपयोग करना चाहिए: |
+| -------------------------- | ------------------------------------- |
+| समय के साथ डेटा रुझान दिखाएं | लाइन |
+| श्रेणियों की तुलना करें | बार, पाई |
+| कुल की तुलना करें | पाई, स्टैक्ड बार |
+| संबंध दिखाएं | स्कैटर, लाइन, फेसट, डुअल लाइन |
+| वितरण दिखाएं | स्कैटर, हिस्टोग्राम, बॉक्स |
+| अनुपात दिखाएं | पाई, डोनट, वाफल |
+
+> ✅ आपके डेटा की संरचना के आधार पर, आपको इसे टेक्स्ट से संख्यात्मक में बदलने की आवश्यकता हो सकती है ताकि एक दिए गए चार्ट का समर्थन किया जा सके।
+
+## भ्रामकता से बचें
+
+भले ही एक डेटा वैज्ञानिक सही डेटा के लिए सही चार्ट चुनने में सावधान हो, डेटा को अक्सर इस तरह से प्रदर्शित किया जा सकता है कि यह एक बिंदु को साबित करे, लेकिन अक्सर डेटा की सच्चाई को कमजोर कर देता है। भ्रामक चार्ट और इन्फोग्राफिक्स के कई उदाहरण हैं!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "हाउ चार्ट्स लाई")
+
+> 🎥 ऊपर दी गई छवि पर क्लिक करें भ्रामक चार्ट्स पर एक सम्मेलन वार्ता के लिए
+
+यह चार्ट X अक्ष को उलट देता है ताकि तारीख के आधार पर सच्चाई का उल्टा दिखाया जा सके:
+
+
+
+[यह चार्ट](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) और भी भ्रामक है, क्योंकि आंखें दाईं ओर खींची जाती हैं ताकि यह निष्कर्ष निकाला जा सके कि समय के साथ, विभिन्न काउंटियों में COVID मामलों में गिरावट आई है। वास्तव में, यदि आप तारीखों को ध्यान से देखें, तो आप पाएंगे कि उन्हें उस भ्रामक गिरावट प्रवृत्ति को दिखाने के लिए पुनर्व्यवस्थित किया गया है।
+
+
+
+यह कुख्यात उदाहरण रंग और एक उलटे Y अक्ष का उपयोग करके धोखा देता है: बंदूक-समर्थक कानून पारित होने के बाद बंदूक मौतों में वृद्धि के बजाय, वास्तव में आंखें यह सोचने के लिए मूर्ख बन जाती हैं कि विपरीत सच है:
+
+
+
+यह अजीब चार्ट दिखाता है कि अनुपात को कैसे मजाकिया तरीके से हेरफेर किया जा सकता है:
+
+
+
+अतुलनीय की तुलना करना एक और संदिग्ध चाल है। 'स्प्यूरियस कोरिलेशन' नामक एक [शानदार वेबसाइट](https://tylervigen.com/spurious-correlations) है जो 'तथ्यों' को दिखाती है जैसे कि मेन में तलाक दर और मार्जरीन की खपत। एक Reddit समूह भी डेटा के [खराब उपयोग](https://www.reddit.com/r/dataisugly/top/?t=all) को एकत्र करता है।
+
+यह समझना महत्वपूर्ण है कि भ्रामक चार्ट्स द्वारा आंखें कितनी आसानी से मूर्ख बन सकती हैं। भले ही डेटा वैज्ञानिक का इरादा अच्छा हो, एक खराब प्रकार का चार्ट चुनना, जैसे कि बहुत अधिक श्रेणियों को दिखाने वाला पाई चार्ट, भ्रामक हो सकता है।
+
+## रंग
+
+आपने ऊपर 'फ्लोरिडा गन वायलेंस' चार्ट में देखा कि कैसे रंग चार्ट्स में अतिरिक्त अर्थ प्रदान कर सकते हैं, विशेष रूप से वे जो Matplotlib और Seaborn जैसी लाइब्रेरी का उपयोग करके डिज़ाइन नहीं किए गए हैं, जो विभिन्न प्रमाणित रंग लाइब्रेरी और पैलेट के साथ आते हैं। यदि आप हाथ से चार्ट बना रहे हैं, तो [रंग सिद्धांत](https://colormatters.com/color-and-design/basic-color-theory) का थोड़ा अध्ययन करें।
+
+> ✅ चार्ट डिज़ाइन करते समय, ध्यान रखें कि एक्सेसिबिलिटी विज़ुअलाइज़ेशन का एक महत्वपूर्ण पहलू है। आपके कुछ उपयोगकर्ता रंग अंधे हो सकते हैं - क्या आपका चार्ट दृष्टि बाधित उपयोगकर्ताओं के लिए अच्छी तरह से प्रदर्शित होता है?
+
+अपने चार्ट के लिए रंग चुनते समय सावधान रहें, क्योंकि रंग वह अर्थ व्यक्त कर सकता है जिसे आप व्यक्त नहीं करना चाहते। ऊपर 'हाइट' चार्ट में 'पिंक लेडीज' एक विशिष्ट 'स्त्री' अर्थ व्यक्त करती हैं, जो चार्ट की विचित्रता को और बढ़ा देती है।
+
+हालांकि [रंग का अर्थ](https://colormatters.com/color-symbolism/the-meanings-of-colors) दुनिया के विभिन्न हिस्सों में अलग हो सकता है, और उनके शेड के अनुसार बदलने की प्रवृत्ति होती है। सामान्य तौर पर, रंग अर्थों में शामिल हैं:
+
+| रंग | अर्थ |
+| ------ | ------------------- |
+| लाल | शक्ति |
+| नीला | विश्वास, निष्ठा |
+| पीला | खुशी, सतर्कता |
+| हरा | पर्यावरण, भाग्य, ईर्ष्या |
+| बैंगनी | खुशी |
+| नारंगी | जीवंतता |
+
+यदि आपको कस्टम रंगों के साथ चार्ट बनाने का काम सौंपा गया है, तो सुनिश्चित करें कि आपके चार्ट्स एक्सेसिबल हैं और आपके द्वारा चुना गया रंग उस अर्थ के साथ मेल खाता है जिसे आप व्यक्त करना चाहते हैं।
+
+## अपने चार्ट को पढ़ने योग्य बनाने के लिए स्टाइलिंग
+
+चार्ट्स सार्थक नहीं होते यदि वे पढ़ने योग्य नहीं होते! अपने डेटा के साथ अच्छी तरह से स्केल करने के लिए अपने चार्ट की चौड़ाई और ऊंचाई को स्टाइल करने पर विचार करें। यदि एक वेरिएबल (जैसे सभी 50 राज्यों) को प्रदर्शित करने की आवश्यकता है, तो उन्हें Y अक्ष पर लंबवत दिखाएं यदि संभव हो ताकि क्षैतिज रूप से स्क्रॉल करने वाले चार्ट से बचा जा सके।
+
+अपने अक्षों को लेबल करें, यदि आवश्यक हो तो एक लीजेंड प्रदान करें, और डेटा की बेहतर समझ के लिए टूलटिप्स की पेशकश करें।
+
+यदि आपका डेटा X अक्ष पर टेक्स्टुअल और विस्तृत है, तो बेहतर पढ़ने के लिए टेक्स्ट को कोण दें। [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) 3D प्लॉटिंग प्रदान करता है, यदि आपका डेटा इसका समर्थन करता है। `mpl_toolkits.mplot3d` का उपयोग करके परिष्कृत डेटा विज़ुअलाइज़ेशन बनाए जा सकते हैं।
+
+
+
+## एनिमेशन और 3D चार्ट डिस्प्ले
+
+आज के कुछ बेहतरीन डेटा विज़ुअलाइज़ेशन एनिमेटेड हैं। Shirley Wu ने D3 के साथ अद्भुत विज़ुअलाइज़ेशन बनाए हैं, जैसे '[फिल्म फ्लावर्स](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', जहां प्रत्येक फूल एक फिल्म का विज़ुअलाइज़ेशन है। Guardian के लिए एक और उदाहरण है 'बस्ट आउट', एक इंटरैक्टिव अनुभव जो विज़ुअलाइज़ेशन को Greensock और D3 के साथ जोड़ता है और NYC के बेघर समस्या को दिखाने के लिए स्क्रॉलटेलिंग लेख प्रारूप का उपयोग करता है।
+
+
+
+> "बस्ट आउट: अमेरिका अपने बेघर लोगों को कैसे स्थानांतरित करता है" [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study) से। विज़ुअलाइज़ेशन Nadieh Bremer और Shirley Wu द्वारा
+
+हालांकि यह पाठ इन शक्तिशाली विज़ुअलाइज़ेशन लाइब्रेरी को गहराई से सिखाने के लिए पर्याप्त नहीं है, Vue.js ऐप में D3 का उपयोग करके 'डेंजरस लायज़न्स' पुस्तक का एनिमेटेड सोशल नेटवर्क विज़ुअलाइज़ेशन बनाने का प्रयास करें।
+
+> "Les Liaisons Dangereuses" एक पत्रात्मक उपन्यास है, या एक उपन्यास जो पत्रों की श्रृंखला के रूप में प्रस्तुत किया गया है। 1782 में Choderlos de Laclos द्वारा लिखा गया, यह 18वीं शताब्दी के फ्रांसीसी अभिजात वर्ग के दो प्रतिद्वंद्वी नायकों, Vicomte de Valmont और Marquise de Merteuil की क्रूर, नैतिक रूप से दिवालिया सामाजिक चालों की कहानी बताता है। दोनों अंत में अपनी मृत्यु का सामना करते हैं लेकिन सामाजिक नुकसान पहुंचाने से पहले नहीं। उपन्यास पत्रों की एक श्रृंखला के रूप में सामने आता है जो उनके सर्कल में विभिन्न लोगों को लिखे गए हैं, बदला लेने की योजना बनाने या बस परेशानी पैदा करने के लिए। इन पत्रों का विज़ुअलाइज़ेशन बनाएं ताकि कथा के प्रमुख पात्रों को दृश्य रूप से खोजा जा सके।
+
+आप एक वेब ऐप पूरा करेंगे जो इस सोशल नेटवर्क का एनिमेटेड दृश्य प्रदर्शित करेगा। यह एक लाइब्रेरी का उपयोग करता है जिसे Vue.js और D3 का उपयोग करके [नेटवर्क का विज़ुअल](https://github.com/emiliorizzo/vue-d3-network) बनाने के लिए बनाया गया था। जब ऐप चल रहा हो, तो आप स्क्रीन पर नोड्स को खींच सकते हैं ताकि डेटा को इधर-उधर किया जा सके।
+
+
+
+## प्रोजेक्ट: D3.js का उपयोग करके नेटवर्क दिखाने के लिए चार्ट बनाएं
+
+> इस पाठ फ़ोल्डर में एक `solution` फ़ोल्डर शामिल है जहां आप संदर्भ के लिए पूरा प्रोजेक्ट पा सकते हैं।
+
+1. स्टार्ट फ़ोल्डर की रूट में README.md फ़ाइल में दिए गए निर्देशों का पालन करें। सुनिश्चित करें कि आपके मशीन पर NPM और Node.js चल रहे हैं इससे पहले कि आप अपने प्रोजेक्ट की डिपेंडेंसी इंस्टॉल करें।
+
+2. `starter/src` फ़ोल्डर खोलें। आपको एक `assets` फ़ोल्डर मिलेगा जहां आप .json फ़ाइल पा सकते हैं जिसमें उपन्यास के सभी पत्र, क्रमांकित, 'to' और 'from' एनोटेशन के साथ हैं।
+
+3. विज़ुअलाइज़ेशन को सक्षम करने के लिए `components/Nodes.vue` में कोड पूरा करें। `createLinks()` नामक विधि देखें और निम्नलिखित नेस्टेड लूप जोड़ें।
+
+.json ऑब्जेक्ट के माध्यम से लूप करें ताकि पत्रों के 'to' और 'from' डेटा को कैप्चर किया जा सके और `links` ऑब्जेक्ट को बनाया जा सके ताकि विज़ुअलाइज़ेशन लाइब्रेरी इसे उपयोग कर सके:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+अपने टर्मिनल से ऐप चलाएं (npm run serve) और विज़ुअलाइज़ेशन का आनंद लें!
+
+## 🚀 चुनौती
+
+इंटरनेट पर भ्रमित करने वाले विज़ुअलाइज़ेशन की खोज करें। लेखक उपयोगकर्ता को कैसे मूर्ख बनाता है, और क्या यह जानबूझकर है? विज़ुअलाइज़ेशन को सही करने का प्रयास करें ताकि वे सही दिखें।
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## समीक्षा और स्व-अध्ययन
+
+भ्रामक डेटा विज़ुअलाइज़ेशन के बारे में पढ़ने के लिए यहां कुछ लेख हैं:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+ऐतिहासिक संपत्तियों और कलाकृतियों के लिए इन दिलचस्प विज़ुअलाइज़ेशन को देखें:
+
+https://handbook.pubpub.org/
+
+एनिमेशन आपके विज़ुअलाइज़ेशन को कैसे बढ़ा सकता है, इस पर इस लेख को देखें:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## असाइनमेंट
+
+[अपना खुद का कस्टम विज़ुअलाइज़ेशन बनाएं](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..9702a45d
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,23 @@
+
+# अपना खुद का कस्टम विज़ुअलाइज़ेशन बनाएं
+
+## निर्देश
+
+इस प्रोजेक्ट में दिए गए कोड सैंपल का उपयोग करके एक सोशल नेटवर्क बनाएं और अपने सामाजिक इंटरैक्शन का नकली डेटा तैयार करें। आप अपने सोशल मीडिया उपयोग को मैप कर सकते हैं या अपने परिवार के सदस्यों का एक डायग्राम बना सकते हैं। एक दिलचस्प वेब ऐप बनाएं जो सोशल नेटवर्क का एक अनोखा विज़ुअलाइज़ेशन दिखाए।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+एक GitHub रिपॉजिटरी प्रस्तुत की गई है जिसमें कोड सही तरीके से चलता है (इसे एक स्थिर वेब ऐप के रूप में डिप्लॉय करने की कोशिश करें) और एक एनोटेटेड README प्रोजेक्ट को समझाता है | रिपॉजिटरी सही तरीके से नहीं चलती या अच्छी तरह से डॉक्यूमेंटेड नहीं है | रिपॉजिटरी सही तरीके से नहीं चलती और अच्छी तरह से डॉक्यूमेंटेड भी नहीं है
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..0f27755f
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,38 @@
+
+# डेंजरस लिआज़ॉन्स डेटा विज़ुअलाइज़ेशन प्रोजेक्ट
+
+शुरू करने के लिए, सुनिश्चित करें कि आपके सिस्टम पर NPM और Node चल रहे हैं। डिपेंडेंसीज़ इंस्टॉल करें (npm install) और फिर प्रोजेक्ट को लोकली चलाएं (npm run serve):
+
+## प्रोजेक्ट सेटअप
+```
+npm install
+```
+
+### डेवलपमेंट के लिए कम्पाइल और हॉट-रिलोड्स
+```
+npm run serve
+```
+
+### प्रोडक्शन के लिए कम्पाइल और मिनिफाई
+```
+npm run build
+```
+
+### फाइल्स को लिंट और फिक्स करें
+```
+npm run lint
+```
+
+### कॉन्फ़िगरेशन को कस्टमाइज़ करें
+[कॉन्फ़िगरेशन रेफरेंस](https://cli.vuejs.org/config/) देखें।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..6d7b659f
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,38 @@
+
+# डेंजरस लिआज़ॉन्स डेटा विज़ुअलाइज़ेशन प्रोजेक्ट
+
+शुरू करने के लिए, सुनिश्चित करें कि आपके सिस्टम पर NPM और Node चल रहे हैं। डिपेंडेंसीज़ इंस्टॉल करें (npm install) और फिर प्रोजेक्ट को लोकल रूप से चलाएं (npm run serve):
+
+## प्रोजेक्ट सेटअप
+```
+npm install
+```
+
+### डेवलपमेंट के लिए कंपाइल और हॉट-रिलोड्स
+```
+npm run serve
+```
+
+### प्रोडक्शन के लिए कंपाइल और मिनिफाई
+```
+npm run build
+```
+
+### फाइल्स को लिंट और फिक्स करें
+```
+npm run lint
+```
+
+### कॉन्फ़िगरेशन को कस्टमाइज़ करें
+[Configuration Reference](https://cli.vuejs.org/config/) देखें।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/hi/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..d5ecf126
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,229 @@
+
+# मात्राओं का विज़ुअलाइज़ेशन
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| मात्राओं का विज़ुअलाइज़ेशन - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+इस पाठ में आप यह जानेंगे कि R पैकेज लाइब्रेरी का उपयोग करके मात्राओं की अवधारणा के चारों ओर दिलचस्प विज़ुअलाइज़ेशन कैसे बनाए जा सकते हैं। मिनेसोटा के पक्षियों के बारे में एक साफ-सुथरे डेटासेट का उपयोग करके, आप स्थानीय वन्यजीवों के बारे में कई रोचक तथ्य जान सकते हैं।
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## ggplot2 के साथ विंगस्पैन का अवलोकन करें
+सरल और जटिल दोनों प्रकार के प्लॉट और चार्ट बनाने के लिए एक उत्कृष्ट लाइब्रेरी [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html) है। सामान्य रूप से, इन लाइब्रेरी का उपयोग करके डेटा को प्लॉट करने की प्रक्रिया में आपके डेटा फ्रेम के उन हिस्सों की पहचान करना शामिल है जिन्हें आप लक्षित करना चाहते हैं, उस डेटा पर आवश्यक कोई भी परिवर्तन करना, इसके x और y अक्ष मान असाइन करना, यह तय करना कि किस प्रकार का प्लॉट दिखाना है, और फिर प्लॉट दिखाना।
+
+`ggplot2` ग्राफिक्स को डिक्लेरेटिव रूप से बनाने की एक प्रणाली है, जो "द ग्रामर ऑफ ग्राफिक्स" पर आधारित है। [ग्रामर ऑफ ग्राफिक्स](https://en.wikipedia.org/wiki/Ggplot2) डेटा विज़ुअलाइज़ेशन के लिए एक सामान्य योजना है जो ग्राफ़ को स्केल और लेयर जैसे सेमांटिक घटकों में विभाजित करती है। दूसरे शब्दों में, कम कोड के साथ एकवेरिएट या मल्टीवेरिएट डेटा के लिए प्लॉट और ग्राफ़ बनाने में आसानी `ggplot2` को R में विज़ुअलाइज़ेशन के लिए सबसे लोकप्रिय पैकेज बनाती है। उपयोगकर्ता `ggplot2` को यह बताता है कि वेरिएबल्स को एस्थेटिक्स से कैसे मैप करना है, ग्राफिकल प्रिमिटिव्स का उपयोग कैसे करना है, और बाकी का काम `ggplot2` करता है।
+
+> ✅ प्लॉट = डेटा + एस्थेटिक्स + ज्योमेट्री
+> - डेटा का मतलब डेटासेट है
+> - एस्थेटिक्स उन वेरिएबल्स को इंगित करता है जिनका अध्ययन किया जाना है (x और y वेरिएबल्स)
+> - ज्योमेट्री प्लॉट के प्रकार को संदर्भित करता है (लाइन प्लॉट, बार प्लॉट, आदि)
+
+अपने डेटा और उस कहानी के अनुसार जो आप प्लॉट के माध्यम से बताना चाहते हैं, सबसे अच्छा ज्योमेट्री (प्लॉट का प्रकार) चुनें।
+
+> - ट्रेंड्स का विश्लेषण करने के लिए: लाइन, कॉलम
+> - मानों की तुलना करने के लिए: बार, कॉलम, पाई, स्कैटरप्लॉट
+> - यह दिखाने के लिए कि भाग पूरे से कैसे संबंधित हैं: पाई
+> - डेटा के वितरण को दिखाने के लिए: स्कैटरप्लॉट, बार
+> - मानों के बीच संबंध दिखाने के लिए: लाइन, स्कैटरप्लॉट, बबल
+
+✅ आप ggplot2 के लिए यह वर्णनात्मक [चीटशीट](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) भी देख सकते हैं।
+
+## पक्षियों के विंगस्पैन मानों पर एक लाइन प्लॉट बनाएं
+
+R कंसोल खोलें और डेटासेट को इम्पोर्ट करें।
+> नोट: डेटासेट इस रिपॉजिटरी की `/data` फ़ोल्डर में संग्रहीत है।
+
+आइए डेटासेट को इम्पोर्ट करें और डेटा के शीर्ष 5 पंक्तियों (हेड) का अवलोकन करें।
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+डेटा का हेड टेक्स्ट और नंबर का मिश्रण है:
+
+| | Name | ScientificName | Category | Order | Family | Genus | ConservationStatus | MinLength | MaxLength | MinBodyMass | MaxBodyMass | MinWingspan | MaxWingspan |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Black-bellied whistling-duck | Dendrocygna autumnalis | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fulvous whistling-duck | Dendrocygna bicolor | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snow goose | Anser caerulescens | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross's goose | Anser rossii | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Greater white-fronted goose | Anser albifrons | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+आइए कुछ संख्यात्मक डेटा को एक बेसिक लाइन प्लॉट का उपयोग करके प्लॉट करें। मान लीजिए कि आप इन दिलचस्प पक्षियों के लिए अधिकतम विंगस्पैन का दृश्य चाहते हैं।
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+यहां, आप `ggplot2` पैकेज को इंस्टॉल करते हैं और फिर इसे `library("ggplot2")` कमांड का उपयोग करके वर्कस्पेस में इम्पोर्ट करते हैं। ggplot में किसी भी प्लॉट को प्लॉट करने के लिए `ggplot()` फ़ंक्शन का उपयोग किया जाता है और आप डेटासेट, x और y वेरिएबल्स को एट्रिब्यूट्स के रूप में निर्दिष्ट करते हैं। इस मामले में, हम एक लाइन प्लॉट को प्लॉट करने के लिए `geom_line()` फ़ंक्शन का उपयोग करते हैं।
+
+
+
+आप तुरंत क्या नोटिस करते हैं? ऐसा लगता है कि कम से कम एक आउटलायर है - यह काफी बड़ा विंगस्पैन है! 2000+ सेंटीमीटर विंगस्पैन 20 मीटर से अधिक के बराबर है - क्या मिनेसोटा में पेटरोडैक्टाइल्स घूम रहे हैं? आइए जांच करें।
+
+हालांकि आप एक्सेल में एक त्वरित सॉर्ट कर सकते हैं ताकि उन आउटलायर्स को ढूंढा जा सके, जो शायद टाइपो हैं, प्लॉट के भीतर से विज़ुअलाइज़ेशन प्रक्रिया जारी रखें।
+
+x-अक्ष पर लेबल जोड़ें ताकि यह दिखाया जा सके कि किस प्रकार के पक्षी प्रश्न में हैं:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+हम `theme` में कोण निर्दिष्ट करते हैं और `xlab()` और `ylab()` में x और y अक्ष लेबल निर्दिष्ट करते हैं। `ggtitle()` ग्राफ/प्लॉट को एक नाम देता है।
+
+
+
+लेबल्स को 45 डिग्री पर घुमाने के बावजूद, उन्हें पढ़ने के लिए बहुत अधिक हैं। आइए एक अलग रणनीति आजमाएं: केवल उन आउटलायर्स को लेबल करें और लेबल्स को चार्ट के भीतर सेट करें। आप लेबलिंग के लिए अधिक जगह बनाने के लिए एक स्कैटर चार्ट का उपयोग कर सकते हैं:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+यहां क्या हो रहा है? आपने स्कैटर पॉइंट्स को प्लॉट करने के लिए `geom_point()` फ़ंक्शन का उपयोग किया। इसके साथ, आपने उन पक्षियों के लिए लेबल्स जोड़े जिनके `MaxWingspan > 500` थे और x अक्ष पर लेबल्स को छिपा दिया ताकि प्लॉट को साफ किया जा सके।
+
+आप क्या खोजते हैं?
+
+
+
+## अपने डेटा को फ़िल्टर करें
+
+Bald Eagle और Prairie Falcon, हालांकि शायद बहुत बड़े पक्षी हैं, गलत लेबल किए गए प्रतीत होते हैं, उनके अधिकतम विंगस्पैन में एक अतिरिक्त 0 जोड़ा गया है। यह संभावना नहीं है कि आप 25 मीटर विंगस्पैन वाले Bald Eagle से मिलेंगे, लेकिन अगर ऐसा होता है, तो कृपया हमें बताएं! आइए इन दो आउटलायर्स के बिना एक नया डेटा फ्रेम बनाएं:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+हमने एक नया डेटा फ्रेम `birds_filtered` बनाया और फिर एक स्कैटर प्लॉट को प्लॉट किया। आउटलायर्स को फ़िल्टर करके, आपका डेटा अब अधिक सुसंगत और समझने योग्य है।
+
+
+
+अब जब हमारे पास विंगस्पैन के मामले में कम से कम एक साफ-सुथरा डेटासेट है, तो आइए इन पक्षियों के बारे में और अधिक खोज करें।
+
+जबकि लाइन और स्कैटर प्लॉट डेटा मानों और उनके वितरण के बारे में जानकारी प्रदर्शित कर सकते हैं, हम इस डेटासेट में अंतर्निहित मानों के बारे में सोचना चाहते हैं। आप निम्नलिखित प्रश्नों के उत्तर देने के लिए विज़ुअलाइज़ेशन बना सकते हैं:
+
+> पक्षियों की कितनी श्रेणियां हैं, और उनकी संख्या क्या है?
+> कितने पक्षी विलुप्त, संकटग्रस्त, दुर्लभ, या सामान्य हैं?
+> लिनियस की शब्दावली में विभिन्न जीनस और ऑर्डर कितने हैं?
+
+## बार चार्ट का अन्वेषण करें
+
+जब आपको डेटा के समूहों को दिखाने की आवश्यकता होती है, तो बार चार्ट व्यावहारिक होते हैं। आइए इस डेटासेट में मौजूद पक्षियों की श्रेणियों का अन्वेषण करें ताकि यह देखा जा सके कि संख्या के हिसाब से कौन सा सबसे सामान्य है।
+आइए फ़िल्टर किए गए डेटा पर एक बार चार्ट बनाएं।
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+निम्नलिखित स्निपेट में, हम [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) और [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) पैकेज इंस्टॉल करते हैं ताकि डेटा को हेरफेर और समूहित किया जा सके और एक स्टैक्ड बार चार्ट को प्लॉट किया जा सके। पहले, आप पक्षी की `Category` द्वारा डेटा को समूहित करते हैं और फिर `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan` कॉलम को सारांशित करते हैं। फिर, `ggplot2` पैकेज का उपयोग करके बार चार्ट को प्लॉट करें और विभिन्न श्रेणियों के लिए रंग और लेबल निर्दिष्ट करें।
+
+
+
+हालांकि, यह बार चार्ट पढ़ने योग्य नहीं है क्योंकि इसमें बहुत अधिक गैर-समूहित डेटा है। आपको केवल उस डेटा का चयन करने की आवश्यकता है जिसे आप प्लॉट करना चाहते हैं, इसलिए आइए पक्षी की श्रेणी के आधार पर लंबाई देखें।
+
+अपने डेटा को केवल पक्षी की श्रेणी को शामिल करने के लिए फ़िल्टर करें।
+
+चूंकि कई श्रेणियां हैं, आप इस चार्ट को वर्टिकल रूप से प्रदर्शित कर सकते हैं और सभी डेटा को समायोजित करने के लिए इसकी ऊंचाई को ट्वीक कर सकते हैं:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+आप पहले `Category` कॉलम में अद्वितीय मानों की गणना करते हैं और फिर उन्हें एक नए डेटा फ्रेम `birds_count` में क्रमबद्ध करते हैं। इस क्रमबद्ध डेटा को फिर उसी स्तर पर फैक्टर किया जाता है ताकि इसे क्रमबद्ध तरीके से प्लॉट किया जा सके। फिर, `ggplot2` का उपयोग करके आप डेटा को एक बार चार्ट में प्लॉट करते हैं। `coord_flip()` क्षैतिज बार को प्लॉट करता है।
+
+
+
+यह बार चार्ट प्रत्येक श्रेणी में पक्षियों की संख्या का अच्छा दृश्य दिखाता है। एक नज़र में, आप देख सकते हैं कि इस क्षेत्र में सबसे बड़ी संख्या में पक्षी Ducks/Geese/Waterfowl श्रेणी में हैं। मिनेसोटा '10,000 झीलों की भूमि' है, इसलिए यह आश्चर्यजनक नहीं है!
+
+✅ इस डेटासेट पर कुछ अन्य गणनाएं आज़माएं। क्या कुछ आपको आश्चर्यचकित करता है?
+
+## डेटा की तुलना करना
+
+आप नए अक्ष बनाकर समूहित डेटा की विभिन्न तुलना कर सकते हैं। पक्षी की श्रेणी के आधार पर पक्षी की अधिकतम लंबाई की तुलना आज़माएं:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+हम `birds_filtered` डेटा को `Category` द्वारा समूहित करते हैं और फिर एक बार ग्राफ़ को प्लॉट करते हैं।
+
+
+
+यहां कुछ भी आश्चर्यजनक नहीं है: Hummingbirds की MaxLength Pelicans या Geese की तुलना में सबसे कम है। यह अच्छा है जब डेटा तार्किक रूप से समझ में आता है!
+
+आप बार चार्ट के अधिक दिलचस्प विज़ुअलाइज़ेशन बना सकते हैं। आइए एक दिए गए पक्षी श्रेणी पर न्यूनतम और अधिकतम लंबाई को सुपरइम्पोज़ करें:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 चुनौती
+
+यह पक्षी डेटासेट एक विशेष पारिस्थितिकी तंत्र के भीतर विभिन्न प्रकार के पक्षियों के बारे में जानकारी का खजाना प्रदान करता है। इंटरनेट पर खोजें और देखें कि क्या आप अन्य पक्षी-उन्मुख डेटासेट पा सकते हैं। इन पक्षियों के चार्ट और ग्राफ़ बनाकर अभ्यास करें ताकि ऐसे तथ्य खोजे जा सकें जिनके बारे में आपको पहले पता नहीं था।
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## समीक्षा और स्व-अध्ययन
+
+इस पहले पाठ ने आपको `ggplot2` का उपयोग करके मात्राओं को विज़ुअलाइज़ करने के बारे में कुछ जानकारी दी है। विज़ुअलाइज़ेशन के लिए डेटासेट के साथ काम करने के अन्य तरीकों के बारे में कुछ शोध करें। अन्य पैकेजों जैसे [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) और [Plotly](https://github.com/plotly/plotly.R#readme) का उपयोग करके विज़ुअलाइज़ेशन के लिए डेटासेट खोजें और उनका अध्ययन करें।
+
+## असाइनमेंट
+[लाइन्स, स्कैटर्स, और बार्स](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/hi/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..10de6bf6
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# रेखाएं, बिखराव और बार्स
+
+## निर्देश
+
+इस पाठ में, आपने लाइन चार्ट्स, स्कैटरप्लॉट्स और बार चार्ट्स का उपयोग करके इस डेटा सेट के बारे में दिलचस्प तथ्यों को दिखाया। इस असाइनमेंट में, डेटा सेट में गहराई से जाएं और किसी दिए गए प्रकार के पक्षी के बारे में एक तथ्य खोजें। उदाहरण के लिए, एक स्क्रिप्ट बनाएं जो स्नो गीज़ के बारे में आप जो भी दिलचस्प डेटा खोज सकते हैं उसे विज़ुअलाइज़ करे। ऊपर बताए गए तीन प्लॉट्स का उपयोग करके अपनी नोटबुक में एक कहानी बताएं।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+एक स्क्रिप्ट प्रस्तुत की गई है जिसमें अच्छे एनोटेशन, ठोस कहानी और आकर्षक ग्राफ्स हैं | स्क्रिप्ट में इनमें से एक तत्व गायब है | स्क्रिप्ट में इनमें से दो तत्व गायब हैं
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/hi/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..206f6a34
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,181 @@
+
+# वितरणों का विज़ुअलाइज़ेशन
+
+| द्वारा ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| वितरणों का विज़ुअलाइज़ेशन - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+पिछले पाठ में, आपने मिनेसोटा के पक्षियों के बारे में एक डेटासेट से कुछ रोचक तथ्य सीखे। आपने आउटलायर्स को विज़ुअलाइज़ करके कुछ त्रुटिपूर्ण डेटा पाया और पक्षी श्रेणियों के बीच उनके अधिकतम लंबाई के आधार पर अंतर देखा।
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## पक्षियों के डेटासेट का अन्वेषण करें
+
+डेटा में गहराई से जाने का एक और तरीका है इसके वितरण को देखना, या डेटा को एक अक्ष पर कैसे व्यवस्थित किया गया है। उदाहरण के लिए, हो सकता है कि आप मिनेसोटा के पक्षियों के अधिकतम पंख फैलाव या अधिकतम शरीर भार के सामान्य वितरण के बारे में जानना चाहें।
+
+आइए इस डेटासेट में डेटा के वितरण के बारे में कुछ तथ्य खोजें। अपने R कंसोल में, `ggplot2` और डेटाबेस को इंपोर्ट करें। पिछले टॉपिक की तरह डेटाबेस से आउटलायर्स को हटा दें।
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | नाम | वैज्ञानिक नाम | श्रेणी | क्रम | परिवार | वंश | संरक्षण स्थिति | न्यूनतम लंबाई | अधिकतम लंबाई | न्यूनतम शरीर भार | अधिकतम शरीर भार | न्यूनतम पंख फैलाव | अधिकतम पंख फैलाव |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | ब्लैक-बेलिड व्हिसलिंग-डक | Dendrocygna autumnalis | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | फुल्वस व्हिसलिंग-डक | Dendrocygna bicolor | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | स्नो गूज | Anser caerulescens | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | रॉस का गूज | Anser rossii | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | ग्रेटर व्हाइट-फ्रंटेड गूज | Anser albifrons | बत्तख/हंस/जलपक्षी | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+सामान्य तौर पर, आप डेटा के वितरण को जल्दी से देख सकते हैं जैसे हमने पिछले पाठ में स्कैटर प्लॉट का उपयोग करके किया था:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+यह पक्षी क्रम के अनुसार शरीर की लंबाई के सामान्य वितरण का एक अवलोकन देता है, लेकिन यह सच्चे वितरण को प्रदर्शित करने का सबसे अच्छा तरीका नहीं है। यह कार्य आमतौर पर एक हिस्टोग्राम बनाकर किया जाता है।
+## हिस्टोग्राम के साथ काम करना
+
+`ggplot2` हिस्टोग्राम का उपयोग करके डेटा वितरण को विज़ुअलाइज़ करने के लिए बहुत अच्छे तरीके प्रदान करता है। इस प्रकार का चार्ट बार चार्ट जैसा होता है जहां वितरण को बार्स के उतार-चढ़ाव के माध्यम से देखा जा सकता है। हिस्टोग्राम बनाने के लिए, आपको संख्यात्मक डेटा की आवश्यकता होती है। हिस्टोग्राम बनाने के लिए, आप चार्ट को 'hist' प्रकार के रूप में परिभाषित कर सकते हैं। यह चार्ट पूरे डेटासेट के संख्यात्मक डेटा की सीमा के लिए MaxBodyMass के वितरण को दिखाता है। डेटा की सरणी को छोटे बिन्स में विभाजित करके, यह डेटा के मानों के वितरण को प्रदर्शित कर सकता है:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+जैसा कि आप देख सकते हैं, इस डेटासेट के 400+ पक्षियों में से अधिकांश का Max Body Mass 2000 से कम की सीमा में आता है। `bins` पैरामीटर को 30 जैसे उच्च संख्या में बदलकर डेटा के बारे में अधिक जानकारी प्राप्त करें:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+यह चार्ट वितरण को थोड़ा अधिक विस्तृत तरीके से दिखाता है। एक चार्ट जो बाईं ओर कम झुका हुआ हो, उसे केवल एक दी गई सीमा के भीतर डेटा का चयन करके बनाया जा सकता है:
+
+अपने डेटा को फ़िल्टर करें ताकि केवल उन पक्षियों को प्राप्त किया जा सके जिनका शरीर भार 60 से कम है, और 30 `bins` दिखाएं:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ कुछ अन्य फ़िल्टर और डेटा पॉइंट आज़माएं। डेटा के पूर्ण वितरण को देखने के लिए, लेबल वाले वितरण दिखाने के लिए `['MaxBodyMass']` फ़िल्टर को हटा दें।
+
+हिस्टोग्राम कुछ अच्छे रंग और लेबलिंग सुधार भी प्रदान करता है:
+
+दो वितरणों के बीच संबंध की तुलना करने के लिए एक 2D हिस्टोग्राम बनाएं। आइए `MaxBodyMass` बनाम `MaxLength` की तुलना करें। `ggplot2` एक अंतर्निहित तरीका प्रदान करता है जो उज्जवल रंगों का उपयोग करके अभिसरण दिखाता है:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+ऐसा प्रतीत होता है कि इन दो तत्वों के बीच अपेक्षित अक्ष के साथ एक अपेक्षित सहसंबंध है, जिसमें अभिसरण का एक विशेष रूप से मजबूत बिंदु है:
+
+
+
+हिस्टोग्राम डिफ़ॉल्ट रूप से संख्यात्मक डेटा के लिए अच्छी तरह से काम करते हैं। यदि आपको टेक्स्ट डेटा के अनुसार वितरण देखना हो तो क्या होगा?
+## टेक्स्ट डेटा का उपयोग करके डेटासेट के वितरण का अन्वेषण करें
+
+इस डेटासेट में पक्षी श्रेणी और इसके वंश, प्रजाति, और परिवार के साथ-साथ इसके संरक्षण स्थिति के बारे में अच्छी जानकारी भी शामिल है। आइए इस संरक्षण जानकारी का अन्वेषण करें। पक्षियों का वितरण उनकी संरक्षण स्थिति के अनुसार क्या है?
+
+> ✅ इस डेटासेट में, संरक्षण स्थिति का वर्णन करने के लिए कई संक्षेपाक्षर का उपयोग किया गया है। ये संक्षेपाक्षर [IUCN रेड लिस्ट श्रेणियों](https://www.iucnredlist.org/) से आते हैं, एक संगठन जो प्रजातियों की स्थिति को सूचीबद्ध करता है।
+>
+> - CR: गंभीर रूप से संकटग्रस्त
+> - EN: संकटग्रस्त
+> - EX: विलुप्त
+> - LC: कम चिंता
+> - NT: निकट संकटग्रस्त
+> - VU: असुरक्षित
+
+ये टेक्स्ट-आधारित मान हैं इसलिए आपको हिस्टोग्राम बनाने के लिए एक ट्रांसफॉर्म करना होगा। फ़िल्टर किए गए पक्षियों के डेटा फ्रेम का उपयोग करके, इसकी संरक्षण स्थिति को न्यूनतम पंख फैलाव के साथ प्रदर्शित करें। आपको क्या दिखाई देता है?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+न्यूनतम पंख फैलाव और संरक्षण स्थिति के बीच कोई अच्छा संबंध प्रतीत नहीं होता। इस विधि का उपयोग करके डेटासेट के अन्य तत्वों का परीक्षण करें। आप विभिन्न फ़िल्टर भी आज़मा सकते हैं। क्या आपको कोई संबंध मिलता है?
+
+## डेंसिटी प्लॉट्स
+
+आपने देखा होगा कि अब तक हमने जो हिस्टोग्राम देखे हैं वे 'स्टेप्ड' हैं और एक आर्क में सुचारू रूप से प्रवाहित नहीं होते। एक सुचारू डेंसिटी चार्ट दिखाने के लिए, आप डेंसिटी प्लॉट आज़मा सकते हैं।
+
+आइए अब डेंसिटी प्लॉट्स के साथ काम करें!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+आप देख सकते हैं कि यह प्लॉट न्यूनतम पंख फैलाव डेटा के लिए पिछले वाले को प्रतिध्वनित करता है; यह बस थोड़ा अधिक सुचारू है। यदि आप उस खुरदरे MaxBodyMass लाइन को फिर से देखना चाहते हैं जिसे आपने दूसरा चार्ट बनाते समय बनाया था, तो आप इसे इस विधि का उपयोग करके बहुत अच्छी तरह से सुचारू कर सकते हैं:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+यदि आप एक सुचारू, लेकिन बहुत अधिक सुचारू रेखा नहीं चाहते हैं, तो `adjust` पैरामीटर को संपादित करें:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ इस प्रकार के प्लॉट के लिए उपलब्ध पैरामीटर के बारे में पढ़ें और प्रयोग करें!
+
+इस प्रकार का चार्ट सुंदर व्याख्यात्मक विज़ुअलाइज़ेशन प्रदान करता है। उदाहरण के लिए, कुछ कोड की पंक्तियों के साथ, आप प्रत्येक पक्षी क्रम के लिए अधिकतम शरीर भार डेंसिटी दिखा सकते हैं:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 चुनौती
+
+हिस्टोग्राम बुनियादी स्कैटरप्लॉट्स, बार चार्ट्स, या लाइन चार्ट्स की तुलना में अधिक परिष्कृत प्रकार के चार्ट हैं। इंटरनेट पर खोज करें और हिस्टोग्राम के उपयोग के अच्छे उदाहरण खोजें। वे कैसे उपयोग किए जाते हैं, वे क्या प्रदर्शित करते हैं, और वे किन क्षेत्रों या जांच के क्षेत्रों में उपयोग किए जाते हैं?
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## समीक्षा और स्व-अध्ययन
+
+इस पाठ में, आपने `ggplot2` का उपयोग किया और अधिक परिष्कृत चार्ट दिखाने का काम शुरू किया। `geom_density_2d()` पर शोध करें, जो "एक या अधिक आयामों में निरंतर संभावना घनत्व वक्र" है। [डॉक्यूमेंटेशन](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) पढ़ें ताकि यह समझ सकें कि यह कैसे काम करता है।
+
+## असाइनमेंट
+
+[अपनी कौशल लागू करें](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/hi/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..69d743ac
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# अपने कौशल का उपयोग करें
+
+## निर्देश
+
+अब तक, आपने मिनेसोटा पक्षियों के डेटासेट के साथ काम किया है ताकि पक्षियों की संख्या और जनसंख्या घनत्व के बारे में जानकारी प्राप्त की जा सके। इन तकनीकों का अभ्यास करने के लिए एक अलग डेटासेट आज़माएं, जिसे आप [Kaggle](https://www.kaggle.com/) से प्राप्त कर सकते हैं। एक R स्क्रिप्ट बनाएं जो इस डेटासेट के बारे में एक कहानी बताए, और इसे समझाने के लिए हिस्टोग्राम का उपयोग करना सुनिश्चित करें।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+डेटासेट के स्रोत सहित इस पर टिप्पणियों के साथ एक स्क्रिप्ट प्रस्तुत की गई है, और डेटा के बारे में तथ्य खोजने के लिए कम से कम 5 हिस्टोग्राम का उपयोग किया गया है। | स्क्रिप्ट प्रस्तुत की गई है लेकिन इसमें अधूरी टिप्पणियां या बग्स हैं। | स्क्रिप्ट प्रस्तुत की गई है लेकिन इसमें टिप्पणियां नहीं हैं और बग्स शामिल हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/hi/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..d6a34d80
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,195 @@
+
+# अनुपातों का विज़ुअलाइज़ेशन
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|अनुपातों का विज़ुअलाइज़ेशन - _स्केच नोट [@nitya](https://twitter.com/nitya) द्वारा_ |
+
+इस पाठ में, आप एक अलग प्रकृति-केंद्रित डेटा सेट का उपयोग करके अनुपातों को विज़ुअलाइज़ करेंगे, जैसे कि मशरूम के बारे में दिए गए डेटा सेट में कितने प्रकार के कवक मौजूद हैं। आइए इस दिलचस्प कवक को Audubon से लिए गए एक डेटा सेट का उपयोग करके खोजें, जिसमें Agaricus और Lepiota परिवारों के 23 प्रजातियों के गिल्ड मशरूम का विवरण है। आप स्वादिष्ट विज़ुअलाइज़ेशन के साथ प्रयोग करेंगे जैसे:
+
+- पाई चार्ट 🥧
+- डोनट चार्ट 🍩
+- वाफल चार्ट 🧇
+
+> 💡 Microsoft Research द्वारा एक बहुत ही दिलचस्प प्रोजेक्ट [Charticulator](https://charticulator.com) एक मुफ्त ड्रैग और ड्रॉप इंटरफ़ेस प्रदान करता है डेटा विज़ुअलाइज़ेशन के लिए। उनके एक ट्यूटोरियल में भी इस मशरूम डेटा सेट का उपयोग किया गया है! तो आप डेटा को एक्सप्लोर कर सकते हैं और साथ ही लाइब्रेरी को सीख सकते हैं: [Charticulator ट्यूटोरियल](https://charticulator.com/tutorials/tutorial4.html)।
+
+## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## अपने मशरूम को जानें 🍄
+
+मशरूम बहुत ही दिलचस्प होते हैं। आइए एक डेटा सेट आयात करें और उनका अध्ययन करें:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+एक तालिका प्रिंट की जाती है जिसमें विश्लेषण के लिए शानदार डेटा होता है:
+
+| वर्ग | टोपी-आकार | टोपी-सतह | टोपी-रंग | चोटें | गंध | गिल-अटैचमेंट | गिल-दूरी | गिल-आकार | गिल-रंग | डंठल-आकार | डंठल-जड़ | डंठल-सतह-ऊपर-रिंग | डंठल-सतह-नीचे-रिंग | डंठल-रंग-ऊपर-रिंग | डंठल-रंग-नीचे-रिंग | घूंघट-प्रकार | घूंघट-रंग | रिंग-संख्या | रिंग-प्रकार | बीजाणु-प्रिंट-रंग | जनसंख्या | आवास |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| विषाक्त | उत्तल | चिकनी | भूरा | चोटें | तीव्र गंध | मुक्त | पास | संकीर्ण | काला | चौड़ा | समान | चिकनी | चिकनी | सफेद | सफेद | आंशिक | सफेद | एक | लटकता हुआ | काला | बिखरा हुआ | शहरी |
+| खाद्य | उत्तल | चिकनी | पीला | चोटें | बादाम | मुक्त | पास | चौड़ा | काला | चौड़ा | क्लब | चिकनी | चिकनी | सफेद | सफेद | आंशिक | सफेद | एक | लटकता हुआ | भूरा | कई | घास |
+| खाद्य | घंटी | चिकनी | सफेद | चोटें | सौंफ | मुक्त | पास | चौड़ा | भूरा | चौड़ा | क्लब | चिकनी | चिकनी | सफेद | सफेद | आंशिक | सफेद | एक | लटकता हुआ | भूरा | कई | घास के मैदान |
+| विषाक्त | उत्तल | खुरदरी | सफेद | चोटें | तीव्र गंध | मुक्त | पास | संकीर्ण | भूरा | चौड़ा | समान | चिकनी | चिकनी | सफेद | सफेद | आंशिक | सफेद | एक | लटकता हुआ | काला | बिखरा हुआ | शहरी |
+| खाद्य | उत्तल | चिकनी | हरा | चोटें नहीं | कोई गंध नहीं | मुक्त | भीड़भाड़ | चौड़ा | काला | पतला | समान | चिकनी | चिकनी | सफेद | सफेद | आंशिक | सफेद | एक | क्षणिक | भूरा | प्रचुर मात्रा में | घास |
+| खाद्य | उत्तल | खुरदरी | पीला | चोटें | बादाम | मुक्त | पास | चौड़ा | भूरा | चौड़ा | क्लब | चिकनी | चिकनी | सफेद | सफेद | आंशिक | सफेद | एक | लटकता हुआ | काला | कई | घास |
+
+जैसे ही आप डेटा देखते हैं, आपको पता चलता है कि सारा डेटा टेक्स्ट के रूप में है। आपको इस डेटा को चार्ट में उपयोग करने के लिए बदलना होगा। वास्तव में, अधिकांश डेटा एक ऑब्जेक्ट के रूप में प्रस्तुत किया गया है:
+
+```r
+names(mushrooms)
+```
+
+आउटपुट है:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+इस डेटा को लें और 'class' कॉलम को एक श्रेणी में बदलें:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+अब, यदि आप मशरूम डेटा प्रिंट करते हैं, तो आप देख सकते हैं कि इसे विषाक्त/खाद्य वर्ग के अनुसार श्रेणियों में विभाजित कर दिया गया है:
+```r
+View(grouped)
+```
+
+| वर्ग | संख्या |
+| --------- | --------- |
+| खाद्य | 4208 |
+| विषाक्त | 3916 |
+
+यदि आप इस तालिका में प्रस्तुत क्रम का पालन करते हुए अपने वर्ग श्रेणी लेबल बनाते हैं, तो आप एक पाई चार्ट बना सकते हैं।
+
+## पाई!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+देखिए, एक पाई चार्ट जो इस डेटा को मशरूम के इन दो वर्गों के अनुसार दिखाता है। लेबल के क्रम को सही रखना बहुत महत्वपूर्ण है, खासकर यहां, इसलिए सुनिश्चित करें कि लेबल एरे को बनाते समय क्रम की जांच करें!
+
+
+
+## डोनट्स!
+
+एक और अधिक आकर्षक पाई चार्ट डोनट चार्ट है, जो एक पाई चार्ट है जिसमें बीच में एक छेद होता है। आइए इस विधि का उपयोग करके अपने डेटा को देखें।
+
+उन विभिन्न आवासों पर नज़र डालें जहां मशरूम उगते हैं:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+आउटपुट है:
+| आवास | संख्या |
+| --------- | --------- |
+| घास | 2148 |
+| पत्ते | 832 |
+| घास के मैदान | 292 |
+| रास्ते | 1144 |
+| शहरी | 368 |
+| कचरा | 192 |
+| लकड़ी | 3148 |
+
+यहां, आप अपने डेटा को आवास के अनुसार समूहित कर रहे हैं। 7 सूचीबद्ध हैं, इसलिए इनका उपयोग अपने डोनट चार्ट के लेबल के रूप में करें:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+यह कोड दो लाइब्रेरीज़ - ggplot2 और webr का उपयोग करता है। webr लाइब्रेरी के PieDonut फ़ंक्शन का उपयोग करके, हम आसानी से एक डोनट चार्ट बना सकते हैं!
+
+R में केवल ggplot2 लाइब्रेरी का उपयोग करके भी डोनट चार्ट बनाए जा सकते हैं। आप इसके बारे में [यहां](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) और अधिक जान सकते हैं और इसे स्वयं आज़मा सकते हैं।
+
+अब जब आप जानते हैं कि अपने डेटा को कैसे समूहित करें और फिर इसे पाई या डोनट के रूप में प्रदर्शित करें, तो आप अन्य प्रकार के चार्ट का पता लगा सकते हैं। एक वाफल चार्ट आज़माएं, जो मात्रा का पता लगाने का एक अलग तरीका है।
+
+## वाफल्स!
+
+'वाफल' प्रकार का चार्ट मात्रा को 2D वर्गों के रूप में विज़ुअलाइज़ करने का एक अलग तरीका है। इस डेटा सेट में मशरूम टोपी के रंगों की विभिन्न मात्राओं को विज़ुअलाइज़ करने का प्रयास करें। ऐसा करने के लिए, आपको [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) नामक एक सहायक लाइब्रेरी स्थापित करनी होगी और इसका उपयोग करके अपना विज़ुअलाइज़ेशन बनाना होगा:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+अपने डेटा का एक खंड चुनें और इसे समूहित करें:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+लेबल बनाकर और फिर अपने डेटा को समूहित करके एक वाफल चार्ट बनाएं:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+वाफल चार्ट का उपयोग करके, आप मशरूम डेटा सेट के टोपी रंगों के अनुपात को स्पष्ट रूप से देख सकते हैं। दिलचस्प बात यह है कि कई हरे रंग की टोपी वाले मशरूम हैं!
+
+
+
+इस पाठ में, आपने अनुपातों को विज़ुअलाइज़ करने के तीन तरीके सीखे। सबसे पहले, आपको अपने डेटा को श्रेणियों में समूहित करना होगा और फिर यह तय करना होगा कि डेटा को प्रदर्शित करने का सबसे अच्छा तरीका कौन सा है - पाई, डोनट, या वाफल। सभी स्वादिष्ट हैं और उपयोगकर्ता को डेटा सेट का त्वरित स्नैपशॉट प्रदान करते हैं।
+
+## 🚀 चुनौती
+
+इन स्वादिष्ट चार्ट को [Charticulator](https://charticulator.com) में फिर से बनाने का प्रयास करें।
+## [पाठ-उत्तर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## समीक्षा और स्व-अध्ययन
+
+कभी-कभी यह स्पष्ट नहीं होता कि पाई, डोनट, या वाफल चार्ट का उपयोग कब करना है। इस विषय पर पढ़ने के लिए यहां कुछ लेख दिए गए हैं:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+इस जटिल निर्णय पर अधिक जानकारी प्राप्त करने के लिए कुछ शोध करें।
+
+## असाइनमेंट
+
+[इसे Excel में आज़माएं](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/hi/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..6b6aff2d
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,175 @@
+
+# संबंधों का चित्रण: शहद के बारे में सब कुछ 🍯
+
+| द्वारा ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|संबंधों का चित्रण - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+हमारे शोध के प्रकृति-केंद्रित दृष्टिकोण को जारी रखते हुए, आइए विभिन्न प्रकार के शहद के बीच संबंधों को दिखाने के लिए दिलचस्प चित्रण खोजें। यह डेटा सेट [संयुक्त राज्य कृषि विभाग](https://www.nass.usda.gov/About_NASS/index.php) से लिया गया है।
+
+यह लगभग 600 वस्तुओं का डेटा सेट कई अमेरिकी राज्यों में शहद उत्पादन को दर्शाता है। उदाहरण के लिए, आप 1998-2012 के बीच किसी दिए गए राज्य में प्रति वर्ष शहद के उत्पादन, कॉलोनियों की संख्या, प्रति कॉलोनी उत्पादन, कुल उत्पादन, स्टॉक्स, प्रति पाउंड कीमत और शहद के मूल्य को देख सकते हैं, जिसमें प्रत्येक राज्य के लिए प्रति वर्ष एक पंक्ति है।
+
+यह देखना दिलचस्प होगा कि किसी दिए गए राज्य के वार्षिक उत्पादन और उस राज्य में शहद की कीमत के बीच क्या संबंध है। वैकल्पिक रूप से, आप राज्यों के प्रति कॉलोनी शहद उत्पादन के बीच संबंध को चित्रित कर सकते हैं। यह समयावधि 2006 में पहली बार देखे गए 'सीसीडी' या 'कॉलोनी कोलैप्स डिसऑर्डर' (http://npic.orst.edu/envir/ccd.html) को भी कवर करती है, इसलिए यह अध्ययन के लिए एक महत्वपूर्ण डेटा सेट है। 🐝
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+इस पाठ में, आप ggplot2 का उपयोग कर सकते हैं, जिसे आपने पहले भी उपयोग किया है। यह लाइब्रेरी चर के बीच संबंधों को चित्रित करने के लिए बहुत अच्छी है। विशेष रूप से दिलचस्प है ggplot2 के `geom_point` और `qplot` फ़ंक्शन का उपयोग, जो स्कैटर प्लॉट्स और लाइन प्लॉट्स को जल्दी से '[सांख्यिकीय संबंधों](https://ggplot2.tidyverse.org/)' को चित्रित करने की अनुमति देता है। यह डेटा वैज्ञानिक को यह समझने में मदद करता है कि चर एक-दूसरे से कैसे संबंधित हैं।
+
+## स्कैटरप्लॉट्स
+
+स्कैटरप्लॉट का उपयोग करके दिखाएं कि शहद की कीमत साल दर साल, प्रति राज्य कैसे विकसित हुई है। ggplot2, `ggplot` और `geom_point` का उपयोग करते हुए, राज्य डेटा को सुविधाजनक रूप से समूहित करता है और श्रेणीबद्ध और संख्यात्मक डेटा दोनों के लिए डेटा पॉइंट्स प्रदर्शित करता है।
+
+आइए डेटा और Seaborn को इंपोर्ट करके शुरू करें:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+आप देखेंगे कि शहद डेटा में कई दिलचस्प कॉलम हैं, जिनमें वर्ष और प्रति पाउंड कीमत शामिल हैं। आइए इस डेटा का अन्वेषण करें, जिसे अमेरिकी राज्यों द्वारा समूहित किया गया है:
+
+| राज्य | कॉलोनियों की संख्या | प्रति कॉलोनी उत्पादन | कुल उत्पादन | स्टॉक्स | प्रति पाउंड कीमत | उत्पादन मूल्य | वर्ष |
+| ----- | ------------------- | -------------------- | ----------- | --------- | --------------- | ------------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 | 22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+एक बुनियादी स्कैटरप्लॉट बनाएं जो शहद की प्रति पाउंड कीमत और उसके अमेरिकी राज्य के मूल के बीच संबंध दिखाए। `y` अक्ष को इतना लंबा बनाएं कि सभी राज्यों को प्रदर्शित किया जा सके:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+अब, वही डेटा एक शहद रंग योजना के साथ दिखाएं ताकि यह दिखाया जा सके कि कीमत वर्षों में कैसे विकसित होती है। आप इसे 'scale_color_gradientn' पैरामीटर जोड़कर कर सकते हैं, जो साल दर साल परिवर्तन दिखाता है:
+
+> ✅ [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) के बारे में और जानें - एक सुंदर इंद्रधनुष रंग योजना आज़माएं!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+इस रंग योजना परिवर्तन के साथ, आप देख सकते हैं कि वर्षों में प्रति पाउंड शहद की कीमत में स्पष्ट रूप से एक मजबूत प्रगति है। वास्तव में, यदि आप डेटा के एक नमूना सेट को सत्यापित करने के लिए देखते हैं (उदाहरण के लिए, एरिज़ोना राज्य को चुनें), तो आप देख सकते हैं कि कुछ अपवादों को छोड़कर, कीमत में साल दर साल वृद्धि का एक पैटर्न है:
+
+| राज्य | कॉलोनियों की संख्या | प्रति कॉलोनी उत्पादन | कुल उत्पादन | स्टॉक्स | प्रति पाउंड कीमत | उत्पादन मूल्य | वर्ष |
+| ----- | ------------------- | -------------------- | ----------- | ------- | --------------- | ------------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+एक और तरीका इस प्रगति को दिखाने का यह है कि रंग के बजाय आकार का उपयोग करें। रंग-अंधता वाले उपयोगकर्ताओं के लिए, यह एक बेहतर विकल्प हो सकता है। अपने विज़ुअलाइज़ेशन को संपादित करें ताकि कीमत में वृद्धि को डॉट के परिधि में वृद्धि के रूप में दिखाया जा सके:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+आप देख सकते हैं कि डॉट्स का आकार धीरे-धीरे बढ़ रहा है।
+
+
+
+क्या यह आपूर्ति और मांग का एक साधारण मामला है? जलवायु परिवर्तन और कॉलोनी कोलैप्स जैसे कारकों के कारण, क्या हर साल खरीदने के लिए कम शहद उपलब्ध है, और इसीलिए कीमत बढ़ रही है?
+
+इस डेटा सेट में कुछ चर के बीच सहसंबंध खोजने के लिए, आइए कुछ लाइन चार्ट्स का अन्वेषण करें।
+
+## लाइन चार्ट्स
+
+प्रश्न: क्या प्रति पाउंड शहद की कीमत में साल दर साल स्पष्ट वृद्धि है? आप इसे सबसे आसानी से एक सिंगल लाइन चार्ट बनाकर खोज सकते हैं:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+उत्तर: हां, कुछ अपवादों के साथ, विशेष रूप से 2003 के आसपास:
+
+
+
+प्रश्न: खैर, क्या 2003 में हम शहद की आपूर्ति में भी वृद्धि देख सकते हैं? यदि आप कुल उत्पादन को साल दर साल देखें तो क्या होता है?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+उत्तर: वास्तव में नहीं। यदि आप कुल उत्पादन को देखें, तो ऐसा लगता है कि यह विशेष वर्ष में बढ़ा है, हालांकि सामान्य रूप से इन वर्षों के दौरान शहद का उत्पादन घट रहा है।
+
+प्रश्न: उस स्थिति में, 2003 के आसपास शहद की कीमत में उस वृद्धि का कारण क्या हो सकता है?
+
+इसे खोजने के लिए, आप एक फेसट ग्रिड का अन्वेषण कर सकते हैं।
+
+## फेसट ग्रिड्स
+
+फेसट ग्रिड्स आपके डेटा सेट के एक पहलू (हमारे मामले में, आप 'वर्ष' चुन सकते हैं ताकि बहुत अधिक फेसट्स न बनें) को लेते हैं। Seaborn तब आपके चुने हुए x और y निर्देशांक के लिए प्रत्येक फेसट का एक प्लॉट बना सकता है, जिससे तुलना करना आसान हो जाता है। क्या 2003 इस प्रकार की तुलना में अलग दिखता है?
+
+[ggplot2 के दस्तावेज़](https://ggplot2.tidyverse.org/reference/facet_wrap.html) द्वारा अनुशंसित `facet_wrap` का उपयोग करके एक फेसट ग्रिड बनाएं।
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+इस विज़ुअलाइज़ेशन में, आप कॉलोनी की प्रति कॉलोनी उपज और कॉलोनियों की संख्या को साल दर साल, राज्य दर राज्य, 3 कॉलम के रैप के साथ साइड बाय साइड तुलना कर सकते हैं:
+
+
+
+इस डेटा सेट के लिए, कॉलोनियों की संख्या और उनकी उपज के संबंध में, साल दर साल और राज्य दर राज्य, कुछ भी विशेष रूप से अलग नहीं दिखता। क्या इन दो चर के बीच सहसंबंध खोजने का कोई और तरीका है?
+
+## डुअल-लाइन प्लॉट्स
+
+R के `par` और `plot` फ़ंक्शन का उपयोग करके दो लाइनप्लॉट्स को एक-दूसरे के ऊपर सुपरइम्पोज़ करके एक मल्टीलाइन प्लॉट आज़माएं। हम x अक्ष पर वर्ष और दो y अक्ष प्रदर्शित करेंगे। तो, कॉलोनी की प्रति कॉलोनी उपज और कॉलोनियों की संख्या को सुपरइम्पोज़ करें:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+हालांकि 2003 के आसपास कुछ भी आंखों को स्पष्ट रूप से नहीं दिखता, यह हमें इस पाठ को एक खुशहाल नोट पर समाप्त करने की अनुमति देता है: जबकि कॉलोनियों की संख्या में समग्र गिरावट हो रही है, कॉलोनियों की संख्या स्थिर हो रही है, भले ही उनकी प्रति कॉलोनी उपज घट रही हो।
+
+जाओ, मधुमक्खियां, जाओ!
+
+🐝❤️
+## 🚀 चुनौती
+
+इस पाठ में, आपने स्कैटरप्लॉट्स और लाइन ग्रिड्स के अन्य उपयोगों के बारे में थोड़ा और सीखा, जिसमें फेसट ग्रिड्स भी शामिल हैं। खुद को चुनौती दें कि आप एक अलग डेटा सेट का उपयोग करके एक फेसट ग्रिड बनाएं, शायद वह जिसे आपने इन पाठों से पहले उपयोग किया हो। ध्यान दें कि इन्हें बनाने में कितना समय लगता है और आपको इन तकनीकों का उपयोग करते समय कितने ग्रिड्स बनाने की आवश्यकता है, इस पर सावधान रहना चाहिए।
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## समीक्षा और स्व-अध्ययन
+
+लाइन प्लॉट्स सरल या काफी जटिल हो सकते हैं। [ggplot2 दस्तावेज़](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) में थोड़ा पढ़ें कि आप उन्हें बनाने के विभिन्न तरीकों पर। इस पाठ में आपने जो लाइन चार्ट्स बनाए हैं, उन्हें दस्तावेज़ में सूचीबद्ध अन्य तरीकों से बढ़ाने का प्रयास करें।
+## असाइनमेंट
+
+[मधुमक्खी के छत्ते में गोता लगाएं](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/hi/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..693b0181
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,180 @@
+
+# सार्थक विज़ुअलाइज़ेशन बनाना
+
+| द्वारा ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| सार्थक विज़ुअलाइज़ेशन - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+> "यदि आप डेटा को पर्याप्त रूप से प्रताड़ित करेंगे, तो यह कुछ भी स्वीकार कर लेगा" -- [रॉनाल्ड कोस](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+एक डेटा वैज्ञानिक की बुनियादी क्षमताओं में से एक है सार्थक डेटा विज़ुअलाइज़ेशन बनाना, जो आपके सवालों का जवाब देने में मदद करता है। डेटा को विज़ुअलाइज़ करने से पहले, आपको यह सुनिश्चित करना होगा कि आपने इसे साफ और तैयार कर लिया है, जैसा कि आपने पिछले पाठों में किया था। इसके बाद, आप यह तय करना शुरू कर सकते हैं कि डेटा को सबसे अच्छे तरीके से कैसे प्रस्तुत किया जाए।
+
+इस पाठ में, आप सीखेंगे:
+
+1. सही चार्ट प्रकार कैसे चुनें
+2. भ्रामक चार्टिंग से कैसे बचें
+3. रंगों के साथ कैसे काम करें
+4. अपने चार्ट को पठनीय बनाने के लिए कैसे स्टाइल करें
+5. एनिमेटेड या 3D चार्टिंग समाधान कैसे बनाएं
+6. एक रचनात्मक विज़ुअलाइज़ेशन कैसे बनाएं
+
+## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## सही चार्ट प्रकार चुनें
+
+पिछले पाठों में, आपने Matplotlib और Seaborn का उपयोग करके विभिन्न प्रकार के दिलचस्प डेटा विज़ुअलाइज़ेशन बनाने का अभ्यास किया। सामान्यतः, आप इस तालिका का उपयोग करके [सही प्रकार का चार्ट](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) चुन सकते हैं:
+
+| आपको यह करना है: | आपको यह उपयोग करना चाहिए: |
+| -------------------------- | ------------------------------- |
+| समय के साथ डेटा ट्रेंड दिखाएं | लाइन |
+| श्रेणियों की तुलना करें | बार, पाई |
+| कुल की तुलना करें | पाई, स्टैक्ड बार |
+| संबंध दिखाएं | स्कैटर, लाइन, फेसट, डुअल लाइन |
+| वितरण दिखाएं | स्कैटर, हिस्टोग्राम, बॉक्स |
+| अनुपात दिखाएं | पाई, डोनट, वाफल |
+
+> ✅ आपके डेटा की संरचना के आधार पर, आपको इसे टेक्स्ट से न्यूमेरिक में बदलने की आवश्यकता हो सकती है ताकि चार्ट इसे सपोर्ट कर सके।
+
+## भ्रामकता से बचें
+
+भले ही एक डेटा वैज्ञानिक सही डेटा के लिए सही चार्ट चुनने में सावधान हो, फिर भी डेटा को इस तरह से प्रदर्शित करने के कई तरीके हैं जो किसी बिंदु को साबित करने के लिए उपयोग किए जा सकते हैं, अक्सर डेटा की सच्चाई को कमजोर करते हुए। भ्रामक चार्ट और इन्फोग्राफिक्स के कई उदाहरण हैं!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "हाउ चार्ट्स लाई")
+
+> 🎥 ऊपर दी गई छवि पर क्लिक करें भ्रामक चार्ट्स पर एक सम्मेलन वार्ता के लिए
+
+यह चार्ट X अक्ष को उलट देता है ताकि तारीख के आधार पर सच्चाई के विपरीत दिखाया जा सके:
+
+
+
+[यह चार्ट](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) और भी भ्रामक है, क्योंकि आंखें दाईं ओर खिंचती हैं और यह निष्कर्ष निकालती हैं कि समय के साथ विभिन्न काउंटियों में COVID मामलों में गिरावट आई है। वास्तव में, यदि आप तारीखों को ध्यान से देखें, तो आप पाएंगे कि उन्हें इस भ्रामक गिरावट को दिखाने के लिए पुनर्व्यवस्थित किया गया है।
+
+
+
+यह कुख्यात उदाहरण रंग और एक उलटे Y अक्ष का उपयोग करके धोखा देता है: बंदूक-अनुकूल कानून पारित होने के बाद बंदूक से होने वाली मौतों में वृद्धि के बजाय, आंखें यह सोचने के लिए धोखा खा जाती हैं कि इसके विपरीत सच है:
+
+
+
+यह अजीब चार्ट दिखाता है कि अनुपात को कैसे हेरफेर किया जा सकता है, हास्यास्पद प्रभाव के लिए:
+
+
+
+अतुलनीय चीजों की तुलना करना एक और संदिग्ध चाल है। एक [शानदार वेबसाइट](https://tylervigen.com/spurious-correlations) है जो 'स्प्यूरियस कोरिलेशन्स' दिखाती है, जैसे कि मेन में तलाक की दर और मार्जरीन की खपत। एक Reddit समूह भी डेटा के [खराब उपयोग](https://www.reddit.com/r/dataisugly/top/?t=all) को एकत्र करता है।
+
+यह समझना महत्वपूर्ण है कि भ्रामक चार्ट्स द्वारा आंखों को कितनी आसानी से धोखा दिया जा सकता है। भले ही डेटा वैज्ञानिक का इरादा अच्छा हो, एक खराब प्रकार का चार्ट चुनना, जैसे कि बहुत अधिक श्रेणियों को दिखाने वाला पाई चार्ट, भ्रामक हो सकता है।
+
+## रंग
+
+आपने ऊपर 'फ्लोरिडा गन वायलेंस' चार्ट में देखा कि रंग चार्ट्स में एक अतिरिक्त परत का अर्थ प्रदान कर सकते हैं, खासकर जब ggplot2 और RColorBrewer जैसी लाइब्रेरीज़ का उपयोग नहीं किया गया हो, जो विभिन्न प्रमाणित रंग लाइब्रेरीज़ और पैलेट्स के साथ आती हैं। यदि आप मैन्युअल रूप से चार्ट बना रहे हैं, तो [रंग सिद्धांत](https://colormatters.com/color-and-design/basic-color-theory) का थोड़ा अध्ययन करें।
+
+> ✅ चार्ट डिज़ाइन करते समय, यह ध्यान रखें कि एक्सेसिबिलिटी विज़ुअलाइज़ेशन का एक महत्वपूर्ण पहलू है। आपके कुछ उपयोगकर्ता रंग-अंधता से पीड़ित हो सकते हैं - क्या आपका चार्ट दृष्टिहीन उपयोगकर्ताओं के लिए भी अच्छा दिखता है?
+
+अपने चार्ट के लिए रंग चुनते समय सावधान रहें, क्योंकि रंग वह अर्थ प्रदान कर सकते हैं जो आप नहीं देना चाहते। ऊपर 'हाइट' चार्ट में 'पिंक लेडीज़' एक विशिष्ट 'स्त्रीलिंग' अर्थ प्रदान करती हैं, जो चार्ट की विचित्रता को और बढ़ा देती है।
+
+हालांकि [रंग का अर्थ](https://colormatters.com/color-symbolism/the-meanings-of-colors) दुनिया के विभिन्न हिस्सों में अलग हो सकता है और उनके शेड के अनुसार बदल सकता है। सामान्यतः, रंग के अर्थ इस प्रकार हैं:
+
+| रंग | अर्थ |
+| ------ | --------------------- |
+| लाल | शक्ति |
+| नीला | विश्वास, निष्ठा |
+| पीला | खुशी, सतर्कता |
+| हरा | पर्यावरण, भाग्य, ईर्ष्या |
+| बैंगनी | खुशी |
+| नारंगी | जीवंतता |
+
+यदि आपको कस्टम रंगों के साथ चार्ट बनाने का काम सौंपा गया है, तो सुनिश्चित करें कि आपके चार्ट न केवल एक्सेसिबल हैं, बल्कि आपके द्वारा चुने गए रंग उस अर्थ के साथ मेल खाते हैं जिसे आप व्यक्त करना चाहते हैं।
+
+## पठनीयता के लिए अपने चार्ट को स्टाइल करें
+
+चार्ट तब तक सार्थक नहीं होते जब तक वे पठनीय न हों! अपने चार्ट की चौड़ाई और ऊंचाई को अपने डेटा के साथ अच्छी तरह से स्केल करने के लिए स्टाइल करने पर विचार करें। यदि एक वेरिएबल (जैसे सभी 50 राज्य) प्रदर्शित करने की आवश्यकता है, तो उन्हें Y अक्ष पर वर्टिकली दिखाएं ताकि क्षैतिज-स्क्रॉलिंग चार्ट से बचा जा सके।
+
+अपने अक्षों को लेबल करें, यदि आवश्यक हो तो एक लेजेंड प्रदान करें, और डेटा की बेहतर समझ के लिए टूलटिप्स ऑफर करें।
+
+यदि आपका डेटा X अक्ष पर टेक्स्टुअल और वर्बोज़ है, तो बेहतर पठनीयता के लिए टेक्स्ट को एंगल करें। [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) 3D प्लॉटिंग प्रदान करता है, यदि आपका डेटा इसे सपोर्ट करता है। इसका उपयोग करके परिष्कृत डेटा विज़ुअलाइज़ेशन बनाए जा सकते हैं।
+
+
+
+## एनिमेशन और 3D चार्ट डिस्प्ले
+
+आज के कुछ बेहतरीन डेटा विज़ुअलाइज़ेशन एनिमेटेड हैं। Shirley Wu ने D3 के साथ अद्भुत विज़ुअलाइज़ेशन बनाए हैं, जैसे '[फिल्म फ्लावर्स](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', जहां प्रत्येक फूल एक फिल्म का विज़ुअलाइज़ेशन है। Guardian के लिए एक और उदाहरण है 'बस्ट आउट', जो NYC के बेघर लोगों को शहर से बाहर भेजने की समस्या को दिखाने के लिए विज़ुअलाइज़ेशन, Greensock और D3 के साथ एक स्क्रॉलीटेलिंग आर्टिकल फॉर्मेट को जोड़ता है।
+
+
+
+> "बस्ट आउट: अमेरिका अपने बेघर लोगों को कैसे स्थानांतरित करता है" [द गार्जियन](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study) से। विज़ुअलाइज़ेशन Nadieh Bremer और Shirley Wu द्वारा।
+
+हालांकि यह पाठ इन शक्तिशाली विज़ुअलाइज़ेशन लाइब्रेरीज़ को गहराई से सिखाने के लिए पर्याप्त नहीं है, D3 का उपयोग करके Vue.js ऐप में एक विज़ुअलाइज़ेशन बनाने का प्रयास करें। उदाहरण के लिए, "डेंजरस लायज़न्स" पुस्तक को एक एनिमेटेड सोशल नेटवर्क के रूप में प्रदर्शित करें।
+
+> "लेस लायज़न्स डेंजरस" एक पत्र-रूपक उपन्यास है, जिसे 1782 में Choderlos de Laclos द्वारा लिखा गया था। यह 18वीं सदी के फ्रांसीसी अभिजात वर्ग के दो नायक, Vicomte de Valmont और Marquise de Merteuil की कहानी बताता है। दोनों अंत में अपने पतन को प्राप्त करते हैं लेकिन इससे पहले बहुत सामाजिक नुकसान पहुंचाते हैं। उपन्यास पत्रों की एक श्रृंखला के रूप में सामने आता है, जो उनके सर्कल के विभिन्न लोगों को लिखे गए हैं। इन पत्रों का विज़ुअलाइज़ेशन बनाएं ताकि कथा के प्रमुख पात्रों को विज़ुअली खोजा जा सके।
+
+आप एक वेब ऐप पूरा करेंगे जो इस सोशल नेटवर्क का एनिमेटेड दृश्य प्रदर्शित करेगा। यह एक लाइब्रेरी का उपयोग करता है जिसे Vue.js और D3 का उपयोग करके [नेटवर्क का विज़ुअल](https://github.com/emiliorizzo/vue-d3-network) बनाने के लिए डिज़ाइन किया गया है। जब ऐप चल रहा हो, तो आप स्क्रीन पर नोड्स को खींच सकते हैं और डेटा को इधर-उधर कर सकते हैं।
+
+
+
+## प्रोजेक्ट: D3.js का उपयोग करके नेटवर्क दिखाने के लिए एक चार्ट बनाएं
+
+> इस पाठ फ़ोल्डर में एक `solution` फ़ोल्डर शामिल है, जहां आप संदर्भ के लिए पूरा प्रोजेक्ट पा सकते हैं।
+
+1. स्टार्ट फ़ोल्डर की रूट में README.md फ़ाइल में दिए गए निर्देशों का पालन करें। सुनिश्चित करें कि आपके कंप्यूटर पर NPM और Node.js चल रहे हैं, इससे पहले कि आप अपने प्रोजेक्ट की डिपेंडेंसीज़ इंस्टॉल करें।
+
+2. `starter/src` फ़ोल्डर खोलें। आपको एक `assets` फ़ोल्डर मिलेगा, जहां एक .json फ़ाइल है जिसमें सभी पत्र, 'to' और 'from' एनोटेशन के साथ क्रमांकित हैं।
+
+3. `components/Nodes.vue` में कोड पूरा करें ताकि विज़ुअलाइज़ेशन सक्षम हो सके। `createLinks()` नामक विधि देखें और निम्नलिखित नेस्टेड लूप जोड़ें।
+
+.json ऑब्जेक्ट के माध्यम से लूप करें ताकि पत्रों के 'to' और 'from' डेटा को कैप्चर किया जा सके और `links` ऑब्जेक्ट को बनाया जा सके ताकि विज़ुअलाइज़ेशन लाइब्रेरी इसे कंज्यूम कर सके:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+अपने ऐप को टर्मिनल से चलाएं (npm run serve) और विज़ुअलाइज़ेशन का आनंद लें!
+
+## 🚀 चुनौती
+
+इंटरनेट पर भ्रमित करने वाले विज़ुअलाइज़ेशन खोजें। लेखक उपयोगकर्ता को कैसे धोखा देता है, और क्या यह जानबूझकर किया गया है? विज़ुअलाइज़ेशन को सही करने का प्रयास करें ताकि वे सही दिखें।
+
+## [पाठ-उपरांत क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## समीक्षा और स्व-अध्ययन
+
+भ्रामक डेटा विज़ुअलाइज़ेशन के बारे में पढ़ने के लिए यहां कुछ लेख हैं:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+ऐतिहासिक संपत्तियों और कलाकृतियों के लिए इन दिलचस्प विज़ुअलाइज़ेशन को देखें:
+
+https://handbook.pubpub.org/
+
+यह लेख पढ़ें कि एनिमेशन आपके विज़ुअलाइज़ेशन को कैसे बढ़ा सकता है:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## असाइनमेंट
+
+[अपना खुद का कस्टम विज़ुअलाइज़ेशन बनाएं](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/3-Data-Visualization/README.md b/translations/hi/3-Data-Visualization/README.md
new file mode 100644
index 00000000..62c44ca3
--- /dev/null
+++ b/translations/hi/3-Data-Visualization/README.md
@@ -0,0 +1,40 @@
+
+# विज़ुअलाइज़ेशन
+
+
+> फोटो जेना ली द्वारा अनस्प्लैश पर
+
+डेटा को विज़ुअलाइज़ करना एक डेटा वैज्ञानिक के सबसे महत्वपूर्ण कार्यों में से एक है। एक तस्वीर 1000 शब्दों के बराबर होती है, और एक विज़ुअलाइज़ेशन आपको आपके डेटा के विभिन्न रोचक पहलुओं जैसे स्पाइक्स, आउटलायर्स, समूह, प्रवृत्तियों और अन्य चीजों को पहचानने में मदद कर सकता है, जो आपके डेटा की कहानी को समझने में सहायता करता है।
+
+इन पाँच पाठों में, आप प्रकृति से प्राप्त डेटा का अन्वेषण करेंगे और विभिन्न तकनीकों का उपयोग करके रोचक और सुंदर विज़ुअलाइज़ेशन बनाएंगे।
+
+| विषय संख्या | विषय | लिंक किया गया पाठ | लेखक |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | मात्राओं का विज़ुअलाइज़ेशन | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [जेन लूपर](https://twitter.com/jenlooper)
- [विदुषी गुप्ता](https://github.com/Vidushi-Gupta)
- [जसलीन सोनधी](https://github.com/jasleen101010)
|
+| 2. | वितरण का विज़ुअलाइज़ेशन | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [जेन लूपर](https://twitter.com/jenlooper)
- [विदुषी गुप्ता](https://github.com/Vidushi-Gupta)
- [जसलीन सोनधी](https://github.com/jasleen101010)
|
+| 3. | अनुपात का विज़ुअलाइज़ेशन | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [जेन लूपर](https://twitter.com/jenlooper)
- [विदुषी गुप्ता](https://github.com/Vidushi-Gupta)
- [जसलीन सोनधी](https://github.com/jasleen101010)
|
+| 4. | संबंधों का विज़ुअलाइज़ेशन | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [जेन लूपर](https://twitter.com/jenlooper)
- [विदुषी गुप्ता](https://github.com/Vidushi-Gupta)
- [जसलीन सोनधी](https://github.com/jasleen101010)
|
+| 5. | सार्थक विज़ुअलाइज़ेशन बनाना | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [जेन लूपर](https://twitter.com/jenlooper)
- [विदुषी गुप्ता](https://github.com/Vidushi-Gupta)
- [जसलीन सोनधी](https://github.com/jasleen101010)
|
+
+### क्रेडिट्स
+
+ये विज़ुअलाइज़ेशन पाठ 🌸 के साथ [जेन लूपर](https://twitter.com/jenlooper), [जसलीन सोनधी](https://github.com/jasleen101010) और [विदुषी गुप्ता](https://github.com/Vidushi-Gupta) द्वारा लिखे गए हैं।
+
+🍯 यूएस हनी प्रोडक्शन के डेटा को [जेसिका ली](https://www.kaggle.com/jessicali9530/honey-production) के प्रोजेक्ट से लिया गया है। यह [डेटा](https://usda.library.cornell.edu/concern/publications/rn301137d) [संयुक्त राज्य कृषि विभाग](https://www.nass.usda.gov/About_NASS/index.php) से प्राप्त किया गया है।
+
+🍄 मशरूम के डेटा को [हैटरस डनटन](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) द्वारा संशोधित [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) से लिया गया है। इस डेटासेट में 23 प्रजातियों के गिल्ड मशरूम के काल्पनिक नमूनों का विवरण शामिल है, जो Agaricus और Lepiota परिवार से संबंधित हैं। मशरूम का विवरण "द ऑडबन सोसाइटी फील्ड गाइड टू नॉर्थ अमेरिकन मशरूम्स" (1981) से लिया गया है। यह डेटासेट 1987 में UCI ML 27 को दान किया गया था।
+
+🦆 मिनेसोटा पक्षियों का डेटा [हन्ना कॉलिन्स](https://www.kaggle.com/hannahcollins/minnesota-birds) द्वारा [विकिपीडिया](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) से स्क्रैप किया गया है।
+
+सभी डेटासेट [CC0: क्रिएटिव कॉमन्स](https://creativecommons.org/publicdomain/zero/1.0/) के तहत लाइसेंस प्राप्त हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/hi/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..4c5d1ba0
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,117 @@
+
+# डेटा साइंस जीवनचक्र का परिचय
+
+| द्वारा ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| डेटा साइंस जीवनचक्र का परिचय - _स्केच नोट [@nitya](https://twitter.com/nitya) द्वारा_ |
+
+## [प्री-लेक्चर क्विज़](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+इस बिंदु पर, आपने शायद यह महसूस कर लिया होगा कि डेटा साइंस एक प्रक्रिया है। इस प्रक्रिया को 5 चरणों में विभाजित किया जा सकता है:
+
+- डेटा संग्रहण
+- प्रोसेसिंग
+- विश्लेषण
+- संवाद
+- रखरखाव
+
+यह पाठ जीवनचक्र के 3 भागों पर केंद्रित है: डेटा संग्रहण, प्रोसेसिंग और रखरखाव।
+
+
+> फोटो [बर्कले स्कूल ऑफ इंफॉर्मेशन](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/) द्वारा
+
+## डेटा संग्रहण
+
+जीवनचक्र का पहला चरण बहुत महत्वपूर्ण है क्योंकि इसके बाद के चरण इसी पर निर्भर करते हैं। यह वास्तव में दो चरणों का संयोजन है: डेटा प्राप्त करना और उस उद्देश्य और समस्याओं को परिभाषित करना जिन्हें हल करने की आवश्यकता है।
+परियोजना के लक्ष्यों को परिभाषित करने के लिए समस्या या प्रश्न की गहरी समझ की आवश्यकता होगी। सबसे पहले, हमें उन लोगों की पहचान और डेटा प्राप्त करना होगा जिनकी समस्या को हल करने की आवश्यकता है। ये व्यवसाय में हितधारक या परियोजना के प्रायोजक हो सकते हैं, जो यह पहचानने में मदद कर सकते हैं कि इस परियोजना से कौन या क्या लाभान्वित होगा और क्यों। एक अच्छी तरह से परिभाषित लक्ष्य मापने योग्य और परिमाणात्मक होना चाहिए ताकि एक स्वीकार्य परिणाम को परिभाषित किया जा सके।
+
+डेटा वैज्ञानिक द्वारा पूछे जा सकने वाले प्रश्न:
+- क्या इस समस्या को पहले भी हल करने का प्रयास किया गया है? क्या खोजा गया?
+- क्या उद्देश्य और लक्ष्य सभी संबंधित पक्षों द्वारा समझे गए हैं?
+- क्या कोई अस्पष्टता है और इसे कैसे कम किया जा सकता है?
+- क्या बाधाएं हैं?
+- अंतिम परिणाम संभावित रूप से कैसा दिखेगा?
+- कितने संसाधन (समय, लोग, कंप्यूटेशनल) उपलब्ध हैं?
+
+इसके बाद, उन डेटा की पहचान करना, उन्हें एकत्र करना और फिर उन पर शोध करना आवश्यक है जो इन परिभाषित लक्ष्यों को प्राप्त करने के लिए आवश्यक हैं। इस अधिग्रहण चरण में, डेटा वैज्ञानिकों को डेटा की मात्रा और गुणवत्ता का भी मूल्यांकन करना चाहिए। यह पुष्टि करने के लिए कुछ डेटा अन्वेषण की आवश्यकता होती है कि जो डेटा प्राप्त किया गया है वह वांछित परिणाम प्राप्त करने में सहायक होगा।
+
+डेटा वैज्ञानिक द्वारा डेटा के बारे में पूछे जा सकने वाले प्रश्न:
+- मेरे पास पहले से कौन सा डेटा उपलब्ध है?
+- इस डेटा का मालिक कौन है?
+- गोपनीयता से संबंधित क्या चिंताएं हैं?
+- क्या इस समस्या को हल करने के लिए मेरे पास पर्याप्त डेटा है?
+- क्या यह डेटा इस समस्या के लिए स्वीकार्य गुणवत्ता का है?
+- यदि इस डेटा के माध्यम से अतिरिक्त जानकारी प्राप्त होती है, तो क्या हमें लक्ष्यों को बदलने या पुनः परिभाषित करने पर विचार करना चाहिए?
+
+## प्रोसेसिंग
+
+जीवनचक्र का प्रोसेसिंग चरण डेटा में पैटर्न खोजने और मॉडलिंग पर केंद्रित है। प्रोसेसिंग चरण में उपयोग की जाने वाली कुछ तकनीकों में सांख्यिकीय विधियों की आवश्यकता होती है ताकि पैटर्न का पता लगाया जा सके। आमतौर पर, यह एक बड़े डेटा सेट के साथ मानव के लिए एक थकाऊ कार्य होगा और प्रक्रिया को तेज करने के लिए कंप्यूटर पर निर्भर करेगा। यह चरण वह भी है जहां डेटा साइंस और मशीन लर्निंग का मिलन होता है। जैसा कि आपने पहले पाठ में सीखा, मशीन लर्निंग डेटा को समझने के लिए मॉडल बनाने की प्रक्रिया है। मॉडल डेटा में चर के बीच संबंधों का प्रतिनिधित्व करते हैं जो परिणामों की भविष्यवाणी करने में मदद करते हैं।
+
+इस चरण में उपयोग की जाने वाली सामान्य तकनीकें ML for Beginners पाठ्यक्रम में शामिल हैं। इनके बारे में अधिक जानने के लिए लिंक का अनुसरण करें:
+
+- [वर्गीकरण (Classification)](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): डेटा को श्रेणियों में व्यवस्थित करना ताकि इसका अधिक कुशलता से उपयोग किया जा सके।
+- [क्लस्टरिंग (Clustering)](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): डेटा को समान समूहों में विभाजित करना।
+- [रिग्रेशन (Regression)](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): चर के बीच संबंधों को निर्धारित करना ताकि मूल्यों की भविष्यवाणी या पूर्वानुमान लगाया जा सके।
+
+## रखरखाव
+जीवनचक्र के आरेख में, आपने देखा होगा कि रखरखाव डेटा संग्रहण और प्रोसेसिंग के बीच स्थित है। रखरखाव एक परियोजना की प्रक्रिया के दौरान डेटा का प्रबंधन, भंडारण और सुरक्षा करने की एक सतत प्रक्रिया है और इसे परियोजना की पूरी अवधि के दौरान ध्यान में रखा जाना चाहिए।
+
+### डेटा का भंडारण
+डेटा को कैसे और कहां संग्रहीत किया जाए, इस पर विचार करना इसके भंडारण की लागत और डेटा तक पहुंचने की गति को प्रभावित कर सकता है। इस प्रकार के निर्णय केवल डेटा वैज्ञानिक द्वारा नहीं किए जाते हैं, लेकिन वे डेटा के साथ काम करने के तरीके पर निर्णय ले सकते हैं, यह इस बात पर निर्भर करता है कि डेटा कैसे संग्रहीत किया गया है।
+
+आधुनिक डेटा भंडारण प्रणालियों के कुछ पहलू जो इन विकल्पों को प्रभावित कर सकते हैं:
+
+**ऑन-प्रिमाइसेस बनाम ऑफ-प्रिमाइसेस बनाम सार्वजनिक या निजी क्लाउड**
+
+ऑन-प्रिमाइसेस का मतलब है कि डेटा को अपनी खुद की उपकरणों पर होस्ट और प्रबंधित करना, जैसे कि अपने सर्वर पर डेटा संग्रहीत करना, जबकि ऑफ-प्रिमाइसेस का मतलब है कि आप उन उपकरणों पर निर्भर हैं जो आपके स्वामित्व में नहीं हैं, जैसे कि डेटा सेंटर। सार्वजनिक क्लाउड डेटा संग्रहीत करने के लिए एक लोकप्रिय विकल्प है, जिसमें यह जानने की आवश्यकता नहीं होती कि डेटा कैसे या कहां संग्रहीत किया गया है। सार्वजनिक क्लाउड का मतलब है कि सभी उपयोगकर्ताओं के लिए एक साझा बुनियादी ढांचा होता है। कुछ संगठनों की सख्त सुरक्षा नीतियां होती हैं, जो उन्हें उस उपकरण तक पूरी पहुंच की आवश्यकता होती है जहां डेटा होस्ट किया गया है, और वे अपने स्वयं के क्लाउड सेवाओं के साथ एक निजी क्लाउड पर निर्भर करते हैं। आप क्लाउड में डेटा के बारे में [आगे के पाठों](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud) में और जानेंगे।
+
+**कोल्ड बनाम हॉट डेटा**
+
+जब आप अपने मॉडल को प्रशिक्षित कर रहे होते हैं, तो आपको अधिक प्रशिक्षण डेटा की आवश्यकता हो सकती है। यदि आप अपने मॉडल से संतुष्ट हैं, तो मॉडल को उसके उद्देश्य की पूर्ति के लिए अधिक डेटा की आवश्यकता होगी। किसी भी स्थिति में, जैसे-जैसे आप अधिक डेटा एकत्र करते हैं, डेटा को संग्रहीत और एक्सेस करने की लागत बढ़ेगी। शायद ही कभी उपयोग किए जाने वाले डेटा, जिसे कोल्ड डेटा कहा जाता है, को अक्सर एक्सेस किए जाने वाले हॉट डेटा से अलग करना हार्डवेयर या सॉफ़्टवेयर सेवाओं के माध्यम से एक सस्ता डेटा भंडारण विकल्प हो सकता है। यदि कोल्ड डेटा को एक्सेस करने की आवश्यकता होती है, तो इसे हॉट डेटा की तुलना में पुनः प्राप्त करने में थोड़ा अधिक समय लग सकता है।
+
+### डेटा का प्रबंधन
+जैसे-जैसे आप डेटा के साथ काम करते हैं, आप पा सकते हैं कि कुछ डेटा को साफ करने की आवश्यकता है, जैसा कि [डेटा तैयारी](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) पर केंद्रित पाठ में शामिल तकनीकों का उपयोग करके किया गया है, ताकि सटीक मॉडल बनाए जा सकें। जब नया डेटा आता है, तो गुणवत्ता में स्थिरता बनाए रखने के लिए इसे समान अनुप्रयोगों की आवश्यकता होगी। कुछ परियोजनाओं में डेटा को उसके अंतिम स्थान पर ले जाने से पहले स्वचालित उपकरणों का उपयोग करके इसे साफ करने, एकत्र करने और संपीड़ित करने की प्रक्रिया शामिल होगी। Azure Data Factory ऐसे उपकरणों का एक उदाहरण है।
+
+### डेटा की सुरक्षा
+डेटा को सुरक्षित रखने का मुख्य उद्देश्य यह सुनिश्चित करना है कि जो लोग इसके साथ काम कर रहे हैं, वे इस पर नियंत्रण रखें कि क्या एकत्र किया जा रहा है और इसे किस संदर्भ में उपयोग किया जा रहा है। डेटा को सुरक्षित रखना इसमें शामिल है कि केवल उन्हीं को डेटा तक पहुंचने की अनुमति दी जाए जिन्हें इसकी आवश्यकता है, स्थानीय कानूनों और विनियमों का पालन किया जाए, और नैतिक मानकों को बनाए रखा जाए, जैसा कि [नैतिकता पाठ](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics) में शामिल किया गया है।
+
+टीम सुरक्षा को ध्यान में रखते हुए निम्नलिखित कार्य कर सकती है:
+- सुनिश्चित करें कि सभी डेटा एन्क्रिप्टेड हैं
+- ग्राहकों को यह जानकारी दें कि उनके डेटा का उपयोग कैसे किया जा रहा है
+- परियोजना छोड़ने वाले लोगों से डेटा तक पहुंच हटा दें
+- केवल कुछ परियोजना सदस्यों को डेटा को बदलने की अनुमति दें
+
+## 🚀 चुनौती
+
+डेटा साइंस जीवनचक्र के कई संस्करण हैं, जहां प्रत्येक चरण के अलग-अलग नाम और चरणों की संख्या हो सकती है, लेकिन इस पाठ में उल्लिखित प्रक्रियाएं समान होती हैं।
+
+[टीम डेटा साइंस प्रक्रिया जीवनचक्र](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) और [क्रॉस-इंडस्ट्री स्टैंडर्ड प्रोसेस फॉर डेटा माइनिंग](https://www.datascience-pm.com/crisp-dm-2/) का अन्वेषण करें। इन दोनों में 3 समानताएं और 3 अंतर बताएं।
+
+|टीम डेटा साइंस प्रक्रिया (TDSP)|क्रॉस-इंडस्ट्री स्टैंडर्ड प्रोसेस फॉर डेटा माइनिंग (CRISP-DM)|
+|--|--|
+| |  |
+| छवि [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) द्वारा | छवि [डेटा साइंस प्रक्रिया एलायंस](https://www.datascience-pm.com/crisp-dm-2/) द्वारा |
+
+## [पोस्ट-लेक्चर क्विज़](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## समीक्षा और स्व-अध्ययन
+
+डेटा साइंस जीवनचक्र को लागू करने में कई भूमिकाएं और कार्य शामिल होते हैं, जहां कुछ प्रत्येक चरण के विशेष भागों पर ध्यान केंद्रित कर सकते हैं। टीम डेटा साइंस प्रक्रिया कुछ संसाधन प्रदान करती है जो बताते हैं कि किसी परियोजना में किसी की भूमिकाएं और कार्य क्या हो सकते हैं।
+
+* [टीम डेटा साइंस प्रक्रिया की भूमिकाएं और कार्य](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [डेटा साइंस कार्यों को निष्पादित करें: अन्वेषण, मॉडलिंग, और परिनियोजन](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## असाइनमेंट
+
+[डेटासेट का मूल्यांकन](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/hi/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..e950a631
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,35 @@
+
+# डेटासेट का मूल्यांकन
+
+एक क्लाइंट ने आपकी टीम से न्यूयॉर्क सिटी में टैक्सी ग्राहकों की मौसमी खर्च करने की आदतों की जांच में मदद मांगी है।
+
+वे जानना चाहते हैं: **क्या न्यूयॉर्क सिटी में येलो टैक्सी के यात्री सर्दियों में ड्राइवरों को गर्मियों की तुलना में अधिक टिप देते हैं?**
+
+आपकी टीम डेटा साइंस जीवनचक्र के [Capturing](Readme.md#Capturing) चरण में है और आप डेटासेट को संभालने के प्रभारी हैं। आपको एक नोटबुक और [डेटा](../../../../data/taxi.csv) दिया गया है जिसे आपको एक्सप्लोर करना है।
+
+इस डायरेक्टरी में एक [नोटबुक](../../../../4-Data-Science-Lifecycle/14-Introduction/notebook.ipynb) है जो [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) से येलो टैक्सी ट्रिप डेटा को लोड करने के लिए Python का उपयोग करती है।
+आप टैक्सी डेटा फाइल को टेक्स्ट एडिटर या Excel जैसे स्प्रेडशीट सॉफ़्टवेयर में भी खोल सकते हैं।
+
+## निर्देश
+
+- मूल्यांकन करें कि क्या इस डेटासेट में मौजूद डेटा इस सवाल का उत्तर देने में मदद कर सकता है।
+- [NYC Open Data catalog](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93) का अन्वेषण करें। एक अतिरिक्त डेटासेट की पहचान करें जो क्लाइंट के सवाल का उत्तर देने में सहायक हो सकता है।
+- क्लाइंट से अधिक स्पष्टता और समस्या को बेहतर समझने के लिए 3 सवाल लिखें।
+
+डेटा के बारे में अधिक जानकारी के लिए [डेटासेट की डिक्शनरी](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) और [यूजर गाइड](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) का संदर्भ लें।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | ---
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/hi/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..c568ede1
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,59 @@
+
+# डेटा साइंस जीवनचक्र: विश्लेषण
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| डेटा साइंस जीवनचक्र: विश्लेषण - _स्केच नोट [@nitya](https://twitter.com/nitya) द्वारा_ |
+
+## प्री-लेक्चर क्विज़
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+डेटा जीवनचक्र में विश्लेषण यह सुनिश्चित करता है कि डेटा उन सवालों का उत्तर दे सकता है जो प्रस्तावित किए गए हैं या किसी विशेष समस्या को हल कर सकता है। यह चरण यह भी सुनिश्चित करने पर केंद्रित हो सकता है कि कोई मॉडल इन सवालों और समस्याओं को सही तरीके से संबोधित कर रहा है। यह पाठ मुख्य रूप से एक्सप्लोरेटरी डेटा एनालिसिस (EDA) पर केंद्रित है, जो डेटा के भीतर विशेषताओं और संबंधों को परिभाषित करने की तकनीकें हैं और मॉडलिंग के लिए डेटा तैयार करने में उपयोगी हो सकती हैं।
+
+हम [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) से एक उदाहरण डेटासेट का उपयोग करेंगे यह दिखाने के लिए कि इसे Python और Pandas लाइब्रेरी के साथ कैसे लागू किया जा सकता है। यह डेटासेट ईमेल में पाए जाने वाले कुछ सामान्य शब्दों की गिनती को शामिल करता है, और इन ईमेल के स्रोत गुमनाम हैं। इस निर्देशिका में [notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) का उपयोग करके साथ चलें।
+
+## एक्सप्लोरेटरी डेटा एनालिसिस
+
+जीवनचक्र का कैप्चर चरण वह है जहां डेटा प्राप्त किया जाता है और समस्याओं और सवालों को परिभाषित किया जाता है, लेकिन हम कैसे जानें कि डेटा अंतिम परिणाम का समर्थन कर सकता है?
+याद करें कि एक डेटा वैज्ञानिक डेटा प्राप्त करते समय निम्नलिखित सवाल पूछ सकता है:
+- क्या मेरे पास इस समस्या को हल करने के लिए पर्याप्त डेटा है?
+- क्या यह डेटा इस समस्या के लिए स्वीकार्य गुणवत्ता का है?
+- यदि मैं इस डेटा के माध्यम से अतिरिक्त जानकारी खोजता हूं, तो क्या हमें लक्ष्यों को बदलने या पुनः परिभाषित करने पर विचार करना चाहिए?
+
+एक्सप्लोरेटरी डेटा एनालिसिस डेटा को समझने की प्रक्रिया है और इन सवालों का उत्तर देने के लिए उपयोग किया जा सकता है, साथ ही डेटासेट के साथ काम करने की चुनौतियों की पहचान करने के लिए भी। आइए इस लक्ष्य को प्राप्त करने के लिए उपयोग की जाने वाली कुछ तकनीकों पर ध्यान दें।
+
+## डेटा प्रोफाइलिंग, वर्णनात्मक सांख्यिकी, और Pandas
+हम कैसे मूल्यांकन करें कि हमारे पास इस समस्या को हल करने के लिए पर्याप्त डेटा है? डेटा प्रोफाइलिंग हमारे डेटासेट के बारे में सामान्य जानकारी को संक्षेप में प्रस्तुत कर सकता है और वर्णनात्मक सांख्यिकी की तकनीकों के माध्यम से इसे एकत्र कर सकता है। डेटा प्रोफाइलिंग हमें यह समझने में मदद करता है कि हमारे पास क्या उपलब्ध है, और वर्णनात्मक सांख्यिकी हमें यह समझने में मदद करता है कि हमारे पास कितनी चीजें उपलब्ध हैं।
+
+पिछले कुछ पाठों में, हमने Pandas का उपयोग करके [`describe()` function](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html) के साथ कुछ वर्णनात्मक सांख्यिकी प्रदान की हैं। यह गिनती, अधिकतम और न्यूनतम मान, औसत, मानक विचलन और संख्यात्मक डेटा पर क्वांटाइल्स प्रदान करता है। `describe()` जैसे वर्णनात्मक सांख्यिकी का उपयोग करके आप यह आकलन कर सकते हैं कि आपके पास कितना डेटा है और क्या आपको और अधिक की आवश्यकता है।
+
+## सैंपलिंग और क्वेरी करना
+एक बड़े डेटासेट में सब कुछ खोजना बहुत समय लेने वाला हो सकता है और यह आमतौर पर कंप्यूटर पर छोड़ दिया जाता है। हालांकि, सैंपलिंग डेटा को समझने का एक उपयोगी उपकरण है और यह हमें यह समझने में मदद करता है कि डेटासेट में क्या है और यह क्या दर्शाता है। एक सैंपल के साथ, आप अपने डेटा के बारे में सामान्य निष्कर्ष पर पहुंचने के लिए संभावना और सांख्यिकी लागू कर सकते हैं। हालांकि इस बात का कोई परिभाषित नियम नहीं है कि आपको कितना डेटा सैंपल करना चाहिए, यह ध्यान रखना महत्वपूर्ण है कि जितना अधिक डेटा आप सैंपल करेंगे, उतना ही सटीक सामान्यीकरण आप डेटा के बारे में कर सकते हैं।
+Pandas में [`sample()` function](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) है, जहां आप यह तर्क दे सकते हैं कि आप कितने रैंडम सैंपल प्राप्त करना और उपयोग करना चाहते हैं।
+
+डेटा की सामान्य क्वेरी करना आपके कुछ सामान्य सवालों और सिद्धांतों का उत्तर देने में मदद कर सकता है। सैंपलिंग के विपरीत, क्वेरी आपको नियंत्रण और डेटा के विशिष्ट भागों पर ध्यान केंद्रित करने की अनुमति देती है जिनके बारे में आपके पास सवाल हैं।
+Pandas लाइब्रेरी में [`query()` function](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) आपको कॉलम का चयन करने और पंक्तियों के माध्यम से डेटा के बारे में सरल उत्तर प्राप्त करने की अनुमति देता है।
+
+## विज़ुअलाइज़ेशन के साथ एक्सप्लोर करना
+आपको डेटा को पूरी तरह से साफ और विश्लेषण करने तक इंतजार करने की आवश्यकता नहीं है कि आप विज़ुअलाइज़ेशन बनाना शुरू करें। वास्तव में, एक्सप्लोर करते समय एक दृश्य प्रतिनिधित्व होना पैटर्न, संबंधों और डेटा में समस्याओं की पहचान करने में मदद कर सकता है। इसके अलावा, विज़ुअलाइज़ेशन उन लोगों के साथ संवाद करने का एक साधन प्रदान करते हैं जो डेटा प्रबंधन में शामिल नहीं हैं और यह एक अवसर हो सकता है उन अतिरिक्त सवालों को साझा करने और स्पष्ट करने का जो कैप्चर चरण में संबोधित नहीं किए गए थे। विज़ुअलाइज़ेशन के कुछ लोकप्रिय तरीकों के बारे में अधिक जानने के लिए [विज़ुअलाइज़ेशन अनुभाग](../../../../../../../../../3-Data-Visualization) देखें।
+
+## असंगतियों की पहचान के लिए एक्सप्लोर करना
+इस पाठ के सभी विषय गायब या असंगत मानों की पहचान करने में मदद कर सकते हैं, लेकिन Pandas कुछ ऐसे मानों की जांच करने के लिए फ़ंक्शन प्रदान करता है। [isna() या isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) गायब मानों की जांच कर सकते हैं। आपके डेटा के भीतर इन मानों की खोज का एक महत्वपूर्ण हिस्सा यह पता लगाना है कि वे पहली बार में इस तरह क्यों समाप्त हुए। यह आपको यह तय करने में मदद कर सकता है कि उन्हें हल करने के लिए [क्या कार्रवाई करनी है](../../../../../../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb)।
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## असाइनमेंट
+
+[उत्तर खोजने के लिए एक्सप्लोर करना](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/hi/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..4dd24112
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,34 @@
+
+# उत्तरों की खोज
+
+यह पिछले पाठ के [असाइनमेंट](../14-Introduction/assignment.md) का विस्तार है, जहां हमने डेटा सेट पर एक संक्षिप्त नज़र डाली थी। अब हम डेटा को और गहराई से समझने की कोशिश करेंगे।
+
+फिर से, वह प्रश्न जो क्लाइंट जानना चाहता है: **क्या न्यूयॉर्क सिटी में येलो टैक्सी के यात्री सर्दियों में या गर्मियों में ड्राइवरों को अधिक टिप देते हैं?**
+
+आपकी टीम डेटा साइंस लाइफसाइकल के [विश्लेषण](README.md) चरण में है, जहां आप डेटा सेट पर अन्वेषणात्मक डेटा विश्लेषण (EDA) करने के लिए जिम्मेदार हैं। आपको एक नोटबुक और डेटा सेट प्रदान किया गया है जिसमें जनवरी और जुलाई 2019 के 200 टैक्सी लेन-देन शामिल हैं।
+
+## निर्देश
+
+इस डायरेक्टरी में एक [नोटबुक](../../../../4-Data-Science-Lifecycle/15-analyzing/assignment.ipynb) और [टैक्सी और लिमोज़ीन कमीशन](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) से डेटा उपलब्ध है। डेटा के बारे में अधिक जानकारी के लिए [डेटा सेट की डिक्शनरी](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) और [यूज़र गाइड](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) देखें।
+
+इस पाठ में सीखी गई कुछ तकनीकों का उपयोग करके नोटबुक में अपना खुद का EDA करें (यदि चाहें तो नई सेल्स जोड़ें) और निम्नलिखित प्रश्नों के उत्तर दें:
+
+- डेटा में और कौन से कारक टिप की राशि को प्रभावित कर सकते हैं?
+- क्लाइंट के प्रश्नों का उत्तर देने के लिए कौन से कॉलम सबसे अधिक संभावना से अनावश्यक होंगे?
+- अब तक जो जानकारी प्रदान की गई है, उसके आधार पर क्या डेटा मौसमी टिपिंग व्यवहार का कोई प्रमाण देता है?
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/16-communication/README.md b/translations/hi/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..16bf9f94
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# डेटा साइंस जीवनचक्र: संवाद
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| डेटा साइंस जीवनचक्र: संवाद - _स्केच नोट [@nitya](https://twitter.com/nitya) द्वारा_ |
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+ऊपर दिए गए प्री-लेक्चर क्विज़ के साथ यह जानने की कोशिश करें कि आगे क्या आने वाला है!
+
+# परिचय
+
+### संवाद क्या है?
+आइए इस पाठ की शुरुआत यह समझने से करें कि संवाद का क्या अर्थ है। **संवाद का मतलब है जानकारी को व्यक्त करना या उसका आदान-प्रदान करना।** जानकारी विचार, भावनाएं, संदेश, गुप्त संकेत, डेटा – कुछ भी हो सकती है जिसे एक **_प्रेषक_** (जानकारी भेजने वाला) एक **_प्राप्तकर्ता_** (जानकारी प्राप्त करने वाला) को समझाना चाहता है। इस पाठ में, हम प्रेषकों को संवादकर्ता और प्राप्तकर्ताओं को श्रोता कहेंगे।
+
+### डेटा संवाद और कहानी कहने की कला
+हम समझते हैं कि संवाद का उद्देश्य जानकारी को व्यक्त करना या उसका आदान-प्रदान करना है। लेकिन जब आप डेटा का संवाद कर रहे हों, तो आपका उद्देश्य केवल संख्याओं को साझा करना नहीं होना चाहिए। आपका उद्देश्य डेटा से प्रेरित एक कहानी को संवाद करना होना चाहिए – प्रभावी डेटा संवाद और कहानी कहने की कला एक-दूसरे के पूरक हैं। आपकी श्रोता आपके द्वारा बताई गई कहानी को अधिक याद रखेंगे, बजाय इसके कि आप उन्हें केवल संख्याएं दें। इस पाठ में आगे, हम कुछ तरीकों पर चर्चा करेंगे जिनसे आप अपनी डेटा को अधिक प्रभावी ढंग से संवाद करने के लिए कहानी कहने की कला का उपयोग कर सकते हैं।
+
+### संवाद के प्रकार
+इस पाठ में दो प्रकार के संवादों पर चर्चा की जाएगी: एकतरफा संवाद और दोतरफा संवाद।
+
+**एकतरफा संवाद** तब होता है जब एक प्रेषक जानकारी को एक प्राप्तकर्ता को भेजता है, बिना किसी प्रतिक्रिया या उत्तर के। हम हर दिन एकतरफा संवाद के उदाहरण देखते हैं – जैसे सामूहिक ईमेल, समाचार चैनल द्वारा दी गई खबरें, या टेलीविजन विज्ञापन जो आपको उनके उत्पाद की विशेषताओं के बारे में बताते हैं। इन सभी मामलों में, प्रेषक जानकारी के आदान-प्रदान की अपेक्षा नहीं कर रहा होता। वे केवल जानकारी को व्यक्त करना चाहते हैं।
+
+**दोतरफा संवाद** तब होता है जब सभी संबंधित पक्ष प्रेषक और प्राप्तकर्ता दोनों के रूप में कार्य करते हैं। एक प्रेषक संवाद शुरू करता है, और प्राप्तकर्ता प्रतिक्रिया या उत्तर देता है। दोतरफा संवाद वही है जिसे हम पारंपरिक रूप से संवाद के रूप में सोचते हैं। आमतौर पर यह किसी बातचीत के रूप में होता है – चाहे वह आमने-सामने हो, फोन कॉल पर, सोशल मीडिया पर, या टेक्स्ट मैसेज के माध्यम से।
+
+जब आप डेटा का संवाद कर रहे हों, तो ऐसे मामले होंगे जहां आप एकतरफा संवाद का उपयोग करेंगे (जैसे किसी सम्मेलन में प्रस्तुति देना, या एक बड़े समूह को संबोधित करना जहां तुरंत सवाल नहीं पूछे जाएंगे) और ऐसे मामले भी होंगे जहां आप दोतरफा संवाद का उपयोग करेंगे (जैसे कुछ हितधारकों को सहमत करने के लिए डेटा का उपयोग करना, या किसी टीम के सदस्य को यह समझाने के लिए कि किसी नई चीज़ पर समय और प्रयास खर्च करना चाहिए)।
+
+# प्रभावी संवाद
+
+### संवादकर्ता के रूप में आपकी जिम्मेदारियां
+जब आप संवाद कर रहे हों, तो यह आपकी जिम्मेदारी है कि आपके प्राप्तकर्ता वही जानकारी ग्रहण करें जो आप उन्हें देना चाहते हैं। जब आप डेटा का संवाद कर रहे हों, तो आप केवल संख्याएं साझा नहीं करना चाहते, बल्कि आप चाहते हैं कि आपके प्राप्तकर्ता एक ऐसी कहानी ग्रहण करें जो आपके डेटा से प्रेरित हो। एक अच्छा डेटा संवादकर्ता एक अच्छा कहानीकार होता है।
+
+डेटा के साथ कहानी कैसे बताई जाए? इसके अनगिनत तरीके हैं – लेकिन नीचे दिए गए 6 तरीकों पर इस पाठ में चर्चा की जाएगी:
+1. अपनी श्रोता, माध्यम और संवाद विधि को समझें
+2. अंत को ध्यान में रखकर शुरुआत करें
+3. इसे एक वास्तविक कहानी की तरह प्रस्तुत करें
+4. सार्थक शब्दों और वाक्यांशों का उपयोग करें
+5. भावनाओं का उपयोग करें
+
+इनमें से प्रत्येक रणनीति को नीचे विस्तार से समझाया गया है।
+
+### 1. अपनी श्रोता, चैनल और संवाद विधि को समझें
+जिस तरह आप अपने परिवार के सदस्यों के साथ संवाद करते हैं, वह आपके दोस्तों के साथ संवाद करने के तरीके से अलग हो सकता है। आप शायद ऐसे शब्द और वाक्यांश चुनते हैं जो आपके श्रोता के लिए अधिक समझने योग्य हों। डेटा संवाद करते समय भी आपको यही दृष्टिकोण अपनाना चाहिए। सोचें कि आप किससे संवाद कर रहे हैं। उनके लक्ष्य और उस स्थिति के बारे में उनका संदर्भ क्या है जिसे आप उन्हें समझा रहे हैं।
+
+आप अपनी अधिकांश श्रोता को एक श्रेणी में वर्गीकृत कर सकते हैं। _हार्वर्ड बिजनेस रिव्यू_ के एक लेख, “[डेटा के साथ कहानी कैसे बताएं](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” में, डेल के कार्यकारी रणनीतिकार जिम स्टिकलेदर ने श्रोताओं की पांच श्रेणियों की पहचान की है:
+
+- **नवसिखुआ**: विषय का पहली बार सामना कर रहा है, लेकिन अत्यधिक सरलीकरण नहीं चाहता
+- **सामान्य श्रोता**: विषय से परिचित है, लेकिन एक अवलोकन और मुख्य विषयों की तलाश में है
+- **प्रबंधकीय**: जटिलताओं और अंतर्संबंधों की गहन, क्रियाशील समझ के साथ विवरण तक पहुंच
+- **विशेषज्ञ**: अधिक अन्वेषण और खोज, कम कहानी कहने के साथ, और अधिक विवरण
+- **कार्यकारी**: केवल महत्व और संभावनाओं के निष्कर्षों को समझने के लिए समय है
+
+ये श्रेणियां यह तय करने में मदद कर सकती हैं कि आप अपने श्रोता को डेटा कैसे प्रस्तुत करें।
+
+इसके अलावा, आपको यह भी विचार करना चाहिए कि आप अपने श्रोता के साथ संवाद करने के लिए कौन सा चैनल उपयोग कर रहे हैं। आपका दृष्टिकोण थोड़ा अलग होना चाहिए यदि आप एक मेमो या ईमेल लिख रहे हैं बनाम किसी बैठक में या सम्मेलन में प्रस्तुति दे रहे हैं।
+
+अपने श्रोता को समझने के साथ-साथ यह जानना भी महत्वपूर्ण है कि आप उनके साथ संवाद कैसे करेंगे (एकतरफा संवाद या दोतरफा)।
+
+यदि आप एक नवसिखुआ श्रोता के साथ एकतरफा संवाद कर रहे हैं, तो आपको पहले श्रोता को शिक्षित करना होगा और उन्हें उचित संदर्भ देना होगा। फिर आपको उन्हें अपना डेटा प्रस्तुत करना होगा और बताना होगा कि आपका डेटा क्या दर्शाता है और क्यों महत्वपूर्ण है। इस स्थिति में, आपको स्पष्टता पर ध्यान केंद्रित करना चाहिए, क्योंकि आपके श्रोता आपसे सीधे सवाल नहीं पूछ पाएंगे।
+
+यदि आप एक प्रबंधकीय श्रोता के साथ दोतरफा संवाद कर रहे हैं, तो आपको अपने श्रोता को शिक्षित करने या उन्हें बहुत अधिक संदर्भ देने की आवश्यकता नहीं हो सकती। आप सीधे अपने डेटा और उसके महत्व पर चर्चा कर सकते हैं। हालांकि, इस स्थिति में, आपको समय और अपनी प्रस्तुति को नियंत्रित करने पर ध्यान केंद्रित करना चाहिए। दोतरफा संवाद के दौरान (विशेष रूप से प्रबंधकीय श्रोता के साथ, जो "जटिलताओं और अंतर्संबंधों की क्रियाशील समझ" की तलाश में हैं) सवाल उठ सकते हैं जो चर्चा को उस दिशा में ले जा सकते हैं जो आपकी कहानी से संबंधित नहीं है। जब ऐसा हो, तो आप कार्रवाई कर सकते हैं और चर्चा को अपनी कहानी पर वापस ला सकते हैं।
+
+### 2. अंत को ध्यान में रखकर शुरुआत करें
+अंत को ध्यान में रखकर शुरुआत करने का मतलब है कि आप संवाद शुरू करने से पहले यह समझ लें कि आप अपने श्रोता से क्या ग्रहण कराना चाहते हैं। पहले से यह सोच-विचार करना कि आप अपने श्रोता से क्या ग्रहण कराना चाहते हैं, आपको एक ऐसी कहानी तैयार करने में मदद कर सकता है जिसे आपका श्रोता आसानी से समझ सके। अंत को ध्यान में रखकर शुरुआत करना एकतरफा और दोतरफा संवाद दोनों के लिए उपयुक्त है।
+
+आप अंत को ध्यान में रखकर शुरुआत कैसे कर सकते हैं? अपने डेटा का संवाद करने से पहले, अपने मुख्य निष्कर्ष लिख लें। फिर, जब आप अपनी कहानी तैयार कर रहे हों, तो हर कदम पर खुद से पूछें, "यह मेरी कहानी में कैसे फिट बैठता है?"
+
+सावधान रहें – हालांकि अंत को ध्यान में रखकर शुरुआत करना आदर्श है, लेकिन आप केवल वही डेटा संवाद नहीं करना चाहते जो आपके निष्कर्षों का समर्थन करता हो। ऐसा करना "चेरी-पिकिंग" कहलाता है, जब संवादकर्ता केवल वही डेटा प्रस्तुत करता है जो उनके दृष्टिकोण का समर्थन करता है और बाकी डेटा को नजरअंदाज कर देता है।
+
+यदि आपके द्वारा एकत्र किया गया सारा डेटा आपके निष्कर्षों का समर्थन करता है, तो यह बहुत अच्छा है। लेकिन अगर ऐसा डेटा है जो आपके निष्कर्षों का समर्थन नहीं करता, या आपके मुख्य निष्कर्षों के खिलाफ तर्क देता है, तो आपको वह डेटा भी संवाद करना चाहिए। यदि ऐसा होता है, तो अपने श्रोता के साथ ईमानदार रहें और उन्हें बताएं कि आप अपनी कहानी पर क्यों टिके हुए हैं, भले ही सारा डेटा उसका समर्थन न करता हो।
+
+### 3. इसे एक वास्तविक कहानी की तरह प्रस्तुत करें
+एक पारंपरिक कहानी 5 चरणों में होती है। आपने इन चरणों को शायद इस तरह सुना होगा: प्रस्तावना, बढ़ता हुआ संघर्ष, चरमोत्कर्ष, गिरता हुआ संघर्ष, और निष्कर्ष। या इसे याद रखना आसान बनाने के लिए: संदर्भ, संघर्ष, चरमोत्कर्ष, समाधान, और निष्कर्ष। जब आप अपने डेटा और कहानी का संवाद कर रहे हों, तो आप इसी दृष्टिकोण को अपना सकते हैं।
+
+आप संदर्भ से शुरुआत कर सकते हैं, मंच तैयार करें और सुनिश्चित करें कि आपका श्रोता एक ही पृष्ठ पर है। फिर संघर्ष को प्रस्तुत करें। आपने यह डेटा क्यों एकत्र किया? आप किन समस्याओं को हल करना चाहते थे? इसके बाद, चरमोत्कर्ष। डेटा क्या है? डेटा का क्या मतलब है? डेटा हमें किन समाधानों की ओर इशारा करता है? फिर आप समाधान पर आते हैं, जहां आप समस्या और प्रस्तावित समाधान को दोहरा सकते हैं। अंत में, निष्कर्ष आता है, जहां आप अपने मुख्य निष्कर्षों और टीम को सुझाए गए अगले कदमों का सारांश प्रस्तुत कर सकते हैं।
+
+### 4. सार्थक शब्दों और वाक्यांशों का उपयोग करें
+यदि हम एक साथ किसी उत्पाद पर काम कर रहे हों, और मैंने आपसे कहा, "हमारे उपयोगकर्ताओं को हमारे प्लेटफॉर्म पर ऑनबोर्ड होने में बहुत समय लगता है," तो आप "बहुत समय" को कितना मानेंगे? एक घंटा? एक हफ्ता? यह कहना मुश्किल है। अगर मैंने यह बात पूरी श्रोता से कही, तो हर कोई "बहुत समय" को अलग-अलग समझ सकता है।
+
+इसके बजाय, अगर मैंने कहा, "हमारे उपयोगकर्ताओं को हमारे प्लेटफॉर्म पर साइन अप और ऑनबोर्ड होने में औसतन 3 मिनट लगते हैं।"
+
+यह संदेश अधिक स्पष्ट है। जब आप डेटा का संवाद कर रहे हों, तो यह सोचना आसान हो सकता है कि आपकी श्रोता भी आपकी तरह ही सोच रही है। लेकिन ऐसा हमेशा नहीं होता। आपके डेटा और उसके अर्थ के बारे में स्पष्टता लाना संवादकर्ता के रूप में आपकी जिम्मेदारी है। यदि डेटा या आपकी कहानी स्पष्ट नहीं है, तो आपकी श्रोता को इसे समझने में कठिनाई होगी, और यह संभावना कम हो जाएगी कि वे आपके मुख्य निष्कर्षों को समझ पाएंगे।
+
+आप सार्थक शब्दों और वाक्यांशों का उपयोग करके डेटा को अधिक स्पष्ट रूप से संवाद कर सकते हैं, बजाय अस्पष्ट शब्दों के। नीचे कुछ उदाहरण दिए गए हैं:
+
+- हमने एक *प्रभावशाली* वर्ष बिताया!
+ - एक व्यक्ति सोच सकता है कि प्रभावशाली का मतलब 2% - 3% की वृद्धि है, और दूसरा व्यक्ति सोच सकता है कि इसका मतलब 50% - 60% की वृद्धि है।
+- हमारे उपयोगकर्ताओं की सफलता दर *नाटकीय रूप से* बढ़ी।
+ - नाटकीय वृद्धि कितनी बड़ी है?
+- इस कार्य को पूरा करने में *महत्वपूर्ण* प्रयास की आवश्यकता होगी।
+ - महत्वपूर्ण प्रयास कितना है?
+
+अस्पष्ट शब्दों का उपयोग परिचय के रूप में या आपकी कहानी के सारांश के रूप में उपयोगी हो सकता है। लेकिन सुनिश्चित करें कि आपकी प्रस्तुति का हर हिस्सा आपकी श्रोता के लिए स्पष्ट हो।
+
+### 5. भावनाओं का उपयोग करें
+कहानी कहने में भावनाएं महत्वपूर्ण होती हैं। जब आप डेटा के साथ कहानी सुना रहे हों, तो यह और भी महत्वपूर्ण हो जाता है। जब आप डेटा का संवाद कर रहे हों, तो सब कुछ इस बात पर केंद्रित होता है कि आप अपनी श्रोता से क्या ग्रहण कराना चाहते हैं। जब आप अपनी श्रोता में कोई भावना उत्पन्न करते हैं, तो यह उन्हें सहानुभूति रखने में मदद करता है और उन्हें कार्रवाई करने के लिए प्रेरित करता है। भावनाएं यह संभावना भी बढ़ाती हैं कि आपकी श्रोता आपके संदेश को याद रखेगी।
+
+आपने इसे टीवी विज्ञापनों में देखा होगा। कुछ विज्ञापन बहुत गंभीर होते हैं और अपनी श्रोता से जुड़ने और प्रस्तुत किए गए डेटा को प्रभावशाली बनाने के लिए उदासी का उपयोग करते हैं। या, कुछ विज्ञापन बहुत उत्साहित और खुश होते हैं, जो आपको उनके डेटा को एक सकारात्मक भावना से जोड़ने में मदद करते हैं।
+
+डेटा का संवाद करते समय भावनाओं का उपयोग कैसे करें? नीचे कुछ तरीके दिए गए हैं:
+
+- प्रशंसापत्र और व्यक्तिगत कहानियों का उपयोग करें
+ - डेटा एकत्र करते समय, मात्रात्मक और गुणात्मक दोनों प्रकार के डेटा एकत्र करने का प्रयास करें, और संवाद करते समय दोनों प्रकार के डेटा को एकीकृत करें। यदि आपका डेटा मुख्य रूप से मात्रात्मक है, तो व्यक्तियों से उनकी कहानियां जानने का प्रयास करें ताकि आप उनके अनुभव को बेहतर समझ सकें।
+- चित्रों का उपयोग करें
+ - चित्र श्रोता को किसी स्थिति में खुद को देखने में मदद करते हैं। जब आप चित्रों का उपयोग करते हैं, तो आप अपनी श्रोता को उस भावना की ओर ले जा सकते हैं जो आपको लगता है कि उन्हें आपके डेटा के बारे में होनी चाहिए।
+- रंगों का उपयोग करें
+ - अलग-अलग रंग अलग-अलग भावनाएं उत्पन्न करते हैं। लोकप्रिय रंग और उनसे जुड़ी भावनाएं नीचे दी गई हैं। ध्यान दें कि अलग-अलग संस्कृतियों में रंगों के अलग-अलग अर्थ हो सकते हैं।
+ - नीला आमतौर पर शांति और विश्वास की भावना उत्पन्न करता है
+ - हरा आमतौर पर प्रकृति और पर्यावरण से संबंधित होता है
+ - लाल आमतौर पर जुनून और उत्साह का प्रतीक होता है
+ - पीला आमतौर पर आशावाद और खुशी का प्रतीक होता है
+
+# संवाद का केस स्टडी
+एमर्सन एक मोबाइल ऐप के लिए प्रोडक्ट मैनेजर है। एमर्सन ने देखा कि ग्राहक सप्ताहांत पर 42% अधिक शिकायतें और बग रिपोर्ट दर्ज करते हैं। एमर्सन ने यह भी देखा कि जो ग्राहक शिकायत दर्ज करते हैं और जिनकी शिकायत 48 घंटे के भीतर अनुत्तरित रहती है, वे ऐप को 1 या 2 रेटिंग देने की 32% अधिक संभावना रखते हैं।
+
+शोध करने के बाद, एमर्सन के पास इस समस्या को हल करने के लिए कुछ समाधान हैं। एमर्सन कंपनी के 3 प्रमुखों के साथ डेटा और प्रस्तावित समाधानों को संवाद करने के लिए 30 मिनट की बैठक आयोजित करता है।
+
+इस बैठक के दौरान, एमर्सन का लक्ष्य है कि कंपनी के प्रमुख यह समझें कि नीचे दिए गए 2 समाधान ऐप की रेटिंग में सुधार कर सकते हैं, जो संभवतः अधिक राजस्व में परिवर्तित होगा।
+
+**समाधान 1.** सप्ताहांत पर काम करने के लिए ग्राहक सेवा प्रतिनिधियों को नियुक्त करें
+
+**समाधान 2.** एक नया ग्राहक सेवा टिकटिंग सिस्टम खरीदें, जहां ग्राहक सेवा प्रतिनिधि आसानी से यह पहचान सकें कि कौन सी शिकायतें सबसे लंबे समय से कतार में हैं – ताकि वे सबसे पहले उन्हें संबोधित कर सकें।
+बैठक में, एमर्सन ने 5 मिनट यह समझाने में बिताए कि ऐप स्टोर पर कम रेटिंग होना क्यों खराब है, 10 मिनट शोध प्रक्रिया और ट्रेंड्स की पहचान कैसे की गई, इस पर चर्चा की, 10 मिनट हाल ही में आए कुछ ग्राहक शिकायतों पर बात की, और आखिरी 5 मिनट में 2 संभावित समाधानों को सरसरी तौर पर पेश किया।
+
+क्या यह एमर्सन के लिए इस बैठक में प्रभावी ढंग से संवाद करने का तरीका था?
+
+बैठक के दौरान, एक कंपनी लीड ने एमर्सन द्वारा बताए गए 10 मिनट के ग्राहक शिकायतों पर ध्यान केंद्रित किया। बैठक के बाद, ये शिकायतें ही वह एकमात्र चीज थीं जो इस टीम लीड को याद रहीं। दूसरी कंपनी लीड ने मुख्य रूप से एमर्सन द्वारा बताई गई शोध प्रक्रिया पर ध्यान दिया। तीसरी कंपनी लीड को एमर्सन द्वारा प्रस्तावित समाधान याद थे, लेकिन यह स्पष्ट नहीं था कि इन समाधानों को कैसे लागू किया जा सकता है।
+
+ऊपर दिए गए परिदृश्य में, आप देख सकते हैं कि एमर्सन जो संदेश टीम लीड्स को देना चाहते थे और जो उन्होंने वास्तव में लिया, उनके बीच एक बड़ा अंतर था। नीचे एक और दृष्टिकोण दिया गया है जिसे एमर्सन विचार कर सकते हैं।
+
+एमर्सन इस दृष्टिकोण को कैसे सुधार सकते हैं?
+संदर्भ, संघर्ष, चरमोत्कर्ष, समापन, निष्कर्ष
+**संदर्भ** - एमर्सन पहले 5 मिनट पूरे परिदृश्य को समझाने और यह सुनिश्चित करने में बिता सकते हैं कि टीम लीड्स यह समझें कि समस्याएं कंपनी के लिए महत्वपूर्ण मेट्रिक्स, जैसे कि राजस्व, को कैसे प्रभावित करती हैं।
+
+इसे इस तरह से प्रस्तुत किया जा सकता है: "वर्तमान में, हमारे ऐप की रेटिंग ऐप स्टोर में 2.5 है। ऐप स्टोर में रेटिंग ऐप स्टोर ऑप्टिमाइजेशन के लिए महत्वपूर्ण है, जो यह प्रभावित करता है कि कितने उपयोगकर्ता हमारे ऐप को खोज में देखते हैं और संभावित उपयोगकर्ताओं के लिए हमारा ऐप कैसा दिखता है। और निश्चित रूप से, हमारे उपयोगकर्ताओं की संख्या सीधे राजस्व से जुड़ी है।"
+
+**संघर्ष** इसके बाद एमर्सन अगले 5 मिनट या उससे अधिक समय तक संघर्ष पर बात कर सकते हैं।
+
+यह इस तरह हो सकता है: "उपयोगकर्ता सप्ताहांत पर 42% अधिक शिकायतें और बग रिपोर्ट सबमिट करते हैं। जिन ग्राहकों की शिकायतें 48 घंटे के भीतर अनुत्तरित रहती हैं, वे ऐप स्टोर में हमारे ऐप को 2 से अधिक रेटिंग देने की संभावना 32% कम रखते हैं। हमारे ऐप की रेटिंग को 4 तक सुधारने से हमारी दृश्यता 20-30% तक बढ़ जाएगी, जिससे मैं अनुमान लगाता हूं कि राजस्व में 10% की वृद्धि होगी।" बेशक, एमर्सन को इन आंकड़ों को सही ठहराने के लिए तैयार रहना चाहिए।
+
+**चरमोत्कर्ष** आधार तैयार करने के बाद, एमर्सन अगले 5 मिनट या उससे अधिक समय तक चरमोत्कर्ष पर जा सकते हैं।
+
+एमर्सन प्रस्तावित समाधानों को पेश कर सकते हैं, यह बता सकते हैं कि ये समाधान बताए गए मुद्दों को कैसे हल करेंगे, इन समाधानों को मौजूदा वर्कफ़्लो में कैसे लागू किया जा सकता है, इन समाधानों की लागत कितनी होगी, इनका आरओआई क्या होगा, और शायद यह भी दिखा सकते हैं कि यदि समाधान लागू किए गए तो वे स्क्रीनशॉट या वायरफ्रेम के रूप में कैसे दिखेंगे। एमर्सन उन उपयोगकर्ताओं की गवाही भी साझा कर सकते हैं जिनकी शिकायतों को 48 घंटे से अधिक समय तक संबोधित नहीं किया गया, और यहां तक कि कंपनी के वर्तमान ग्राहक सेवा प्रतिनिधि की गवाही भी साझा कर सकते हैं, जिनके पास मौजूदा टिकटिंग सिस्टम पर टिप्पणी हो सकती है।
+
+**समापन** अब एमर्सन 5 मिनट कंपनी द्वारा सामना की जा रही समस्याओं को फिर से बताने, प्रस्तावित समाधानों पर पुनर्विचार करने और यह समीक्षा करने में बिता सकते हैं कि ये समाधान सही क्यों हैं।
+
+**निष्कर्ष** चूंकि यह कुछ हितधारकों के साथ एक बैठक है जहां दो-तरफा संवाद का उपयोग किया जाएगा, एमर्सन फिर यह सुनिश्चित करने के लिए 10 मिनट का समय प्रश्नों के लिए छोड़ सकते हैं कि बैठक समाप्त होने से पहले टीम लीड्स के लिए जो कुछ भी भ्रमित था, उसे स्पष्ट किया जा सके।
+
+यदि एमर्सन दृष्टिकोण #2 अपनाते हैं, तो यह अधिक संभावना है कि टीम लीड्स बैठक से वही ले जाएंगे जो एमर्सन चाहते थे – कि शिकायतों और बग्स को संभालने के तरीके में सुधार किया जा सकता है, और 2 समाधान हैं जिन्हें इस सुधार को संभव बनाने के लिए लागू किया जा सकता है। यह दृष्टिकोण डेटा और कहानी को संप्रेषित करने के लिए एक अधिक प्रभावी दृष्टिकोण होगा, जिसे एमर्सन साझा करना चाहते हैं।
+
+# निष्कर्ष
+### मुख्य बिंदुओं का सारांश
+- संवाद का अर्थ है जानकारी का आदान-प्रदान करना।
+- जब डेटा का संचार किया जा रहा हो, तो आपका उद्देश्य केवल अपनी ऑडियंस को संख्याएं देना नहीं होना चाहिए। आपका उद्देश्य डेटा से प्रेरित एक कहानी को संप्रेषित करना होना चाहिए।
+- संवाद के 2 प्रकार होते हैं, एकतरफा संवाद (जहां प्रतिक्रिया की कोई मंशा नहीं होती) और दोतरफा संवाद (जहां जानकारी का आदान-प्रदान होता है)।
+- डेटा के साथ कहानी कहने के लिए कई रणनीतियां हैं, जिनमें से 5 रणनीतियां हमने देखीं:
+ - अपनी ऑडियंस, माध्यम और संवाद विधि को समझें।
+ - अंत को ध्यान में रखकर शुरुआत करें।
+ - इसे एक वास्तविक कहानी की तरह प्रस्तुत करें।
+ - अर्थपूर्ण शब्दों और वाक्यांशों का उपयोग करें।
+ - भावनाओं का उपयोग करें।
+
+### स्व-अध्ययन के लिए अनुशंसित संसाधन
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+ऊपर जो आपने सीखा है, उसे पोस्ट-लेक्चर क्विज़ के साथ रिव्यू करें!
+
+## असाइनमेंट
+
+[मार्केट रिसर्च](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/hi/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..245a1ce3
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,24 @@
+
+# एक कहानी सुनाएं
+
+## निर्देश
+
+डेटा साइंस कहानी सुनाने के बारे में है। किसी भी डेटा सेट को चुनें और उसके बारे में एक छोटी सी रिपोर्ट लिखें कि आप उससे कौन सी कहानी बता सकते हैं। आप क्या उम्मीद करते हैं कि आपका डेटा सेट क्या उजागर करेगा? अगर इसके खुलासे समस्याग्रस्त साबित होते हैं तो आप क्या करेंगे? अगर आपका डेटा आसानी से अपने रहस्य नहीं खोलता है तो क्या होगा? उन सभी संभावनाओं के बारे में सोचें जो आपका डेटा सेट प्रस्तुत कर सकता है और उन्हें लिखें।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+
+एक पेज का निबंध .doc फॉर्मेट में प्रस्तुत किया गया है जिसमें डेटा सेट को समझाया गया है, प्रलेखित किया गया है, श्रेय दिया गया है, और उसके बारे में एक संगठित कहानी प्रस्तुत की गई है जिसमें डेटा से विस्तृत उदाहरण शामिल हैं।| एक छोटा निबंध कम विस्तृत प्रारूप में प्रस्तुत किया गया है | निबंध में उपरोक्त विवरणों में से किसी एक की कमी पाई गई है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/4-Data-Science-Lifecycle/README.md b/translations/hi/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..1c428bca
--- /dev/null
+++ b/translations/hi/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,28 @@
+
+# डेटा साइंस जीवनचक्र
+
+
+> फोटो Headway द्वारा Unsplash पर
+
+इन पाठों में, आप डेटा साइंस जीवनचक्र के कुछ पहलुओं का पता लगाएंगे, जिसमें डेटा का विश्लेषण और उसके बारे में संवाद शामिल है।
+
+### विषय
+
+1. [परिचय](14-Introduction/README.md)
+2. [विश्लेषण करना](15-analyzing/README.md)
+3. [संवाद](16-communication/README.md)
+
+### श्रेय
+
+ये पाठ ❤️ के साथ [Jalen McGee](https://twitter.com/JalenMCG) और [Jasmine Greenaway](https://twitter.com/paladique) द्वारा लिखे गए हैं।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/hi/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..20adec5c
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# क्लाउड में डेटा साइंस का परिचय
+
+| द्वारा ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| क्लाउड में डेटा साइंस: परिचय - _स्केच नोट [@nitya](https://twitter.com/nitya) द्वारा_ |
+
+इस पाठ में, आप क्लाउड के मूलभूत सिद्धांतों को समझेंगे, फिर आप देखेंगे कि क्यों क्लाउड सेवाओं का उपयोग करके अपने डेटा साइंस प्रोजेक्ट्स को चलाना आपके लिए दिलचस्प हो सकता है। इसके अलावा, हम क्लाउड में चलाए गए कुछ डेटा साइंस प्रोजेक्ट्स के उदाहरणों पर भी नज़र डालेंगे।
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## क्लाउड क्या है?
+
+क्लाउड, या क्लाउड कंप्यूटिंग, इंटरनेट पर होस्ट की गई एक इंफ्रास्ट्रक्चर पर पे-एज़-यू-गो मॉडल के तहत विभिन्न प्रकार की कंप्यूटिंग सेवाओं की डिलीवरी है। इन सेवाओं में स्टोरेज, डेटाबेस, नेटवर्किंग, सॉफ़्टवेयर, एनालिटिक्स और इंटेलिजेंट सेवाएं शामिल हैं।
+
+हम आमतौर पर पब्लिक, प्राइवेट और हाइब्रिड क्लाउड को निम्नलिखित रूप से अलग करते हैं:
+
+* **पब्लिक क्लाउड**: पब्लिक क्लाउड एक तृतीय-पक्ष क्लाउड सेवा प्रदाता द्वारा स्वामित्व और संचालित होता है, जो अपनी कंप्यूटिंग संसाधनों को इंटरनेट के माध्यम से जनता को प्रदान करता है।
+* **प्राइवेट क्लाउड**: प्राइवेट क्लाउड का उपयोग विशेष रूप से एक व्यवसाय या संगठन द्वारा किया जाता है, जिसमें सेवाएं और इंफ्रास्ट्रक्चर एक निजी नेटवर्क पर बनाए रखा जाता है।
+* **हाइब्रिड क्लाउड**: हाइब्रिड क्लाउड एक प्रणाली है जो पब्लिक और प्राइवेट क्लाउड को जोड़ती है। उपयोगकर्ता ऑन-प्रिमाइसेस डेटा सेंटर का उपयोग करते हैं, जबकि डेटा और एप्लिकेशन को एक या अधिक पब्लिक क्लाउड पर चलाने की अनुमति देते हैं।
+
+अधिकांश क्लाउड कंप्यूटिंग सेवाएं तीन श्रेणियों में आती हैं: इंफ्रास्ट्रक्चर ऐज़ ए सर्विस (IaaS), प्लेटफ़ॉर्म ऐज़ ए सर्विस (PaaS) और सॉफ़्टवेयर ऐज़ ए सर्विस (SaaS)।
+
+* **इंफ्रास्ट्रक्चर ऐज़ ए सर्विस (IaaS)**: उपयोगकर्ता आईटी इंफ्रास्ट्रक्चर जैसे सर्वर और वर्चुअल मशीन (VMs), स्टोरेज, नेटवर्क, ऑपरेटिंग सिस्टम किराए पर लेते हैं।
+* **प्लेटफ़ॉर्म ऐज़ ए सर्विस (PaaS)**: उपयोगकर्ता सॉफ़्टवेयर एप्लिकेशन विकसित करने, परीक्षण करने, डिलीवर करने और प्रबंधित करने के लिए एक वातावरण किराए पर लेते हैं। उपयोगकर्ताओं को सर्वर, स्टोरेज, नेटवर्क और डेटाबेस की आधारभूत संरचना को सेटअप या प्रबंधित करने की चिंता करने की आवश्यकता नहीं होती।
+* **सॉफ़्टवेयर ऐज़ ए सर्विस (SaaS)**: उपयोगकर्ता इंटरनेट के माध्यम से सॉफ़्टवेयर एप्लिकेशन तक पहुंच प्राप्त करते हैं, आमतौर पर मांग पर और सब्सक्रिप्शन आधार पर। उपयोगकर्ताओं को सॉफ़्टवेयर एप्लिकेशन की होस्टिंग और प्रबंधन, आधारभूत संरचना या रखरखाव जैसे सॉफ़्टवेयर अपग्रेड और सुरक्षा पैचिंग की चिंता करने की आवश्यकता नहीं होती।
+
+कुछ प्रमुख क्लाउड प्रदाता हैं Amazon Web Services, Google Cloud Platform और Microsoft Azure।
+
+## डेटा साइंस के लिए क्लाउड क्यों चुनें?
+
+डेवलपर्स और आईटी पेशेवर कई कारणों से क्लाउड के साथ काम करना चुनते हैं, जिनमें निम्नलिखित शामिल हैं:
+
+* **नवाचार**: आप अपने एप्लिकेशन को क्लाउड प्रदाताओं द्वारा बनाए गए नवीन सेवाओं को सीधे अपने ऐप्स में एकीकृत करके सशक्त बना सकते हैं।
+* **लचीलापन**: आप केवल उन्हीं सेवाओं के लिए भुगतान करते हैं जिनकी आपको आवश्यकता होती है और सेवाओं की एक विस्तृत श्रृंखला से चुन सकते हैं। आप आमतौर पर पे-एज़-यू-गो मॉडल पर भुगतान करते हैं और अपनी आवश्यकताओं के अनुसार सेवाओं को अनुकूलित कर सकते हैं।
+* **बजट**: आपको हार्डवेयर और सॉफ़्टवेयर खरीदने, ऑन-साइट डेटा सेंटर सेटअप और संचालन के लिए प्रारंभिक निवेश करने की आवश्यकता नहीं होती। आप केवल वही भुगतान करते हैं जो आप उपयोग करते हैं।
+* **स्केलेबिलिटी**: आपके संसाधन आपके प्रोजेक्ट की आवश्यकताओं के अनुसार स्केल कर सकते हैं, जिसका अर्थ है कि आपके ऐप्स बाहरी कारकों के अनुसार किसी भी समय अधिक या कम कंप्यूटिंग पावर, स्टोरेज और बैंडविड्थ का उपयोग कर सकते हैं।
+* **उत्पादकता**: आप अपने व्यवसाय पर ध्यान केंद्रित कर सकते हैं, बजाय उन कार्यों पर समय खर्च करने के जो कोई और प्रबंधित कर सकता है, जैसे डेटा सेंटर प्रबंधन।
+* **विश्वसनीयता**: क्लाउड कंप्यूटिंग आपके डेटा का लगातार बैकअप लेने के कई तरीके प्रदान करता है और आप आपदा पुनर्प्राप्ति योजनाएं सेट कर सकते हैं ताकि संकट के समय भी आपका व्यवसाय और सेवाएं चालू रहें।
+* **सुरक्षा**: आप नीतियों, तकनीकों और नियंत्रणों का लाभ उठा सकते हैं जो आपके प्रोजेक्ट की सुरक्षा को मजबूत करते हैं।
+
+ये कुछ सामान्य कारण हैं कि लोग क्लाउड सेवाओं का उपयोग करना क्यों चुनते हैं। अब जब हमें क्लाउड और इसके मुख्य लाभों की बेहतर समझ हो गई है, तो आइए डेटा वैज्ञानिकों और डेटा के साथ काम करने वाले डेवलपर्स की नौकरियों पर अधिक विशेष रूप से नज़र डालें, और क्लाउड उनके सामने आने वाली कई चुनौतियों में उनकी मदद कैसे कर सकता है:
+
+* **बड़े पैमाने पर डेटा स्टोर करना**: बड़े सर्वर खरीदने, प्रबंधित करने और सुरक्षित रखने के बजाय, आप अपने डेटा को सीधे क्लाउड में स्टोर कर सकते हैं, जैसे Azure Cosmos DB, Azure SQL Database और Azure Data Lake Storage।
+* **डेटा इंटीग्रेशन करना**: डेटा इंटीग्रेशन डेटा साइंस का एक महत्वपूर्ण हिस्सा है, जो आपको डेटा संग्रह से लेकर कार्रवाई करने तक का संक्रमण करने देता है। क्लाउड में उपलब्ध डेटा इंटीग्रेशन सेवाओं के साथ, आप विभिन्न स्रोतों से डेटा को एकत्रित, परिवर्तित और एकीकृत करके एकल डेटा वेयरहाउस में ला सकते हैं, जैसे Data Factory।
+* **डेटा प्रोसेसिंग करना**: बड़े पैमाने पर डेटा प्रोसेसिंग के लिए बहुत अधिक कंप्यूटिंग पावर की आवश्यकता होती है, और हर किसी के पास इतनी शक्तिशाली मशीनें उपलब्ध नहीं होतीं। यही कारण है कि कई लोग सीधे क्लाउड की विशाल कंप्यूटिंग पावर का उपयोग करके अपने समाधान चलाने और तैनात करने का विकल्प चुनते हैं।
+* **डेटा एनालिटिक्स सेवाओं का उपयोग करना**: क्लाउड सेवाएं जैसे Azure Synapse Analytics, Azure Stream Analytics और Azure Databricks आपके डेटा को उपयोगी अंतर्दृष्टि में बदलने में मदद करती हैं।
+* **मशीन लर्निंग और डेटा इंटेलिजेंस सेवाओं का उपयोग करना**: शुरुआत से शुरू करने के बजाय, आप क्लाउड प्रदाता द्वारा पेश किए गए मशीन लर्निंग एल्गोरिदम का उपयोग कर सकते हैं, जैसे AzureML। आप स्पीच-टू-टेक्स्ट, टेक्स्ट-टू-स्पीच, कंप्यूटर विज़न और अन्य जैसी कॉग्निटिव सेवाओं का भी उपयोग कर सकते हैं।
+
+## क्लाउड में डेटा साइंस के उदाहरण
+
+आइए इसे कुछ परिदृश्यों के माध्यम से और अधिक स्पष्ट करें।
+
+### रियल-टाइम सोशल मीडिया सेंटिमेंट एनालिसिस
+
+हम एक ऐसा परिदृश्य देखेंगे जो मशीन लर्निंग शुरू करने वाले लोगों द्वारा अक्सर अध्ययन किया जाता है: सोशल मीडिया सेंटिमेंट एनालिसिस रियल-टाइम में।
+
+मान लीजिए कि आप एक न्यूज़ मीडिया वेबसाइट चलाते हैं और आप लाइव डेटा का उपयोग करके यह समझना चाहते हैं कि आपके पाठक किस प्रकार की सामग्री में रुचि ले सकते हैं। इसके लिए, आप एक प्रोग्राम बना सकते हैं जो ट्विटर पर प्रकाशित डेटा का रियल-टाइम सेंटिमेंट एनालिसिस करता है, उन विषयों पर जो आपके पाठकों के लिए प्रासंगिक हैं।
+
+मुख्य संकेतक जिन पर आप ध्यान देंगे, वे हैं विशिष्ट विषयों (हैशटैग) पर ट्वीट्स की मात्रा और सेंटिमेंट, जिसे विश्लेषणात्मक उपकरणों का उपयोग करके स्थापित किया जाता है जो निर्दिष्ट विषयों के आसपास सेंटिमेंट एनालिसिस करते हैं।
+
+इस प्रोजेक्ट को बनाने के लिए आवश्यक चरण निम्नलिखित हैं:
+
+* इनपुट स्ट्रीमिंग के लिए एक इवेंट हब बनाएं, जो ट्विटर से डेटा एकत्र करेगा।
+* एक ट्विटर क्लाइंट एप्लिकेशन कॉन्फ़िगर और शुरू करें, जो ट्विटर स्ट्रीमिंग APIs को कॉल करेगा।
+* एक स्ट्रीम एनालिटिक्स जॉब बनाएं।
+* जॉब इनपुट और क्वेरी निर्दिष्ट करें।
+* एक आउटपुट सिंक बनाएं और जॉब आउटपुट निर्दिष्ट करें।
+* जॉब शुरू करें।
+
+पूरी प्रक्रिया देखने के लिए, [डॉक्यूमेंटेशन](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099) देखें।
+
+### वैज्ञानिक पेपर्स का विश्लेषण
+
+आइए इस पाठ्यक्रम के एक लेखक [दिमित्री सॉश्निकोव](http://soshnikov.com) द्वारा बनाए गए एक प्रोजेक्ट का उदाहरण लें।
+
+दिमित्री ने एक टूल बनाया जो COVID पेपर्स का विश्लेषण करता है। इस प्रोजेक्ट की समीक्षा करके, आप देखेंगे कि कैसे आप एक टूल बना सकते हैं जो वैज्ञानिक पेपर्स से ज्ञान निकालता है, अंतर्दृष्टि प्राप्त करता है और शोधकर्ताओं को पेपर्स के बड़े संग्रह को कुशलतापूर्वक नेविगेट करने में मदद करता है।
+
+आइए इस प्रोजेक्ट में उपयोग किए गए विभिन्न चरणों को देखें:
+
+* [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) का उपयोग करके जानकारी निकालना और प्री-प्रोसेसिंग करना।
+* [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) का उपयोग करके प्रोसेसिंग को पैरेललाइज करना।
+* [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) का उपयोग करके जानकारी को स्टोर और क्वेरी करना।
+* डेटा एक्सप्लोरेशन और विज़ुअलाइज़ेशन के लिए एक इंटरैक्टिव डैशबोर्ड बनाना, Power BI का उपयोग करके।
+
+पूरी प्रक्रिया देखने के लिए, [दिमित्री का ब्लॉग](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) देखें।
+
+जैसा कि आप देख सकते हैं, हम क्लाउड सेवाओं का उपयोग करके कई तरीकों से डेटा साइंस कर सकते हैं।
+
+## फुटनोट
+
+स्रोत:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## पोस्ट-लेक्चर क्विज़
+
+[पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## असाइनमेंट
+
+[मार्केट रिसर्च](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/hi/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..2ea8154f
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,23 @@
+
+# बाजार अनुसंधान
+
+## निर्देश
+
+इस पाठ में आपने सीखा कि कई महत्वपूर्ण क्लाउड प्रदाता हैं। कुछ बाजार अनुसंधान करें और पता लगाएं कि प्रत्येक क्लाउड प्रदाता डेटा वैज्ञानिकों को क्या पेशकश कर सकता है। क्या उनकी पेशकशें तुलनीय हैं? तीन या अधिक क्लाउड प्रदाताओं की पेशकशों का वर्णन करने के लिए एक लेख लिखें।
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | --- |
+एक पृष्ठ का लेख तीन क्लाउड प्रदाताओं की डेटा विज्ञान पेशकशों का वर्णन करता है और उनके बीच अंतर बताता है। | एक छोटा लेख प्रस्तुत किया गया है। | विश्लेषण को पूरा किए बिना एक लेख प्रस्तुत किया गया है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/hi/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..8b9816eb
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,351 @@
+
+# क्लाउड में डेटा साइंस: "लो कोड/नो कोड" तरीका
+
+| द्वारा ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| क्लाउड में डेटा साइंस: लो कोड - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+सामग्री तालिका:
+
+- [क्लाउड में डेटा साइंस: "लो कोड/नो कोड" तरीका](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [प्री-लेक्चर क्विज़](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. परिचय](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Azure Machine Learning क्या है?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 हार्ट फेल्योर प्रेडिक्शन प्रोजेक्ट:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 हार्ट फेल्योर डेटासेट:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Azure ML Studio में लो कोड/नो कोड मॉडल ट्रेनिंग](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Azure ML वर्कस्पेस बनाना](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 कंप्यूट संसाधन](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 अपने कंप्यूट संसाधनों के लिए सही विकल्प चुनना](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 कंप्यूट क्लस्टर बनाना](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 डेटासेट लोड करना](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 AutoML के साथ लो कोड/नो कोड ट्रेनिंग](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. लो कोड/नो कोड मॉडल डिप्लॉयमेंट और एंडपॉइंट उपयोग](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 मॉडल डिप्लॉयमेंट](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 एंडपॉइंट उपयोग](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 चुनौती](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [पोस्ट-लेक्चर क्विज़](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [समीक्षा और स्व-अध्ययन](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [असाइनमेंट](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+
+## 1. परिचय
+
+### 1.1 Azure Machine Learning क्या है?
+
+Azure क्लाउड प्लेटफ़ॉर्म 200 से अधिक उत्पादों और क्लाउड सेवाओं का संग्रह है, जो आपको नए समाधान बनाने में मदद करता है। डेटा वैज्ञानिक डेटा का विश्लेषण और पूर्व-प्रसंस्करण करने, और विभिन्न प्रकार के मॉडल-ट्रेनिंग एल्गोरिदम का परीक्षण करने में बहुत समय लगाते हैं ताकि सटीक मॉडल तैयार किए जा सकें। ये कार्य समय लेने वाले होते हैं और अक्सर महंगे कंप्यूट हार्डवेयर का अप्रभावी उपयोग करते हैं।
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) एक क्लाउड-आधारित प्लेटफ़ॉर्म है, जो Azure में मशीन लर्निंग समाधान बनाने और संचालित करने के लिए डिज़ाइन किया गया है। इसमें डेटा तैयार करने, मॉडल ट्रेनिंग, प्रेडिक्टिव सेवाओं को प्रकाशित करने और उनके उपयोग की निगरानी करने के लिए कई सुविधाएँ और क्षमताएँ शामिल हैं। सबसे महत्वपूर्ण बात, यह मॉडल ट्रेनिंग से जुड़े समय लेने वाले कार्यों को स्वचालित करके डेटा वैज्ञानिकों की दक्षता बढ़ाने में मदद करता है। यह बड़े डेटा वॉल्यूम को संभालने के लिए प्रभावी रूप से स्केल करने वाले क्लाउड-आधारित कंप्यूट संसाधनों का उपयोग करने में सक्षम बनाता है, और केवल उपयोग के समय ही लागत लगती है।
+
+Azure ML निम्नलिखित टूल्स प्रदान करता है, जो डेवलपर्स और डेटा वैज्ञानिकों के लिए उनके मशीन लर्निंग वर्कफ़्लो को आसान बनाते हैं:
+
+- **Azure Machine Learning Studio**: यह एक वेब पोर्टल है, जो मॉडल ट्रेनिंग, डिप्लॉयमेंट, ऑटोमेशन, ट्रैकिंग और एसेट मैनेजमेंट के लिए लो कोड और नो कोड विकल्प प्रदान करता है। यह Azure Machine Learning SDK के साथ एकीकृत है।
+- **Jupyter Notebooks**: ML मॉडल को जल्दी प्रोटोटाइप और टेस्ट करने के लिए।
+- **Azure Machine Learning Designer**: मॉड्यूल्स को ड्रैग-एंड-ड्रॉप करके प्रयोग बनाने और लो कोड वातावरण में पाइपलाइन्स डिप्लॉय करने की सुविधा देता है।
+- **Automated machine learning UI (AutoML)**: मशीन लर्निंग मॉडल विकास के पुनरावृत्त कार्यों को स्वचालित करता है, जिससे उच्च स्केल, दक्षता और उत्पादकता के साथ मॉडल बनाए जा सकते हैं।
+- **Data Labelling**: डेटा को स्वचालित रूप से लेबल करने के लिए एक सहायक ML टूल।
+- **Visual Studio Code के लिए मशीन लर्निंग एक्सटेंशन**: ML प्रोजेक्ट्स बनाने और प्रबंधित करने के लिए एक पूर्ण-विशेषताओं वाला विकास वातावरण प्रदान करता है।
+- **Machine learning CLI**: कमांड लाइन से Azure ML संसाधनों को प्रबंधित करने के लिए कमांड प्रदान करता है।
+- **ओपन-सोर्स फ्रेमवर्क्स के साथ एकीकरण** जैसे PyTorch, TensorFlow, Scikit-learn आदि, जो ट्रेनिंग, डिप्लॉयमेंट और एंड-टू-एंड मशीन लर्निंग प्रक्रिया को प्रबंधित करने में मदद करते हैं।
+- **MLflow**: यह आपके मशीन लर्निंग प्रयोगों के जीवन चक्र को प्रबंधित करने के लिए एक ओपन-सोर्स लाइब्रेरी है। **MLFlow Tracking** आपके ट्रेनिंग रन मेट्रिक्स और मॉडल आर्टिफैक्ट्स को लॉग और ट्रैक करता है, चाहे आपका प्रयोग किसी भी वातावरण में हो।
+
+### 1.2 हार्ट फेल्योर प्रेडिक्शन प्रोजेक्ट:
+
+प्रोजेक्ट बनाना और उन पर काम करना आपके कौशल और ज्ञान को परखने का सबसे अच्छा तरीका है। इस पाठ में, हम Azure ML Studio में हार्ट फेल्योर अटैक की भविष्यवाणी के लिए डेटा साइंस प्रोजेक्ट बनाने के दो अलग-अलग तरीकों का पता लगाएंगे: लो कोड/नो कोड और Azure ML SDK के माध्यम से, जैसा कि निम्नलिखित आरेख में दिखाया गया है:
+
+
+
+प्रत्येक तरीके के अपने फायदे और नुकसान हैं। लो कोड/नो कोड तरीका शुरू करने के लिए आसान है क्योंकि इसमें GUI (ग्राफिकल यूजर इंटरफेस) के साथ काम करना शामिल है और कोड का कोई पूर्व ज्ञान आवश्यक नहीं है। यह प्रोजेक्ट की व्यवहार्यता का त्वरित परीक्षण करने और POC (प्रूफ ऑफ कॉन्सेप्ट) बनाने में सक्षम बनाता है। हालांकि, जैसे-जैसे प्रोजेक्ट बढ़ता है और चीजों को प्रोडक्शन के लिए तैयार करना होता है, GUI के माध्यम से संसाधन बनाना व्यावहारिक नहीं होता। हमें प्रोग्रामेटिक रूप से सब कुछ स्वचालित करना पड़ता है, जैसे संसाधनों का निर्माण और मॉडल का डिप्लॉयमेंट। यही वह जगह है, जहां Azure ML SDK का उपयोग करना महत्वपूर्ण हो जाता है।
+
+| | लो कोड/नो कोड | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| कोड का ज्ञान | आवश्यक नहीं | आवश्यक |
+| विकास का समय | तेज और आसान | कोड विशेषज्ञता पर निर्भर |
+| प्रोडक्शन तैयार | नहीं | हाँ |
+
+### 1.3 हार्ट फेल्योर डेटासेट:
+
+कार्डियोवैस्कुलर बीमारियाँ (CVDs) वैश्विक स्तर पर मृत्यु का नंबर 1 कारण हैं, जो दुनिया भर में 31% मौतों के लिए जिम्मेदार हैं। तंबाकू का उपयोग, अस्वास्थ्यकर आहार और मोटापा, शारीरिक निष्क्रियता और शराब का हानिकारक उपयोग जैसे पर्यावरणीय और व्यवहारिक जोखिम कारकों का उपयोग अनुमान मॉडल के लिए फीचर्स के रूप में किया जा सकता है। CVD के विकास की संभावना का अनुमान लगाना उच्च जोखिम वाले लोगों में हमलों को रोकने के लिए बहुत उपयोगी हो सकता है।
+
+Kaggle ने एक [हार्ट फेल्योर डेटासेट](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) सार्वजनिक रूप से उपलब्ध कराया है, जिसे हम इस प्रोजेक्ट के लिए उपयोग करेंगे। आप अभी इस डेटासेट को डाउनलोड कर सकते हैं। यह एक टेबलर डेटासेट है, जिसमें 13 कॉलम (12 फीचर्स और 1 टारगेट वेरिएबल) और 299 पंक्तियाँ हैं।
+
+| | वेरिएबल नाम | प्रकार | विवरण | उदाहरण |
+|----|---------------------------|-------------------|---------------------------------------------------------|-------------------|
+| 1 | age | संख्यात्मक | मरीज की उम्र | 25 |
+| 2 | anaemia | बूलियन | लाल रक्त कोशिकाओं या हीमोग्लोबिन की कमी | 0 या 1 |
+| 3 | creatinine_phosphokinase | संख्यात्मक | रक्त में CPK एंजाइम का स्तर | 542 |
+| 4 | diabetes | बूलियन | क्या मरीज को डायबिटीज है | 0 या 1 |
+| 5 | ejection_fraction | संख्यात्मक | प्रत्येक संकुचन पर हृदय से निकलने वाले रक्त का प्रतिशत | 45 |
+| 6 | high_blood_pressure | बूलियन | क्या मरीज को उच्च रक्तचाप है | 0 या 1 |
+| 7 | platelets | संख्यात्मक | रक्त में प्लेटलेट्स | 149000 |
+| 8 | serum_creatinine | संख्यात्मक | रक्त में सीरम क्रिएटिनिन का स्तर | 0.5 |
+| 9 | serum_sodium | संख्यात्मक | रक्त में सीरम सोडियम का स्तर | jun |
+| 10 | sex | बूलियन | महिला या पुरुष | 0 या 1 |
+| 11 | smoking | बूलियन | क्या मरीज धूम्रपान करता है | 0 या 1 |
+| 12 | time | संख्यात्मक | फॉलो-अप अवधि (दिनों में) | 4 |
+|----|---------------------------|-------------------|---------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Target] | बूलियन | फॉलो-अप अवधि के दौरान मरीज की मृत्यु हुई या नहीं | 0 या 1 |
+
+डेटासेट प्राप्त करने के बाद, हम Azure में प्रोजेक्ट शुरू कर सकते हैं।
+
+## 2. Azure ML Studio में लो कोड/नो कोड मॉडल ट्रेनिंग
+
+### 2.1 Azure ML वर्कस्पेस बनाना
+
+Azure ML में मॉडल ट्रेन करने के लिए, आपको पहले एक Azure ML वर्कस्पेस बनाना होगा। वर्कस्पेस Azure Machine Learning के लिए शीर्ष-स्तरीय संसाधन है, जो आपके द्वारा बनाए गए सभी आर्टिफैक्ट्स के साथ काम करने के लिए एक केंद्रीकृत स्थान प्रदान करता है। वर्कस्पेस सभी ट्रेनिंग रन का इतिहास रखता है, जिसमें लॉग्स, मेट्रिक्स, आउटपुट और आपके स्क्रिप्ट्स का स्नैपशॉट शामिल है। आप इस जानकारी का उपयोग यह निर्धारित करने के लिए करते हैं कि कौन सा ट्रेनिंग रन सबसे अच्छा मॉडल तैयार करता है। [अधिक जानें](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+यह अनुशंसा की जाती है कि आप अपने ऑपरेटिंग सिस्टम के साथ संगत सबसे अद्यतन ब्राउज़र का उपयोग करें। निम्नलिखित ब्राउज़र समर्थित हैं:
+
+- Microsoft Edge (नया Microsoft Edge, नवीनतम संस्करण। Microsoft Edge लेगेसी नहीं)
+- Safari (नवीनतम संस्करण, केवल Mac के लिए)
+- Chrome (नवीनतम संस्करण)
+- Firefox (नवीनतम संस्करण)
+
+Azure Machine Learning का उपयोग करने के लिए, अपने Azure सब्सक्रिप्शन में एक वर्कस्पेस बनाएं। आप इस वर्कस्पेस का उपयोग डेटा, कंप्यूट संसाधन, कोड, मॉडल और मशीन लर्निंग वर्कलोड्स से संबंधित अन्य आर्टिफैक्ट्स को प्रबंधित करने के लिए कर सकते हैं।
+
+> **_NOTE:_** जब तक Azure Machine Learning वर्कस्पेस आपके सब्सक्रिप्शन में मौजूद है, आपके Azure सब्सक्रिप्शन से डेटा स्टोरेज के लिए एक छोटी राशि चार्ज की जाएगी। इसलिए, हम अनुशंसा करते हैं कि जब आप इसका उपयोग न कर रहे हों, तो Azure Machine Learning वर्कस्पेस को हटा दें।
+
+1. [Azure पोर्टल](https://ms.portal.azure.com/) में Microsoft क्रेडेंशियल्स का उपयोग करके साइन इन करें, जो आपके Azure सब्सक्रिप्शन से जुड़े हैं।
+2. **+Create a resource** चुनें।
+
+ 
+
+ Machine Learning खोजें और Machine Learning टाइल चुनें।
+
+ 
+
+ Create बटन पर क्लिक करें।
+
+ 
+
+ निम्नलिखित सेटिंग्स भरें:
+ - सब्सक्रिप्शन: आपका Azure सब्सक्रिप्शन
+ - रिसोर्स ग्रुप: एक रिसोर्स ग्रुप बनाएं या चुनें
+ - वर्कस्पेस नाम: अपने वर्कस्पेस के लिए एक अद्वितीय नाम दर्ज करें
+ - क्षेत्र: अपने निकटतम भौगोलिक क्षेत्र का चयन करें
+ - स्टोरेज खाता: ध्यान दें कि आपके वर्कस्पेस के लिए एक नया स्टोरेज खाता बनाया जाएगा
+ - की वॉल्ट: ध्यान दें कि आपके वर्कस्पेस के लिए एक नया की वॉल्ट बनाया जाएगा
+ - एप्लिकेशन इनसाइट्स: ध्यान दें कि आपके वर्कस्पेस के लिए एक नया एप्लिकेशन इनसाइट्स संसाधन बनाया जाएगा
+ - कंटेनर रजिस्ट्री: कोई नहीं (पहली बार जब आप किसी मॉडल को कंटेनर में डिप्लॉय करेंगे, तो एक स्वचालित रूप से बनाया जाएगा)
+
+ 
+
+ - Create + Review पर क्लिक करें और फिर Create बटन पर क्लिक करें।
+3. अपने वर्कस्पेस के बनने की प्रतीक्षा करें (इसमें कुछ मिनट लग सकते हैं)। फिर इसे पोर्टल में खोलें। आप इसे Machine Learning Azure सेवा के माध्यम से पा सकते हैं।
+4. अपने वर्कस्पेस के ओवरव्यू पेज पर, Azure Machine Learning स्टूडियो लॉन्च करें (या एक नया ब्राउज़र टैब खोलें और https://ml.azure.com पर जाएं), और अपने Microsoft खाते का उपयोग करके Azure Machine Learning स्टूडियो में साइन इन करें। यदि संकेत दिया जाए, तो अपना Azure डायरेक्टरी और सब्सक्रिप्शन चुनें, और अपना Azure Machine Learning वर्कस्पेस चुनें।
+
+
+
+5. Azure Machine Learning स्टूडियो में, इंटरफ़ेस में विभिन्न पृष्ठों को देखने के लिए ऊपर बाईं ओर ☰ आइकन पर टॉगल करें। आप इन पृष्ठों का उपयोग अपने वर्कस्पेस में संसाधनों को प्रबंधित करने के लिए कर सकते हैं।
+
+
+
+आप अपने वर्कस्पेस को Azure पोर्टल का उपयोग करके प्रबंधित कर सकते हैं, लेकिन डेटा वैज्ञानिकों और मशीन लर्निंग ऑपरेशंस इंजीनियरों के लिए, Azure Machine Learning स्टूडियो वर्कस्पेस संसाधनों को प्रबंधित करने के लिए एक अधिक केंद्रित उपयोगकर्ता इंटरफ़ेस प्रदान करता है।
+
+### 2.2 कंप्यूट संसाधन
+
+कंप्यूट संसाधन क्लाउड-आधारित संसाधन हैं, जिन पर आप मॉडल ट्रेनिंग और डेटा एक्सप्लोरेशन प्रक्रियाएँ चला सकते हैं। आप चार प्रकार के कंप्यूट संसाधन बना सकते हैं:
+
+- **कंप्यूट इंस्टेंस**: विकास कार्यस्थल, जिनका उपयोग डेटा वैज्ञानिक डेटा और मॉडलों के साथ काम करने के लिए कर सकते हैं। इसमें एक वर्चुअल मशीन (VM) बनाना और एक नोटबुक इंस्टेंस लॉन्च करना शामिल है। आप फिर नोटबुक से कंप्यूट क्लस्टर को कॉल करके मॉडल ट्रेन कर सकते हैं।
+- **कंप्यूट क्लस्टर**: प्रयोग कोड के ऑन-डिमांड प्रोसेसिंग के लिए स्केलेबल VMs का क्लस्टर। जब आप मॉडल ट्रेन करते हैं, तो इसकी आवश्यकता होती है। कंप्यूट क्लस्टर विशेष GPU या CPU संसाधनों का भी उपयोग कर सकते हैं।
+- **इन्फरेंस क्लस्टर**: आपके प्रशिक्षित मॉडलों का उपयोग करने वाली प्रेडिक्टिव सेवाओं के लिए डिप्लॉयमेंट लक्ष्य।
+- **अटैच्ड कंप्यूट**: मौजूदा Azure कंप्यूट संसाधनों, जैसे वर्चुअल मशीन या Azure Databricks क्लस्टर्स से लिंक करता है।
+
+#### 2.2.1 अपने कंप्यूट संसाधनों के लिए सही विकल्प चुनना
+
+कंप्यूट संसाधन बनाते समय कुछ महत्वपूर्ण कारकों पर विचार करना चाहिए, और ये विकल्प महत्वपूर्ण निर्णय हो सकते हैं।
+
+**क्या आपको CPU या GPU की आवश्यकता है?**
+
+CPU (सेंट्रल प्रोसेसिंग यूनिट) एक इलेक्ट्रॉनिक सर्किट्री है जो कंप्यूटर प्रोग्राम के निर्देशों को निष्पादित करती है। GPU (ग्राफिक्स प्रोसेसिंग यूनिट) एक विशेषीकृत इलेक्ट्रॉनिक सर्किट है जो ग्राफिक्स-संबंधित कोड को बहुत तेज़ी से निष्पादित कर सकता है।
+
+CPU और GPU आर्किटेक्चर के बीच मुख्य अंतर यह है कि CPU को विभिन्न प्रकार के कार्यों को तेज़ी से संभालने के लिए डिज़ाइन किया गया है (जैसा कि CPU क्लॉक स्पीड द्वारा मापा जाता है), लेकिन यह एक समय में चलने वाले कार्यों की समानांतरता में सीमित है। GPU समानांतर कंप्यूटिंग के लिए डिज़ाइन किए गए हैं और इसलिए गहन शिक्षण (डीप लर्निंग) कार्यों के लिए अधिक उपयुक्त हैं।
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| कम महंगा | अधिक महंगा |
+| कम समानांतरता | अधिक समानांतरता |
+| गहन शिक्षण मॉडल को प्रशिक्षित करने में धीमा | गहन शिक्षण के लिए उपयुक्त |
+
+**क्लस्टर का आकार**
+
+बड़े क्लस्टर अधिक महंगे होते हैं लेकिन बेहतर प्रतिक्रिया समय प्रदान करते हैं। इसलिए, यदि आपके पास समय है लेकिन पर्याप्त पैसा नहीं है, तो आपको छोटे क्लस्टर से शुरुआत करनी चाहिए। इसके विपरीत, यदि आपके पास पैसा है लेकिन समय कम है, तो आपको बड़े क्लस्टर से शुरुआत करनी चाहिए।
+
+**VM का आकार**
+
+अपने समय और बजट की बाधाओं के आधार पर, आप अपने RAM, डिस्क, कोर की संख्या और क्लॉक स्पीड का आकार बदल सकते हैं। इन सभी मापदंडों को बढ़ाने से लागत बढ़ेगी, लेकिन प्रदर्शन बेहतर होगा।
+
+**डेडिकेटेड या लो-प्रायोरिटी इंस्टेंस?**
+
+लो-प्रायोरिटी इंस्टेंस का मतलब है कि यह बाधित हो सकता है: मूल रूप से, Microsoft Azure उन संसाधनों को ले सकता है और उन्हें किसी अन्य कार्य को सौंप सकता है, जिससे एक जॉब बाधित हो सकती है। एक डेडिकेटेड इंस्टेंस, या गैर-बाधित, का मतलब है कि जॉब आपकी अनुमति के बिना कभी समाप्त नहीं होगी।
+यह समय बनाम पैसे का एक और विचार है, क्योंकि बाधित होने वाले इंस्टेंस डेडिकेटेड इंस्टेंस की तुलना में सस्ते होते हैं।
+
+#### 2.2.2 कंप्यूट क्लस्टर बनाना
+
+[Azure ML वर्कस्पेस](https://ml.azure.com/) में, जिसे हमने पहले बनाया था, "कंप्यूट" पर जाएं और आप विभिन्न कंप्यूट संसाधन देख पाएंगे जिन पर हमने चर्चा की थी (जैसे कंप्यूट इंस्टेंस, कंप्यूट क्लस्टर, इन्फरेंस क्लस्टर और अटैच्ड कंप्यूट)। इस प्रोजेक्ट के लिए, हमें मॉडल प्रशिक्षण के लिए एक कंप्यूट क्लस्टर की आवश्यकता होगी। स्टूडियो में, "कंप्यूट" मेनू पर क्लिक करें, फिर "कंप्यूट क्लस्टर" टैब पर जाएं और "+ New" बटन पर क्लिक करें।
+
+
+
+1. अपने विकल्प चुनें: डेडिकेटेड बनाम लो प्रायोरिटी, CPU या GPU, VM का आकार और कोर की संख्या (आप इस प्रोजेक्ट के लिए डिफ़ॉल्ट सेटिंग्स रख सकते हैं)।
+2. "Next" बटन पर क्लिक करें।
+
+
+
+3. क्लस्टर को एक नाम दें।
+4. अपने विकल्प चुनें: न्यूनतम/अधिकतम नोड्स की संख्या, स्केल डाउन से पहले निष्क्रिय सेकंड, SSH एक्सेस। ध्यान दें कि यदि न्यूनतम नोड्स की संख्या 0 है, तो क्लस्टर निष्क्रिय होने पर आप पैसे बचा सकते हैं। ध्यान दें कि अधिकतम नोड्स की संख्या जितनी अधिक होगी, प्रशिक्षण उतना ही कम समय लेगा। अधिकतम 3 नोड्स की सिफारिश की जाती है।
+5. "Create" बटन पर क्लिक करें। यह चरण कुछ मिनट लग सकता है।
+
+
+
+शानदार! अब जब हमारे पास एक कंप्यूट क्लस्टर है, तो हमें डेटा को Azure ML स्टूडियो में लोड करना होगा।
+
+### 2.3 डेटासेट लोड करना
+
+1. [Azure ML वर्कस्पेस](https://ml.azure.com/) में, जिसे हमने पहले बनाया था, बाईं ओर के मेनू में "Datasets" पर क्लिक करें और "+ Create dataset" बटन पर क्लिक करें। "From local files" विकल्प चुनें और पहले डाउनलोड किए गए Kaggle डेटासेट को चुनें।
+
+ 
+
+2. अपने डेटासेट को एक नाम, प्रकार और विवरण दें। "Next" पर क्लिक करें। फाइलों से डेटा अपलोड करें। "Next" पर क्लिक करें।
+
+ 
+
+3. स्कीमा में, निम्नलिखित विशेषताओं के लिए डेटा प्रकार को Boolean में बदलें: anaemia, diabetes, high blood pressure, sex, smoking, और DEATH_EVENT। "Next" पर क्लिक करें और "Create" पर क्लिक करें।
+
+ 
+
+बहुत बढ़िया! अब जब डेटासेट तैयार है और कंप्यूट क्लस्टर बनाया गया है, तो हम मॉडल का प्रशिक्षण शुरू कर सकते हैं!
+
+### 2.4 लो कोड/नो कोड प्रशिक्षण AutoML के साथ
+
+पारंपरिक मशीन लर्निंग मॉडल विकास संसाधन-गहन होता है, जिसमें महत्वपूर्ण डोमेन ज्ञान और दर्जनों मॉडलों को बनाने और तुलना करने के लिए समय की आवश्यकता होती है।
+ऑटोमेटेड मशीन लर्निंग (AutoML) मशीन लर्निंग मॉडल विकास के समय लेने वाले, पुनरावृत्त कार्यों को स्वचालित करने की प्रक्रिया है। यह डेटा वैज्ञानिकों, विश्लेषकों और डेवलपर्स को उच्च पैमाने, दक्षता और उत्पादकता के साथ ML मॉडल बनाने की अनुमति देता है, जबकि मॉडल की गुणवत्ता बनाए रखता है। यह उत्पादन-तैयार ML मॉडल प्राप्त करने में लगने वाले समय को कम करता है, वह भी बड़ी आसानी और दक्षता के साथ। [अधिक जानें](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. [Azure ML वर्कस्पेस](https://ml.azure.com/) में, जिसे हमने पहले बनाया था, बाईं ओर के मेनू में "Automated ML" पर क्लिक करें और अभी-अभी अपलोड किए गए डेटासेट का चयन करें। "Next" पर क्लिक करें।
+
+ 
+
+2. एक नया प्रयोग नाम, लक्ष्य कॉलम (DEATH_EVENT) और हमने जो कंप्यूट क्लस्टर बनाया था, उसे दर्ज करें। "Next" पर क्लिक करें।
+
+ 
+
+3. "Classification" चुनें और "Finish" पर क्लिक करें। यह चरण आपके कंप्यूट क्लस्टर के आकार के आधार पर 30 मिनट से 1 घंटे तक लग सकता है।
+
+ 
+
+4. रन पूरा होने के बाद, "Automated ML" टैब पर क्लिक करें, अपने रन पर क्लिक करें, और "Best model summary" कार्ड में एल्गोरिदम पर क्लिक करें।
+
+ 
+
+यहां आप AutoML द्वारा उत्पन्न सर्वश्रेष्ठ मॉडल का विस्तृत विवरण देख सकते हैं। आप "Models" टैब में अन्य मॉडल भी देख सकते हैं। "Explanations (preview)" बटन में मॉडल का विश्लेषण करने के लिए कुछ समय लें। जब आप उस मॉडल को चुन लें जिसे आप उपयोग करना चाहते हैं (यहां हम AutoML द्वारा चुने गए सर्वश्रेष्ठ मॉडल का चयन करेंगे), तो हम देखेंगे कि इसे कैसे तैनात किया जा सकता है।
+
+## 3. लो कोड/नो कोड मॉडल डिप्लॉयमेंट और एंडपॉइंट उपभोग
+### 3.1 मॉडल डिप्लॉयमेंट
+
+ऑटोमेटेड मशीन लर्निंग इंटरफेस आपको कुछ चरणों में सर्वश्रेष्ठ मॉडल को एक वेब सेवा के रूप में तैनात करने की अनुमति देता है। डिप्लॉयमेंट का मतलब है मॉडल का एकीकरण ताकि यह नए डेटा के आधार पर भविष्यवाणियां कर सके और संभावित अवसर क्षेत्रों की पहचान कर सके। इस प्रोजेक्ट के लिए, एक वेब सेवा पर डिप्लॉयमेंट का मतलब है कि चिकित्सा अनुप्रयोग मॉडल का उपयोग कर सकेंगे ताकि वे अपने मरीजों के दिल के दौरे के जोखिम की लाइव भविष्यवाणी कर सकें।
+
+सर्वश्रेष्ठ मॉडल विवरण में, "Deploy" बटन पर क्लिक करें।
+
+
+
+15. इसे एक नाम, विवरण, कंप्यूट प्रकार (Azure Container Instance) दें, प्रमाणीकरण सक्षम करें और "Deploy" पर क्लिक करें। इस चरण को पूरा होने में लगभग 20 मिनट लग सकते हैं। डिप्लॉयमेंट प्रक्रिया में मॉडल को पंजीकृत करना, संसाधन उत्पन्न करना और उन्हें वेब सेवा के लिए कॉन्फ़िगर करना शामिल है। "Deploy status" के तहत एक स्थिति संदेश दिखाई देता है। स्थिति की जांच के लिए समय-समय पर "Refresh" पर क्लिक करें। जब स्थिति "Healthy" हो, तो इसका मतलब है कि यह तैनात और चल रहा है।
+
+
+
+16. एक बार तैनात हो जाने के बाद, "Endpoint" टैब पर क्लिक करें और उस एंडपॉइंट पर क्लिक करें जिसे आपने अभी तैनात किया है। यहां आप एंडपॉइंट के बारे में सभी विवरण पा सकते हैं।
+
+
+
+शानदार! अब जब हमारे पास एक मॉडल तैनात है, तो हम एंडपॉइंट का उपभोग शुरू कर सकते हैं।
+
+### 3.2 एंडपॉइंट उपभोग
+
+"Consume" टैब पर क्लिक करें। यहां आपको REST एंडपॉइंट और उपभोग विकल्प में एक पायथन स्क्रिप्ट मिलेगी। पायथन कोड को पढ़ने के लिए कुछ समय लें।
+
+यह स्क्रिप्ट सीधे आपके लोकल मशीन से चलाई जा सकती है और आपके एंडपॉइंट का उपभोग करेगी।
+
+
+
+इन दो कोड लाइनों को ध्यान से देखें:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+`url` वेरिएबल उपभोग टैब में पाया गया REST एंडपॉइंट है और `api_key` वेरिएबल प्राथमिक कुंजी है जो उपभोग टैब में भी पाई जाती है (केवल तभी जब आपने प्रमाणीकरण सक्षम किया हो)। यही वह तरीका है जिससे स्क्रिप्ट एंडपॉइंट का उपभोग कर सकती है।
+
+18. स्क्रिप्ट चलाने पर, आपको निम्नलिखित आउटपुट दिखाई देना चाहिए:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+इसका मतलब है कि दिए गए डेटा के लिए दिल की विफलता की भविष्यवाणी सही है। यह समझ में आता है क्योंकि यदि आप स्क्रिप्ट में स्वचालित रूप से उत्पन्न डेटा को अधिक बारीकी से देखते हैं, तो सब कुछ डिफ़ॉल्ट रूप से 0 और false पर सेट है। आप निम्नलिखित इनपुट नमूने के साथ डेटा बदल सकते हैं:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+स्क्रिप्ट को यह रिटर्न करना चाहिए:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+बधाई हो! आपने मॉडल को तैनात किया, उपभोग किया और इसे Azure ML पर प्रशिक्षित किया!
+
+> **_NOTE:_** प्रोजेक्ट पूरा होने के बाद, सभी संसाधनों को हटाना न भूलें।
+## 🚀 चुनौती
+
+AutoML द्वारा शीर्ष मॉडलों के लिए उत्पन्न मॉडल स्पष्टीकरण और विवरण को ध्यान से देखें। यह समझने की कोशिश करें कि सर्वश्रेष्ठ मॉडल अन्य मॉडलों की तुलना में बेहतर क्यों है। किन एल्गोरिदम की तुलना की गई? उनके बीच क्या अंतर हैं? इस मामले में सर्वश्रेष्ठ मॉडल बेहतर प्रदर्शन क्यों कर रहा है?
+
+## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## समीक्षा और स्व-अध्ययन
+
+इस पाठ में, आपने क्लाउड में लो कोड/नो कोड तरीके से दिल की विफलता के जोखिम की भविष्यवाणी करने के लिए एक मॉडल को प्रशिक्षित, तैनात और उपभोग करना सीखा। यदि आपने अभी तक ऐसा नहीं किया है, तो AutoML द्वारा शीर्ष मॉडलों के लिए उत्पन्न मॉडल स्पष्टीकरण में गहराई से जाएं और यह समझने की कोशिश करें कि सर्वश्रेष्ठ मॉडल अन्य मॉडलों की तुलना में बेहतर क्यों है।
+
+आप लो कोड/नो कोड AutoML के बारे में और अधिक जानने के लिए इस [डॉक्यूमेंटेशन](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) को पढ़ सकते हैं।
+
+## असाइनमेंट
+
+[Azure ML पर लो कोड/नो कोड डेटा साइंस प्रोजेक्ट](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/hi/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..120bf1f4
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,23 @@
+
+# Azure ML पर लो कोड/नो कोड डेटा साइंस प्रोजेक्ट
+
+## निर्देश
+
+हमने देखा कि Azure ML प्लेटफ़ॉर्म का उपयोग करके लो कोड/नो कोड तरीके से मॉडल को ट्रेन, डिप्लॉय और उपयोग कैसे किया जा सकता है। अब ऐसा डेटा खोजें जिसे आप किसी अन्य मॉडल को ट्रेन करने, डिप्लॉय करने और उपयोग करने के लिए इस्तेमाल कर सकें। आप [Kaggle](https://kaggle.com) और [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) पर डेटा सेट्स देख सकते हैं।
+
+## मूल्यांकन मानदंड
+
+| उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता |
+|-----------|----------|-------------------|
+|डेटा अपलोड करते समय, आपने आवश्यक होने पर फीचर के प्रकार को बदलने का ध्यान रखा। आपने डेटा को साफ किया (यदि आवश्यक हो)। आपने AutoML के माध्यम से डेटा सेट पर ट्रेनिंग चलाई और मॉडल के स्पष्टीकरणों की जांच की। आपने सबसे अच्छे मॉडल को डिप्लॉय किया और उसका उपयोग करने में सक्षम रहे। | डेटा अपलोड करते समय, आपने आवश्यक होने पर फीचर के प्रकार को बदलने का ध्यान रखा। आपने AutoML के माध्यम से डेटा सेट पर ट्रेनिंग चलाई, सबसे अच्छे मॉडल को डिप्लॉय किया और उसका उपयोग करने में सक्षम रहे। | आपने AutoML द्वारा ट्रेन किए गए सबसे अच्छे मॉडल को डिप्लॉय किया और उसका उपयोग करने में सक्षम रहे। |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/hi/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..1d95907e
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,310 @@
+
+# क्लाउड में डेटा साइंस: "Azure ML SDK" का तरीका
+
+| द्वारा ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| क्लाउड में डेटा साइंस: Azure ML SDK - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+सामग्री तालिका:
+
+- [क्लाउड में डेटा साइंस: "Azure ML SDK" का तरीका](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [प्री-लेक्चर क्विज़](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. परिचय](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Azure ML SDK क्या है?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 हार्ट फेल्योर प्रेडिक्शन प्रोजेक्ट और डेटासेट परिचय](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Azure ML SDK के साथ मॉडल ट्रेनिंग](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Azure ML वर्कस्पेस बनाना](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 कंप्यूट इंस्टेंस बनाना](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 डेटासेट लोड करना](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 नोटबुक बनाना](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 मॉडल ट्रेनिंग](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 वर्कस्पेस, एक्सपेरिमेंट, कंप्यूट क्लस्टर और डेटासेट सेटअप करना](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML कॉन्फ़िगरेशन और ट्रेनिंग](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Azure ML SDK के साथ मॉडल डिप्लॉयमेंट और एंडपॉइंट उपयोग](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 सर्वश्रेष्ठ मॉडल को सेव करना](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 मॉडल डिप्लॉयमेंट](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 एंडपॉइंट उपयोग](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 चुनौती](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [पोस्ट-लेक्चर क्विज़](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [समीक्षा और स्व-अध्ययन](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [असाइनमेंट](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. परिचय
+
+### 1.1 Azure ML SDK क्या है?
+
+डेटा वैज्ञानिक और AI डेवलपर्स Azure Machine Learning SDK का उपयोग करके Azure Machine Learning सेवा के साथ मशीन लर्निंग वर्कफ़्लो बनाते और चलाते हैं। आप इस सेवा के साथ किसी भी Python वातावरण में इंटरैक्ट कर सकते हैं, जैसे Jupyter Notebooks, Visual Studio Code, या आपका पसंदीदा Python IDE।
+
+SDK के मुख्य क्षेत्र:
+
+- मशीन लर्निंग प्रयोगों में उपयोग किए जाने वाले आपके डेटासेट का एक्सप्लोर, तैयारी और जीवनचक्र प्रबंधन।
+- क्लाउड संसाधनों का प्रबंधन, जैसे मॉनिटरिंग, लॉगिंग, और आपके मशीन लर्निंग प्रयोगों को व्यवस्थित करना।
+- मॉडल को स्थानीय रूप से या क्लाउड संसाधनों का उपयोग करके ट्रेन करना, जिसमें GPU-त्वरित मॉडल ट्रेनिंग शामिल है।
+- ऑटोमेटेड मशीन लर्निंग का उपयोग करना, जो कॉन्फ़िगरेशन पैरामीटर और ट्रेनिंग डेटा स्वीकार करता है। यह एल्गोरिदम और हाइपरपैरामीटर सेटिंग्स के माध्यम से स्वचालित रूप से पुनरावृत्ति करता है ताकि भविष्यवाणियों को चलाने के लिए सर्वश्रेष्ठ मॉडल खोजा जा सके।
+- वेब सेवाओं को तैनात करना ताकि आपके प्रशिक्षित मॉडल को RESTful सेवाओं में परिवर्तित किया जा सके, जिन्हें किसी भी एप्लिकेशन में उपयोग किया जा सके।
+
+[Azure Machine Learning SDK के बारे में अधिक जानें](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+[पिछले पाठ](../18-Low-Code/README.md) में, हमने देखा कि कैसे लो कोड/नो कोड तरीके से मॉडल को ट्रेन, डिप्लॉय और उपयोग किया जा सकता है। हमने हार्ट फेल्योर डेटासेट का उपयोग करके हार्ट फेल्योर प्रेडिक्शन मॉडल बनाया। इस पाठ में, हम वही प्रक्रिया Azure Machine Learning SDK का उपयोग करके करेंगे।
+
+
+
+### 1.2 हार्ट फेल्योर प्रेडिक्शन प्रोजेक्ट और डेटासेट परिचय
+
+हार्ट फेल्योर प्रेडिक्शन प्रोजेक्ट और डेटासेट परिचय के लिए [यहां देखें](../18-Low-Code/README.md)।
+
+## 2. Azure ML SDK के साथ मॉडल ट्रेनिंग
+### 2.1 Azure ML वर्कस्पेस बनाना
+
+सरलता के लिए, हम जुपिटर नोटबुक पर काम करेंगे। इसका मतलब है कि आपके पास पहले से ही एक वर्कस्पेस और एक कंप्यूट इंस्टेंस होना चाहिए। यदि आपके पास पहले से वर्कस्पेस है, तो आप सीधे सेक्शन 2.3 नोटबुक निर्माण पर जा सकते हैं।
+
+यदि नहीं, तो कृपया [पिछले पाठ](../18-Low-Code/README.md) के सेक्शन **2.1 Azure ML वर्कस्पेस बनाना** में दिए गए निर्देशों का पालन करें।
+
+### 2.2 कंप्यूट इंस्टेंस बनाना
+
+[Azure ML वर्कस्पेस](https://ml.azure.com/) में जाएं जिसे हमने पहले बनाया था। कंप्यूट मेनू पर जाएं और आपको उपलब्ध विभिन्न कंप्यूट संसाधन दिखाई देंगे।
+
+
+
+आइए एक कंप्यूट इंस्टेंस बनाएं ताकि जुपिटर नोटबुक को प्रोविजन किया जा सके।
+1. + New बटन पर क्लिक करें।
+2. अपने कंप्यूट इंस्टेंस को एक नाम दें।
+3. अपने विकल्प चुनें: CPU या GPU, VM आकार और कोर संख्या।
+4. Create बटन पर क्लिक करें।
+
+बधाई हो, आपने अभी एक कंप्यूट इंस्टेंस बनाया है! हम इस कंप्यूट इंस्टेंस का उपयोग [नोटबुक निर्माण सेक्शन](../../../../5-Data-Science-In-Cloud/19-Azure) में करेंगे।
+
+### 2.3 डेटासेट लोड करना
+यदि आपने अभी तक डेटासेट अपलोड नहीं किया है, तो [पिछले पाठ](../18-Low-Code/README.md) के सेक्शन **2.3 डेटासेट लोड करना** देखें।
+
+### 2.4 नोटबुक बनाना
+
+> **_नोट:_** अगले चरण के लिए आप या तो एक नया नोटबुक स्क्रैच से बना सकते हैं, या आप [हमारे द्वारा बनाया गया नोटबुक](../../../../5-Data-Science-In-Cloud/19-Azure/notebook.ipynb) Azure ML Studio में अपलोड कर सकते हैं। इसे अपलोड करने के लिए, बस "Notebook" मेनू पर क्लिक करें और नोटबुक अपलोड करें।
+
+नोटबुक डेटा साइंस प्रक्रिया का एक बहुत महत्वपूर्ण हिस्सा हैं। इन्हें एक्सप्लोरेटरी डेटा एनालिसिस (EDA) करने, कंप्यूटर क्लस्टर को मॉडल ट्रेनिंग के लिए कॉल करने, और इंफरेंस क्लस्टर को एंडपॉइंट डिप्लॉय करने के लिए उपयोग किया जा सकता है।
+
+नोटबुक बनाने के लिए, हमें एक कंप्यूट नोड की आवश्यकता होती है जो जुपिटर नोटबुक इंस्टेंस को सर्व कर रहा हो। [Azure ML वर्कस्पेस](https://ml.azure.com/) पर वापस जाएं और कंप्यूट इंस्टेंस पर क्लिक करें। कंप्यूट इंस्टेंस की सूची में आपको [हमने पहले बनाया कंप्यूट इंस्टेंस](../../../../5-Data-Science-In-Cloud/19-Azure) दिखाई देगा।
+
+1. Applications सेक्शन में, Jupyter विकल्प पर क्लिक करें।
+2. "Yes, I understand" बॉक्स को टिक करें और Continue बटन पर क्लिक करें।
+
+3. यह आपके जुपिटर नोटबुक इंस्टेंस के साथ एक नया ब्राउज़र टैब खोलना चाहिए। "New" बटन पर क्लिक करें और नोटबुक बनाएं।
+
+
+
+अब जब हमारे पास एक नोटबुक है, तो हम Azure ML SDK के साथ मॉडल ट्रेनिंग शुरू कर सकते हैं।
+
+### 2.5 मॉडल ट्रेनिंग
+
+सबसे पहले, यदि आपको कभी संदेह हो, तो [Azure ML SDK दस्तावेज़](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) देखें। इसमें उन सभी मॉड्यूल की जानकारी है जिन्हें हम इस पाठ में देखेंगे।
+
+#### 2.5.1 वर्कस्पेस, एक्सपेरिमेंट, कंप्यूट क्लस्टर और डेटासेट सेटअप करना
+
+आप निम्नलिखित कोड का उपयोग करके कॉन्फ़िगरेशन फ़ाइल से `वर्कस्पेस` लोड कर सकते हैं:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+यह `Workspace` प्रकार का एक ऑब्जेक्ट लौटाता है जो वर्कस्पेस का प्रतिनिधित्व करता है। फिर आपको निम्नलिखित कोड का उपयोग करके एक `एक्सपेरिमेंट` बनाना होगा:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+वर्कस्पेस से एक्सपेरिमेंट प्राप्त करने या बनाने के लिए, आप एक्सपेरिमेंट नाम का उपयोग करके अनुरोध करते हैं। एक्सपेरिमेंट नाम 3-36 वर्णों का होना चाहिए, एक अक्षर या संख्या से शुरू होना चाहिए, और केवल अक्षर, संख्या, अंडरस्कोर और डैश शामिल कर सकता है। यदि वर्कस्पेस में एक्सपेरिमेंट नहीं मिलता है, तो एक नया एक्सपेरिमेंट बनाया जाता है।
+
+अब आपको निम्नलिखित कोड का उपयोग करके ट्रेनिंग के लिए एक कंप्यूट क्लस्टर बनाना होगा। ध्यान दें कि यह चरण कुछ मिनट लग सकता है।
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+आप वर्कस्पेस से डेटासेट नाम का उपयोग करके डेटासेट प्राप्त कर सकते हैं:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 AutoML कॉन्फ़िगरेशन और ट्रेनिंग
+
+AutoML कॉन्फ़िगरेशन सेट करने के लिए [AutoMLConfig क्लास](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) का उपयोग करें।
+
+जैसा कि दस्तावेज़ में वर्णित है, आप कई पैरामीटर के साथ खेल सकते हैं। इस प्रोजेक्ट के लिए, हम निम्नलिखित पैरामीटर का उपयोग करेंगे:
+
+- `experiment_timeout_minutes`: वह अधिकतम समय (मिनटों में) जो प्रयोग को चलाने की अनुमति है।
+- `max_concurrent_iterations`: प्रयोग के लिए अनुमत अधिकतम समवर्ती ट्रेनिंग पुनरावृत्तियाँ।
+- `primary_metric`: प्रयोग की स्थिति निर्धारित करने के लिए उपयोग किया जाने वाला प्राथमिक मीट्रिक।
+- `compute_target`: ऑटोमेटेड मशीन लर्निंग प्रयोग चलाने के लिए Azure Machine Learning कंप्यूट लक्ष्य।
+- `task`: चलाने के लिए कार्य का प्रकार। मान 'classification', 'regression', या 'forecasting' हो सकते हैं।
+- `training_data`: प्रयोग के भीतर उपयोग किए जाने वाले ट्रेनिंग डेटा। इसमें ट्रेनिंग फीचर्स और एक लेबल कॉलम (वैकल्पिक रूप से एक सैंपल वेट कॉलम) शामिल होना चाहिए।
+- `label_column_name`: लेबल कॉलम का नाम।
+- `path`: Azure Machine Learning प्रोजेक्ट फ़ोल्डर का पूर्ण पथ।
+- `enable_early_stopping`: यदि स्कोर अल्पकालिक में सुधार नहीं कर रहा है तो प्रारंभिक समाप्ति सक्षम करें।
+- `featurization`: स्वचालित रूप से फीचराइजेशन चरण किया जाना चाहिए या नहीं, या कस्टमाइज्ड फीचराइजेशन का उपयोग किया जाना चाहिए।
+- `debug_log`: डिबग जानकारी लिखने के लिए लॉग फ़ाइल।
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+अब जब आपका कॉन्फ़िगरेशन सेट हो गया है, तो आप निम्नलिखित कोड का उपयोग करके मॉडल को ट्रेन कर सकते हैं। यह चरण आपके क्लस्टर आकार के आधार पर एक घंटे तक लग सकता है।
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+आप RunDetails विजेट चला सकते हैं ताकि विभिन्न प्रयोग दिखाए जा सकें।
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Azure ML SDK के साथ मॉडल डिप्लॉयमेंट और एंडपॉइंट उपयोग
+
+### 3.1 सर्वश्रेष्ठ मॉडल को सेव करना
+
+`remote_run` [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) प्रकार का एक ऑब्जेक्ट है। इस ऑब्जेक्ट में `get_output()` नामक विधि होती है जो सर्वश्रेष्ठ रन और संबंधित फिटेड मॉडल लौटाती है।
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+आप फिटेड_model को प्रिंट करके सर्वश्रेष्ठ मॉडल के लिए उपयोग किए गए पैरामीटर देख सकते हैं और [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) विधि का उपयोग करके सर्वश्रेष्ठ मॉडल की विशेषताओं को देख सकते हैं।
+
+```python
+best_run.get_properties()
+```
+
+अब [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) विधि का उपयोग करके मॉडल को रजिस्टर करें।
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 मॉडल डिप्लॉयमेंट
+
+एक बार सर्वश्रेष्ठ मॉडल सेव हो जाने के बाद, हम इसे [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109) क्लास का उपयोग करके तैनात कर सकते हैं। InferenceConfig तैनाती के लिए उपयोग किए जाने वाले कस्टम वातावरण के लिए कॉन्फ़िगरेशन सेटिंग्स का प्रतिनिधित्व करता है। [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) क्लास Azure Container Instances पर एक वेब सेवा एंडपॉइंट के रूप में तैनात मशीन लर्निंग मॉडल का प्रतिनिधित्व करता है। एक तैनात सेवा मॉडल, स्क्रिप्ट और संबंधित फ़ाइलों से बनाई जाती है। परिणामी वेब सेवा एक लोड-बैलेंस्ड, HTTP एंडपॉइंट है जिसमें REST API है। आप इस API को डेटा भेज सकते हैं और मॉडल द्वारा लौटाई गई भविष्यवाणी प्राप्त कर सकते हैं।
+
+मॉडल को [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) विधि का उपयोग करके तैनात किया जाता है।
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+यह चरण कुछ मिनट लग सकता है।
+
+### 3.3 एंडपॉइंट उपयोग
+
+आप अपने एंडपॉइंट का उपयोग एक नमूना इनपुट बनाकर कर सकते हैं:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+और फिर आप इस इनपुट को भविष्यवाणी के लिए अपने मॉडल को भेज सकते हैं:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+यह आउटपुट `'{"result": [false]}'` होना चाहिए। इसका मतलब है कि हमने जो मरीज का इनपुट एंडपॉइंट पर भेजा, उससे `false` प्रेडिक्शन जनरेट हुआ, जो यह दर्शाता है कि इस व्यक्ति को हार्ट अटैक होने की संभावना नहीं है।
+
+बधाई हो! आपने Azure ML SDK के साथ Azure ML पर डिप्लॉय और ट्रेन किए गए मॉडल को सफलतापूर्वक उपयोग किया!
+
+> **_NOTE:_** प्रोजेक्ट पूरा करने के बाद, सभी संसाधनों को डिलीट करना न भूलें।
+
+## 🚀 चुनौती
+
+SDK के माध्यम से आप और भी कई चीजें कर सकते हैं, लेकिन दुर्भाग्यवश, हम इस पाठ में उन सभी को कवर नहीं कर सकते। अच्छी खबर यह है कि SDK डाक्यूमेंटेशन को पढ़ने और समझने की कला आपको आगे बढ़ने में मदद कर सकती है। Azure ML SDK डाक्यूमेंटेशन पर जाएं और `Pipeline` क्लास को खोजें, जो आपको पाइपलाइनों को बनाने की अनुमति देता है। पाइपलाइन स्टेप्स का एक संग्रह है जिसे वर्कफ़्लो के रूप में निष्पादित किया जा सकता है।
+
+**संकेत:** [SDK डाक्यूमेंटेशन](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) पर जाएं और सर्च बार में "Pipeline" जैसे कीवर्ड टाइप करें। आपको सर्च रिजल्ट्स में `azureml.pipeline.core.Pipeline` क्लास मिलनी चाहिए।
+
+## [पाठ के बाद का क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## समीक्षा और स्व-अध्ययन
+
+इस पाठ में, आपने सीखा कि Azure ML SDK का उपयोग करके क्लाउड में हार्ट फेल्योर जोखिम की भविष्यवाणी करने के लिए एक मॉडल को ट्रेन, डिप्लॉय और उपयोग कैसे करें। Azure ML SDK के बारे में अधिक जानकारी के लिए इस [डाक्यूमेंटेशन](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) को देखें। Azure ML SDK के साथ अपना खुद का मॉडल बनाने का प्रयास करें।
+
+## असाइनमेंट
+
+[Azure ML SDK का उपयोग करके डेटा साइंस प्रोजेक्ट](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/hi/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..fa8d776f
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,23 @@
+
+# Azure ML SDK का उपयोग करके डेटा साइंस प्रोजेक्ट
+
+## निर्देश
+
+हमने देखा कि Azure ML प्लेटफ़ॉर्म का उपयोग करके मॉडल को ट्रेन, डिप्लॉय और कंज्यूम कैसे किया जाता है। अब कुछ डेटा खोजें जिसे आप किसी अन्य मॉडल को ट्रेन करने, डिप्लॉय करने और कंज्यूम करने के लिए उपयोग कर सकते हैं। आप [Kaggle](https://kaggle.com) और [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) पर डेटासेट देख सकते हैं।
+
+## मूल्यांकन मानदंड
+
+| उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता |
+|-----------|----------|-------------------|
+|AutoML कॉन्फ़िगरेशन करते समय, आपने SDK डाक्यूमेंटेशन को देखा कि आप कौन से पैरामीटर उपयोग कर सकते हैं। आपने Azure ML SDK का उपयोग करके AutoML के माध्यम से एक डेटासेट पर ट्रेनिंग चलाई, और मॉडल की व्याख्याओं की जांच की। आपने सबसे अच्छे मॉडल को डिप्लॉय किया और Azure ML SDK के माध्यम से इसे कंज्यूम करने में सक्षम हुए। | आपने Azure ML SDK का उपयोग करके AutoML के माध्यम से एक डेटासेट पर ट्रेनिंग चलाई, और मॉडल की व्याख्याओं की जांच की। आपने सबसे अच्छे मॉडल को डिप्लॉय किया और Azure ML SDK के माध्यम से इसे कंज्यूम करने में सक्षम हुए। | आपने Azure ML SDK का उपयोग करके AutoML के माध्यम से एक डेटासेट पर ट्रेनिंग चलाई। आपने सबसे अच्छे मॉडल को डिप्लॉय किया और Azure ML SDK के माध्यम से इसे कंज्यूम करने में सक्षम हुए। |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/5-Data-Science-In-Cloud/README.md b/translations/hi/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..b2d2f0c1
--- /dev/null
+++ b/translations/hi/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,32 @@
+
+# क्लाउड में डेटा साइंस
+
+
+
+> फोटो [Jelleke Vanooteghem](https://unsplash.com/@ilumire) द्वारा [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape) से
+
+जब बड़े डेटा के साथ डेटा साइंस करने की बात आती है, तो क्लाउड एक गेम चेंजर साबित हो सकता है। अगले तीन पाठों में, हम देखेंगे कि क्लाउड क्या है और यह क्यों बहुत सहायक हो सकता है। हम एक हार्ट फेलियर डेटासेट का भी विश्लेषण करेंगे और एक मॉडल बनाएंगे जो किसी व्यक्ति के हार्ट फेलियर होने की संभावना का आकलन करने में मदद करेगा। हम क्लाउड की शक्ति का उपयोग करके दो अलग-अलग तरीकों से एक मॉडल को ट्रेन, डिप्लॉय और उपयोग करेंगे। एक तरीका केवल यूजर इंटरफेस का उपयोग करते हुए "लो कोड/नो कोड" तरीके से होगा, और दूसरा तरीका Azure Machine Learning Software Developer Kit (Azure ML SDK) का उपयोग करते हुए होगा।
+
+
+
+### विषय
+
+1. [डेटा साइंस के लिए क्लाउड का उपयोग क्यों करें?](17-Introduction/README.md)
+2. [क्लाउड में डेटा साइंस: "लो कोड/नो कोड" तरीका](18-Low-Code/README.md)
+3. [क्लाउड में डेटा साइंस: "Azure ML SDK" तरीका](19-Azure/README.md)
+
+### क्रेडिट्स
+ये पाठ ☁️ और 💕 के साथ [Maud Levy](https://twitter.com/maudstweets) और [Tiffany Souterre](https://twitter.com/TiffanySouterre) द्वारा लिखे गए हैं।
+
+हार्ट फेलियर प्रेडिक्शन प्रोजेक्ट के लिए डेटा [Larxel](https://www.kaggle.com/andrewmvd) से [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) पर लिया गया है। यह [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/) के तहत लाइसेंस प्राप्त है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/hi/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..0b47c2c4
--- /dev/null
+++ b/translations/hi/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,153 @@
+
+# वास्तविक दुनिया में डेटा विज्ञान
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| वास्तविक दुनिया में डेटा विज्ञान - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+हम इस सीखने की यात्रा के अंत के करीब हैं!
+
+हमने डेटा विज्ञान और नैतिकता की परिभाषाओं से शुरुआत की, डेटा विश्लेषण और विज़ुअलाइज़ेशन के विभिन्न उपकरणों और तकनीकों का पता लगाया, डेटा विज्ञान जीवनचक्र की समीक्षा की, और क्लाउड कंप्यूटिंग सेवाओं के साथ डेटा विज्ञान वर्कफ़्लो को स्केल और स्वचालित करने के तरीकों को देखा। तो, आप शायद सोच रहे हैं: _"मैं इन सभी सीखों को वास्तविक दुनिया के संदर्भों में कैसे लागू करूं?"_
+
+इस पाठ में, हम उद्योग में डेटा विज्ञान के वास्तविक दुनिया के अनुप्रयोगों का पता लगाएंगे और शोध, डिजिटल मानविकी, और स्थिरता के संदर्भों में विशिष्ट उदाहरणों में गहराई से जाएंगे। हम छात्र परियोजना के अवसरों पर चर्चा करेंगे और आपकी सीखने की यात्रा को जारी रखने में मदद करने के लिए उपयोगी संसाधनों के साथ निष्कर्ष निकालेंगे!
+
+## प्री-लेक्चर क्विज़
+
+[प्री-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## डेटा विज्ञान + उद्योग
+
+AI के लोकतंत्रीकरण के कारण, डेवलपर्स अब AI-चालित निर्णय लेने और डेटा-आधारित अंतर्दृष्टि को उपयोगकर्ता अनुभवों और विकास वर्कफ़्लो में डिज़ाइन और एकीकृत करना आसान पा रहे हैं। यहां कुछ उदाहरण दिए गए हैं कि कैसे डेटा विज्ञान को उद्योग में "लागू" किया जाता है:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) ने खोज शब्दों को फ्लू ट्रेंड्स के साथ सहसंबंधित करने के लिए डेटा विज्ञान का उपयोग किया। हालांकि इस दृष्टिकोण में खामियां थीं, इसने डेटा-आधारित स्वास्थ्य देखभाल भविष्यवाणियों की संभावनाओं (और चुनौतियों) के बारे में जागरूकता बढ़ाई।
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - UPS डेटा विज्ञान और मशीन लर्निंग का उपयोग करके मौसम की स्थिति, ट्रैफिक पैटर्न, डिलीवरी की समय सीमा और अधिक को ध्यान में रखते हुए डिलीवरी के लिए इष्टतम मार्गों की भविष्यवाणी करता है।
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - [Freedom Of Information Laws](https://chriswhong.com/open-data/foil_nyc_taxi/) का उपयोग करके एकत्रित डेटा ने NYC टैक्सियों के जीवन के एक दिन को विज़ुअलाइज़ करने में मदद की, जिससे यह समझने में मदद मिली कि वे व्यस्त शहर में कैसे नेविगेट करते हैं, वे कितना पैसा कमाते हैं, और प्रत्येक 24 घंटे की अवधि में यात्राओं की अवधि।
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - लाखों दैनिक Uber यात्राओं से एकत्रित डेटा (पिकअप और ड्रॉपऑफ स्थान, यात्रा की अवधि, पसंदीदा मार्ग आदि) का उपयोग करके एक डेटा एनालिटिक्स टूल बनाया गया जो मूल्य निर्धारण, सुरक्षा, धोखाधड़ी का पता लगाने और नेविगेशन निर्णयों में मदद करता है।
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - _पूर्वानुमानात्मक विश्लेषण_ (टीम और खिलाड़ी विश्लेषण - जैसे [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - और प्रशंसक प्रबंधन) और _डेटा विज़ुअलाइज़ेशन_ (टीम और प्रशंसक डैशबोर्ड, खेल आदि) पर केंद्रित है, जिसमें प्रतिभा स्काउटिंग, खेल सट्टेबाजी और इन्वेंट्री/स्थान प्रबंधन जैसे अनुप्रयोग शामिल हैं।
+
+ * [Data Science in Banking](https://data-flair.training/blogs/data-science-in-banking/) - वित्त उद्योग में डेटा विज्ञान के मूल्य को उजागर करता है, जिसमें जोखिम मॉडलिंग और धोखाधड़ी का पता लगाने से लेकर ग्राहक विभाजन, वास्तविक समय की भविष्यवाणी और अनुशंसा प्रणाली तक के अनुप्रयोग शामिल हैं। पूर्वानुमानात्मक विश्लेषण जैसे [क्रेडिट स्कोर](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit) जैसे महत्वपूर्ण उपायों को भी संचालित करता है।
+
+ * [Data Science in Healthcare](https://data-flair.training/blogs/data-science-in-healthcare/) - चिकित्सा इमेजिंग (जैसे, MRI, X-Ray, CT-Scan), जीनोमिक्स (DNA अनुक्रमण), दवा विकास (जोखिम मूल्यांकन, सफलता की भविष्यवाणी), पूर्वानुमानात्मक विश्लेषण (रोगी देखभाल और आपूर्ति रसद), रोग ट्रैकिंग और रोकथाम जैसे अनुप्रयोगों को उजागर करता है।
+
+ छवि क्रेडिट: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+चित्र अन्य डोमेन और डेटा विज्ञान तकनीकों को लागू करने के उदाहरण दिखाता है। क्या आप अन्य अनुप्रयोगों का पता लगाना चाहते हैं? नीचे दिए गए [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) अनुभाग को देखें।
+
+## डेटा विज्ञान + शोध
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| डेटा विज्ञान और शोध - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+जबकि वास्तविक दुनिया के अनुप्रयोग अक्सर बड़े पैमाने पर उद्योग उपयोग मामलों पर ध्यान केंद्रित करते हैं, _शोध_ अनुप्रयोग और परियोजनाएं दो दृष्टिकोणों से उपयोगी हो सकती हैं:
+
+* _नवाचार के अवसर_ - उन्नत अवधारणाओं के त्वरित प्रोटोटाइप और अगली पीढ़ी के अनुप्रयोगों के लिए उपयोगकर्ता अनुभवों का परीक्षण करें।
+* _तैनाती चुनौतियां_ - वास्तविक दुनिया के संदर्भों में डेटा विज्ञान प्रौद्योगिकियों के संभावित नुकसान या अनपेक्षित परिणामों की जांच करें।
+
+छात्रों के लिए, ये शोध परियोजनाएं न केवल सीखने बल्कि सहयोग के अवसर प्रदान कर सकती हैं, जो विषय की आपकी समझ में सुधार कर सकती हैं और रुचि के क्षेत्रों में काम कर रहे प्रासंगिक लोगों या टीमों के साथ आपकी जागरूकता और जुड़ाव को व्यापक बना सकती हैं। तो शोध परियोजनाएं कैसी दिखती हैं और वे प्रभाव कैसे डाल सकती हैं?
+
+आइए एक उदाहरण देखें - [MIT Gender Shades Study](http://gendershades.org/overview.html) जॉय बुओलामविनी (MIT Media Labs) द्वारा, जिसमें एक [प्रमुख शोध पत्र](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) शामिल है, जिसे टिमनिट गेब्रु (तब Microsoft Research में) के साथ सह-लेखित किया गया था। यह केंद्रित था:
+
+ * **क्या:** शोध परियोजना का उद्देश्य _लिंग और त्वचा प्रकार के आधार पर स्वचालित चेहरे विश्लेषण एल्गोरिदम और डेटासेट में मौजूद पूर्वाग्रह का मूल्यांकन करना_ था।
+ * **क्यों:** चेहरे का विश्लेषण कानून प्रवर्तन, हवाई अड्डा सुरक्षा, भर्ती प्रणाली और अधिक जैसे क्षेत्रों में उपयोग किया जाता है - ऐसे संदर्भ जहां गलत वर्गीकरण (जैसे, पूर्वाग्रह के कारण) प्रभावित व्यक्तियों या समूहों को संभावित आर्थिक और सामाजिक नुकसान पहुंचा सकता है। उपयोग में निष्पक्षता के लिए पूर्वाग्रहों को समझना (और समाप्त करना या कम करना) महत्वपूर्ण है।
+ * **कैसे:** शोधकर्ताओं ने पहचाना कि मौजूदा बेंचमार्क मुख्य रूप से हल्की त्वचा वाले विषयों का उपयोग करते हैं, और एक नया डेटा सेट (1000+ छवियां) तैयार किया जो लिंग और त्वचा प्रकार द्वारा _अधिक संतुलित_ था। डेटा सेट का उपयोग Microsoft, IBM और Face++ के तीन लिंग वर्गीकरण उत्पादों की सटीकता का मूल्यांकन करने के लिए किया गया।
+
+परिणामों से पता चला कि हालांकि समग्र वर्गीकरण सटीकता अच्छी थी, विभिन्न उपसमूहों के बीच त्रुटि दर में ध्यान देने योग्य अंतर था - जिसमें **गलत लिंग निर्धारण** महिलाओं या गहरे रंग की त्वचा वाले व्यक्तियों के लिए अधिक था, जो पूर्वाग्रह का संकेत देता है।
+
+**मुख्य परिणाम:** डेटा विज्ञान को अधिक _प्रतिनिधि डेटासेट_ (संतुलित उपसमूह) और अधिक _समावेशी टीमों_ (विविध पृष्ठभूमि) की आवश्यकता है ताकि AI समाधानों में ऐसे पूर्वाग्रहों को पहले ही पहचानने और समाप्त करने या कम करने में मदद मिल सके। इस तरह के शोध प्रयास कई संगठनों को _जिम्मेदार AI_ के लिए सिद्धांतों और प्रथाओं को परिभाषित करने में भी सहायक होते हैं ताकि उनके AI उत्पादों और प्रक्रियाओं में निष्पक्षता में सुधार हो सके।
+
+**Microsoft में प्रासंगिक शोध प्रयासों के बारे में जानना चाहते हैं?**
+
+* [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) पर कृत्रिम बुद्धिमत्ता के बारे में जानें।
+* [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/) से छात्र परियोजनाओं का अन्वेषण करें।
+* [Fairlearn](https://fairlearn.org/) परियोजना और [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) पहलों को देखें।
+
+## डेटा विज्ञान + मानविकी
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| डेटा विज्ञान और डिजिटल मानविकी - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+डिजिटल मानविकी [को परिभाषित किया गया है](https://digitalhumanities.stanford.edu/about-dh-stanford) "कंप्यूटेशनल विधियों को मानवतावादी जांच के साथ जोड़ने वाले प्रथाओं और दृष्टिकोणों का संग्रह" के रूप में। [स्टैनफोर्ड परियोजनाएं](https://digitalhumanities.stanford.edu/projects) जैसे _"इतिहास को पुनः आरंभ करना"_ और _"काव्यात्मक सोच"_ [डिजिटल मानविकी और डेटा विज्ञान](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) के बीच संबंध को चित्रित करती हैं - नेटवर्क विश्लेषण, सूचना विज़ुअलाइज़ेशन, स्थानिक और पाठ विश्लेषण जैसी तकनीकों पर जोर देते हुए, जो हमें ऐतिहासिक और साहित्यिक डेटा सेटों को फिर से देखने और नई अंतर्दृष्टि और दृष्टिकोण प्राप्त करने में मदद कर सकती हैं।
+
+*क्या आप इस क्षेत्र में एक परियोजना का अन्वेषण और विस्तार करना चाहते हैं?*
+
+["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) देखें - [Jen Looper](https://twitter.com/jenlooper) का एक शानदार उदाहरण जो पूछता है कि हम डेटा विज्ञान का उपयोग करके परिचित कविता को फिर से कैसे देख सकते हैं और इसके अर्थ और इसके लेखक के योगदान को नए संदर्भों में पुनः मूल्यांकन कर सकते हैं। उदाहरण के लिए, _क्या हम कविता के स्वर या भावना का विश्लेषण करके यह अनुमान लगा सकते हैं कि कविता किस मौसम में लिखी गई थी_ - और यह हमें संबंधित अवधि में लेखक की मानसिक स्थिति के बारे में क्या बताता है?
+
+इस प्रश्न का उत्तर देने के लिए, हम अपने डेटा विज्ञान जीवनचक्र के चरणों का पालन करते हैं:
+ * [`डेटा अधिग्रहण`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - विश्लेषण के लिए एक प्रासंगिक डेटा सेट एकत्र करने के लिए। विकल्पों में API का उपयोग करना (जैसे, [Poetry DB API](https://poetrydb.org/index.html)) या वेब पृष्ठों को स्क्रैप करना (जैसे, [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) [Scrapy](https://scrapy.org/) जैसे उपकरणों का उपयोग करके शामिल हैं।
+ * [`डेटा सफाई`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - यह बताता है कि टेक्स्ट को कैसे प्रारूपित, स्वच्छ और सरल बनाया जा सकता है, जैसे बुनियादी उपकरणों का उपयोग करके Visual Studio Code और Microsoft Excel।
+ * [`डेटा विश्लेषण`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - यह बताता है कि हम अब डेटा सेट को "नोटबुक्स" में आयात करके विश्लेषण कर सकते हैं, जैसे Python पैकेज (जैसे pandas, numpy और matplotlib) का उपयोग करके डेटा को व्यवस्थित और विज़ुअलाइज़ करना।
+ * [`भावना विश्लेषण`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - यह बताता है कि हम Text Analytics जैसे क्लाउड सेवाओं को कैसे एकीकृत कर सकते हैं, जैसे [Power Automate](https://flow.microsoft.com/en-us/) जैसे लो-कोड टूल का उपयोग करके स्वचालित डेटा प्रोसेसिंग वर्कफ़्लो के लिए।
+
+इस वर्कफ़्लो का उपयोग करके, हम कविताओं की भावना पर मौसमी प्रभावों का पता लगा सकते हैं और हमें लेखक पर अपनी खुद की दृष्टिकोण बनाने में मदद कर सकते हैं। इसे स्वयं आज़माएं - फिर नोटबुक का विस्तार करें ताकि अन्य प्रश्न पूछे जा सकें या डेटा को नए तरीकों से विज़ुअलाइज़ किया जा सके!
+
+> आप [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) में कुछ उपकरणों का उपयोग करके इन जांच के रास्तों को आगे बढ़ा सकते हैं।
+
+## डेटा विज्ञान + स्थिरता
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| डेटा विज्ञान और स्थिरता - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[2030 Agenda For Sustainable Development](https://sdgs.un.org/2030agenda) - जिसे 2015 में सभी संयुक्त राष्ट्र सदस्यों द्वारा अपनाया गया था - 17 लक्ष्यों की पहचान करता है, जिनमें **ग्रह की रक्षा** और जलवायु परिवर्तन के प्रभाव पर ध्यान केंद्रित करने वाले लक्ष्य शामिल हैं। [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) पहल इन लक्ष्यों का समर्थन करती है और प्रौद्योगिकी समाधानों के माध्यम से अधिक स्थिर भविष्य बनाने के तरीकों का पता लगाती है, जिसमें [4 लक्ष्यों पर ध्यान केंद्रित](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) किया गया है - 2030 तक कार्बन नकारात्मक, जल सकारात्मक, शून्य अपशिष्ट, और जैव-विविध बनना।
+
+इन चुनौतियों को बड़े पैमाने पर और समय पर तरीके से हल करने के लिए क्लाउड-स्केल सोच और बड़े पैमाने पर डेटा की आवश्यकता होती है। [Planetary Computer](https://planetarycomputer.microsoft.com/) पहल डेटा वैज्ञानिकों और डेवलपर्स को इस प्रयास में मदद करने के लिए 4 घटक प्रदान करती है:
+
+ * [डेटा कैटलॉग](https://planetarycomputer.microsoft.com/catalog) - पृथ्वी प्रणाली डेटा के पेटाबाइट्स (मुफ्त और Azure-होस्टेड) के साथ।
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - उपयोगकर्ताओं को स्थान और समय के अनुसार प्रासंगिक डेटा खोजने में मदद करने के लिए।
+ * [हब](https://planetarycomputer.microsoft.com/docs/overview/environment/) - वैज्ञानिकों के लिए विशाल भू-स्थानिक डेटा सेटों को संसाधित करने के लिए प्रबंधित वातावरण।
+ * [अनुप्रयोग](https://planetarycomputer.microsoft.com/applications) - स्थिरता अंतर्दृष्टि के लिए उपयोग के मामलों और उपकरणों को प्रदर्शित करता है।
+**प्लैनेटरी कंप्यूटर प्रोजेक्ट वर्तमान में प्रीव्यू में है (सितंबर 2021 तक)** - यहां बताया गया है कि आप डेटा साइंस का उपयोग करके स्थिरता समाधान में योगदान कैसे शुरू कर सकते हैं।
+
+* [एक्सेस का अनुरोध करें](https://planetarycomputer.microsoft.com/account/request) ताकि आप अन्वेषण शुरू कर सकें और अपने साथियों से जुड़ सकें।
+* [डॉक्यूमेंटेशन का अन्वेषण करें](https://planetarycomputer.microsoft.com/docs/overview/about) ताकि आप समर्थित डेटा सेट्स और APIs को समझ सकें।
+* [इकोसिस्टम मॉनिटरिंग](https://analytics-lab.org/ecosystemmonitoring/) जैसे एप्लिकेशन का अन्वेषण करें ताकि एप्लिकेशन आइडियाज के लिए प्रेरणा मिल सके।
+
+सोचें कि आप डेटा विज़ुअलाइज़ेशन का उपयोग कैसे कर सकते हैं ताकि जलवायु परिवर्तन और वनों की कटाई जैसे क्षेत्रों में प्रासंगिक अंतर्दृष्टि को उजागर या बढ़ाया जा सके। या सोचें कि इन अंतर्दृष्टियों का उपयोग कैसे किया जा सकता है ताकि नए उपयोगकर्ता अनुभव बनाए जा सकें जो अधिक स्थायी जीवन के लिए व्यवहारिक बदलावों को प्रेरित करें।
+
+## डेटा साइंस + छात्र
+
+हमने उद्योग और शोध में वास्तविक दुनिया के अनुप्रयोगों के बारे में बात की है, और डिजिटल ह्यूमैनिटीज और स्थिरता में डेटा साइंस एप्लिकेशन के उदाहरणों का अन्वेषण किया है। तो आप डेटा साइंस के शुरुआती के रूप में अपनी कौशल कैसे बना सकते हैं और अपनी विशेषज्ञता कैसे साझा कर सकते हैं?
+
+यहां कुछ डेटा साइंस छात्र परियोजनाओं के उदाहरण दिए गए हैं जो आपको प्रेरित कर सकते हैं।
+
+* [MSR डेटा साइंस समर स्कूल](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) के GitHub [प्रोजेक्ट्स](https://github.com/msr-ds3) जो निम्नलिखित विषयों का अन्वेषण करते हैं:
+ - [पुलिस द्वारा बल प्रयोग में नस्लीय पक्षपात](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [NYC सबवे सिस्टम की विश्वसनीयता](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [सामग्री संस्कृति का डिजिटलीकरण: सर्कप में सामाजिक-आर्थिक वितरण का अन्वेषण](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - [Ornella Altunyan](https://twitter.com/ornelladotcom) और Claremont की टीम द्वारा, [ArcGIS StoryMaps](https://storymaps.arcgis.com/) का उपयोग करते हुए।
+
+## 🚀 चुनौती
+
+ऐसे लेख खोजें जो शुरुआती के लिए उपयुक्त डेटा साइंस प्रोजेक्ट्स की सिफारिश करते हैं - जैसे [ये 50 विषय क्षेत्र](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) या [ये 21 प्रोजेक्ट आइडियाज](https://www.intellspot.com/data-science-project-ideas) या [ये 16 प्रोजेक्ट्स सोर्स कोड के साथ](https://data-flair.training/blogs/data-science-project-ideas/) जिन्हें आप डी-कंस्ट्रक्ट और रीमिक्स कर सकते हैं। और अपनी सीखने की यात्रा के बारे में ब्लॉग लिखना न भूलें और अपनी अंतर्दृष्टि हम सभी के साथ साझा करें।
+
+## पोस्ट-लेक्चर क्विज़
+
+[पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## समीक्षा और स्व-अध्ययन
+
+अधिक उपयोग मामलों का अन्वेषण करना चाहते हैं? यहां कुछ प्रासंगिक लेख दिए गए हैं:
+* [17 डेटा साइंस एप्लिकेशन और उदाहरण](https://builtin.com/data-science/data-science-applications-examples) - जुलाई 2021
+* [वास्तविक दुनिया में 11 अद्भुत डेटा साइंस एप्लिकेशन](https://myblindbird.com/data-science-applications-real-world/) - मई 2021
+* [वास्तविक दुनिया में डेटा साइंस](https://towardsdatascience.com/data-science-in-the-real-world/home) - लेख संग्रह
+* डेटा साइंस इन: [शिक्षा](https://data-flair.training/blogs/data-science-in-education/), [कृषि](https://data-flair.training/blogs/data-science-in-agriculture/), [वित्त](https://data-flair.training/blogs/data-science-in-finance/), [फिल्में](https://data-flair.training/blogs/data-science-at-movies/) और अधिक।
+
+## असाइनमेंट
+
+[प्लैनेटरी कंप्यूटर डेटा सेट का अन्वेषण करें](assignment.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/hi/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..d233e03d
--- /dev/null
+++ b/translations/hi/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,48 @@
+
+# ग्रह कंप्यूटर डेटा सेट का अन्वेषण करें
+
+## निर्देश
+
+इस पाठ में, हमने विभिन्न डेटा विज्ञान अनुप्रयोग क्षेत्रों के बारे में बात की - शोध, स्थिरता और डिजिटल मानविकी से संबंधित उदाहरणों पर गहराई से चर्चा की। इस असाइनमेंट में, आप इन उदाहरणों में से एक को अधिक विस्तार से अन्वेषण करेंगे और डेटा विज़ुअलाइज़ेशन और विश्लेषण के बारे में अपनी सीख को लागू करके स्थिरता डेटा से अंतर्दृष्टि प्राप्त करेंगे।
+
+[ग्रह कंप्यूटर](https://planetarycomputer.microsoft.com/) प्रोजेक्ट में डेटा सेट और एपीआई हैं जिन्हें एक खाते के साथ एक्सेस किया जा सकता है - यदि आप असाइनमेंट के बोनस चरण को आज़माना चाहते हैं तो एक्सेस के लिए अनुरोध करें। साइट एक [एक्सप्लोरर](https://planetarycomputer.microsoft.com/explore) सुविधा भी प्रदान करती है जिसे आप खाता बनाए बिना उपयोग कर सकते हैं।
+
+`चरण:`
+एक्सप्लोरर इंटरफ़ेस (नीचे स्क्रीनशॉट में दिखाया गया है) आपको एक डेटा सेट (प्रदान किए गए विकल्पों में से), एक प्रीसेट क्वेरी (डेटा को फ़िल्टर करने के लिए) और एक रेंडरिंग विकल्प (प्रासंगिक विज़ुअलाइज़ेशन बनाने के लिए) चुनने देता है। इस असाइनमेंट में, आपका कार्य है:
+
+ 1. [एक्सप्लोरर दस्तावेज़ीकरण](https://planetarycomputer.microsoft.com/docs/overview/explorer/) पढ़ें - विकल्पों को समझें।
+ 2. डेटा सेट [कैटलॉग](https://planetarycomputer.microsoft.com/catalog) का अन्वेषण करें - प्रत्येक का उद्देश्य जानें।
+ 3. एक्सप्लोरर का उपयोग करें - अपनी रुचि का डेटा सेट चुनें, एक प्रासंगिक क्वेरी और रेंडरिंग विकल्प चुनें।
+
+
+
+`आपका कार्य:`
+अब ब्राउज़र में रेंडर किए गए विज़ुअलाइज़ेशन का अध्ययन करें और निम्नलिखित प्रश्नों का उत्तर दें:
+ * डेटा सेट में कौन-कौन से _फीचर्स_ हैं?
+ * विज़ुअलाइज़ेशन कौन-कौन सी _अंतर्दृष्टि_ या परिणाम प्रदान करता है?
+ * उन अंतर्दृष्टियों का परियोजना के स्थिरता लक्ष्यों पर क्या _प्रभाव_ है?
+ * विज़ुअलाइज़ेशन की क्या _सीमाएँ_ हैं (यानी, कौन सी अंतर्दृष्टि आपको नहीं मिली)?
+ * यदि आपको कच्चा डेटा मिल जाए, तो आप कौन-कौन से _वैकल्पिक विज़ुअलाइज़ेशन_ बनाएंगे, और क्यों?
+
+`बोनस अंक:`
+खाते के लिए आवेदन करें - और स्वीकृत होने पर लॉगिन करें।
+ * _लॉन्च हब_ विकल्प का उपयोग करके कच्चा डेटा नोटबुक में खोलें।
+ * डेटा को इंटरैक्टिव रूप से अन्वेषण करें और उन वैकल्पिक विज़ुअलाइज़ेशन को लागू करें जिनके बारे में आपने सोचा था।
+ * अब अपने कस्टम विज़ुअलाइज़ेशन का विश्लेषण करें - क्या आप उन अंतर्दृष्टियों को प्राप्त करने में सक्षम थे जो पहले छूट गई थीं?
+
+## मूल्यांकन मानदंड
+
+उत्कृष्ट | पर्याप्त | सुधार की आवश्यकता
+--- | --- | -- |
+सभी पाँच मुख्य प्रश्नों का उत्तर दिया गया। छात्र ने स्पष्ट रूप से पहचाना कि वर्तमान और वैकल्पिक विज़ुअलाइज़ेशन स्थिरता उद्देश्यों या परिणामों में अंतर्दृष्टि कैसे प्रदान कर सकते हैं।| छात्र ने कम से कम शीर्ष 3 प्रश्नों का विस्तार से उत्तर दिया, जिससे पता चलता है कि उन्होंने एक्सप्लोरर के साथ व्यावहारिक अनुभव प्राप्त किया।| छात्र कई प्रश्नों का उत्तर देने में विफल रहा, या अपर्याप्त विवरण प्रदान किया - जिससे संकेत मिलता है कि परियोजना के लिए कोई सार्थक प्रयास नहीं किया गया। |
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/6-Data-Science-In-Wild/README.md b/translations/hi/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..ca3f1082
--- /dev/null
+++ b/translations/hi/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,23 @@
+
+# जंगली में डेटा साइंस
+
+विभिन्न उद्योगों में डेटा साइंस के वास्तविक दुनिया में उपयोग।
+
+### विषय
+
+1. [वास्तविक दुनिया में डेटा साइंस](20-Real-World-Examples/README.md)
+
+### श्रेय
+
+❤️ के साथ लिखा गया [नित्या नरसिम्हन](https://twitter.com/nitya) द्वारा
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल दस्तावेज़, जो इसकी मूल भाषा में है, को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/CODE_OF_CONDUCT.md b/translations/hi/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..c87a3b2f
--- /dev/null
+++ b/translations/hi/CODE_OF_CONDUCT.md
@@ -0,0 +1,21 @@
+
+# Microsoft ओपन सोर्स आचार संहिता
+
+इस प्रोजेक्ट ने [Microsoft ओपन सोर्स आचार संहिता](https://opensource.microsoft.com/codeofconduct/) को अपनाया है।
+
+संसाधन:
+
+- [Microsoft ओपन सोर्स आचार संहिता](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoft आचार संहिता FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+- प्रश्नों या चिंताओं के लिए [opencode@microsoft.com](mailto:opencode@microsoft.com) पर संपर्क करें
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/CONTRIBUTING.md b/translations/hi/CONTRIBUTING.md
new file mode 100644
index 00000000..911b38b0
--- /dev/null
+++ b/translations/hi/CONTRIBUTING.md
@@ -0,0 +1,19 @@
+
+# योगदान देना
+
+यह प्रोजेक्ट योगदान और सुझावों का स्वागत करता है। अधिकांश योगदानों के लिए आपको एक Contributor License Agreement (CLA) से सहमत होना होगा, जिसमें यह घोषित किया जाता है कि आपके पास अधिकार हैं और आप हमें अपने योगदान का उपयोग करने का अधिकार प्रदान करते हैं। विवरण के लिए, https://cla.microsoft.com पर जाएं।
+
+जब आप एक पुल रिक्वेस्ट सबमिट करते हैं, तो एक CLA-बॉट स्वचालित रूप से यह निर्धारित करेगा कि क्या आपको CLA प्रदान करने की आवश्यकता है और PR को उपयुक्त रूप से सजाएगा (जैसे, लेबल, टिप्पणी)। बस बॉट द्वारा दिए गए निर्देशों का पालन करें। आपको यह केवल एक बार सभी रिपॉजिटरीज़ में करना होगा जो हमारे CLA का उपयोग करती हैं।
+
+इस प्रोजेक्ट ने [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/) को अपनाया है। अधिक जानकारी के लिए [Code of Conduct FAQ](https://opensource.microsoft.com/codeofconduct/faq/) देखें या [opencode@microsoft.com](mailto:opencode@microsoft.com) पर किसी भी अतिरिक्त प्रश्न या टिप्पणियों के लिए संपर्क करें।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/README.md b/translations/hi/README.md
new file mode 100644
index 00000000..5c221f6b
--- /dev/null
+++ b/translations/hi/README.md
@@ -0,0 +1,162 @@
+
+# डेटा साइंस के शुरुआती - एक पाठ्यक्रम
+
+Azure Cloud Advocates, Microsoft में, डेटा साइंस पर आधारित 10 सप्ताह, 20 पाठों का पाठ्यक्रम प्रस्तुत करने पर गर्व महसूस कर रहे हैं। प्रत्येक पाठ में प्री-लेसन और पोस्ट-लेसन क्विज़, लिखित निर्देश, समाधान और असाइनमेंट शामिल हैं। हमारा प्रोजेक्ट-आधारित शिक्षण दृष्टिकोण आपको सीखने के साथ-साथ निर्माण करने की अनुमति देता है, जो नई कौशल को लंबे समय तक बनाए रखने का एक सिद्ध तरीका है।
+
+**हमारे लेखकों को हार्दिक धन्यवाद:** [जैस्मिन ग्रीनवे](https://www.twitter.com/paladique), [दिमित्री सॉश्निकोव](http://soshnikov.com), [नित्या नरसिम्हन](https://twitter.com/nitya), [जालेन मैक्गी](https://twitter.com/JalenMcG), [जेन लूपर](https://twitter.com/jenlooper), [मॉड लेवी](https://twitter.com/maudstweets), [टिफ़नी सॉटर](https://twitter.com/TiffanySouterre), [क्रिस्टोफर हैरिसन](https://www.twitter.com/geektrainer)।
+
+**🙏 विशेष धन्यवाद 🙏 हमारे [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) लेखकों, समीक्षकों और सामग्री योगदानकर्ताओं को,** विशेष रूप से आर्यन अरोरा, [आदित्य गर्ग](https://github.com/AdityaGarg00), [अलोंड्रा सांचेज़](https://www.linkedin.com/in/alondra-sanchez-molina/), [अंकिता सिंह](https://www.linkedin.com/in/ankitasingh007), [अनुपम मिश्रा](https://www.linkedin.com/in/anupam--mishra/), [अर्पिता दास](https://www.linkedin.com/in/arpitadas01/), छैल बिहारी दुबे, [डिब्री नसोफर](https://www.linkedin.com/in/dibrinsofor), [दिशिता भसीन](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [मज्द साफी](https://www.linkedin.com/in/majd-s/), [मैक्स ब्लम](https://www.linkedin.com/in/max-blum-6036a1186/), [मिगुएल कोरेया](https://www.linkedin.com/in/miguelmque/), [मोहम्मा इफ्तेखेर (इफ्तु) इब्ने जलाल](https://twitter.com/iftu119), [नवरिन तबस्सुम](https://www.linkedin.com/in/nawrin-tabassum), [रेमंड वांगसा पुत्रा](https://www.linkedin.com/in/raymond-wp/), [रोहित यादव](https://www.linkedin.com/in/rty2423), समृद्धि शर्मा, [सान्या सिन्हा](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [शीना नरूला](https://www.linkedin.com/in/sheena-narua-n/), [तौकीर अहमद](https://www.linkedin.com/in/tauqeerahmad5201/), योगेंद्रसिंह पवार, [विदुषी गुप्ता](https://www.linkedin.com/in/vidushi-gupta07/), [जसलीन सोंधी](https://www.linkedin.com/in/jasleen-sondhi/)।
+
+| द्वारा ](./sketchnotes/00-Title.png)|
+|:---:|
+| शुरुआती के लिए डेटा साइंस - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+## घोषणा - जनरेटिव AI पर नया पाठ्यक्रम जारी किया गया!
+
+हमने जनरेटिव AI पर आधारित 12 पाठों का पाठ्यक्रम जारी किया है। इसमें आप निम्नलिखित चीजें सीख सकते हैं:
+
+- प्रॉम्प्टिंग और प्रॉम्प्ट इंजीनियरिंग
+- टेक्स्ट और इमेज ऐप निर्माण
+- सर्च ऐप्स
+
+जैसा कि हमेशा होता है, इसमें पाठ, असाइनमेंट, ज्ञान जांच और चुनौतियां शामिल हैं।
+
+देखें:
+
+> https://aka.ms/genai-beginners
+
+# क्या आप छात्र हैं?
+
+निम्नलिखित संसाधनों से शुरुआत करें:
+
+- [स्टूडेंट हब पेज](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) इस पेज पर आपको शुरुआती संसाधन, स्टूडेंट पैक्स और यहां तक कि मुफ्त प्रमाणपत्र वाउचर प्राप्त करने के तरीके मिलेंगे। यह एक ऐसा पेज है जिसे आप बुकमार्क करना चाहेंगे और समय-समय पर जांचना चाहेंगे क्योंकि हम कम से कम मासिक रूप से सामग्री बदलते हैं।
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) एक वैश्विक छात्र एंबेसडर समुदाय में शामिल हों, यह Microsoft में आपका प्रवेश द्वार हो सकता है।
+
+# शुरुआत करना
+
+> **शिक्षक**: हमने इस पाठ्यक्रम का उपयोग करने के लिए [कुछ सुझाव शामिल किए हैं](for-teachers.md)। हमें आपके फीडबैक की आवश्यकता है [हमारे चर्चा मंच में](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[छात्र](https://aka.ms/student-page)**: इस पाठ्यक्रम का उपयोग अपने आप करने के लिए, पूरे रिपॉजिटरी को फोर्क करें और अपने आप अभ्यास करें, प्री-लेक्चर क्विज़ से शुरुआत करें। फिर लेक्चर पढ़ें और बाकी गतिविधियों को पूरा करें। पाठों को समझकर प्रोजेक्ट बनाने की कोशिश करें बजाय समाधान कोड की नकल करने के; हालांकि, वह कोड प्रत्येक प्रोजेक्ट-उन्मुख पाठ में /solutions फोल्डर में उपलब्ध है। एक और विचार यह हो सकता है कि दोस्तों के साथ एक अध्ययन समूह बनाएं और सामग्री को एक साथ पढ़ें। आगे की पढ़ाई के लिए, हम [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum) की सिफारिश करते हैं।
+
+## टीम से मिलें
+
+[](https://youtu.be/8mzavjQSMM4 "प्रोमो वीडियो")
+
+**Gif द्वारा** [मोहित जैसल](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 ऊपर दी गई छवि पर क्लिक करें इस प्रोजेक्ट और इसे बनाने वाले लोगों के बारे में वीडियो देखने के लिए!
+
+## शिक्षण दृष्टिकोण
+
+हमने इस पाठ्यक्रम को बनाते समय दो शिक्षण दृष्टिकोण चुने हैं: यह सुनिश्चित करना कि यह प्रोजेक्ट-आधारित है और इसमें बार-बार क्विज़ शामिल हैं। इस श्रृंखला के अंत तक, छात्र डेटा साइंस के बुनियादी सिद्धांतों को सीख चुके होंगे, जिसमें नैतिक अवधारणाएं, डेटा तैयारी, डेटा के साथ काम करने के विभिन्न तरीके, डेटा विज़ुअलाइज़ेशन, डेटा विश्लेषण, डेटा साइंस के वास्तविक जीवन उपयोग के मामले और अधिक शामिल हैं।
+
+इसके अलावा, कक्षा से पहले एक कम दबाव वाला क्विज़ छात्र को विषय सीखने की ओर प्रेरित करता है, जबकि कक्षा के बाद दूसरा क्विज़ आगे की अवधारणाओं को बनाए रखने में मदद करता है। यह पाठ्यक्रम लचीला और मजेदार बनाया गया है और इसे पूरे या आंशिक रूप से लिया जा सकता है। प्रोजेक्ट छोटे से शुरू होते हैं और 10 सप्ताह के चक्र के अंत तक धीरे-धीरे जटिल हो जाते हैं।
+
+> हमारा [आचार संहिता](CODE_OF_CONDUCT.md), [योगदान](CONTRIBUTING.md), [अनुवाद](TRANSLATIONS.md) दिशानिर्देश देखें। हम आपके रचनात्मक फीडबैक का स्वागत करते हैं!
+
+## प्रत्येक पाठ में शामिल हैं:
+
+- वैकल्पिक स्केच नोट
+- वैकल्पिक पूरक वीडियो
+- प्री-लेसन वार्मअप क्विज़
+- लिखित पाठ
+- प्रोजेक्ट-आधारित पाठों के लिए, प्रोजेक्ट बनाने के लिए चरण-दर-चरण गाइड
+- ज्ञान जांच
+- एक चुनौती
+- पूरक पढ़ाई
+- असाइनमेंट
+- पोस्ट-लेसन क्विज़
+
+> **क्विज़ के बारे में एक नोट**: सभी क्विज़ Quiz-App फोल्डर में हैं, कुल 40 क्विज़, प्रत्येक में तीन प्रश्न। वे पाठों के भीतर से लिंक किए गए हैं, लेकिन Quiz-App को स्थानीय रूप से चलाया जा सकता है या Azure पर तैनात किया जा सकता है; `quiz-app` फोल्डर में निर्देशों का पालन करें। वे धीरे-धीरे स्थानीयकृत किए जा रहे हैं।
+
+## पाठ
+
+| द्वारा ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| शुरुआती के लिए डेटा साइंस: रोडमैप - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
+
+| पाठ संख्या | विषय | पाठ समूह | सीखने के उद्देश्य | लिंक किया गया पाठ | लेखक |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | डेटा साइंस को परिभाषित करना | [परिचय](1-Introduction/README.md) | डेटा साइंस के पीछे के बुनियादी अवधारणाओं को सीखें और यह कृत्रिम बुद्धिमत्ता, मशीन लर्निंग और बिग डेटा से कैसे संबंधित है। | [पाठ](1-Introduction/01-defining-data-science/README.md) [वीडियो](https://youtu.be/beZ7Mb_oz9I) | [दिमित्री](http://soshnikov.com) |
+| 02 | डेटा साइंस नैतिकता | [परिचय](1-Introduction/README.md) | डेटा नैतिकता की अवधारणाएं, चुनौतियां और ढांचे। | [पाठ](1-Introduction/02-ethics/README.md) | [नित्या](https://twitter.com/nitya) |
+| 03 | डेटा को परिभाषित करना | [परिचय](1-Introduction/README.md) | डेटा कैसे वर्गीकृत किया जाता है और इसके सामान्य स्रोत। | [पाठ](1-Introduction/03-defining-data/README.md) | [जैस्मिन](https://www.twitter.com/paladique) |
+| 04 | सांख्यिकी और संभावना का परिचय | [परिचय](1-Introduction/README.md) | डेटा को समझने के लिए संभावना और सांख्यिकी की गणितीय तकनीकें। | [पाठ](1-Introduction/04-stats-and-probability/README.md) [वीडियो](https://youtu.be/Z5Zy85g4Yjw) | [दिमित्री](http://soshnikov.com) |
+| 05 | संबंधपरक डेटा के साथ काम करना | [डेटा के साथ काम करना](2-Working-With-Data/README.md) | संबंधपरक डेटा का परिचय और SQL (Structured Query Language) के साथ संबंधपरक डेटा का अन्वेषण और विश्लेषण करने की मूल बातें। | [पाठ](2-Working-With-Data/05-relational-databases/README.md) | [क्रिस्टोफर](https://www.twitter.com/geektrainer) | | |
+| 06 | NoSQL डेटा के साथ काम करना | [डेटा के साथ काम करना](2-Working-With-Data/README.md) | गैर-संबंधपरक डेटा का परिचय, इसके विभिन्न प्रकार और डॉक्यूमेंट डेटाबेस का अन्वेषण और विश्लेषण करने की मूल बातें। | [पाठ](2-Working-With-Data/06-non-relational/README.md) | [जैस्मिन](https://twitter.com/paladique)|
+| 07 | पायथन के साथ काम करना | [डेटा के साथ काम करना](2-Working-With-Data/README.md) | Pandas जैसी लाइब्रेरी के साथ डेटा अन्वेषण के लिए पायथन का उपयोग करने की मूल बातें। पायथन प्रोग्रामिंग की बुनियादी समझ की सिफारिश की जाती है। | [पाठ](2-Working-With-Data/07-python/README.md) [वीडियो](https://youtu.be/dZjWOGbsN4Y) | [दिमित्री](http://soshnikov.com) |
+| 08 | डेटा तैयारी | [डेटा के साथ काम करना](2-Working-With-Data/README.md) | डेटा को साफ़ और बदलने की तकनीकों पर चर्चा, ताकि गायब, गलत या अधूरी जानकारी की चुनौतियों को संभाला जा सके। | [पाठ](2-Working-With-Data/08-data-preparation/README.md) | [जैस्मिन](https://www.twitter.com/paladique) |
+| 09 | मात्राओं का विज़ुअलाइज़ेशन | [डेटा विज़ुअलाइज़ेशन](3-Data-Visualization/README.md) | सीखें कि कैसे Matplotlib का उपयोग करके पक्षियों के डेटा को विज़ुअलाइज़ करें 🦆 | [पाठ](3-Data-Visualization/09-visualization-quantities/README.md) | [जेन](https://twitter.com/jenlooper) |
+| 10 | डेटा वितरण का विज़ुअलाइज़ेशन | [डेटा विज़ुअलाइज़ेशन](3-Data-Visualization/README.md) | एक अंतराल के भीतर अवलोकन और रुझानों को विज़ुअलाइज़ करना। | [पाठ](3-Data-Visualization/10-visualization-distributions/README.md) | [जेन](https://twitter.com/jenlooper) |
+| 11 | अनुपात का विज़ुअलाइज़ेशन | [डेटा विज़ुअलाइज़ेशन](3-Data-Visualization/README.md) | अलग-अलग और समूहित प्रतिशतों को विज़ुअलाइज़ करना। | [पाठ](3-Data-Visualization/11-visualization-proportions/README.md) | [जेन](https://twitter.com/jenlooper) |
+| 12 | संबंधों का विज़ुअलाइज़ेशन | [डेटा विज़ुअलाइज़ेशन](3-Data-Visualization/README.md) | डेटा सेट और उनके वेरिएबल्स के बीच कनेक्शन और सहसंबंध को विज़ुअलाइज़ करना। | [पाठ](3-Data-Visualization/12-visualization-relationships/README.md) | [जेन](https://twitter.com/jenlooper) |
+| 13 | सार्थक विज़ुअलाइज़ेशन | [डेटा विज़ुअलाइज़ेशन](3-Data-Visualization/README.md) | आपकी विज़ुअलाइज़ेशन को प्रभावी समस्या समाधान और अंतर्दृष्टि के लिए मूल्यवान बनाने के लिए तकनीक और मार्गदर्शन। | [पाठ](3-Data-Visualization/13-meaningful-visualizations/README.md) | [जेन](https://twitter.com/jenlooper) |
+| 14 | डेटा साइंस जीवनचक्र का परिचय | [जीवनचक्र](4-Data-Science-Lifecycle/README.md) | डेटा साइंस जीवनचक्र और डेटा को प्राप्त करने और निकालने के पहले चरण का परिचय। | [पाठ](4-Data-Science-Lifecycle/14-Introduction/README.md) | [जैस्मिन](https://twitter.com/paladique) |
+| 15 | विश्लेषण करना | [जीवनचक्र](4-Data-Science-Lifecycle/README.md) | डेटा साइंस जीवनचक्र का यह चरण डेटा का विश्लेषण करने की तकनीकों पर केंद्रित है। | [पाठ](4-Data-Science-Lifecycle/15-analyzing/README.md) | [जैस्मिन](https://twitter.com/paladique) |
+| 16 | संचार | [जीवनचक्र](4-Data-Science-Lifecycle/README.md) | डेटा से प्राप्त अंतर्दृष्टि को इस तरह प्रस्तुत करना कि निर्णय लेने वालों के लिए इसे समझना आसान हो। | [पाठ](4-Data-Science-Lifecycle/16-communication/README.md) | [जेलन](https://twitter.com/JalenMcG) |
+| 17 | क्लाउड में डेटा साइंस | [क्लाउड डेटा](5-Data-Science-In-Cloud/README.md) | क्लाउड में डेटा साइंस और इसके लाभों का परिचय। | [पाठ](5-Data-Science-In-Cloud/17-Introduction/README.md) | [टिफ़नी](https://twitter.com/TiffanySouterre) और [मॉड](https://twitter.com/maudstweets) |
+| 18 | क्लाउड में डेटा साइंस | [क्लाउड डेटा](5-Data-Science-In-Cloud/README.md) | लो कोड टूल्स का उपयोग करके मॉडल को प्रशिक्षित करना। | [पाठ](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [टिफ़नी](https://twitter.com/TiffanySouterre) और [मॉड](https://twitter.com/maudstweets) |
+| 19 | क्लाउड में डेटा साइंस | [क्लाउड डेटा](5-Data-Science-In-Cloud/README.md) | Azure Machine Learning Studio का उपयोग करके मॉडल को तैनात करना। | [पाठ](5-Data-Science-In-Cloud/19-Azure/README.md) | [टिफ़नी](https://twitter.com/TiffanySouterre) और [मॉड](https://twitter.com/maudstweets) |
+| 20 | वास्तविक दुनिया में डेटा साइंस | [वाइल्ड में](6-Data-Science-In-Wild/README.md) | वास्तविक दुनिया में डेटा साइंस संचालित परियोजनाएं। | [पाठ](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [नित्या](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Codespace में इस सैंपल को खोलने के लिए निम्न चरणों का पालन करें:
+1. Code ड्रॉप-डाउन मेनू पर क्लिक करें और Open with Codespaces विकल्प चुनें।
+2. पैन के नीचे + New codespace चुनें।
+अधिक जानकारी के लिए, [GitHub दस्तावेज़](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace) देखें।
+
+## VSCode Remote - Containers
+
+अपने स्थानीय मशीन और VSCode का उपयोग करके इस रिपॉजिटरी को कंटेनर में खोलने के लिए निम्न चरणों का पालन करें:
+
+1. यदि यह पहली बार है जब आप डेवलपमेंट कंटेनर का उपयोग कर रहे हैं, तो कृपया सुनिश्चित करें कि आपका सिस्टम प्री-रिक्वायरमेंट्स (जैसे Docker इंस्टॉल हो) को पूरा करता है। [शुरुआत दस्तावेज़](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started) में देखें।
+
+इस रिपॉजिटरी का उपयोग करने के लिए, आप या तो इसे एक अलग Docker वॉल्यूम में खोल सकते हैं:
+
+**नोट**: अंदर ही अंदर, यह Remote-Containers: **Clone Repository in Container Volume...** कमांड का उपयोग करेगा ताकि स्रोत कोड को स्थानीय फाइल सिस्टम के बजाय Docker वॉल्यूम में क्लोन किया जा सके। [वॉल्यूम](https://docs.docker.com/storage/volumes/) कंटेनर डेटा को बनाए रखने के लिए पसंदीदा तरीका है।
+
+या स्थानीय रूप से क्लोन की गई या डाउनलोड की गई रिपॉजिटरी खोलें:
+
+- इस रिपॉजिटरी को अपने स्थानीय फाइल सिस्टम पर क्लोन करें।
+- F1 दबाएं और **Remote-Containers: Open Folder in Container...** कमांड चुनें।
+- इस फोल्डर की क्लोन की गई कॉपी चुनें, कंटेनर शुरू होने की प्रतीक्षा करें, और चीजों को आज़माएं।
+
+## ऑफलाइन एक्सेस
+
+आप इस दस्तावेज़ को ऑफलाइन [Docsify](https://docsify.js.org/#/) का उपयोग करके चला सकते हैं। इस रिपॉजिटरी को फोर्क करें, [Docsify इंस्टॉल करें](https://docsify.js.org/#/quickstart) अपने स्थानीय मशीन पर, फिर इस रिपॉजिटरी के रूट फोल्डर में `docsify serve` टाइप करें। वेबसाइट आपके localhost पर पोर्ट 3000 पर सर्व की जाएगी: `localhost:3000`।
+
+> नोट, नोटबुक्स Docsify के माध्यम से रेंडर नहीं होंगे, इसलिए जब आपको नोटबुक चलाने की आवश्यकता हो, तो इसे अलग से VS Code में Python कर्नेल चलाकर करें।
+
+## मदद चाहिए!
+
+यदि आप पाठ्यक्रम के सभी या किसी हिस्से का अनुवाद करना चाहते हैं, तो कृपया हमारे [अनुवाद](TRANSLATIONS.md) गाइड का पालन करें।
+
+## अन्य पाठ्यक्रम
+
+हमारी टीम अन्य पाठ्यक्रम भी तैयार करती है! देखें:
+
+- [शुरुआती के लिए जनरेटिव AI](https://aka.ms/genai-beginners)
+- [शुरुआती के लिए जनरेटिव AI .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [JavaScript के साथ जनरेटिव AI](https://github.com/microsoft/generative-ai-with-javascript)
+- [Java के साथ जनरेटिव AI](https://aka.ms/genaijava)
+- [शुरुआती के लिए AI](https://aka.ms/ai-beginners)
+- [शुरुआती के लिए डेटा साइंस](https://aka.ms/datascience-beginners)
+- [शुरुआती के लिए ML](https://aka.ms/ml-beginners)
+- [शुरुआती के लिए साइबर सुरक्षा](https://github.com/microsoft/Security-101)
+- [शुरुआती के लिए वेब डेवलपमेंट](https://aka.ms/webdev-beginners)
+- [शुरुआती के लिए IoT](https://aka.ms/iot-beginners)
+- [शुरुआती के लिए XR डेवलपमेंट](https://github.com/microsoft/xr-development-for-beginners)
+- [पेयर्ड प्रोग्रामिंग के लिए GitHub Copilot मास्टर करना](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [C#/.NET डेवलपर्स के लिए GitHub Copilot मास्टर करना](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [अपना खुद का Copilot एडवेंचर चुनें](https://github.com/microsoft/CopilotAdventures)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/SECURITY.md b/translations/hi/SECURITY.md
new file mode 100644
index 00000000..44780fb5
--- /dev/null
+++ b/translations/hi/SECURITY.md
@@ -0,0 +1,49 @@
+
+## सुरक्षा
+
+Microsoft हमारे सॉफ़्टवेयर उत्पादों और सेवाओं की सुरक्षा को गंभीरता से लेता है, जिसमें हमारे GitHub संगठनों के माध्यम से प्रबंधित सभी स्रोत कोड रिपॉजिटरी शामिल हैं, जैसे [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin), और [हमारे GitHub संगठन](https://opensource.microsoft.com/)।
+
+यदि आपको किसी Microsoft-स्वामित्व वाले रिपॉजिटरी में कोई सुरक्षा भेद्यता मिलती है जो [Microsoft की सुरक्षा भेद्यता की परिभाषा](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)) के अंतर्गत आती है, तो कृपया इसे नीचे दिए गए निर्देशों के अनुसार हमें रिपोर्ट करें।
+
+## सुरक्षा समस्याओं की रिपोर्टिंग
+
+**कृपया सार्वजनिक GitHub मुद्दों के माध्यम से सुरक्षा भेद्यता की रिपोर्ट न करें।**
+
+इसके बजाय, कृपया इसे Microsoft Security Response Center (MSRC) को [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report) पर रिपोर्ट करें।
+
+यदि आप लॉग इन किए बिना सबमिट करना पसंद करते हैं, तो [secure@microsoft.com](mailto:secure@microsoft.com) पर ईमेल भेजें। यदि संभव हो, तो हमारे PGP कुंजी के साथ अपने संदेश को एन्क्रिप्ट करें; कृपया इसे [Microsoft Security Response Center PGP Key पेज](https://www.microsoft.com/en-us/msrc/pgp-key-msrc) से डाउनलोड करें।
+
+आपको 24 घंटे के भीतर एक प्रतिक्रिया प्राप्त होनी चाहिए। यदि किसी कारणवश ऐसा नहीं होता है, तो कृपया यह सुनिश्चित करने के लिए ईमेल के माध्यम से फॉलो-अप करें कि हमें आपका मूल संदेश प्राप्त हुआ है। अतिरिक्त जानकारी [microsoft.com/msrc](https://www.microsoft.com/msrc) पर पाई जा सकती है।
+
+कृपया नीचे सूचीबद्ध जानकारी (जितना संभव हो सके) शामिल करें ताकि हमें संभावित समस्या की प्रकृति और दायरे को बेहतर ढंग से समझने में मदद मिल सके:
+
+ * समस्या का प्रकार (जैसे बफर ओवरफ्लो, SQL इंजेक्शन, क्रॉस-साइट स्क्रिप्टिंग, आदि)
+ * समस्या के प्रकट होने से संबंधित स्रोत फ़ाइल(फ़ाइलों) के पूर्ण पथ
+ * प्रभावित स्रोत कोड का स्थान (टैग/ब्रांच/कमिट या डायरेक्ट URL)
+ * समस्या को पुन: उत्पन्न करने के लिए आवश्यक कोई विशेष कॉन्फ़िगरेशन
+ * समस्या को पुन: उत्पन्न करने के लिए चरण-दर-चरण निर्देश
+ * प्रूफ-ऑफ-कॉन्सेप्ट या एक्सप्लॉइट कोड (यदि संभव हो)
+ * समस्या का प्रभाव, जिसमें यह भी शामिल है कि हमलावर समस्या का कैसे फायदा उठा सकता है
+
+यह जानकारी हमें आपकी रिपोर्ट को अधिक तेज़ी से प्राथमिकता देने में मदद करेगी।
+
+यदि आप बग बाउंटी के लिए रिपोर्ट कर रहे हैं, तो अधिक पूर्ण रिपोर्ट उच्च बाउंटी पुरस्कार में योगदान कर सकती हैं। कृपया हमारे सक्रिय कार्यक्रमों के बारे में अधिक जानकारी के लिए [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty) पेज पर जाएं।
+
+## पसंदीदा भाषाएं
+
+हम सभी संचार अंग्रेजी में करना पसंद करते हैं।
+
+## नीति
+
+Microsoft [Coordinated Vulnerability Disclosure](https://www.microsoft.com/en-us/msrc/cvd) के सिद्धांत का पालन करता है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/SUPPORT.md b/translations/hi/SUPPORT.md
new file mode 100644
index 00000000..1a2f3a50
--- /dev/null
+++ b/translations/hi/SUPPORT.md
@@ -0,0 +1,22 @@
+
+# समर्थन
+## समस्याएँ दर्ज करने और सहायता प्राप्त करने का तरीका
+
+यह प्रोजेक्ट बग और फीचर अनुरोधों को ट्रैक करने के लिए GitHub Issues का उपयोग करता है। डुप्लिकेट से बचने के लिए कृपया नई समस्या दर्ज करने से पहले मौजूदा समस्याओं को खोजें। नई समस्याओं के लिए, अपने बग या फीचर अनुरोध को एक नई समस्या के रूप में दर्ज करें।
+
+इस प्रोजेक्ट का उपयोग करने से संबंधित सहायता और प्रश्नों के लिए, एक समस्या दर्ज करें।
+
+## Microsoft समर्थन नीति
+
+इस रिपॉजिटरी के लिए समर्थन केवल ऊपर सूचीबद्ध संसाधनों तक सीमित है।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/docs/_sidebar.md b/translations/hi/docs/_sidebar.md
new file mode 100644
index 00000000..efbcd664
--- /dev/null
+++ b/translations/hi/docs/_sidebar.md
@@ -0,0 +1,38 @@
+
+- परिचय
+ - [डेटा साइंस की परिभाषा](../1-Introduction/01-defining-data-science/README.md)
+ - [डेटा साइंस के नैतिक पहलू](../1-Introduction/02-ethics/README.md)
+ - [डेटा की परिभाषा](../1-Introduction/03-defining-data/README.md)
+ - [प्रायिकता और सांख्यिकी](../1-Introduction/04-stats-and-probability/README.md)
+- डेटा के साथ काम करना
+ - [रिलेशनल डेटाबेस](../2-Working-With-Data/05-relational-databases/README.md)
+ - [नॉन-रिलेशनल डेटाबेस](../2-Working-With-Data/06-non-relational/README.md)
+ - [पायथन](../2-Working-With-Data/07-python/README.md)
+ - [डेटा तैयारी](../2-Working-With-Data/08-data-preparation/README.md)
+- डेटा विज़ुअलाइज़ेशन
+ - [मात्राओं का विज़ुअलाइज़ेशन](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [वितरणों का विज़ुअलाइज़ेशन](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [अनुपातों का विज़ुअलाइज़ेशन](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [संबंधों का विज़ुअलाइज़ेशन](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [अर्थपूर्ण विज़ुअलाइज़ेशन](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- डेटा साइंस जीवनचक्र
+ - [परिचय](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [विश्लेषण](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [संचार](../4-Data-Science-Lifecycle/16-communication/README.md)
+- क्लाउड में डेटा साइंस
+ - [परिचय](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [लो कोड](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [एज्योर](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- वास्तविक दुनिया में डेटा साइंस
+ - [वास्तविक दुनिया में डेटा साइंस](../6-Data-Science-In-Wild/README.md)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/for-teachers.md b/translations/hi/for-teachers.md
new file mode 100644
index 00000000..ef99aae0
--- /dev/null
+++ b/translations/hi/for-teachers.md
@@ -0,0 +1,76 @@
+
+## शिक्षकों के लिए
+
+क्या आप इस पाठ्यक्रम का उपयोग अपनी कक्षा में करना चाहेंगे? कृपया बेहिचक करें!
+
+वास्तव में, आप इसे GitHub के भीतर ही GitHub Classroom का उपयोग करके इस्तेमाल कर सकते हैं।
+
+इसके लिए, इस रिपॉजिटरी को फोर्क करें। आपको प्रत्येक पाठ के लिए एक अलग रिपॉजिटरी बनानी होगी, इसलिए आपको प्रत्येक फ़ोल्डर को एक अलग रिपॉजिटरी में निकालना होगा। इस तरह, [GitHub Classroom](https://classroom.github.com/classrooms) प्रत्येक पाठ को अलग-अलग पहचान सकेगा।
+
+ये [पूर्ण निर्देश](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) आपको यह समझने में मदद करेंगे कि अपनी कक्षा को कैसे सेटअप करें।
+
+## रिपॉजिटरी का मौजूदा रूप में उपयोग करना
+
+यदि आप इस रिपॉजिटरी का उपयोग इसके वर्तमान स्वरूप में करना चाहते हैं, बिना GitHub Classroom का उपयोग किए, तो यह भी संभव है। आपको अपने छात्रों को यह बताना होगा कि किस पाठ को एक साथ पूरा करना है।
+
+ऑनलाइन प्रारूप (जैसे Zoom, Teams, या अन्य) में, आप क्विज़ के लिए ब्रेकआउट रूम बना सकते हैं और छात्रों को सीखने के लिए तैयार करने में मदद कर सकते हैं। फिर छात्रों को क्विज़ के लिए आमंत्रित करें और उन्हें 'issues' के रूप में एक निश्चित समय पर अपने उत्तर सबमिट करने के लिए कहें। आप असाइनमेंट्स के साथ भी ऐसा कर सकते हैं, यदि आप चाहते हैं कि छात्र खुले में सहयोगात्मक रूप से काम करें।
+
+यदि आप एक अधिक निजी प्रारूप पसंद करते हैं, तो अपने छात्रों से कहें कि वे पाठ्यक्रम को पाठ दर पाठ अपने स्वयं के GitHub रिपॉजिटरी में फोर्क करें, जो कि निजी रिपॉजिटरी हों, और आपको एक्सेस दें। फिर वे क्विज़ और असाइनमेंट्स को निजी तौर पर पूरा कर सकते हैं और उन्हें आपके कक्षा रिपॉजिटरी पर issues के माध्यम से सबमिट कर सकते हैं।
+
+ऑनलाइन कक्षा प्रारूप में इसे काम करने के कई तरीके हैं। कृपया हमें बताएं कि आपके लिए सबसे अच्छा क्या काम करता है!
+
+## इस पाठ्यक्रम में शामिल हैं:
+
+20 पाठ, 40 क्विज़, और 20 असाइनमेंट्स। दृश्य शिक्षार्थियों के लिए पाठों के साथ स्केच नोट्स भी हैं। कई पाठ Python और R दोनों में उपलब्ध हैं और इन्हें VS Code में Jupyter नोटबुक्स का उपयोग करके पूरा किया जा सकता है। इस तकनीकी स्टैक का उपयोग करने के लिए अपनी कक्षा को सेटअप करने के बारे में अधिक जानें: https://code.visualstudio.com/docs/datascience/jupyter-notebooks।
+
+सभी स्केच नोट्स, जिनमें एक बड़े प्रारूप का पोस्टर भी शामिल है, [इस फ़ोल्डर](../../sketchnotes) में हैं।
+
+पूरा पाठ्यक्रम [PDF के रूप में](../../pdf/readme.pdf) उपलब्ध है।
+
+आप इस पाठ्यक्रम को एक स्टैंडअलोन, ऑफलाइन-फ्रेंडली वेबसाइट के रूप में [Docsify](https://docsify.js.org/#/) का उपयोग करके भी चला सकते हैं। [Docsify इंस्टॉल करें](https://docsify.js.org/#/quickstart) अपने लोकल मशीन पर, फिर इस रिपॉजिटरी की लोकल कॉपी के रूट फ़ोल्डर में `docsify serve` टाइप करें। वेबसाइट आपके लोकलहोस्ट पर पोर्ट 3000 पर सर्व होगी: `localhost:3000`।
+
+पाठ्यक्रम का एक ऑफलाइन-फ्रेंडली संस्करण एक स्टैंडअलोन वेब पेज के रूप में खुलेगा: https://localhost:3000
+
+पाठ 6 भागों में विभाजित हैं:
+
+- 1: परिचय
+ - 1: डेटा साइंस की परिभाषा
+ - 2: नैतिकता
+ - 3: डेटा की परिभाषा
+ - 4: प्रायिकता और सांख्यिकी का अवलोकन
+- 2: डेटा के साथ काम करना
+ - 5: रिलेशनल डेटाबेस
+ - 6: नॉन-रिलेशनल डेटाबेस
+ - 7: Python
+ - 8: डेटा तैयारी
+- 3: डेटा विज़ुअलाइज़ेशन
+ - 9: मात्राओं का विज़ुअलाइज़ेशन
+ - 10: वितरणों का विज़ुअलाइज़ेशन
+ - 11: अनुपातों का विज़ुअलाइज़ेशन
+ - 12: संबंधों का विज़ुअलाइज़ेशन
+ - 13: सार्थक विज़ुअलाइज़ेशन
+- 4: डेटा साइंस जीवनचक्र
+ - 14: परिचय
+ - 15: विश्लेषण
+ - 16: संचार
+- 5: क्लाउड में डेटा साइंस
+ - 17: परिचय
+ - 18: लो-कोड विकल्प
+ - 19: Azure
+- 6: वास्तविक दुनिया में डेटा साइंस
+ - 20: अवलोकन
+
+## कृपया हमें अपने विचार बताएं!
+
+हम इस पाठ्यक्रम को आपके और आपके छात्रों के लिए उपयोगी बनाना चाहते हैं। कृपया चर्चा बोर्ड में हमें फीडबैक दें! अपने छात्रों के लिए चर्चा बोर्ड पर एक कक्षा क्षेत्र बनाने के लिए स्वतंत्र महसूस करें।
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/quiz-app/README.md b/translations/hi/quiz-app/README.md
new file mode 100644
index 00000000..e13305e0
--- /dev/null
+++ b/translations/hi/quiz-app/README.md
@@ -0,0 +1,136 @@
+
+# क्विज़
+
+ये क्विज़ डेटा साइंस पाठ्यक्रम के लिए प्री- और पोस्ट-लेक्चर क्विज़ हैं, जो https://aka.ms/datascience-beginners पर उपलब्ध है।
+## अनुवादित क्विज़ सेट जोड़ना
+
+क्विज़ का अनुवाद जोड़ने के लिए, `assets/translations` फोल्डर में समान क्विज़ संरचनाएँ बनाएं। मूल क्विज़ `assets/translations/en` में हैं। क्विज़ को कई समूहों में विभाजित किया गया है। सुनिश्चित करें कि सही क्विज़ सेक्शन के साथ नंबरिंग मेल खाती हो। इस पाठ्यक्रम में कुल 40 क्विज़ हैं, जिनकी गिनती 0 से शुरू होती है।
+
+अनुवाद संपादित करने के बाद, अनुवाद फोल्डर में `index.js` फ़ाइल को संपादित करें और सभी फाइलों को `en` में दिए गए नियमों के अनुसार इम्पोर्ट करें।
+
+`assets/translations` में `index.js` फ़ाइल को संपादित करें और नई अनुवादित फाइलों को इम्पोर्ट करें।
+
+फिर, इस ऐप में `App.vue` में ड्रॉपडाउन को संपादित करें और अपनी भाषा जोड़ें। स्थानीयकृत संक्षिप्त नाम को आपकी भाषा के फोल्डर नाम से मिलाएं।
+
+अंत में, अनुवादित पाठों में सभी क्विज़ लिंक को संपादित करें, यदि वे मौजूद हैं, ताकि इस स्थानीयकरण को एक क्वेरी पैरामीटर के रूप में शामिल किया जा सके: उदाहरण के लिए `?loc=fr`।
+
+## प्रोजेक्ट सेटअप
+
+```
+npm install
+```
+
+### विकास के लिए कंपाइल और हॉट-रिलोड
+
+```
+npm run serve
+```
+
+### प्रोडक्शन के लिए कंपाइल और मिनिफाई
+
+```
+npm run build
+```
+
+### फाइलों को लिंट और फिक्स करें
+
+```
+npm run lint
+```
+
+### कॉन्फ़िगरेशन को कस्टमाइज़ करें
+
+[Configuration Reference](https://cli.vuejs.org/config/) देखें।
+
+श्रेय: इस क्विज़ ऐप के मूल संस्करण के लिए धन्यवाद: https://github.com/arpan45/simple-quiz-vue
+
+## Azure पर डिप्लॉय करना
+
+यहां एक चरण-दर-चरण गाइड है जो आपको शुरुआत करने में मदद करेगा:
+
+1. GitHub रिपॉजिटरी को फोर्क करें
+सुनिश्चित करें कि आपका स्टैटिक वेब ऐप कोड आपके GitHub रिपॉजिटरी में है। इस रिपॉजिटरी को फोर्क करें।
+
+2. एक Azure Static Web App बनाएं
+- एक [Azure खाता](http://azure.microsoft.com) बनाएं।
+- [Azure पोर्टल](https://portal.azure.com) पर जाएं।
+- “Create a resource” पर क्लिक करें और “Static Web App” खोजें।
+- “Create” पर क्लिक करें।
+
+3. Static Web App को कॉन्फ़िगर करें
+- #### बेसिक्स:
+ - Subscription: अपनी Azure सब्सक्रिप्शन चुनें।
+ - Resource Group: एक नया रिसोर्स ग्रुप बनाएं या मौजूदा का उपयोग करें।
+ - Name: अपने स्टैटिक वेब ऐप के लिए एक नाम दें।
+ - Region: अपने उपयोगकर्ताओं के सबसे नजदीकी क्षेत्र को चुनें।
+
+- #### डिप्लॉयमेंट डिटेल्स:
+ - Source: “GitHub” चुनें।
+ - GitHub Account: Azure को आपके GitHub अकाउंट तक पहुंचने की अनुमति दें।
+ - Organization: अपना GitHub संगठन चुनें।
+ - Repository: वह रिपॉजिटरी चुनें जिसमें आपका स्टैटिक वेब ऐप है।
+ - Branch: वह ब्रांच चुनें जिससे आप डिप्लॉय करना चाहते हैं।
+
+- #### बिल्ड डिटेल्स:
+ - Build Presets: वह फ्रेमवर्क चुनें जिससे आपका ऐप बना है (जैसे React, Angular, Vue, आदि)।
+ - App Location: वह फोल्डर निर्दिष्ट करें जिसमें आपका ऐप कोड है (जैसे, / यदि यह रूट में है)।
+ - API Location: यदि आपके पास API है, तो उसका स्थान निर्दिष्ट करें (वैकल्पिक)।
+ - Output Location: वह फोल्डर निर्दिष्ट करें जहां बिल्ड आउटपुट उत्पन्न होता है (जैसे, build या dist)।
+
+4. रिव्यू और क्रिएट
+अपनी सेटिंग्स की समीक्षा करें और “Create” पर क्लिक करें। Azure आवश्यक संसाधनों को सेटअप करेगा और आपके रिपॉजिटरी में एक GitHub Actions वर्कफ़्लो बनाएगा।
+
+5. GitHub Actions वर्कफ़्लो
+Azure स्वचालित रूप से आपके रिपॉजिटरी में एक GitHub Actions वर्कफ़्लो फ़ाइल बनाएगा (.github/workflows/azure-static-web-apps-.yml)। यह वर्कफ़्लो बिल्ड और डिप्लॉयमेंट प्रक्रिया को संभालेगा।
+
+6. डिप्लॉयमेंट की निगरानी करें
+अपने GitHub रिपॉजिटरी में “Actions” टैब पर जाएं।
+आपको एक वर्कफ़्लो चलते हुए दिखेगा। यह वर्कफ़्लो आपके स्टैटिक वेब ऐप को Azure पर बिल्ड और डिप्लॉय करेगा।
+जैसे ही वर्कफ़्लो पूरा होता है, आपका ऐप प्रदान किए गए Azure URL पर लाइव हो जाएगा।
+
+### उदाहरण वर्कफ़्लो फ़ाइल
+
+यहां GitHub Actions वर्कफ़्लो फ़ाइल का एक उदाहरण है:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### अतिरिक्त संसाधन
+- [Azure Static Web Apps Documentation](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Documentation](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।
\ No newline at end of file
diff --git a/translations/hi/sketchnotes/README.md b/translations/hi/sketchnotes/README.md
new file mode 100644
index 00000000..c15751cb
--- /dev/null
+++ b/translations/hi/sketchnotes/README.md
@@ -0,0 +1,19 @@
+
+सभी स्केच नोट्स यहां देखें!
+
+## क्रेडिट्स
+
+नित्या नरसिम्हन, कलाकार
+
+
+
+**अस्वीकरण**:
+यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/01-defining-data-science/README.md b/translations/pl/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..bb277d6f
--- /dev/null
+++ b/translations/pl/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## Rodzaje Danych
+
+Jak już wspomnieliśmy, dane są wszędzie. Wystarczy je odpowiednio uchwycić! Warto rozróżnić między danymi **ustrukturyzowanymi** a **nieustrukturyzowanymi**. Te pierwsze są zazwyczaj przedstawiane w dobrze zorganizowanej formie, często jako tabela lub zestaw tabel, podczas gdy te drugie to po prostu zbiór plików. Czasami możemy również mówić o danych **półustrukturyzowanych**, które mają pewien rodzaj struktury, ale może się ona znacznie różnić.
+
+| Ustrukturyzowane | Półustrukturyzowane | Nieustrukturyzowane |
+| --------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------- | --------------------------------------- |
+| Lista osób z ich numerami telefonów | Strony Wikipedii z linkami | Tekst Encyklopedii Britannica |
+| Temperatura we wszystkich pomieszczeniach budynku co minutę przez ostatnie 20 lat | Zbiór artykułów naukowych w formacie JSON z autorami, datą publikacji i abstraktem | Udostępnione pliki z dokumentami firmowymi |
+| Dane o wieku i płci wszystkich osób wchodzących do budynku | Strony internetowe | Surowy materiał wideo z kamery monitoringu |
+
+## Skąd brać dane
+
+Istnieje wiele możliwych źródeł danych i niemożliwe jest wymienienie ich wszystkich! Warto jednak wspomnieć o kilku typowych miejscach, z których można pozyskać dane:
+
+* **Ustrukturyzowane**
+ - **Internet Rzeczy** (IoT), w tym dane z różnych czujników, takich jak czujniki temperatury czy ciśnienia, dostarcza wiele użytecznych danych. Na przykład, jeśli budynek biurowy jest wyposażony w czujniki IoT, możemy automatycznie kontrolować ogrzewanie i oświetlenie, aby zminimalizować koszty.
+ - **Ankiety**, które prosimy użytkowników o wypełnienie po dokonaniu zakupu lub odwiedzeniu strony internetowej.
+ - **Analiza zachowań** może pomóc nam zrozumieć, jak głęboko użytkownik przegląda stronę i co jest typowym powodem opuszczenia strony.
+* **Nieustrukturyzowane**
+ - **Teksty** mogą być bogatym źródłem informacji, takich jak ogólny **wskaźnik nastroju** lub wyodrębnianie słów kluczowych i znaczenia semantycznego.
+ - **Obrazy** lub **wideo**. Materiał wideo z kamery monitoringu może być użyty do oszacowania natężenia ruchu na drodze i informowania ludzi o potencjalnych korkach.
+ - **Logi** serwerów internetowych mogą być używane do zrozumienia, które strony naszej witryny są najczęściej odwiedzane i jak długo.
+* **Półustrukturyzowane**
+ - **Grafy sieci społecznościowych** mogą być świetnym źródłem danych o osobowościach użytkowników i potencjalnej skuteczności w rozpowszechnianiu informacji.
+ - Gdy mamy zbiór zdjęć z imprezy, możemy spróbować wyodrębnić dane o **dynamice grupy**, budując graf osób robiących sobie wspólne zdjęcia.
+
+Znając różne możliwe źródła danych, możesz spróbować pomyśleć o różnych scenariuszach, w których techniki nauki o danych mogą być zastosowane, aby lepiej zrozumieć sytuację i usprawnić procesy biznesowe.
+
+## Co można zrobić z danymi
+
+W nauce o danych skupiamy się na następujących etapach pracy z danymi:
+
+Oczywiście, w zależności od konkretnych danych, niektóre etapy mogą być pominięte (np. gdy dane są już w bazie danych lub gdy nie potrzebujemy trenowania modelu), a niektóre etapy mogą być powtarzane wielokrotnie (np. przetwarzanie danych).
+
+## Cyfryzacja i transformacja cyfrowa
+
+W ostatniej dekadzie wiele firm zaczęło dostrzegać znaczenie danych w podejmowaniu decyzji biznesowych. Aby zastosować zasady nauki o danych w prowadzeniu biznesu, najpierw trzeba zebrać dane, czyli przekształcić procesy biznesowe w formę cyfrową. To nazywa się **cyfryzacją**. Zastosowanie technik nauki o danych do tych danych w celu podejmowania decyzji może prowadzić do znacznego wzrostu produktywności (lub nawet zmiany kierunku działalności), co nazywa się **transformacją cyfrową**.
+
+Rozważmy przykład. Załóżmy, że mamy kurs nauki o danych (taki jak ten), który prowadzimy online dla studentów, i chcemy go ulepszyć za pomocą nauki o danych. Jak możemy to zrobić?
+
+Możemy zacząć od pytania „Co można zdigitalizować?”. Najprostszym sposobem byłoby zmierzenie czasu, jaki zajmuje każdemu studentowi ukończenie każdego modułu, oraz zmierzenie zdobytej wiedzy poprzez test wielokrotnego wyboru na końcu każdego modułu. Uśredniając czas ukończenia wśród wszystkich studentów, możemy dowiedzieć się, które moduły sprawiają studentom największe trudności i popracować nad ich uproszczeniem.
+Możesz argumentować, że takie podejście nie jest idealne, ponieważ moduły mogą mieć różną długość. Prawdopodobnie bardziej sprawiedliwe byłoby podzielenie czasu przez długość modułu (w liczbie znaków) i porównanie tych wartości zamiast tego.
+Kiedy zaczynamy analizować wyniki testów wielokrotnego wyboru, możemy spróbować określić, które pojęcia sprawiają trudność uczniom, i wykorzystać te informacje do ulepszenia treści. Aby to zrobić, musimy zaprojektować testy w taki sposób, aby każde pytanie odnosiło się do konkretnego pojęcia lub fragmentu wiedzy.
+
+Jeśli chcemy pójść o krok dalej, możemy zestawić czas potrzebny na ukończenie każdego modułu z kategorią wiekową uczniów. Możemy odkryć, że dla niektórych grup wiekowych ukończenie modułu zajmuje nieproporcjonalnie dużo czasu lub że uczniowie rezygnują przed jego ukończeniem. Może to pomóc w ustaleniu zaleceń wiekowych dla modułu i zminimalizowaniu niezadowolenia wynikającego z niewłaściwych oczekiwań.
+
+## 🚀 Wyzwanie
+
+W tym wyzwaniu spróbujemy znaleźć pojęcia związane z dziedziną Data Science, analizując teksty. Weźmiemy artykuł z Wikipedii na temat Data Science, pobierzemy i przetworzymy tekst, a następnie stworzymy chmurę słów, taką jak ta:
+
+
+
+Odwiedź [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore'), aby przejrzeć kod. Możesz również uruchomić kod i zobaczyć, jak w czasie rzeczywistym wykonuje wszystkie transformacje danych.
+
+> Jeśli nie wiesz, jak uruchomić kod w Jupyter Notebook, zapoznaj się z [tym artykułem](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Zadania
+
+* **Zadanie 1**: Zmodyfikuj powyższy kod, aby znaleźć powiązane pojęcia dla dziedzin **Big Data** i **Machine Learning**
+* **Zadanie 2**: [Zastanów się nad scenariuszami Data Science](assignment.md)
+
+## Podziękowania
+
+Ta lekcja została stworzona z ♥️ przez [Dmitry Soshnikov](http://soshnikov.com)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/01-defining-data-science/assignment.md b/translations/pl/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..a3024d3c
--- /dev/null
+++ b/translations/pl/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,44 @@
+
+# Zadanie: Scenariusze Data Science
+
+W tym pierwszym zadaniu prosimy Cię, abyś zastanowił się nad jakimś procesem lub problemem z życia codziennego w różnych obszarach tematycznych i pomyślał, jak można go ulepszyć, korzystając z procesu Data Science. Zastanów się nad następującymi kwestiami:
+
+1. Jakie dane możesz zebrać?
+1. W jaki sposób je zbierzesz?
+1. Jak przechowasz te dane? Jak duże prawdopodobnie będą te dane?
+1. Jakie wnioski możesz wyciągnąć z tych danych? Jakie decyzje będziemy mogli podjąć na ich podstawie?
+
+Spróbuj pomyśleć o 3 różnych problemach/procesach i opisać każdy z powyższych punktów dla każdego obszaru tematycznego.
+
+Oto kilka przykładów obszarów tematycznych i problemów, które mogą pomóc Ci zacząć myśleć:
+
+1. Jak możesz wykorzystać dane, aby ulepszyć proces edukacji dzieci w szkołach?
+1. Jak możesz wykorzystać dane, aby kontrolować szczepienia podczas pandemii?
+1. Jak możesz wykorzystać dane, aby upewnić się, że jesteś produktywny w pracy?
+
+## Instrukcje
+
+Uzupełnij poniższą tabelę (zastąp sugerowane obszary tematyczne swoimi własnymi, jeśli to konieczne):
+
+| Obszar tematyczny | Problem | Jakie dane zebrać | Jak przechowywać dane | Jakie wnioski/decyzje możemy wyciągnąć |
+|--------------------|---------|-------------------|-----------------------|---------------------------------------|
+| Edukacja | | | | |
+| Szczepienia | | | | |
+| Produktywność | | | | |
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+Udało się zidentyfikować sensowne źródła danych, sposoby ich przechowywania oraz możliwe decyzje/wnioski dla wszystkich obszarów tematycznych | Niektóre aspekty rozwiązania nie są szczegółowo opisane, przechowywanie danych nie zostało omówione, opisano co najmniej 2 obszary tematyczne | Opisano tylko częściowe rozwiązanie dotyczące danych, uwzględniono tylko jeden obszar tematyczny.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/pl/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..51bc438a
--- /dev/null
+++ b/translations/pl/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,46 @@
+
+# Zadanie: Scenariusze Data Science
+
+W tym pierwszym zadaniu prosimy Cię, abyś zastanowił się nad rzeczywistym procesem lub problemem w różnych obszarach tematycznych i jak można go ulepszyć, korzystając z procesu Data Science. Pomyśl o następujących kwestiach:
+
+1. Jakie dane możesz zebrać?
+1. Jak byś je zbierał?
+1. Jak byś przechowywał dane? Jak duże prawdopodobnie będą te dane?
+1. Jakie wnioski można wyciągnąć z tych danych? Jakie decyzje można podjąć na ich podstawie?
+
+Spróbuj pomyśleć o 3 różnych problemach/procesach i opisać każdy z powyższych punktów dla każdego obszaru tematycznego.
+
+Oto niektóre obszary tematyczne i problemy, które mogą Cię zainspirować:
+
+1. Jak można wykorzystać dane, aby poprawić proces edukacji dzieci w szkołach?
+1. Jak można wykorzystać dane do kontrolowania szczepień podczas pandemii?
+1. Jak można wykorzystać dane, aby upewnić się, że jesteś produktywny w pracy?
+
+## Instrukcje
+
+Wypełnij poniższą tabelę (zastąp sugerowane obszary tematyczne swoimi własnymi, jeśli to konieczne):
+
+| Obszar tematyczny | Problem | Jakie dane zebrać | Jak przechowywać dane | Jakie wnioski/decyzje można wyciągnąć |
+|--------------------|---------|-------------------|-----------------------|--------------------------------------|
+| Edukacja | Na uniwersytecie zazwyczaj mamy niską frekwencję na wykładach, a mamy hipotezę, że studenci, którzy regularnie uczestniczą w wykładach, osiągają lepsze wyniki na egzaminach. Chcemy zwiększyć frekwencję i przetestować tę hipotezę. | Możemy śledzić frekwencję za pomocą zdjęć wykonanych przez kamerę bezpieczeństwa w sali lub poprzez śledzenie adresów bluetooth/wifi telefonów komórkowych studentów w sali. Dane z egzaminów są już dostępne w bazie danych uniwersytetu. | W przypadku śledzenia zdjęć z kamer bezpieczeństwa - musimy przechowywać kilka (5-10) fotografii wykonanych podczas zajęć (dane niestrukturalne), a następnie użyć AI do identyfikacji twarzy studentów (konwersja danych na formę strukturalną). | Możemy obliczyć średnią frekwencję dla każdego studenta i sprawdzić, czy istnieje korelacja z wynikami egzaminów. Więcej o korelacji będziemy mówić w sekcji [prawdopodobieństwo i statystyka](../../04-stats-and-probability/README.md). Aby zwiększyć frekwencję studentów, możemy publikować cotygodniowy ranking frekwencji na portalu uczelni i losować nagrody wśród tych z najwyższą frekwencją. |
+| Szczepienia | | | | |
+| Produktywność | | | | |
+
+> *Podajemy tylko jedną odpowiedź jako przykład, abyś mógł zrozumieć, czego oczekuje się w tym zadaniu.*
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | -- |
+Osoba była w stanie zidentyfikować rozsądne źródła danych, sposoby ich przechowywania oraz możliwe decyzje/wnioski dla wszystkich obszarów tematycznych | Niektóre aspekty rozwiązania nie są szczegółowo opisane, przechowywanie danych nie zostało omówione, przynajmniej 2 obszary tematyczne są opisane | Opisano tylko części rozwiązania dotyczącego danych, rozważono tylko jeden obszar tematyczny.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/02-ethics/README.md b/translations/pl/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..e8ba0869
--- /dev/null
+++ b/translations/pl/1-Introduction/02-ethics/README.md
@@ -0,0 +1,261 @@
+
+# Wprowadzenie do etyki danych
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Etyka w nauce o danych - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Wszyscy jesteśmy obywatelami danych żyjącymi w świecie zdominowanym przez dane.
+
+Trendy rynkowe wskazują, że do 2022 roku 1 na 3 duże organizacje będzie kupować i sprzedawać swoje dane za pośrednictwem internetowych [rynków i giełd](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Jako **deweloperzy aplikacji**, będziemy mieli łatwiejszy i tańszy dostęp do integracji wniosków opartych na danych oraz automatyzacji napędzanej algorytmami w codziennych doświadczeniach użytkowników. Jednak wraz z coraz większym rozpowszechnieniem AI, musimy również zrozumieć potencjalne szkody wynikające z [uzbrojenia](https://www.youtube.com/watch?v=TQHs8SA1qpk) takich algorytmów na dużą skalę.
+
+Trendy wskazują również, że do 2025 roku stworzymy i skonsumujemy ponad [180 zettabajtów](https://www.statista.com/statistics/871513/worldwide-data-created/) danych. Jako **naukowcy danych**, zyskamy bezprecedensowy dostęp do danych osobowych. Oznacza to, że możemy budować profile behawioralne użytkowników i wpływać na podejmowanie decyzji w sposób, który tworzy [iluzję wolnego wyboru](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), jednocześnie potencjalnie kierując użytkowników w stronę preferowanych przez nas wyników. To również rodzi szersze pytania dotyczące prywatności danych i ochrony użytkowników.
+
+Etyka danych to teraz _niezbędne zabezpieczenia_ w nauce o danych i inżynierii, które pomagają minimalizować potencjalne szkody i niezamierzone konsekwencje naszych działań opartych na danych. [Cykl Hype Gartnera dla AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identyfikuje istotne trendy w zakresie etyki cyfrowej, odpowiedzialnej AI i zarządzania AI jako kluczowe czynniki napędzające większe megatrendy wokół _demokratyzacji_ i _uprzemysłowienia_ AI.
+
+
+
+W tej lekcji zgłębimy fascynujący obszar etyki danych - od podstawowych pojęć i wyzwań, przez studia przypadków, aż po zastosowane koncepcje AI, takie jak zarządzanie, które pomagają ustanowić kulturę etyki w zespołach i organizacjach pracujących z danymi i AI.
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Podstawowe definicje
+
+Zacznijmy od zrozumienia podstawowej terminologii.
+
+Słowo "etyka" pochodzi od [greckiego słowa "ethikos"](https://en.wikipedia.org/wiki/Ethics) (i jego rdzenia "ethos"), oznaczającego _charakter lub moralną naturę_.
+
+**Etyka** dotyczy wspólnych wartości i zasad moralnych, które regulują nasze zachowanie w społeczeństwie. Etyka nie opiera się na prawach, ale na powszechnie akceptowanych normach tego, co jest "dobre a złe". Jednak rozważania etyczne mogą wpływać na inicjatywy w zakresie ładu korporacyjnego i regulacje rządowe, które tworzą większe zachęty do przestrzegania zasad.
+
+**Etyka danych** to [nowa gałąź etyki](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), która "bada i ocenia problemy moralne związane z _danymi, algorytmami i odpowiadającymi im praktykami_". Tutaj **"dane"** koncentrują się na działaniach związanych z generowaniem, rejestrowaniem, kuracją, przetwarzaniem, rozpowszechnianiem, udostępnianiem i użytkowaniem, **"algorytmy"** skupiają się na AI, agentach, uczeniu maszynowym i robotach, a **"praktyki"** dotyczą takich tematów jak odpowiedzialna innowacja, programowanie, hacking i kodeksy etyczne.
+
+**Etyka stosowana** to [praktyczne zastosowanie rozważań moralnych](https://en.wikipedia.org/wiki/Applied_ethics). Jest to proces aktywnego badania kwestii etycznych w kontekście _działań, produktów i procesów w rzeczywistym świecie_ oraz podejmowania działań korygujących, aby upewnić się, że pozostają one zgodne z określonymi wartościami etycznymi.
+
+**Kultura etyczna** dotyczy [_operacjonalizacji_ etyki stosowanej](https://hbr.org/2019/05/how-to-design-an-ethical-organization), aby upewnić się, że nasze zasady i praktyki etyczne są przyjmowane w sposób spójny i skalowalny w całej organizacji. Udane kultury etyczne definiują zasady etyczne na poziomie organizacyjnym, zapewniają znaczące zachęty do przestrzegania zasad i wzmacniają normy etyczne, zachęcając i promując pożądane zachowania na każdym poziomie organizacji.
+
+## Koncepcje etyczne
+
+W tej sekcji omówimy koncepcje takie jak **wspólne wartości** (zasady) i **wyzwania etyczne** (problemy) w etyce danych - oraz przeanalizujemy **studia przypadków**, które pomogą zrozumieć te koncepcje w kontekstach rzeczywistych.
+
+### 1. Zasady etyczne
+
+Każda strategia etyki danych zaczyna się od zdefiniowania _zasad etycznych_ - "wspólnych wartości", które opisują akceptowalne zachowania i kierują działaniami zgodnymi z przepisami w naszych projektach związanych z danymi i AI. Możesz je zdefiniować na poziomie indywidualnym lub zespołowym. Jednak większość dużych organizacji określa je w ramach misji lub struktury _etycznego AI_, która jest definiowana na poziomie korporacyjnym i konsekwentnie egzekwowana we wszystkich zespołach.
+
+**Przykład:** Misja [Odpowiedzialnego AI](https://www.microsoft.com/en-us/ai/responsible-ai) Microsoftu brzmi: _"Jesteśmy zaangażowani w rozwój AI napędzanej zasadami etycznymi, które stawiają ludzi na pierwszym miejscu"_ - identyfikując 6 zasad etycznych w poniższym frameworku:
+
+
+
+Przyjrzyjmy się krótko tym zasadom. _Przejrzystość_ i _odpowiedzialność_ są podstawowymi wartościami, na których opierają się inne zasady - zacznijmy więc od nich:
+
+* [**Odpowiedzialność**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) sprawia, że praktycy są _odpowiedzialni_ za swoje działania związane z danymi i AI oraz za zgodność z tymi zasadami etycznymi.
+* [**Przejrzystość**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) zapewnia, że działania związane z danymi i AI są _zrozumiałe_ (interpretowalne) dla użytkowników, wyjaśniając, co i dlaczego stoi za decyzjami.
+* [**Sprawiedliwość**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - koncentruje się na zapewnieniu, że AI traktuje _wszystkich ludzi_ sprawiedliwie, eliminując systemowe lub ukryte uprzedzenia w danych i systemach.
+* [**Niezawodność i bezpieczeństwo**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - zapewnia, że AI działa _spójnie_ z określonymi wartościami, minimalizując potencjalne szkody lub niezamierzone konsekwencje.
+* [**Prywatność i bezpieczeństwo**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - dotyczy zrozumienia pochodzenia danych i zapewnienia _prywatności danych oraz związanych z tym ochron_ użytkownikom.
+* [**Inkluzywność**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - dotyczy projektowania rozwiązań AI z zamiarem dostosowania ich do _szerokiego zakresu ludzkich potrzeb_ i możliwości.
+
+> 🚨 Zastanów się, jaka mogłaby być twoja misja etyki danych. Zbadaj ramy etycznego AI innych organizacji - oto przykłady od [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) i [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Jakie wspólne wartości mają? Jak te zasady odnoszą się do produktów AI lub branży, w której działają?
+
+### 2. Wyzwania etyczne
+
+Gdy mamy zdefiniowane zasady etyczne, kolejnym krokiem jest ocena naszych działań związanych z danymi i AI, aby sprawdzić, czy są zgodne z tymi wspólnymi wartościami. Pomyśl o swoich działaniach w dwóch kategoriach: _zbieranie danych_ i _projektowanie algorytmów_.
+
+W przypadku zbierania danych działania prawdopodobnie będą dotyczyć **danych osobowych** lub danych umożliwiających identyfikację osób (PII) dla możliwych do zidentyfikowania żyjących osób. Obejmuje to [różnorodne elementy danych nieosobowych](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), które _łącznie_ identyfikują osobę. Wyzwania etyczne mogą dotyczyć _prywatności danych_, _własności danych_ i powiązanych tematów, takich jak _świadoma zgoda_ i _prawa własności intelektualnej_ użytkowników.
+
+W przypadku projektowania algorytmów działania będą obejmować zbieranie i kurację **zbiorów danych**, a następnie ich wykorzystanie do trenowania i wdrażania **modeli danych**, które przewidują wyniki lub automatyzują decyzje w rzeczywistych kontekstach. Wyzwania etyczne mogą wynikać z _uprzedzeń w zbiorach danych_, _problemów z jakością danych_, _niesprawiedliwości_ i _fałszywego przedstawienia_ w algorytmach - w tym niektórych problemów o charakterze systemowym.
+
+W obu przypadkach wyzwania etyczne wskazują obszary, w których nasze działania mogą być sprzeczne z naszymi wspólnymi wartościami. Aby wykryć, złagodzić, zminimalizować lub wyeliminować te obawy, musimy zadawać moralne pytania "tak/nie" dotyczące naszych działań, a następnie podejmować odpowiednie działania korygujące. Przyjrzyjmy się niektórym wyzwaniom etycznym i moralnym pytaniom, które one rodzą:
+
+#### 2.1 Własność danych
+
+Zbieranie danych często obejmuje dane osobowe, które mogą identyfikować podmioty danych. [Własność danych](https://permission.io/blog/data-ownership) dotyczy _kontroli_ i [_praw użytkowników_](https://permission.io/blog/data-ownership) związanych z tworzeniem, przetwarzaniem i rozpowszechnianiem danych.
+
+Moralne pytania, które musimy zadać:
+ * Kto jest właścicielem danych? (użytkownik czy organizacja)
+ * Jakie prawa mają podmioty danych? (np. dostęp, usunięcie, przenoszenie)
+ * Jakie prawa mają organizacje? (np. poprawianie złośliwych recenzji użytkowników)
+
+#### 2.2 Świadoma zgoda
+
+[Świadoma zgoda](https://legaldictionary.net/informed-consent/) definiuje akt zgody użytkowników na działanie (np. zbieranie danych) z _pełnym zrozumieniem_ istotnych faktów, w tym celu, potencjalnych ryzyk i alternatyw.
+
+Pytania do rozważenia:
+ * Czy użytkownik (podmiot danych) wyraził zgodę na zbieranie i wykorzystanie danych?
+ * Czy użytkownik rozumiał cel, dla którego dane zostały zebrane?
+ * Czy użytkownik rozumiał potencjalne ryzyka wynikające z jego udziału?
+
+#### 2.3 Własność intelektualna
+
+[Własność intelektualna](https://en.wikipedia.org/wiki/Intellectual_property) odnosi się do niematerialnych wytworów wynikających z ludzkiej inicjatywy, które mogą _mieć wartość ekonomiczną_ dla osób lub firm.
+
+Pytania do rozważenia:
+ * Czy zebrane dane miały wartość ekonomiczną dla użytkownika lub firmy?
+ * Czy **użytkownik** ma tutaj własność intelektualną?
+ * Czy **organizacja** ma tutaj własność intelektualną?
+ * Jeśli te prawa istnieją, jak je chronimy?
+
+#### 2.4 Prywatność danych
+
+[Prywatność danych](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) lub prywatność informacji odnosi się do zachowania prywatności użytkownika i ochrony jego tożsamości w odniesieniu do danych umożliwiających identyfikację.
+
+Pytania do rozważenia:
+ * Czy dane użytkowników (osobowe) są zabezpieczone przed atakami i wyciekami?
+ * Czy dane użytkowników są dostępne tylko dla autoryzowanych użytkowników i kontekstów?
+ * Czy anonimowość użytkowników jest zachowana, gdy dane są udostępniane lub rozpowszechniane?
+ * Czy użytkownik może zostać zidentyfikowany z anonimowych zbiorów danych?
+
+#### 2.5 Prawo do bycia zapomnianym
+
+[Prawo do bycia zapomnianym](https://en.wikipedia.org/wiki/Right_to_be_forgotten) lub [Prawo do usunięcia](https://www.gdpreu.org/right-to-be-forgotten/) zapewnia użytkownikom dodatkową ochronę danych osobowych. Daje użytkownikom prawo do żądania usunięcia lub wycofania danych osobowych z wyszukiwarek internetowych i innych miejsc, _w określonych okolicznościach_ - umożliwiając im nowy start online bez obciążenia przeszłymi działaniami.
+
+Pytania do rozważenia:
+ * Czy system pozwala podmiotom danych na żądanie usunięcia danych?
+ * Czy wycofanie zgody użytkownika powinno automatycznie uruchamiać usunięcie danych?
+ * Czy dane zostały zebrane bez zgody lub w sposób niezgodny z prawem?
+ * Czy jesteśmy zgodni z regulacjami rządowymi dotyczącymi prywatności danych?
+
+#### 2.6 Uprzedzenia w zbiorach danych
+
+Uprzedzenia w zbiorach danych lub [uprzedzenia w zbieraniu danych](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) dotyczą wyboru _niereprezentatywnego_ podzbioru danych do rozwoju algorytmu, co może prowadzić do niesprawiedliwych wyników dla różnych grup. Rodzaje uprzedzeń obejmują uprzedzenia selekcyjne, uprzedzenia ochotników i uprzedzenia narzędziowe.
+
+Pytania do rozważenia:
+ * Czy zrekrutowaliśmy reprezentatywny zestaw podmiotów danych?
+ * Czy przetestowaliśmy nasz zebrany lub kuratorowany zbiór danych pod kątem różnych uprzedzeń?
+ * Czy możemy złagodzić lub usunąć wykryte uprzedzenia?
+
+#### 2.7 Jakość danych
+
+[Jakość danych](https://lakefs.io/data-quality-testing/) odnosi się do ważności kuratorowanego zbioru danych używanego do rozwoju naszych algorytmów, sprawdzając, czy cechy i rekordy spełniają wymagania dotyczące poziomu dokładności i spójności potrzebnego do naszego celu AI.
+
+Pytania do rozważenia:
+ * Czy uchwyciliśmy ważne _cechy_ dla naszego przypadku użycia?
+ * Czy
+[Algorithmiczna Sprawiedliwość](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) sprawdza, czy projekt algorytmu systematycznie dyskryminuje określone podgrupy osób, co prowadzi do [potencjalnych szkód](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) w zakresie _alokacji_ (gdzie zasoby są odmawiane lub wstrzymywane dla tej grupy) oraz _jakości usług_ (gdzie AI jest mniej dokładne dla niektórych podgrup w porównaniu do innych).
+
+Pytania do rozważenia:
+ * Czy oceniliśmy dokładność modelu dla różnych podgrup i warunków?
+ * Czy przeanalizowaliśmy system pod kątem potencjalnych szkód (np. stereotypizacji)?
+ * Czy możemy zmodyfikować dane lub ponownie wytrenować modele, aby zminimalizować zidentyfikowane szkody?
+
+Odkryj zasoby, takie jak [listy kontrolne AI Fairness](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), aby dowiedzieć się więcej.
+
+#### 2.9 Wprowadzanie w błąd
+
+[Wprowadzanie w błąd w danych](https://www.sciencedirect.com/topics/computer-science/misrepresentation) dotyczy pytania, czy komunikujemy wnioski z uczciwie zgromadzonych danych w sposób zwodniczy, aby wspierać pożądany przekaz.
+
+Pytania do rozważenia:
+ * Czy raportujemy niekompletne lub niedokładne dane?
+ * Czy wizualizujemy dane w sposób prowadzący do mylących wniosków?
+ * Czy stosujemy wybiórcze techniki statystyczne, aby manipulować wynikami?
+ * Czy istnieją alternatywne wyjaśnienia, które mogą prowadzić do innych wniosków?
+
+#### 2.10 Iluzja wolnego wyboru
+[Iluzja wolnego wyboru](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) pojawia się, gdy "architektury wyboru" systemu wykorzystują algorytmy decyzyjne, aby skłonić ludzi do podjęcia preferowanego wyniku, jednocześnie dając im pozory opcji i kontroli. Te [ciemne wzorce](https://www.darkpatterns.org/) mogą powodować szkody społeczne i ekonomiczne dla użytkowników. Ponieważ decyzje użytkowników wpływają na profile behawioralne, te działania mogą potencjalnie napędzać przyszłe wybory, wzmacniając lub przedłużając skutki tych szkód.
+
+Pytania do rozważenia:
+ * Czy użytkownik rozumiał konsekwencje podjęcia tej decyzji?
+ * Czy użytkownik był świadomy (alternatywnych) opcji oraz ich zalet i wad?
+ * Czy użytkownik może cofnąć automatyczną lub wymuszoną decyzję później?
+
+### 3. Studia przypadków
+
+Aby umieścić te wyzwania etyczne w kontekście rzeczywistym, warto przyjrzeć się studiom przypadków, które podkreślają potencjalne szkody i konsekwencje dla jednostek i społeczeństwa, gdy naruszenia etyki są ignorowane.
+
+Oto kilka przykładów:
+
+| Wyzwanie etyczne | Studium przypadku |
+|--- |--- |
+| **Świadoma zgoda** | 1972 - [Badanie kiły w Tuskegee](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afroamerykańscy mężczyźni uczestniczący w badaniu zostali zwiedzeni obietnicą darmowej opieki medycznej, podczas gdy badacze nie poinformowali ich o diagnozie ani o dostępności leczenia. Wielu uczestników zmarło, a ich partnerzy lub dzieci zostali dotknięci; badanie trwało 40 lat. |
+| **Prywatność danych** | 2007 - [Nagroda Netflixa za dane](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) udostępniła badaczom _10 milionów zanonimizowanych ocen filmów od 50 tysięcy klientów_, aby poprawić algorytmy rekomendacji. Jednak badacze byli w stanie powiązać zanonimizowane dane z danymi osobowymi w _zewnętrznych zbiorach danych_ (np. komentarze na IMDb), skutecznie "deanonimizując" niektórych subskrybentów Netflixa.|
+| **Stronniczość w zbieraniu danych** | 2013 - Miasto Boston [opracowało Street Bump](https://www.boston.gov/transportation/street-bump), aplikację pozwalającą obywatelom zgłaszać dziury w drogach, co miało dostarczyć lepszych danych o drogach. Jednak [osoby z niższych grup dochodowych miały mniejszy dostęp do samochodów i telefonów](https://hbr.org/2013/04/the-hidden-biases-in-big-data), co sprawiło, że ich problemy drogowe były niewidoczne w tej aplikacji. Twórcy współpracowali z akademikami, aby rozwiązać problemy z _równym dostępem i cyfrowymi podziałami_ w celu zapewnienia sprawiedliwości. |
+| **Sprawiedliwość algorytmiczna** | 2018 - Badanie MIT [Gender Shades](http://gendershades.org/overview.html) oceniło dokładność produktów AI klasyfikujących płeć, ujawniając luki w dokładności dla kobiet i osób o innym kolorze skóry. [Karta Apple z 2019 roku](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) wydawała się oferować mniejsze limity kredytowe kobietom niż mężczyznom. Oba przypadki ilustrują problemy z uprzedzeniami algorytmicznymi prowadzącymi do szkód społeczno-ekonomicznych.|
+| **Wprowadzanie w błąd w danych** | 2020 - [Departament Zdrowia Publicznego w Georgii opublikował wykresy COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), które wydawały się wprowadzać obywateli w błąd co do trendów w potwierdzonych przypadkach poprzez niechronologiczne uporządkowanie osi x. To ilustruje wprowadzanie w błąd za pomocą trików wizualizacyjnych. |
+| **Iluzja wolnego wyboru** | 2020 - Aplikacja edukacyjna [ABCmouse zapłaciła 10 milionów dolarów w ramach ugody z FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), gdzie rodzice byli zmuszani do opłacania subskrypcji, których nie mogli anulować. To ilustruje ciemne wzorce w architekturach wyboru, gdzie użytkownicy byli skłaniani do potencjalnie szkodliwych decyzji. |
+| **Prywatność danych i prawa użytkowników** | 2021 - [Wyciek danych z Facebooka](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ujawnił dane 530 milionów użytkowników, co skutkowało ugodą z FTC na kwotę 5 miliardów dolarów. Jednak Facebook odmówił powiadomienia użytkowników o wycieku, naruszając ich prawa dotyczące przejrzystości danych i dostępu. |
+
+Chcesz poznać więcej studiów przypadków? Sprawdź te zasoby:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - dylematy etyczne w różnych branżach.
+* [Kurs etyki w nauce o danych](https://www.coursera.org/learn/data-science-ethics#syllabus) - omówienie kluczowych studiów przypadków.
+* [Gdzie popełniono błędy](https://deon.drivendata.org/examples/) - lista kontrolna Deon z przykładami.
+
+> 🚨 Pomyśl o studiach przypadków, które widziałeś - czy doświadczyłeś lub byłeś dotknięty podobnym wyzwaniem etycznym w swoim życiu? Czy możesz wymienić przynajmniej jedno inne studium przypadku ilustrujące jedno z omawianych wyzwań etycznych?
+
+## Etyka stosowana
+
+Omówiliśmy koncepcje etyczne, wyzwania i studia przypadków w kontekstach rzeczywistych. Ale jak zacząć _stosować_ zasady i praktyki etyczne w naszych projektach? I jak _operacjonalizować_ te praktyki dla lepszego zarządzania? Przyjrzyjmy się kilku rzeczywistym rozwiązaniom:
+
+### 1. Kodeksy zawodowe
+
+Kodeksy zawodowe oferują jedną z opcji dla organizacji, aby "zachęcać" członków do wspierania ich zasad etycznych i misji. Kodeksy są _moralnymi wytycznymi_ dotyczącymi zachowań zawodowych, pomagającymi pracownikom lub członkom podejmować decyzje zgodne z zasadami organizacji. Są one skuteczne tylko w takim stopniu, w jakim członkowie dobrowolnie ich przestrzegają; jednak wiele organizacji oferuje dodatkowe nagrody i kary, aby motywować członków do przestrzegania kodeksu.
+
+Przykłady obejmują:
+
+ * [Kodeks etyki Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/)
+ * [Kodeks postępowania Stowarzyszenia Nauki o Danych](http://datascienceassn.org/code-of-conduct.html) (stworzony w 2013 roku)
+ * [Kodeks etyki i postępowania zawodowego ACM](https://www.acm.org/code-of-ethics) (od 1993 roku)
+
+> 🚨 Czy należysz do organizacji inżynierskiej lub związanej z nauką o danych? Sprawdź ich stronę, aby zobaczyć, czy definiują kodeks etyki zawodowej. Co mówi on o ich zasadach etycznych? Jak "zachęcają" członków do przestrzegania kodeksu?
+
+### 2. Listy kontrolne etyki
+
+Podczas gdy kodeksy zawodowe definiują wymagane _zachowania etyczne_ praktyków, [mają znane ograniczenia](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) w egzekwowaniu, szczególnie w dużych projektach. Zamiast tego wielu ekspertów ds. nauki o danych [zaleca stosowanie list kontrolnych](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), które mogą **połączyć zasady z praktykami** w bardziej deterministyczny i wykonalny sposób.
+
+Listy kontrolne przekształcają pytania w zadania "tak/nie", które można operacjonalizować, umożliwiając ich śledzenie jako część standardowych procesów wydawania produktów.
+
+Przykłady obejmują:
+ * [Deon](https://deon.drivendata.org/) - ogólna lista kontrolna etyki danych stworzona na podstawie [rekomendacji branżowych](https://deon.drivendata.org/#checklist-citations) z narzędziem wiersza poleceń do łatwej integracji.
+ * [Lista kontrolna audytu prywatności](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - zapewnia ogólne wskazówki dotyczące praktyk zarządzania informacjami z perspektywy prawnej i społecznej.
+ * [Lista kontrolna AI Fairness](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - stworzona przez praktyków AI, aby wspierać przyjęcie i integrację sprawdzania sprawiedliwości w cyklach rozwoju AI.
+ * [22 pytania dotyczące etyki w danych i AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - bardziej otwarta struktura, zaprojektowana do wstępnej eksploracji problemów etycznych w projektowaniu, wdrażaniu i kontekstach organizacyjnych.
+
+### 3. Regulacje etyczne
+
+Etyka dotyczy definiowania wspólnych wartości i dobrowolnego postępowania zgodnie z nimi. **Zgodność** dotyczy _przestrzegania prawa_, jeśli i gdzie jest ono zdefiniowane. **Zarządzanie** obejmuje szeroko wszystkie sposoby, w jakie organizacje działają, aby egzekwować zasady etyczne i przestrzegać ustanowionych przepisów.
+
+Obecnie zarządzanie przyjmuje dwie formy w organizacjach. Po pierwsze, chodzi o definiowanie zasad **etycznego AI** i ustanawianie praktyk, które umożliwiają ich wdrożenie we wszystkich projektach związanych z AI w organizacji. Po drugie, chodzi o przestrzeganie wszystkich rządowych regulacji dotyczących **ochrony danych** w regionach, w których organizacja działa.
+
+Przykłady regulacji dotyczących ochrony danych i prywatności:
+
+ * `1974`, [Ustawa o prywatności w USA](https://www.justice.gov/opcl/privacy-act-1974) - reguluje _federalne_ zbieranie, wykorzystywanie i ujawnianie danych osobowych.
+ * `1996`, [Ustawa o przenośności i odpowiedzialności w ubezpieczeniach zdrowotnych w USA (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - chroni dane osobowe dotyczące zdrowia.
+ * `1998`, [Ustawa o ochronie prywatności dzieci w Internecie w USA (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - chroni prywatność danych dzieci poniżej 13 roku życia.
+ * `2018`, [Ogólne rozporządzenie o ochronie danych (GDPR)](https://gdpr-info.eu/) - zapewnia prawa użytkowników, ochronę danych i prywatność.
+ * `2018`, [Ustawa o ochronie prywatności konsumentów w Kalifornii (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - daje konsumentom większe _prawa_ dotyczące ich danych osobowych.
+ * `2021`, Chińska [Ustawa o ochronie danych osobowych](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) - jedna z najsilniejszych regulacji dotyczących prywatności danych online na świecie.
+
+> 🚨 Ogólne rozporządzenie o ochronie danych (GDPR) zdefiniowane przez Unię Europejską pozostaje jednym z najbardziej wpływowych regulacji dotyczących prywatności danych. Czy wiesz, że definiuje również [8 praw użytkowników](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr), aby chronić cyfrową prywatność i dane osobowe obywateli? Dowiedz się, czym są te prawa i dlaczego są ważne.
+
+### 4. Kultura etyki
+
+Należy zauważyć, że istnieje niematerialna luka między _zgodnością_ (robieniem wystarczająco dużo, aby spełnić "literę prawa") a rozwiązywaniem [systemowych problemów](https://www.coursera.org/learn/data-science-ethics/home/week/4) (takich jak skostnienie, asymetria informacji i niesprawiedliwość dystrybucyjna), które mogą przyspieszyć wykorzystanie AI w szkodliwy sposób.
+
+To drugie wymaga [współpracy w definiowaniu kultur etycznych](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), które budują emocjonalne więzi i spójne wspólne wartości _w organizacjach_ w branży. Wymaga to bardziej [sformalizowanych kultur etyki danych](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) w organizacjach - umożliwiając _każdemu_ [pociągnięcie za sznur Andon](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (aby zgłosić obawy etyczne na wczesnym etapie procesu) i uczynienie _ocen etycznych_ (np. w rekrutacji) kluczowym kryterium formowania zespołów w projektach AI.
+
+---
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Przegląd i samodzielna nauka
+
+Kursy i książki pomagają zrozumieć podstawowe koncepcje etyczne i wyzwania, podczas gdy studia przypadków i narzędzia pomagają w stosowaniu praktyk etycznych w rzeczywistych kontekstach. Oto kilka zasobów na początek:
+
+* [Uczenie maszynowe dla początkujących](https://github.com/microsoft/ML-For-Beginners
+* [Zasady Odpowiedzialnej AI](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - darmowy kurs edukacyjny od Microsoft Learn.
+* [Etyka i Data Science](https://resources.oreilly.com/examples/0636920203964) - EBook od O'Reilly (M. Loukides, H. Mason i in.)
+* [Etyka w Data Science](https://www.coursera.org/learn/data-science-ethics#syllabus) - kurs online od Uniwersytetu Michigan.
+* [Etyka Rozwinięta](https://ethicsunwrapped.utexas.edu/case-studies) - studia przypadków od Uniwersytetu Teksasu.
+
+# Zadanie
+
+[Napisz studium przypadku dotyczące etyki danych](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/02-ethics/assignment.md b/translations/pl/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..b6ae0289
--- /dev/null
+++ b/translations/pl/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,33 @@
+
+## Napisz studium przypadku dotyczące etyki danych
+
+## Instrukcje
+
+Poznałeś różne [wyzwania związane z etyką danych](README.md#2-ethics-challenges) i zapoznałeś się z przykładami [studiów przypadków](README.md#3-case-studies), które odzwierciedlają te wyzwania w rzeczywistych kontekstach.
+
+W tym zadaniu napiszesz własne studium przypadku, które odzwierciedla wyzwanie związane z etyką danych, wynikające z Twojego doświadczenia lub z odpowiedniego kontekstu rzeczywistego, który jest Ci znany. Wystarczy, że wykonasz poniższe kroki:
+
+1. `Wybierz wyzwanie związane z etyką danych`. Przejrzyj [przykłady z lekcji](README.md#2-ethics-challenges) lub poszukaj inspiracji w internecie, np. w [Deon Checklist](https://deon.drivendata.org/examples/).
+
+2. `Opisz przykład z rzeczywistości`. Pomyśl o sytuacji, o której słyszałeś (nagłówki prasowe, badania naukowe itp.) lub której doświadczyłeś (lokalna społeczność), w której wystąpiło to konkretne wyzwanie. Zastanów się nad pytaniami dotyczącymi etyki danych związanymi z tym wyzwaniem – i omów potencjalne szkody lub niezamierzone konsekwencje wynikające z tego problemu. Dodatkowe punkty: zastanów się nad potencjalnymi rozwiązaniami lub procesami, które mogłyby pomóc wyeliminować lub złagodzić negatywny wpływ tego wyzwania.
+
+3. `Podaj listę powiązanych zasobów`. Udostępnij jeden lub więcej zasobów (linki do artykułów, osobistych wpisów na blogu lub obrazów, internetowych prac naukowych itp.), które potwierdzają, że była to rzeczywista sytuacja. Dodatkowe punkty: udostępnij zasoby, które również pokazują potencjalne szkody i konsekwencje wynikające z tego incydentu lub podkreślają pozytywne kroki podjęte w celu zapobieżenia jego powtórzeniu.
+
+
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | -- |
+Zidentyfikowano jedno lub więcej wyzwań związanych z etyką danych.
Studium przypadku jasno opisuje rzeczywisty incydent odzwierciedlający to wyzwanie i podkreśla niepożądane konsekwencje lub szkody, które spowodował.
Podano co najmniej jeden link do zasobu potwierdzającego, że incydent miał miejsce. | Zidentyfikowano jedno wyzwanie związane z etyką danych.
Omówiono przynajmniej jedną istotną szkodę lub konsekwencję, choć krótko.
Jednakże dyskusja jest ograniczona lub brakuje dowodów na rzeczywiste wystąpienie incydentu. | Zidentyfikowano wyzwanie związane z danymi.
Jednak opis lub zasoby nie odzwierciedlają odpowiednio wyzwania ani nie potwierdzają jego rzeczywistego wystąpienia. |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/03-defining-data/README.md b/translations/pl/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..bfc574a0
--- /dev/null
+++ b/translations/pl/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,82 @@
+
+# Definiowanie Danych
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definiowanie Danych - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Dane to fakty, informacje, obserwacje i pomiary, które są wykorzystywane do dokonywania odkryć i podejmowania świadomych decyzji. Punkt danych to pojedyncza jednostka danych w zbiorze danych, który jest kolekcją punktów danych. Zbiory danych mogą mieć różne formaty i struktury, zazwyczaj zależne od ich źródła, czyli miejsca, z którego pochodzą dane. Na przykład miesięczne przychody firmy mogą być zapisane w arkuszu kalkulacyjnym, ale dane o tętnie zebrane co godzinę przez smartwatch mogą być w formacie [JSON](https://stackoverflow.com/a/383699). Często zdarza się, że naukowcy zajmujący się danymi pracują z różnymi typami danych w jednym zbiorze danych.
+
+Ta lekcja koncentruje się na identyfikacji i klasyfikacji danych według ich cech i źródeł.
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## Jak Opisywane Są Dane
+
+### Surowe Dane
+Surowe dane to dane, które pochodzą bezpośrednio ze swojego źródła w pierwotnym stanie i nie zostały jeszcze przeanalizowane ani zorganizowane. Aby zrozumieć, co dzieje się w zbiorze danych, muszą one zostać zorganizowane w formacie, który będzie zrozumiały zarówno dla ludzi, jak i technologii, które mogą być używane do ich dalszej analizy. Struktura zbioru danych opisuje, jak jest on zorganizowany, i może być sklasyfikowana jako strukturalna, niestrukturalna lub półstrukturalna. Te typy struktur różnią się w zależności od źródła, ale ostatecznie mieszczą się w tych trzech kategoriach.
+
+### Dane Ilościowe
+Dane ilościowe to obserwacje liczbowe w zbiorze danych, które można zazwyczaj analizować, mierzyć i wykorzystywać matematycznie. Przykłady danych ilościowych to: populacja kraju, wzrost osoby lub kwartalne przychody firmy. Po dodatkowej analizie dane ilościowe mogą być używane do odkrywania sezonowych trendów w indeksie jakości powietrza (AQI) lub szacowania prawdopodobieństwa korków w godzinach szczytu w typowy dzień roboczy.
+
+### Dane Jakościowe
+Dane jakościowe, znane również jako dane kategoryczne, to dane, których nie można mierzyć obiektywnie, jak w przypadku obserwacji danych ilościowych. Są to zazwyczaj różne formaty danych subiektywnych, które uchwytują jakość czegoś, na przykład produktu lub procesu. Czasami dane jakościowe są liczbowe, ale nie są zazwyczaj wykorzystywane matematycznie, jak numery telefonów czy znaczniki czasu. Przykłady danych jakościowych to: komentarze wideo, marka i model samochodu lub ulubiony kolor najbliższych przyjaciół. Dane jakościowe mogą być używane do zrozumienia, które produkty konsumenci lubią najbardziej, lub do identyfikacji popularnych słów kluczowych w życiorysach aplikacji o pracę.
+
+### Dane Strukturalne
+Dane strukturalne to dane zorganizowane w wiersze i kolumny, gdzie każdy wiersz ma ten sam zestaw kolumn. Kolumny reprezentują wartość określonego typu i są identyfikowane nazwą opisującą, co dana wartość reprezentuje, podczas gdy wiersze zawierają rzeczywiste wartości. Kolumny często mają określony zestaw reguł lub ograniczeń dotyczących wartości, aby upewnić się, że wartości dokładnie reprezentują kolumnę. Na przykład wyobraź sobie arkusz kalkulacyjny klientów, gdzie każdy wiersz musi zawierać numer telefonu, a numery telefonów nigdy nie zawierają znaków alfabetycznych. Mogą być zastosowane reguły dotyczące kolumny numeru telefonu, aby upewnić się, że nigdy nie jest pusta i zawiera tylko liczby.
+
+Zaletą danych strukturalnych jest to, że mogą być zorganizowane w sposób umożliwiający ich powiązanie z innymi danymi strukturalnymi. Jednak ze względu na to, że dane są zaprojektowane w określony sposób, wprowadzenie zmian w ich ogólnej strukturze może wymagać dużego wysiłku. Na przykład dodanie kolumny e-mail do arkusza kalkulacyjnego klientów, która nie może być pusta, oznacza, że trzeba będzie ustalić, jak dodać te wartości do istniejących wierszy klientów w zbiorze danych.
+
+Przykłady danych strukturalnych: arkusze kalkulacyjne, relacyjne bazy danych, numery telefonów, wyciągi bankowe.
+
+### Dane Niestrukturalne
+Dane niestrukturalne zazwyczaj nie mogą być kategoryzowane w wiersze lub kolumny i nie zawierają formatu ani zestawu reguł do przestrzegania. Ponieważ dane niestrukturalne mają mniej ograniczeń dotyczących swojej struktury, łatwiej jest dodać nowe informacje w porównaniu do zbioru danych strukturalnych. Jeśli czujnik rejestrujący dane o ciśnieniu barometrycznym co 2 minuty otrzyma aktualizację, która pozwala mu mierzyć i rejestrować temperaturę, nie wymaga to zmiany istniejących danych, jeśli są one niestrukturalne. Jednak analiza lub badanie tego typu danych może zająć więcej czasu. Na przykład naukowiec, który chce znaleźć średnią temperaturę z poprzedniego miesiąca na podstawie danych z czujnika, może odkryć, że czujnik zapisał "e" w niektórych swoich danych, aby zaznaczyć, że był uszkodzony, zamiast typowej liczby, co oznacza, że dane są niekompletne.
+
+Przykłady danych niestrukturalnych: pliki tekstowe, wiadomości tekstowe, pliki wideo.
+
+### Dane Półstrukturalne
+Dane półstrukturalne mają cechy, które sprawiają, że są połączeniem danych strukturalnych i niestrukturalnych. Zazwyczaj nie odpowiadają formatowi wierszy i kolumn, ale są zorganizowane w sposób uznawany za strukturalny i mogą przestrzegać ustalonego formatu lub zestawu reguł. Struktura będzie się różnić w zależności od źródła, od dobrze zdefiniowanej hierarchii po coś bardziej elastycznego, co pozwala na łatwą integrację nowych informacji. Metadane to wskaźniki, które pomagają zdecydować, jak dane są zorganizowane i przechowywane, i będą miały różne nazwy w zależności od typu danych. Niektóre popularne nazwy dla metadanych to tagi, elementy, jednostki i atrybuty. Na przykład typowa wiadomość e-mail będzie miała temat, treść i zestaw odbiorców i może być zorganizowana według tego, kto lub kiedy ją wysłał.
+
+Przykłady danych półstrukturalnych: HTML, pliki CSV, JavaScript Object Notation (JSON).
+
+## Źródła Danych
+
+Źródło danych to początkowe miejsce, w którym dane zostały wygenerowane lub gdzie "żyją" i różni się w zależności od tego, jak i kiedy zostały zebrane. Dane generowane przez ich użytkowników są znane jako dane pierwotne, podczas gdy dane wtórne pochodzą ze źródła, które zebrało dane do ogólnego użytku. Na przykład grupa naukowców zbierających obserwacje w lesie deszczowym byłaby uznawana za dane pierwotne, a jeśli zdecydują się je udostępnić innym naukowcom, będą one uznawane za dane wtórne dla tych, którzy z nich korzystają.
+
+Bazy danych są powszechnym źródłem i opierają się na systemie zarządzania bazami danych, aby hostować i utrzymywać dane, gdzie użytkownicy używają poleceń zwanych zapytaniami do eksploracji danych. Pliki jako źródła danych mogą obejmować pliki audio, obrazy, wideo, a także arkusze kalkulacyjne, takie jak Excel. Internet jest powszechnym miejscem przechowywania danych, gdzie można znaleźć zarówno bazy danych, jak i pliki. Interfejsy programowania aplikacji, znane również jako API, pozwalają programistom tworzyć sposoby udostępniania danych zewnętrznym użytkownikom przez internet, podczas gdy proces web scrapingu polega na wyodrębnianiu danych ze strony internetowej. [Lekcje w sekcji Praca z Danymi](../../../../../../../../../2-Working-With-Data) koncentrują się na tym, jak korzystać z różnych źródeł danych.
+
+## Podsumowanie
+
+W tej lekcji dowiedzieliśmy się:
+
+- Czym są dane
+- Jak dane są opisywane
+- Jak dane są klasyfikowane i kategoryzowane
+- Gdzie można znaleźć dane
+
+## 🚀 Wyzwanie
+
+Kaggle to doskonałe źródło otwartych zbiorów danych. Skorzystaj z [narzędzia wyszukiwania zbiorów danych](https://www.kaggle.com/datasets), aby znaleźć kilka interesujących zbiorów danych i sklasyfikować 3-5 z nich według następujących kryteriów:
+
+- Czy dane są ilościowe czy jakościowe?
+- Czy dane są strukturalne, niestrukturalne czy półstrukturalne?
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Przegląd i Samodzielna Nauka
+
+- Jednostka Microsoft Learn zatytułowana [Klasyfikowanie Twoich Danych](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data) zawiera szczegółowy podział danych strukturalnych, półstrukturalnych i niestrukturalnych.
+
+## Zadanie
+
+[Klasyfikowanie Zbiorów Danych](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/03-defining-data/assignment.md b/translations/pl/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..ddd2c5d4
--- /dev/null
+++ b/translations/pl/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,77 @@
+
+# Klasyfikacja Zbiorów Danych
+
+## Instrukcje
+
+Postępuj zgodnie z instrukcjami w tym zadaniu, aby zidentyfikować i sklasyfikować dane, przypisując je do jednej z poniższych kategorii:
+
+**Typy Struktury**: Strukturalne, Półstrukturalne lub Niestrukturalne
+
+**Typy Wartości**: Jakościowe lub Ilościowe
+
+**Typy Źródeł**: Pierwotne lub Wtórne
+
+1. Firma została przejęta i teraz ma firmę macierzystą. Naukowcy zajmujący się danymi otrzymali arkusz kalkulacyjny z numerami telefonów klientów od firmy macierzystej.
+
+Typ Struktury:
+
+Typ Wartości:
+
+Typ Źródła:
+
+---
+
+2. Smartwatch zbiera dane o tętnie użytkownika, a surowe dane są w formacie JSON.
+
+Typ Struktury:
+
+Typ Wartości:
+
+Typ Źródła:
+
+---
+
+3. Ankieta dotycząca morale pracowników w miejscu pracy, przechowywana w pliku CSV.
+
+Typ Struktury:
+
+Typ Wartości:
+
+Typ Źródła:
+
+---
+
+4. Astrofizycy mają dostęp do bazy danych galaktyk, które zostały zebrane przez sondę kosmiczną. Dane zawierają liczbę planet w każdej galaktyce.
+
+Typ Struktury:
+
+Typ Wartości:
+
+Typ Źródła:
+
+---
+
+5. Aplikacja do zarządzania finansami osobistymi korzysta z API, aby połączyć się z kontami finansowymi użytkownika w celu obliczenia jego wartości netto. Użytkownik może zobaczyć wszystkie swoje transakcje w formacie wierszy i kolumn, przypominającym arkusz kalkulacyjny.
+
+Typ Struktury:
+
+Typ Wartości:
+
+Typ Źródła:
+
+## Kryteria Oceny
+
+Wzorowe | Wystarczające | Wymaga Poprawy
+--- | --- | -- |
+Poprawnie zidentyfikowano wszystkie typy struktury, wartości i źródeł | Poprawnie zidentyfikowano 3 typy struktury, wartości i źródeł | Poprawnie zidentyfikowano 2 lub mniej typów struktury, wartości i źródeł |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/04-stats-and-probability/README.md b/translations/pl/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..fd9f615d
--- /dev/null
+++ b/translations/pl/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,274 @@
+
+# Krótkie wprowadzenie do statystyki i teorii prawdopodobieństwa
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Statystyka i prawdopodobieństwo - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Statystyka i teoria prawdopodobieństwa to dwa ściśle powiązane obszary matematyki, które mają ogromne znaczenie w nauce o danych. Można pracować z danymi bez głębokiej znajomości matematyki, ale warto znać przynajmniej podstawowe pojęcia. Poniżej przedstawiamy krótkie wprowadzenie, które pomoże Ci zacząć.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Prawdopodobieństwo i zmienne losowe
+
+**Prawdopodobieństwo** to liczba z zakresu od 0 do 1, która wyraża, jak bardzo prawdopodobne jest wystąpienie danego **zdarzenia**. Definiuje się je jako liczbę pozytywnych wyników (prowadzących do zdarzenia) podzieloną przez całkowitą liczbę wyników, zakładając, że wszystkie wyniki są równie prawdopodobne. Na przykład, gdy rzucamy kostką, prawdopodobieństwo uzyskania liczby parzystej wynosi 3/6 = 0,5.
+
+Mówiąc o zdarzeniach, używamy **zmiennych losowych**. Na przykład zmienna losowa reprezentująca liczbę uzyskaną podczas rzutu kostką przyjmuje wartości od 1 do 6. Zbiór liczb od 1 do 6 nazywamy **przestrzenią próbkową**. Możemy mówić o prawdopodobieństwie, że zmienna losowa przyjmie określoną wartość, na przykład P(X=3)=1/6.
+
+Zmienna losowa w powyższym przykładzie nazywana jest **dyskretną**, ponieważ ma policzalną przestrzeń próbkową, czyli istnieją oddzielne wartości, które można wyliczyć. Są jednak przypadki, gdy przestrzeń próbkowa to zakres liczb rzeczywistych lub cały zbiór liczb rzeczywistych. Takie zmienne nazywamy **ciągłymi**. Dobrym przykładem jest czas przyjazdu autobusu.
+
+## Rozkład prawdopodobieństwa
+
+W przypadku dyskretnych zmiennych losowych łatwo opisać prawdopodobieństwo każdego zdarzenia za pomocą funkcji P(X). Dla każdej wartości *s* z przestrzeni próbkowej *S* funkcja ta zwraca liczbę z zakresu od 0 do 1, taką że suma wszystkich wartości P(X=s) dla wszystkich zdarzeń wynosi 1.
+
+Najbardziej znanym dyskretnym rozkładem jest **rozkład jednostajny**, w którym przestrzeń próbkowa składa się z N elementów, a prawdopodobieństwo każdego z nich wynosi 1/N.
+
+Trudniej jest opisać rozkład prawdopodobieństwa zmiennej ciągłej, której wartości są pobierane z pewnego przedziału [a,b] lub całego zbioru liczb rzeczywistych ℝ. Rozważmy przypadek czasu przyjazdu autobusu. W rzeczywistości dla każdego dokładnego czasu przyjazdu *t* prawdopodobieństwo, że autobus przyjedzie dokładnie o tej godzinie, wynosi 0!
+
+> Teraz wiesz, że zdarzenia o prawdopodobieństwie 0 się zdarzają, i to bardzo często! Przynajmniej za każdym razem, gdy autobus przyjeżdża!
+
+Możemy mówić jedynie o prawdopodobieństwie, że zmienna znajdzie się w określonym przedziale wartości, np. P(t1≤X2). W takim przypadku rozkład prawdopodobieństwa opisuje **funkcja gęstości prawdopodobieństwa** p(x), taka że:
+
+![P(t_1\le X1, x2, ..., xn. Możemy zdefiniować **średnią** (lub **średnią arytmetyczną**) tej sekwencji w tradycyjny sposób jako (x1+x2+xn)/n. W miarę zwiększania rozmiaru próby (tj. przechodząc do granicy n→∞), otrzymamy średnią (nazywaną również **wartością oczekiwaną**) rozkładu. Wartość oczekiwaną oznaczamy jako **E**(x).
+
+> Można wykazać, że dla dowolnego rozkładu dyskretnego z wartościami {x1, x2, ..., xN} i odpowiadającymi im prawdopodobieństwami p1, p2, ..., pN, wartość oczekiwana wynosi E(X)=x1p1+x2p2+...+xNpN.
+
+Aby określić, jak bardzo wartości są rozproszone, możemy obliczyć wariancję σ2 = ∑(xi - μ)2/n, gdzie μ to średnia sekwencji. Wartość σ nazywana jest **odchyleniem standardowym**, a σ2 nazywane jest **wariancją**.
+
+## Dominanta, mediana i kwartyle
+
+Czasami średnia nie oddaje odpowiednio "typowej" wartości danych. Na przykład, gdy istnieje kilka skrajnych wartości, które są całkowicie poza zakresem, mogą one wpłynąć na średnią. Dobrym wskaźnikiem jest **mediana**, wartość, dla której połowa punktów danych jest niższa, a druga połowa - wyższa.
+
+Aby lepiej zrozumieć rozkład danych, warto mówić o **kwartylach**:
+
+* Pierwszy kwartyl, czyli Q1, to wartość, dla której 25% danych jest poniżej tej wartości
+* Trzeci kwartyl, czyli Q3, to wartość, dla której 75% danych jest poniżej tej wartości
+
+Graficznie możemy przedstawić zależność między medianą a kwartylami na diagramie zwanym **wykres pudełkowy**:
+
+
+
+Tutaj obliczamy również **rozstęp międzykwartylowy** IQR=Q3-Q1 oraz tzw. **wartości odstające** - wartości, które znajdują się poza granicami [Q1-1.5*IQR,Q3+1.5*IQR].
+
+Dla skończonego rozkładu, który zawiera niewielką liczbę możliwych wartości, dobrą "typową" wartością jest ta, która pojawia się najczęściej, czyli **dominanta**. Często stosuje się ją do danych kategorycznych, takich jak kolory. Rozważ sytuację, w której mamy dwie grupy ludzi - jedni zdecydowanie preferują czerwony, a inni niebieski. Jeśli zakodujemy kolory liczbami, średnia wartość ulubionego koloru znajdzie się gdzieś w spektrum pomarańczowo-zielonym, co nie wskazuje rzeczywistej preferencji żadnej z grup. Jednak dominanta będzie jednym z kolorów lub oboma kolorami, jeśli liczba osób głosujących na nie jest równa (w takim przypadku próbka nazywana jest **wielomodalną**).
+
+## Dane rzeczywiste
+
+Analizując dane z rzeczywistości, często nie są one zmiennymi losowymi w sensie, że nie przeprowadzamy eksperymentów z nieznanym wynikiem. Na przykład, rozważmy drużynę baseballową i ich dane fizyczne, takie jak wzrost, waga i wiek. Te liczby nie są dokładnie losowe, ale nadal możemy zastosować te same pojęcia matematyczne. Na przykład, sekwencję wag ludzi można uznać za sekwencję wartości pobranych z pewnej zmiennej losowej. Poniżej znajduje się sekwencja wag rzeczywistych graczy baseballowych z [Major League Baseball](http://mlb.mlb.com/index.jsp), zaczerpnięta z [tego zbioru danych](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (dla wygody pokazano tylko pierwsze 20 wartości):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Note**: Aby zobaczyć przykład pracy z tym zbiorem danych, zapoznaj się z [dołączonym notebookiem](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb). W tej lekcji znajduje się również wiele wyzwań, które możesz rozwiązać, dodając kod do tego notebooka. Jeśli nie wiesz, jak operować na danych, nie martw się - wrócimy do pracy z danymi w Pythonie później. Jeśli nie wiesz, jak uruchomić kod w Jupyter Notebook, zapoznaj się z [tym artykułem](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Oto wykres pudełkowy pokazujący średnią, medianę i kwartyle dla naszych danych:
+
+
+
+Ponieważ nasze dane zawierają informacje o różnych **rolach** graczy, możemy również stworzyć wykres pudełkowy według roli - pozwoli nam to zrozumieć, jak wartości parametrów różnią się w zależności od roli. Tym razem rozważymy wzrost:
+
+
+
+Ten diagram sugeruje, że średni wzrost pierwszobazowych jest wyższy niż wzrost drugobazowych. Później w tej lekcji dowiemy się, jak można bardziej formalnie przetestować tę hipotezę i jak wykazać, że nasze dane są statystycznie istotne, aby to pokazać.
+
+> Pracując z danymi rzeczywistymi, zakładamy, że wszystkie punkty danych są próbkami pobranymi z pewnego rozkładu prawdopodobieństwa. To założenie pozwala nam stosować techniki uczenia maszynowego i budować działające modele predykcyjne.
+
+Aby zobaczyć, jaki jest rozkład naszych danych, możemy narysować wykres zwany **histogramem**. Oś X zawiera liczbę różnych przedziałów wag (tzw. **koszyki**), a oś pionowa pokazuje liczbę przypadków, w których próbka zmiennej losowej znalazła się w danym przedziale.
+
+
+
+Z tego histogramu widać, że wszystkie wartości są skoncentrowane wokół pewnej średniej wagi, a im dalej od tej wagi, tym rzadziej spotykamy wagi o tej wartości. Oznacza to, że bardzo mało prawdopodobne jest, aby waga gracza baseballowego była bardzo różna od średniej wagi. Wariancja wag pokazuje, w jakim stopniu wagi mogą różnić się od średniej.
+
+> Jeśli weźmiemy wagi innych osób, nie z ligi baseballowej, rozkład prawdopodobnie będzie inny. Jednak kształt rozkładu pozostanie taki sam, ale średnia i wariancja się zmienią. Dlatego jeśli przeszkolimy nasz model na graczach baseballowych, prawdopodobnie da błędne wyniki, gdy zostanie zastosowany do studentów uniwersytetu, ponieważ podstawowy rozkład jest inny.
+
+## Rozkład normalny
+
+Rozkład wag, który widzieliśmy powyżej, jest bardzo typowy, a wiele pomiarów z rzeczywistości podąża za tym samym typem rozkładu, ale z różnymi średnimi i wariancją. Ten rozkład nazywany jest **rozkładem normalnym** i odgrywa bardzo ważną rolę w statystyce.
+
+Użycie rozkładu normalnego to właściwy sposób na generowanie losowych wag potencjalnych graczy baseballowych. Gdy znamy średnią wagę `mean` i odchylenie standardowe `std`, możemy wygenerować 1000 próbek wag w następujący sposób:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Jeśli narysujemy histogram wygenerowanych próbek, zobaczymy obraz bardzo podobny do tego pokazanego powyżej. A jeśli zwiększymy liczbę próbek i liczbę koszyków, możemy wygenerować obraz rozkładu normalnego, który jest bliższy ideałowi:
+
+
+
+*Rozkład normalny ze średnią=0 i odchyleniem standardowym=1*
+
+## Przedziały ufności
+
+Mówiąc o wagach graczy baseballowych, zakładamy, że istnieje pewna **zmienna losowa W**, która odpowiada idealnemu rozkładowi prawdopodobieństwa wag wszystkich graczy baseballowych (tzw. **populacja**). Nasza sekwencja wag odpowiada podzbiorowi wszystkich graczy baseballowych, który nazywamy **próbką**. Interesujące pytanie brzmi: czy możemy poznać parametry rozkładu W, tj. średnią i wariancję populacji?
+
+Najprostszą odpowiedzią byłoby obliczenie średniej i wariancji naszej próbki. Jednak może się zdarzyć, że nasza losowa próbka nie odzwierciedla dokładnie całej populacji. Dlatego warto mówić o **przedziale ufności**.
+> **Przedział ufności** to oszacowanie prawdziwej średniej populacji na podstawie naszej próby, które jest dokładne z określonym prawdopodobieństwem (lub **poziomem ufności**).
+Przypuśćmy, że mamy próbkę X1, ..., Xn z naszej dystrybucji. Za każdym razem, gdy losujemy próbkę z naszej dystrybucji, otrzymujemy inną wartość średnią μ. W związku z tym μ można uznać za zmienną losową. **Przedział ufności** z ufnością p to para wartości (Lp,Rp), taka że **P**(Lp≤μ≤Rp) = p, czyli prawdopodobieństwo, że zmierzona wartość średnia mieści się w przedziale, wynosi p.
+
+Szczegółowe omówienie, jak obliczane są te przedziały ufności, wykracza poza nasz krótki wstęp. Więcej szczegółów można znaleźć [na Wikipedii](https://en.wikipedia.org/wiki/Confidence_interval). W skrócie, definiujemy rozkład obliczonej średniej próbki względem prawdziwej średniej populacji, który nazywany jest **rozkładem Studenta**.
+
+> **Ciekawostka**: Rozkład Studenta został nazwany na cześć matematyka Williama Sealy Gosseta, który opublikował swoje prace pod pseudonimem "Student". Pracował w browarze Guinness, a według jednej z wersji jego pracodawca nie chciał, aby opinia publiczna wiedziała, że używają testów statystycznych do oceny jakości surowców.
+
+Jeśli chcemy oszacować średnią μ naszej populacji z ufnością p, musimy wziąć *(1-p)/2-ty percentyl* rozkładu Studenta A, który można znaleźć w tabelach lub obliczyć za pomocą wbudowanych funkcji oprogramowania statystycznego (np. Python, R itp.). Wtedy przedział dla μ będzie dany przez X±A*D/√n, gdzie X to uzyskana średnia próbki, a D to odchylenie standardowe.
+
+> **Uwaga**: Pomijamy również omówienie ważnego pojęcia [stopni swobody](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), które jest istotne w kontekście rozkładu Studenta. Można odwołać się do bardziej kompletnych książek o statystyce, aby lepiej zrozumieć ten koncept.
+
+Przykład obliczenia przedziału ufności dla wagi i wzrostu znajduje się w [dołączonych notatnikach](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+| p | Średnia wagi |
+|------|--------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Zauważ, że im wyższe prawdopodobieństwo ufności, tym szerszy jest przedział ufności.
+
+## Testowanie hipotez
+
+W naszym zbiorze danych o graczach baseballowych istnieją różne role graczy, które można podsumować poniżej (zobacz [dołączony notatnik](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb), aby zobaczyć, jak można obliczyć tę tabelę):
+
+| Rola | Wzrost | Waga | Liczba |
+|-------------------|------------|------------|--------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Możemy zauważyć, że średni wzrost pierwszych bazowych jest wyższy niż drugich bazowych. Możemy więc być skłonni stwierdzić, że **pierwsi bazowi są wyżsi niż drudzy bazowi**.
+
+> To stwierdzenie nazywane jest **hipotezą**, ponieważ nie wiemy, czy fakt jest rzeczywiście prawdziwy.
+
+Jednak nie zawsze jest oczywiste, czy możemy wyciągnąć taki wniosek. Z powyższej dyskusji wiemy, że każda średnia ma związany z nią przedział ufności, a zatem ta różnica może być tylko błędem statystycznym. Potrzebujemy bardziej formalnego sposobu na przetestowanie naszej hipotezy.
+
+Obliczmy przedziały ufności osobno dla wzrostu pierwszych i drugich bazowych:
+
+| Ufność | Pierwsi bazowi | Drudzy bazowi |
+|--------|----------------|---------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Widzimy, że przy żadnym poziomie ufności przedziały się nie pokrywają. To dowodzi naszej hipotezy, że pierwsi bazowi są wyżsi niż drudzy bazowi.
+
+Bardziej formalnie, problem, który rozwiązujemy, polega na sprawdzeniu, czy **dwa rozkłady prawdopodobieństwa są takie same**, lub przynajmniej mają te same parametry. W zależności od rozkładu musimy użyć różnych testów. Jeśli wiemy, że nasze rozkłady są normalne, możemy zastosować **[test t Studenta](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+W teście t Studenta obliczamy tak zwaną **wartość t**, która wskazuje różnicę między średnimi, uwzględniając wariancję. Udowodniono, że wartość t podąża za **rozkładem Studenta**, co pozwala nam uzyskać wartość progową dla danego poziomu ufności **p** (można ją obliczyć lub znaleźć w tabelach numerycznych). Następnie porównujemy wartość t z tą wartością progową, aby zatwierdzić lub odrzucić hipotezę.
+
+W Pythonie możemy użyć pakietu **SciPy**, który zawiera funkcję `ttest_ind` (oprócz wielu innych przydatnych funkcji statystycznych!). Oblicza ona wartość t za nas, a także wykonuje odwrotne wyszukiwanie wartości p ufności, dzięki czemu możemy po prostu spojrzeć na ufność, aby wyciągnąć wnioski.
+
+Na przykład nasze porównanie wzrostu pierwszych i drugich bazowych daje następujące wyniki:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+W naszym przypadku wartość p jest bardzo niska, co oznacza, że istnieją silne dowody na poparcie tezy, że pierwsi bazowi są wyżsi.
+
+Istnieją również inne rodzaje hipotez, które możemy chcieć przetestować, na przykład:
+* Udowodnienie, że dana próbka podąża za jakimś rozkładem. W naszym przypadku założyliśmy, że wzrosty są rozkładem normalnym, ale to wymaga formalnej weryfikacji statystycznej.
+* Udowodnienie, że średnia wartość próbki odpowiada jakiejś z góry określonej wartości.
+* Porównanie średnich kilku próbek (np. jaka jest różnica w poziomach szczęścia w różnych grupach wiekowych).
+
+## Prawo wielkich liczb i twierdzenie centralne graniczne
+
+Jednym z powodów, dla których rozkład normalny jest tak ważny, jest tak zwane **twierdzenie centralne graniczne**. Przypuśćmy, że mamy dużą próbkę niezależnych wartości N X1, ..., XN, pobranych z dowolnego rozkładu o średniej μ i wariancji σ2. Wtedy, dla wystarczająco dużego N (innymi słowy, gdy N→∞), średnia ΣiXi będzie miała rozkład normalny, ze średnią μ i wariancją σ2/N.
+
+> Innym sposobem interpretacji twierdzenia centralnego granicznego jest stwierdzenie, że niezależnie od rozkładu, gdy obliczasz średnią sumy dowolnych wartości zmiennych losowych, kończysz z rozkładem normalnym.
+
+Z twierdzenia centralnego granicznego wynika również, że gdy N→∞, prawdopodobieństwo, że średnia próbki będzie równa μ, staje się 1. Jest to znane jako **prawo wielkich liczb**.
+
+## Kowariancja i korelacja
+
+Jednym z zadań Data Science jest znajdowanie relacji między danymi. Mówimy, że dwie sekwencje **korelują**, gdy wykazują podobne zachowanie w tym samym czasie, tj. albo rosną/spadają jednocześnie, albo jedna sekwencja rośnie, gdy druga spada i vice versa. Innymi słowy, wydaje się, że istnieje pewna relacja między dwiema sekwencjami.
+
+> Korelacja niekoniecznie wskazuje na związek przyczynowy między dwiema sekwencjami; czasami obie zmienne mogą zależeć od jakiejś zewnętrznej przyczyny, lub może to być czysty przypadek, że dwie sekwencje korelują. Jednak silna matematyczna korelacja jest dobrym wskazaniem, że dwie zmienne są w jakiś sposób powiązane.
+
+Matematycznie głównym pojęciem, które pokazuje relację między dwiema zmiennymi losowymi, jest **kowariancja**, która jest obliczana w następujący sposób: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Obliczamy odchylenie obu zmiennych od ich wartości średnich, a następnie iloczyn tych odchyleń. Jeśli obie zmienne odchylają się razem, iloczyn zawsze będzie wartością dodatnią, która doda się do dodatniej kowariancji. Jeśli obie zmienne odchylają się niesynchronicznie (tj. jedna spada poniżej średniej, gdy druga rośnie powyżej średniej), zawsze otrzymamy liczby ujemne, które dodadzą się do ujemnej kowariancji. Jeśli odchylenia nie są zależne, dodadzą się do wartości bliskiej zeru.
+
+Wartość bezwzględna kowariancji nie mówi nam wiele o tym, jak duża jest korelacja, ponieważ zależy od wielkości rzeczywistych wartości. Aby ją znormalizować, możemy podzielić kowariancję przez odchylenie standardowe obu zmiennych, aby uzyskać **korelację**. Dobrą rzeczą jest to, że korelacja zawsze mieści się w zakresie [-1,1], gdzie 1 wskazuje na silną dodatnią korelację między wartościami, -1 - silną ujemną korelację, a 0 - brak korelacji (zmienne są niezależne).
+
+**Przykład**: Możemy obliczyć korelację między wagą a wzrostem graczy baseballowych z wyżej wspomnianego zbioru danych:
+```python
+print(np.corrcoef(weights,heights))
+```
+W rezultacie otrzymujemy **macierz korelacji** taką jak ta:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Macierz korelacji C można obliczyć dla dowolnej liczby sekwencji wejściowych S1, ..., Sn. Wartość Cij to korelacja między Si a Sj, a elementy diagonalne zawsze wynoszą 1 (co jest również autokorelacją Si).
+
+W naszym przypadku wartość 0.53 wskazuje, że istnieje pewna korelacja między wagą a wzrostem osoby. Możemy również wykonać wykres punktowy jednej wartości względem drugiej, aby zobaczyć relację wizualnie:
+
+
+
+> Więcej przykładów korelacji i kowariancji można znaleźć w [dołączonym notatniku](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+## Podsumowanie
+
+W tej sekcji nauczyliśmy się:
+
+* podstawowych właściwości statystycznych danych, takich jak średnia, wariancja, dominanta i kwartyle
+* różnych rozkładów zmiennych losowych, w tym rozkładu normalnego
+* jak znaleźć korelację między różnymi właściwościami
+* jak używać solidnego aparatu matematyki i statystyki do udowadniania hipotez
+* jak obliczać przedziały ufności dla zmiennej losowej na podstawie próbki danych
+
+Chociaż to zdecydowanie nie jest wyczerpująca lista tematów istniejących w zakresie prawdopodobieństwa i statystyki, powinna wystarczyć, aby dać Ci dobry start w tym kursie.
+
+## 🚀 Wyzwanie
+
+Użyj przykładowego kodu w notatniku, aby przetestować inne hipotezy:
+1. Pierwsi bazowi są starsi niż drudzy bazowi
+2. Pierwsi bazowi są wyżsi niż trzeci bazowi
+3. Shortstopy są wyższe niż drudzy bazowi
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Przegląd i samodzielna nauka
+
+Prawdopodobieństwo i statystyka to tak szeroki temat, że zasługuje na osobny kurs. Jeśli chcesz zgłębić teorię, możesz kontynuować czytanie niektórych z poniższych książek:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) z New York University ma świetne notatki z wykładów [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (dostępne online)
+1. [Peter and Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[przykładowy kod w R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[przykładowy kod w R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Zadanie
+
+[Małe badanie cukrzycy](assignment.md)
+
+## Podziękowania
+
+Ta lekcja została napisana z ♥️ przez [Dmitry Soshnikov](http://soshnikov.com)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/04-stats-and-probability/assignment.md b/translations/pl/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..38309e0b
--- /dev/null
+++ b/translations/pl/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,38 @@
+
+# Małe badanie nad cukrzycą
+
+W tym zadaniu będziemy pracować z małym zestawem danych pacjentów z cukrzycą, pobranym z [tutaj](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | WIEK | PŁEĆ | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|------|------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## Instrukcje
+
+* Otwórz [notatnik zadania](../../../../1-Introduction/04-stats-and-probability/assignment.ipynb) w środowisku jupyter notebook
+* Wykonaj wszystkie zadania wymienione w notatniku, mianowicie:
+ * [ ] Oblicz średnie wartości i wariancję dla wszystkich zmiennych
+ * [ ] Narysuj wykresy pudełkowe dla BMI, BP i Y w zależności od płci
+ * [ ] Jaka jest dystrybucja zmiennych Wiek, Płeć, BMI i Y?
+ * [ ] Przetestuj korelację między różnymi zmiennymi a postępem choroby (Y)
+ * [ ] Przetestuj hipotezę, że stopień postępu cukrzycy różni się między mężczyznami a kobietami
+
+## Kryteria oceny
+
+Wzorowe | Zadowalające | Wymaga poprawy
+--- | --- | --- |
+Wszystkie wymagane zadania są wykonane, zilustrowane graficznie i wyjaśnione | Większość zadań jest wykonana, brakuje wyjaśnień lub wniosków z wykresów i/lub uzyskanych wartości | Wykonane są tylko podstawowe zadania, takie jak obliczenie średniej/wariancji i podstawowe wykresy, brak wniosków z danych
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/1-Introduction/README.md b/translations/pl/1-Introduction/README.md
new file mode 100644
index 00000000..614a5dcf
--- /dev/null
+++ b/translations/pl/1-Introduction/README.md
@@ -0,0 +1,29 @@
+
+# Wprowadzenie do Data Science
+
+
+> Zdjęcie autorstwa Stephena Dawsona na Unsplash
+
+W tych lekcjach odkryjesz, czym jest Data Science, oraz poznasz kwestie etyczne, które musi brać pod uwagę data scientist. Dowiesz się również, jak definiowane są dane, a także zapoznasz się z podstawami statystyki i prawdopodobieństwa, które są kluczowymi dziedzinami akademickimi w Data Science.
+
+### Tematy
+
+1. [Definiowanie Data Science](01-defining-data-science/README.md)
+2. [Etyka w Data Science](02-ethics/README.md)
+3. [Definiowanie danych](03-defining-data/README.md)
+4. [Wprowadzenie do statystyki i prawdopodobieństwa](04-stats-and-probability/README.md)
+
+### Podziękowania
+
+Te lekcje zostały napisane z ❤️ przez [Nityę Narasimhan](https://twitter.com/nitya) i [Dmitry'ego Soshnikova](https://twitter.com/shwars).
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/05-relational-databases/README.md b/translations/pl/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..2cbd2409
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,193 @@
+
+# Praca z danymi: Relacyjne bazy danych
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Praca z danymi: Relacyjne bazy danych - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Prawdopodobnie w przeszłości korzystałeś z arkusza kalkulacyjnego do przechowywania informacji. Miałeś zestaw wierszy i kolumn, gdzie wiersze zawierały informacje (lub dane), a kolumny opisywały te informacje (czasami nazywane metadanymi). Relacyjna baza danych opiera się na tej podstawowej zasadzie kolumn i wierszy w tabelach, pozwalając na przechowywanie informacji w wielu tabelach. Dzięki temu możesz pracować z bardziej złożonymi danymi, unikać duplikacji i mieć większą elastyczność w eksploracji danych. Przyjrzyjmy się koncepcjom relacyjnej bazy danych.
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Wszystko zaczyna się od tabel
+
+Relacyjna baza danych opiera się na tabelach. Podobnie jak w arkuszu kalkulacyjnym, tabela to zbiór kolumn i wierszy. Wiersz zawiera dane lub informacje, z którymi chcemy pracować, takie jak nazwa miasta czy ilość opadów. Kolumny opisują dane, które przechowują.
+
+Zacznijmy naszą eksplorację od stworzenia tabeli do przechowywania informacji o miastach. Możemy zacząć od ich nazwy i kraju. Możesz przechowywać to w tabeli w następujący sposób:
+
+| Miasto | Kraj |
+| -------- | ------------- |
+| Tokio | Japonia |
+| Atlanta | Stany Zjednoczone |
+| Auckland | Nowa Zelandia |
+
+Zauważ, że nazwy kolumn **miasto**, **kraj** i **populacja** opisują przechowywane dane, a każdy wiersz zawiera informacje o jednym mieście.
+
+## Ograniczenia podejścia z jedną tabelą
+
+Prawdopodobnie powyższa tabela wydaje się dość znajoma. Dodajmy teraz dodatkowe dane do naszej rozwijającej się bazy danych - roczne opady (w milimetrach). Skupimy się na latach 2018, 2019 i 2020. Jeśli mielibyśmy dodać dane dla Tokio, mogłoby to wyglądać tak:
+
+| Miasto | Kraj | Rok | Ilość |
+| ------ | ------- | ---- | ----- |
+| Tokio | Japonia | 2020 | 1690 |
+| Tokio | Japonia | 2019 | 1874 |
+| Tokio | Japonia | 2018 | 1445 |
+
+Co zauważasz w naszej tabeli? Możesz zauważyć, że powtarzamy nazwę i kraj miasta wielokrotnie. Może to zajmować sporo miejsca i jest w dużej mierze niepotrzebne. W końcu Tokio ma tylko jedną nazwę, która nas interesuje.
+
+OK, spróbujmy czegoś innego. Dodajmy nowe kolumny dla każdego roku:
+
+| Miasto | Kraj | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokio | Japonia | 1445 | 1874 | 1690 |
+| Atlanta | Stany Zjednoczone | 1779 | 1111 | 1683 |
+| Auckland | Nowa Zelandia | 1386 | 942 | 1176 |
+
+Chociaż unika to duplikacji wierszy, dodaje kilka innych wyzwań. Musielibyśmy zmieniać strukturę naszej tabeli za każdym razem, gdy pojawi się nowy rok. Dodatkowo, gdy nasze dane się rozrosną, posiadanie lat jako kolumn utrudni ich pobieranie i obliczanie wartości.
+
+Dlatego potrzebujemy wielu tabel i relacji. Rozdzielając nasze dane, możemy uniknąć duplikacji i mieć większą elastyczność w pracy z danymi.
+
+## Koncepcje relacji
+
+Wróćmy do naszych danych i zdecydujmy, jak je podzielić. Wiemy, że chcemy przechowywać nazwę i kraj naszych miast, więc prawdopodobnie najlepiej będzie to zrobić w jednej tabeli.
+
+| Miasto | Kraj |
+| -------- | ------------- |
+| Tokio | Japonia |
+| Atlanta | Stany Zjednoczone |
+| Auckland | Nowa Zelandia |
+
+Ale zanim stworzymy następną tabelę, musimy ustalić, jak odwoływać się do każdego miasta. Potrzebujemy jakiejś formy identyfikatora, ID lub (w technicznych terminach baz danych) klucza głównego. Klucz główny to wartość używana do identyfikacji jednego konkretnego wiersza w tabeli. Chociaż może być oparty na samej wartości (moglibyśmy użyć nazwy miasta, na przykład), prawie zawsze powinien być liczbą lub innym identyfikatorem. Nie chcemy, aby identyfikator kiedykolwiek się zmienił, ponieważ złamałoby to relację. W większości przypadków klucz główny lub identyfikator będzie automatycznie generowaną liczbą.
+
+> ✅ Klucz główny jest często skracany jako PK
+
+### miasta
+
+| city_id | Miasto | Kraj |
+| ------- | -------- | ------------- |
+| 1 | Tokio | Japonia |
+| 2 | Atlanta | Stany Zjednoczone |
+| 3 | Auckland | Nowa Zelandia |
+
+> ✅ Zauważysz, że w trakcie tej lekcji używamy terminów "id" i "klucz główny" zamiennie. Koncepcje te dotyczą również DataFrames, które poznasz później. DataFrames nie używają terminologii "klucz główny", jednak zauważysz, że zachowują się bardzo podobnie.
+
+Po stworzeniu tabeli miast, przechowajmy dane o opadach. Zamiast powielać pełne informacje o mieście, możemy użyć identyfikatora. Powinniśmy również upewnić się, że nowo utworzona tabela ma kolumnę *id*, ponieważ wszystkie tabele powinny mieć identyfikator lub klucz główny.
+
+### opady
+
+| rainfall_id | city_id | Rok | Ilość |
+| ----------- | ------- | ---- | ----- |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Zauważ kolumnę **city_id** w nowo utworzonej tabeli **opady**. Ta kolumna zawiera wartości, które odnoszą się do identyfikatorów w tabeli **miasta**. W technicznych terminach relacyjnych danych nazywa się to **kluczem obcym**; jest to klucz główny z innej tabeli. Możesz po prostu myśleć o tym jako o odniesieniu lub wskaźniku. **city_id** 1 odnosi się do Tokio.
+
+> [!NOTE] Klucz obcy jest często skracany jako FK
+
+## Pobieranie danych
+
+Po podzieleniu danych na dwie tabele, możesz się zastanawiać, jak je pobrać. Jeśli używamy relacyjnej bazy danych, takiej jak MySQL, SQL Server czy Oracle, możemy użyć języka o nazwie Structured Query Language, czyli SQL. SQL (czasami wymawiane jako "sequel") to standardowy język używany do pobierania i modyfikowania danych w relacyjnej bazie danych.
+
+Aby pobrać dane, używasz polecenia `SELECT`. W swojej podstawowej formie **wybierasz** kolumny, które chcesz zobaczyć **z** tabeli, w której się znajdują. Jeśli chciałbyś wyświetlić tylko nazwy miast, możesz użyć następującego zapytania:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` to miejsce, gdzie wymieniasz kolumny, a `FROM` to miejsce, gdzie wymieniasz tabele.
+
+> [NOTE] Składnia SQL jest nieczuła na wielkość liter, co oznacza, że `select` i `SELECT` oznaczają to samo. Jednak w zależności od rodzaju bazy danych, której używasz, kolumny i tabele mogą być wrażliwe na wielkość liter. W rezultacie najlepszą praktyką jest zawsze traktowanie wszystkiego w programowaniu tak, jakby było wrażliwe na wielkość liter. Podczas pisania zapytań SQL powszechną konwencją jest pisanie słów kluczowych wielkimi literami.
+
+Powyższe zapytanie wyświetli wszystkie miasta. Wyobraźmy sobie, że chcemy wyświetlić tylko miasta w Nowej Zelandii. Potrzebujemy jakiejś formy filtra. Słowem kluczowym SQL dla tego jest `WHERE`, czyli "gdzie coś jest prawdziwe".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Łączenie danych
+
+Do tej pory pobieraliśmy dane z jednej tabeli. Teraz chcemy połączyć dane z tabel **miasta** i **opady**. Robi się to poprzez *łączenie* ich ze sobą. Efektywnie tworzysz połączenie między dwiema tabelami i dopasowujesz wartości z kolumny z każdej tabeli.
+
+W naszym przykładzie dopasujemy kolumnę **city_id** w tabeli **opady** do kolumny **city_id** w tabeli **miasta**. To dopasuje wartość opadów do odpowiedniego miasta. Typ łączenia, który wykonamy, nazywa się *łączeniem wewnętrznym*, co oznacza, że jeśli jakieś wiersze nie pasują do niczego z drugiej tabeli, nie zostaną wyświetlone. W naszym przypadku każde miasto ma dane o opadach, więc wszystko zostanie wyświetlone.
+
+Pobierzmy dane o opadach z 2019 roku dla wszystkich naszych miast.
+
+Zrobimy to krokami. Pierwszym krokiem jest połączenie danych, wskazując kolumny dla połączenia - **city_id**, jak podkreślono wcześniej.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Podkreśliliśmy dwie kolumny, które chcemy, oraz fakt, że chcemy połączyć tabele za pomocą **city_id**. Teraz możemy dodać instrukcję `WHERE`, aby odfiltrować tylko rok 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Podsumowanie
+
+Relacyjne bazy danych opierają się na podziale informacji między wiele tabel, które następnie są łączone w celu wyświetlenia i analizy. Zapewnia to wysoki stopień elastyczności w wykonywaniu obliczeń i manipulowaniu danymi. Poznałeś podstawowe koncepcje relacyjnej bazy danych oraz sposób wykonywania połączenia między dwiema tabelami.
+
+## 🚀 Wyzwanie
+
+Istnieje wiele relacyjnych baz danych dostępnych w internecie. Możesz eksplorować dane, korzystając z umiejętności, które zdobyłeś powyżej.
+
+## Quiz po wykładzie
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Przegląd i samodzielna nauka
+
+Na [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) dostępnych jest wiele zasobów, które pozwolą Ci kontynuować eksplorację SQL i koncepcji relacyjnych baz danych.
+
+- [Opis koncepcji relacyjnych danych](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Rozpocznij pracę z zapytaniami w Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL to wersja SQL)
+- [Treści SQL na Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Zadanie
+
+[Temat zadania](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/05-relational-databases/assignment.md b/translations/pl/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..c565dd7c
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,71 @@
+
+# Wyświetlanie danych o lotniskach
+
+Otrzymałeś [bazę danych](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) opartą na [SQLite](https://sqlite.org/index.html), która zawiera informacje o lotniskach. Schemat bazy danych jest przedstawiony poniżej. Użyjesz [rozszerzenia SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) w [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum), aby wyświetlić informacje o lotniskach w różnych miastach.
+
+## Instrukcje
+
+Aby rozpocząć zadanie, musisz wykonać kilka kroków. Będziesz musiał zainstalować odpowiednie narzędzia i pobrać przykładową bazę danych.
+
+### Przygotowanie systemu
+
+Możesz użyć Visual Studio Code i rozszerzenia SQLite, aby pracować z bazą danych.
+
+1. Przejdź na stronę [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) i postępuj zgodnie z instrukcjami, aby zainstalować Visual Studio Code
+1. Zainstaluj [rozszerzenie SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) zgodnie z instrukcjami na stronie Marketplace
+
+### Pobierz i otwórz bazę danych
+
+Następnie pobierz i otwórz bazę danych.
+
+1. Pobierz [plik bazy danych z GitHuba](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) i zapisz go w wybranym katalogu
+1. Otwórz Visual Studio Code
+1. Otwórz bazę danych w rozszerzeniu SQLite, wybierając **Ctl-Shift-P** (lub **Cmd-Shift-P** na Macu) i wpisując `SQLite: Open database`
+1. Wybierz **Choose database from file** i otwórz plik **airports.db**, który wcześniej pobrałeś
+1. Po otwarciu bazy danych (nie zobaczysz żadnej zmiany na ekranie), utwórz nowe okno zapytań, wybierając **Ctl-Shift-P** (lub **Cmd-Shift-P** na Macu) i wpisując `SQLite: New query`
+
+Po otwarciu nowego okna zapytań możesz używać go do wykonywania instrukcji SQL na bazie danych. Aby uruchomić zapytania, możesz użyć polecenia **Ctl-Shift-Q** (lub **Cmd-Shift-Q** na Macu).
+
+> [!NOTE] Aby uzyskać więcej informacji o rozszerzeniu SQLite, możesz zapoznać się z [dokumentacją](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Schemat bazy danych
+
+Schemat bazy danych to jej projekt i struktura tabel. Baza danych **airports** zawiera dwie tabele: `cities`, która zawiera listę miast w Wielkiej Brytanii i Irlandii, oraz `airports`, która zawiera listę wszystkich lotnisk. Ponieważ niektóre miasta mogą mieć wiele lotnisk, utworzono dwie tabele do przechowywania tych informacji. W tym ćwiczeniu użyjesz połączeń (joins), aby wyświetlić informacje o różnych miastach.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK to id in **Cities**) |
+
+## Zadanie
+
+Utwórz zapytania, które zwrócą następujące informacje:
+
+1. wszystkie nazwy miast w tabeli `Cities`
+1. wszystkie miasta w Irlandii w tabeli `Cities`
+1. wszystkie nazwy lotnisk wraz z ich miastem i krajem
+1. wszystkie lotniska w Londynie, Wielka Brytania
+
+## Kryteria oceny
+
+| Wzorowe | Wystarczające | Wymaga poprawy |
+| ------------- | ------------- | --------------- |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/06-non-relational/README.md b/translations/pl/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..2aeb6f77
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,156 @@
+
+# Praca z danymi: Dane nierelacyjne
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Praca z danymi NoSQL - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Dane nie ograniczają się tylko do relacyjnych baz danych. Ta lekcja koncentruje się na danych nierelacyjnych i obejmuje podstawy arkuszy kalkulacyjnych oraz NoSQL.
+
+## Arkusze kalkulacyjne
+
+Arkusze kalkulacyjne są popularnym sposobem przechowywania i eksploracji danych, ponieważ wymagają mniej pracy na etapie konfiguracji i rozpoczęcia pracy. W tej lekcji poznasz podstawowe elementy arkusza kalkulacyjnego, a także formuły i funkcje. Przykłady zostaną zilustrowane za pomocą Microsoft Excel, ale większość elementów i tematów będzie miała podobne nazwy i kroki w porównaniu z innym oprogramowaniem do obsługi arkuszy kalkulacyjnych.
+
+
+
+Arkusz kalkulacyjny to plik, który będzie dostępny w systemie plików komputera, urządzenia lub w chmurowym systemie plików. Samo oprogramowanie może być przeglądarkowe lub aplikacją, którą należy zainstalować na komputerze lub pobrać jako aplikację. W Excelu te pliki są również definiowane jako **skoroszyty**, i to określenie będzie używane w dalszej części tej lekcji.
+
+Skoroszyt zawiera jeden lub więcej **arkuszy**, z których każdy jest oznaczony zakładkami. W obrębie arkusza znajdują się prostokąty zwane **komórkami**, które zawierają właściwe dane. Komórka to przecięcie wiersza i kolumny, gdzie kolumny są oznaczone literami alfabetu, a wiersze numerami. Niektóre arkusze kalkulacyjne zawierają nagłówki w pierwszych kilku wierszach, które opisują dane w komórce.
+
+Mając te podstawowe elementy skoroszytu Excel, wykorzystamy przykład z [Microsoft Templates](https://templates.office.com/) dotyczący inwentarza, aby przejść przez dodatkowe elementy arkusza kalkulacyjnego.
+
+### Zarządzanie inwentarzem
+
+Plik arkusza kalkulacyjnego o nazwie "InventoryExample" to sformatowany arkusz zawierający przedmioty w inwentarzu, który zawiera trzy arkusze, gdzie zakładki są oznaczone jako "Inventory List", "Inventory Pick List" i "Bin Lookup". Wiersz 4 arkusza Inventory List to nagłówek, który opisuje wartość każdej komórki w kolumnie nagłówka.
+
+
+
+Zdarzają się sytuacje, w których wartość komórki zależy od wartości innych komórek. Arkusz Inventory List śledzi koszt każdego przedmiotu w inwentarzu, ale co jeśli chcemy znać wartość całego inwentarza? [**Formuły**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) wykonują operacje na danych w komórkach i są używane do obliczania kosztu inwentarza w tym przykładzie. W tym arkuszu użyto formuły w kolumnie Inventory Value, aby obliczyć wartość każdego przedmiotu, mnożąc ilość w kolumnie QTY przez koszt w kolumnie COST. Podwójne kliknięcie lub zaznaczenie komórki pokaże formułę. Zauważysz, że formuły zaczynają się od znaku równości, po którym następuje obliczenie lub operacja.
+
+
+
+Możemy użyć innej formuły, aby dodać wszystkie wartości z kolumny Inventory Value i uzyskać ich sumę. Można to obliczyć, dodając każdą komórkę, ale byłoby to żmudne zadanie. Excel posiada [**funkcje**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), czyli predefiniowane formuły do wykonywania obliczeń na wartościach komórek. Funkcje wymagają argumentów, czyli wartości potrzebnych do wykonania obliczeń. Gdy funkcje wymagają więcej niż jednego argumentu, muszą być one podane w określonej kolejności, w przeciwnym razie funkcja może nie obliczyć poprawnej wartości. W tym przykładzie użyto funkcji SUM, która wykorzystuje wartości z kolumny Inventory Value jako argument, aby obliczyć sumę podaną w wierszu 3, kolumnie B (również określanej jako B3).
+
+## NoSQL
+
+NoSQL to ogólny termin obejmujący różne sposoby przechowywania danych nierelacyjnych i może być interpretowany jako "non-SQL", "nierelacyjne" lub "nie tylko SQL". Tego typu systemy baz danych można podzielić na 4 kategorie.
+
+
+> Źródło: [Blog Michała Białeckiego](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+Bazy danych [klucz-wartość](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) łączą unikalne klucze, które są unikalnym identyfikatorem powiązanym z wartością. Te pary są przechowywane za pomocą [tablicy mieszającej](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) z odpowiednią funkcją mieszającą.
+
+
+> Źródło: [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+Bazy danych [grafowe](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) opisują relacje w danych i są reprezentowane jako zbiór węzłów i krawędzi. Węzeł reprezentuje jednostkę, coś, co istnieje w rzeczywistości, na przykład studenta lub wyciąg bankowy. Krawędzie reprezentują relacje między dwiema jednostkami. Każdy węzeł i krawędź mają właściwości, które dostarczają dodatkowych informacji o węzłach i krawędziach.
+
+
+
+Bazy danych [kolumnowe](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) organizują dane w kolumny i wiersze, podobnie jak struktura relacyjna, ale każda kolumna jest podzielona na grupy zwane rodzinami kolumn, gdzie wszystkie dane w jednej kolumnie są powiązane i mogą być pobierane oraz zmieniane jako jedna jednostka.
+
+### Bazy danych dokumentowe z Azure Cosmos DB
+
+Bazy danych [dokumentowe](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) opierają się na koncepcji bazy danych klucz-wartość i składają się z serii pól i obiektów. W tej sekcji przyjrzymy się bazom danych dokumentowych za pomocą emulatora Cosmos DB.
+
+Baza danych Cosmos DB spełnia definicję "Nie tylko SQL", ponieważ baza dokumentowa Cosmos DB wykorzystuje SQL do zapytań o dane. [Poprzednia lekcja](../05-relational-databases/README.md) dotycząca SQL obejmuje podstawy tego języka, a tutaj będziemy mogli zastosować niektóre z tych samych zapytań w bazie dokumentowej. Użyjemy emulatora Cosmos DB, który pozwala na tworzenie i eksplorację bazy dokumentowej lokalnie na komputerze. Więcej informacji o emulatorze znajdziesz [tutaj](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Dokument to zbiór pól i wartości obiektów, gdzie pola opisują, co reprezentuje wartość obiektu. Poniżej znajduje się przykład dokumentu.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Pola, które nas interesują w tym dokumencie, to: `firstname`, `id` i `age`. Pozostałe pola z podkreśleniami zostały wygenerowane przez Cosmos DB.
+
+#### Eksploracja danych za pomocą emulatora Cosmos DB
+
+Możesz pobrać i zainstalować emulator [dla systemu Windows tutaj](https://aka.ms/cosmosdb-emulator). Zapoznaj się z tą [dokumentacją](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos), aby dowiedzieć się, jak uruchomić emulator na macOS i Linux.
+
+Emulator uruchamia okno przeglądarki, w którym widok Explorer pozwala na eksplorację dokumentów.
+
+
+
+Jeśli podążasz za instrukcjami, kliknij "Start with Sample", aby wygenerować przykładową bazę danych o nazwie SampleDB. Jeśli rozwiniesz SampleDB, klikając strzałkę, znajdziesz kontener o nazwie `Persons`. Kontener przechowuje kolekcję elementów, które są dokumentami w kontenerze. Możesz eksplorować cztery indywidualne dokumenty w sekcji `Items`.
+
+
+
+#### Zapytania o dane dokumentowe za pomocą emulatora Cosmos DB
+
+Możemy również wykonywać zapytania o przykładowe dane, klikając przycisk "New SQL Query" (drugi przycisk od lewej).
+
+`SELECT * FROM c` zwraca wszystkie dokumenty w kontenerze. Dodajmy klauzulę WHERE, aby znaleźć wszystkich, którzy mają mniej niż 40 lat.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Zapytanie zwraca dwa dokumenty, zauważ, że wartość pola age dla każdego dokumentu jest mniejsza niż 40.
+
+#### JSON i dokumenty
+
+Jeśli znasz JavaScript Object Notation (JSON), zauważysz, że dokumenty wyglądają podobnie do JSON. W tym katalogu znajduje się plik `PersonsData.json` z dodatkowymi danymi, które możesz przesłać do kontenera Persons w emulatorze za pomocą przycisku `Upload Item`.
+
+W większości przypadków API zwracające dane w formacie JSON mogą być bezpośrednio przeniesione i przechowywane w bazach danych dokumentowych. Poniżej znajduje się kolejny dokument, który reprezentuje tweety z konta Microsoft na Twitterze, pobrane za pomocą API Twittera, a następnie wstawione do Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Pola, które nas interesują w tym dokumencie, to: `created_at`, `id` i `text`.
+
+## 🚀 Wyzwanie
+
+W katalogu znajduje się plik `TwitterData.json`, który możesz przesłać do bazy danych SampleDB. Zaleca się dodanie go do osobnego kontenera. Można to zrobić, wykonując następujące kroki:
+
+1. Kliknij przycisk "New Container" w prawym górnym rogu.
+2. Wybierz istniejącą bazę danych (SampleDB), utwórz identyfikator kontenera.
+3. Ustaw klucz partycji na `/id`.
+4. Kliknij OK (możesz zignorować resztę informacji w tym widoku, ponieważ jest to mały zbiór danych uruchamiany lokalnie na Twoim komputerze).
+5. Otwórz nowy kontener i prześlij plik Twitter Data za pomocą przycisku `Upload Item`.
+
+Spróbuj wykonać kilka zapytań SELECT, aby znaleźć dokumenty zawierające słowo "Microsoft" w polu text. Wskazówka: spróbuj użyć [słowa kluczowego LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Przegląd i samodzielna nauka
+
+- W tym arkuszu kalkulacyjnym dodano dodatkowe formatowanie i funkcje, które nie zostały omówione w tej lekcji. Microsoft posiada [obszerną bibliotekę dokumentacji i filmów](https://support.microsoft.com/excel) na temat Excela, jeśli chcesz dowiedzieć się więcej.
+
+- Ta dokumentacja architektoniczna szczegółowo opisuje cechy różnych typów danych nierelacyjnych: [Dane nierelacyjne i NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Cosmos DB to chmurowa baza danych nierelacyjnych, która może również przechowywać różne typy NoSQL wspomniane w tej lekcji. Dowiedz się więcej o tych typach w tym [module Microsoft Learn dotyczącym Cosmos DB](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Zadanie
+
+[Soda Profits](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/06-non-relational/assignment.md b/translations/pl/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..64df0879
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,31 @@
+
+# Zyski z napojów gazowanych
+
+## Instrukcje
+
+Arkusz kalkulacyjny [Coca Cola Co](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) nie zawiera niektórych obliczeń. Twoim zadaniem jest:
+
+1. Obliczenie zysków brutto za lata finansowe '15, '16, '17 i '18
+ - Zysk brutto = Przychody operacyjne netto - Koszt sprzedanych towarów
+1. Obliczenie średniej wszystkich zysków brutto. Spróbuj zrobić to za pomocą funkcji.
+ - Średnia = Suma zysków brutto podzielona przez liczbę lat finansowych (10)
+ - Dokumentacja funkcji [AVERAGE](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Jest to plik Excel, ale powinien być edytowalny w każdej platformie arkuszy kalkulacyjnych
+
+[Źródło danych: Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/07-python/README.md b/translations/pl/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..900a7c3f
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Praca z danymi: Python i biblioteka Pandas
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------------: |
+| Praca z Pythonem - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Bazy danych oferują bardzo efektywne sposoby przechowywania danych i ich przeszukiwania za pomocą języków zapytań, ale najbardziej elastycznym sposobem przetwarzania danych jest napisanie własnego programu do ich manipulacji. W wielu przypadkach zapytanie do bazy danych byłoby bardziej efektywne. Jednak w sytuacjach, gdy potrzebne jest bardziej złożone przetwarzanie danych, nie zawsze można to łatwo zrobić za pomocą SQL.
+Przetwarzanie danych można zaprogramować w dowolnym języku programowania, ale istnieją języki, które są bardziej zaawansowane w pracy z danymi. Naukowcy zajmujący się danymi zazwyczaj preferują jeden z następujących języków:
+
+* **[Python](https://www.python.org/)**, uniwersalny język programowania, który często jest uważany za jeden z najlepszych wyborów dla początkujących ze względu na swoją prostotę. Python posiada wiele dodatkowych bibliotek, które mogą pomóc w rozwiązaniu wielu praktycznych problemów, takich jak wyodrębnianie danych z archiwum ZIP czy konwersja obrazu na odcienie szarości. Oprócz nauki o danych, Python jest również często używany w tworzeniu stron internetowych.
+* **[R](https://www.r-project.org/)** to tradycyjne narzędzie stworzone z myślą o statystycznym przetwarzaniu danych. Zawiera również dużą bazę bibliotek (CRAN), co czyni go dobrym wyborem do pracy z danymi. Jednak R nie jest językiem uniwersalnym i rzadko jest używany poza obszarem nauki o danych.
+* **[Julia](https://julialang.org/)** to kolejny język stworzony specjalnie dla nauki o danych. Został zaprojektowany z myślą o lepszej wydajności niż Python, co czyni go świetnym narzędziem do eksperymentów naukowych.
+
+W tej lekcji skupimy się na używaniu Pythona do prostego przetwarzania danych. Zakładamy podstawową znajomość tego języka. Jeśli chcesz zgłębić Pythona, możesz skorzystać z jednego z poniższych zasobów:
+
+* [Nauka Pythona w zabawny sposób z grafiką Turtle i fraktalami](https://github.com/shwars/pycourse) - szybki kurs wprowadzający do programowania w Pythonie na GitHubie
+* [Pierwsze kroki z Pythonem](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Ścieżka nauki na [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Dane mogą występować w wielu formach. W tej lekcji rozważymy trzy formy danych - **dane tabelaryczne**, **tekst** i **obrazy**.
+
+Skupimy się na kilku przykładach przetwarzania danych, zamiast przedstawiać pełny przegląd wszystkich powiązanych bibliotek. Pozwoli to zrozumieć główne możliwości i zdobyć wiedzę, gdzie szukać rozwiązań swoich problemów, gdy zajdzie taka potrzeba.
+
+> **Najbardziej przydatna rada**. Gdy musisz wykonać określoną operację na danych, której nie wiesz, jak zrobić, spróbuj poszukać jej w internecie. [Stackoverflow](https://stackoverflow.com/) zazwyczaj zawiera wiele przydatnych przykładów kodu w Pythonie dla wielu typowych zadań.
+
+
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Dane tabelaryczne i DataFrame'y
+
+Spotkałeś się już z danymi tabelarycznymi, gdy mówiliśmy o relacyjnych bazach danych. Gdy masz dużo danych, które są przechowywane w wielu różnych powiązanych tabelach, zdecydowanie warto używać SQL do pracy z nimi. Jednak istnieje wiele przypadków, gdy mamy tabelę danych i chcemy uzyskać pewne **zrozumienie** lub **wnioski** na temat tych danych, takie jak rozkład, korelacja między wartościami itp. W nauce o danych często musimy przeprowadzić pewne transformacje pierwotnych danych, a następnie ich wizualizację. Oba te kroki można łatwo wykonać za pomocą Pythona.
+
+Istnieją dwie najbardziej przydatne biblioteki w Pythonie, które mogą pomóc w pracy z danymi tabelarycznymi:
+* **[Pandas](https://pandas.pydata.org/)** pozwala manipulować tak zwanymi **DataFrame'ami**, które są analogiczne do tabel relacyjnych. Możesz mieć nazwane kolumny i wykonywać różne operacje na wierszach, kolumnach i całych DataFrame'ach.
+* **[Numpy](https://numpy.org/)** to biblioteka do pracy z **tensorami**, czyli wielowymiarowymi **tablicami**. Tablica ma wartości tego samego typu bazowego i jest prostsza niż DataFrame, ale oferuje więcej operacji matematycznych i generuje mniejsze obciążenie.
+
+Istnieje również kilka innych bibliotek, które warto znać:
+* **[Matplotlib](https://matplotlib.org/)** to biblioteka używana do wizualizacji danych i tworzenia wykresów
+* **[SciPy](https://www.scipy.org/)** to biblioteka z dodatkowymi funkcjami naukowymi. Już spotkaliśmy się z tą biblioteką, gdy mówiliśmy o prawdopodobieństwie i statystyce
+
+Oto fragment kodu, który zazwyczaj używa się do importowania tych bibliotek na początku programu w Pythonie:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas opiera się na kilku podstawowych koncepcjach.
+
+### Series
+
+**Series** to sekwencja wartości, podobna do listy lub tablicy numpy. Główna różnica polega na tym, że Series ma również **indeks**, a gdy operujemy na Series (np. dodajemy je), indeks jest brany pod uwagę. Indeks może być tak prosty jak liczba całkowita reprezentująca numer wiersza (jest to domyślny indeks używany podczas tworzenia Series z listy lub tablicy), lub może mieć bardziej złożoną strukturę, taką jak przedział dat.
+
+> **Uwaga**: W towarzyszącym notebooku [`notebook.ipynb`](../../../../2-Working-With-Data/07-python/notebook.ipynb) znajduje się wprowadzenie do kodu Pandas. Tutaj przedstawiamy tylko niektóre przykłady, ale zdecydowanie zachęcamy do zapoznania się z pełnym notebookiem.
+
+Rozważmy przykład: chcemy przeanalizować sprzedaż w naszym punkcie z lodami. Wygenerujmy serię liczb sprzedaży (liczba sprzedanych produktów każdego dnia) dla pewnego okresu czasu:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Załóżmy teraz, że co tydzień organizujemy imprezę dla znajomych i zabieramy dodatkowe 10 opakowań lodów na imprezę. Możemy stworzyć kolejną serię, indeksowaną tygodniowo, aby to pokazać:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Gdy dodamy dwie serie, otrzymamy całkowitą liczbę:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Uwaga**: Nie używamy prostego zapisu `total_items+additional_items`. Gdybyśmy to zrobili, otrzymalibyśmy wiele wartości `NaN` (*Not a Number*) w wynikowej serii. Dzieje się tak, ponieważ brakuje wartości dla niektórych punktów indeksu w serii `additional_items`, a dodanie `NaN` do czegokolwiek skutkuje `NaN`. Dlatego musimy określić parametr `fill_value` podczas dodawania.
+
+W przypadku szeregów czasowych możemy również **próbkować** serię z różnymi przedziałami czasowymi. Na przykład, jeśli chcemy obliczyć średnią wielkość sprzedaży miesięcznie, możemy użyć następującego kodu:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+DataFrame to w zasadzie zbiór serii z tym samym indeksem. Możemy połączyć kilka serii w jeden DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+To stworzy poziomą tabelę taką jak ta:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Możemy również użyć serii jako kolumn i określić nazwy kolumn za pomocą słownika:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+To da nam tabelę taką jak ta:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Uwaga**: Możemy również uzyskać ten układ tabeli, transponując poprzednią tabelę, np. pisząc
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Tutaj `.T` oznacza operację transponowania DataFrame, czyli zamianę wierszy i kolumn, a operacja `rename` pozwala nam zmienić nazwy kolumn, aby pasowały do poprzedniego przykładu.
+
+Oto kilka najważniejszych operacji, które możemy wykonać na DataFrame'ach:
+
+**Wybór kolumn**. Możemy wybrać pojedyncze kolumny, pisząc `df['A']` - ta operacja zwraca serię. Możemy również wybrać podzbiór kolumn do innego DataFrame, pisząc `df[['B','A']]` - to zwraca kolejny DataFrame.
+
+**Filtrowanie** tylko określonych wierszy według kryteriów. Na przykład, aby pozostawić tylko wiersze z kolumną `A` większą niż 5, możemy napisać `df[df['A']>5]`.
+
+> **Uwaga**: Sposób działania filtrowania jest następujący. Wyrażenie `df['A']<5` zwraca serię logiczną, która wskazuje, czy wyrażenie jest `True` czy `False` dla każdego elementu pierwotnej serii `df['A']`. Gdy seria logiczna jest używana jako indeks, zwraca podzbiór wierszy w DataFrame. Dlatego nie można używać dowolnych wyrażeń logicznych w Pythonie, na przykład pisanie `df[df['A']>5 and df['A']<7]` byłoby błędne. Zamiast tego należy użyć specjalnej operacji `&` na seriach logicznych, pisząc `df[(df['A']>5) & (df['A']<7)]` (*nawiasy są tutaj ważne*).
+
+**Tworzenie nowych obliczalnych kolumn**. Możemy łatwo tworzyć nowe obliczalne kolumny dla naszego DataFrame, używając intuicyjnych wyrażeń, takich jak:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Ten przykład oblicza odchylenie A od jego wartości średniej. Co właściwie się tutaj dzieje, to obliczamy serię, a następnie przypisujemy tę serię do lewej strony, tworząc kolejną kolumnę. Dlatego nie możemy używać żadnych operacji, które nie są kompatybilne z seriami, na przykład poniższy kod jest błędny:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Ostatni przykład, choć składniowo poprawny, daje nam błędny wynik, ponieważ przypisuje długość serii `B` do wszystkich wartości w kolumnie, a nie długość poszczególnych elementów, jak zamierzaliśmy.
+
+Jeśli musimy obliczyć złożone wyrażenia, możemy użyć funkcji `apply`. Ostatni przykład można napisać w następujący sposób:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Po powyższych operacjach otrzymamy następujący DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Wybór wierszy na podstawie numerów** można wykonać za pomocą konstrukcji `iloc`. Na przykład, aby wybrać pierwsze 5 wierszy z DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Grupowanie** jest często używane do uzyskania wyników podobnych do *tabel przestawnych* w Excelu. Załóżmy, że chcemy obliczyć średnią wartość kolumny `A` dla każdej podanej liczby `LenB`. Wtedy możemy pogrupować nasz DataFrame według `LenB` i wywołać `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Jeśli potrzebujemy obliczyć średnią i liczbę elementów w grupie, możemy użyć bardziej złożonej funkcji `aggregate`:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+To daje nam następującą tabelę:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Pobieranie danych
+Widzieliśmy, jak łatwo można tworzyć Series i DataFrames z obiektów Pythona. Jednak dane zazwyczaj występują w formie pliku tekstowego lub tabeli Excel. Na szczęście Pandas oferuje prosty sposób na załadowanie danych z dysku. Na przykład, odczytanie pliku CSV jest tak proste jak to:
+```python
+df = pd.read_csv('file.csv')
+```
+Zobaczymy więcej przykładów ładowania danych, w tym pobieranie ich z zewnętrznych stron internetowych, w sekcji "Wyzwanie".
+
+### Wyświetlanie i Wizualizacja
+
+Data Scientist często musi eksplorować dane, dlatego ważne jest, aby móc je wizualizować. Gdy DataFrame jest duży, często chcemy upewnić się, że wszystko robimy poprawnie, wyświetlając pierwsze kilka wierszy. Można to zrobić, wywołując `df.head()`. Jeśli uruchamiasz to w Jupyter Notebook, DataFrame zostanie wyświetlony w ładnej, tabelarycznej formie.
+
+Widzieliśmy również użycie funkcji `plot` do wizualizacji niektórych kolumn. Chociaż `plot` jest bardzo przydatny do wielu zadań i obsługuje różne typy wykresów za pomocą parametru `kind=`, zawsze można użyć surowej biblioteki `matplotlib`, aby stworzyć coś bardziej złożonego. Szczegółowo omówimy wizualizację danych w osobnych lekcjach kursu.
+
+Ten przegląd obejmuje najważniejsze koncepcje Pandas, jednak biblioteka ta jest bardzo bogata i nie ma ograniczeń co do tego, co można z nią zrobić! Teraz zastosujmy tę wiedzę do rozwiązania konkretnego problemu.
+
+## 🚀 Wyzwanie 1: Analiza Rozprzestrzeniania się COVID
+
+Pierwszym problemem, na którym się skupimy, jest modelowanie rozprzestrzeniania się epidemii COVID-19. W tym celu wykorzystamy dane dotyczące liczby zakażonych osób w różnych krajach, dostarczone przez [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) na [Johns Hopkins University](https://jhu.edu/). Zbiór danych jest dostępny w [tym repozytorium GitHub](https://github.com/CSSEGISandData/COVID-19).
+
+Ponieważ chcemy pokazać, jak radzić sobie z danymi, zapraszamy do otwarcia pliku [`notebook-covidspread.ipynb`](../../../../2-Working-With-Data/07-python/notebook-covidspread.ipynb) i przeczytania go od początku do końca. Możesz również uruchomić komórki i wykonać wyzwania, które zostawiliśmy na końcu.
+
+
+
+> Jeśli nie wiesz, jak uruchamiać kod w Jupyter Notebook, zapoznaj się z [tym artykułem](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Praca z Danymi Niestrukturalnymi
+
+Chociaż dane bardzo często występują w formie tabelarycznej, w niektórych przypadkach musimy radzić sobie z mniej ustrukturyzowanymi danymi, na przykład tekstem lub obrazami. W takim przypadku, aby zastosować techniki przetwarzania danych, które omówiliśmy wcześniej, musimy w jakiś sposób **wyodrębnić** dane ustrukturyzowane. Oto kilka przykładów:
+
+* Wyodrębnianie słów kluczowych z tekstu i sprawdzanie, jak często się pojawiają
+* Używanie sieci neuronowych do wyodrębniania informacji o obiektach na zdjęciu
+* Uzyskiwanie informacji o emocjach ludzi z nagrania wideo
+
+## 🚀 Wyzwanie 2: Analiza Publikacji o COVID
+
+W tym wyzwaniu kontynuujemy temat pandemii COVID, koncentrując się na przetwarzaniu publikacji naukowych na ten temat. Istnieje [zbiór danych CORD-19](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) zawierający ponad 7000 (w momencie pisania) publikacji na temat COVID, dostępny wraz z metadanymi i abstraktami (a dla około połowy z nich dostępny jest również pełny tekst).
+
+Pełny przykład analizy tego zbioru danych za pomocą usługi kognitywnej [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) opisano [w tym wpisie na blogu](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Omówimy uproszczoną wersję tej analizy.
+
+> **NOTE**: Nie dostarczamy kopii zbioru danych w ramach tego repozytorium. Najpierw możesz potrzebować pobrać plik [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) z [tego zbioru danych na Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Może być wymagana rejestracja na Kaggle. Możesz również pobrać zbiór danych bez rejestracji [stąd](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), ale będzie on zawierał wszystkie pełne teksty oprócz pliku metadanych.
+
+Otwórz plik [`notebook-papers.ipynb`](../../../../2-Working-With-Data/07-python/notebook-papers.ipynb) i przeczytaj go od początku do końca. Możesz również uruchomić komórki i wykonać wyzwania, które zostawiliśmy na końcu.
+
+
+
+## Przetwarzanie Danych Obrazowych
+
+Ostatnio opracowano bardzo potężne modele AI, które pozwalają nam rozumieć obrazy. Istnieje wiele zadań, które można rozwiązać za pomocą wstępnie wytrenowanych sieci neuronowych lub usług w chmurze. Oto kilka przykładów:
+
+* **Klasyfikacja Obrazów**, która może pomóc w kategoryzacji obrazu do jednej z predefiniowanych klas. Możesz łatwo trenować własne klasyfikatory obrazów, korzystając z usług takich jak [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Wykrywanie Obiektów**, aby wykrywać różne obiekty na obrazie. Usługi takie jak [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) mogą wykrywać wiele powszechnych obiektów, a Ty możesz trenować model [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum), aby wykrywać specyficzne obiekty.
+* **Wykrywanie Twarzy**, w tym wiek, płeć i emocje. Można to zrobić za pomocą [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Wszystkie te usługi w chmurze można wywoływać za pomocą [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), dzięki czemu można je łatwo włączyć do swojego przepływu pracy eksploracji danych.
+
+Oto kilka przykładów eksploracji danych z obrazów:
+* W wpisie na blogu [Jak uczyć się Data Science bez kodowania](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) eksplorujemy zdjęcia z Instagrama, próbując zrozumieć, co sprawia, że ludzie dają więcej polubień zdjęciu. Najpierw wyodrębniamy jak najwięcej informacji z obrazów za pomocą [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), a następnie używamy [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum), aby zbudować interpretowalny model.
+* W [Warsztacie Badań Twarzy](https://github.com/CloudAdvocacy/FaceStudies) używamy [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum), aby wyodrębniać emocje ludzi na zdjęciach z wydarzeń, próbując zrozumieć, co sprawia, że ludzie są szczęśliwi.
+
+## Podsumowanie
+
+Niezależnie od tego, czy masz już dane ustrukturyzowane, czy niestrukturalne, za pomocą Pythona możesz wykonać wszystkie kroki związane z przetwarzaniem i zrozumieniem danych. Jest to prawdopodobnie najbardziej elastyczny sposób przetwarzania danych, i dlatego większość data scientistów używa Pythona jako swojego głównego narzędzia. Nauka Pythona w głębi to prawdopodobnie dobry pomysł, jeśli poważnie myślisz o swojej drodze w data science!
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Przegląd i Samodzielna Nauka
+
+**Książki**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Zasoby Online**
+* Oficjalny [10 minutowy samouczek Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)
+* [Dokumentacja dotycząca wizualizacji w Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Nauka Pythona**
+* [Nauka Pythona w zabawny sposób z grafiką Turtle i fraktalami](https://github.com/shwars/pycourse)
+* [Zrób swoje pierwsze kroki z Pythonem](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Ścieżka nauki na [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Zadanie
+
+[Przeprowadź bardziej szczegółowe badanie danych dla powyższych wyzwań](assignment.md)
+
+## Podziękowania
+
+Ta lekcja została napisana z ♥️ przez [Dmitry Soshnikov](http://soshnikov.com)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/07-python/assignment.md b/translations/pl/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..43410cf3
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,35 @@
+
+# Zadanie dotyczące przetwarzania danych w Pythonie
+
+W tym zadaniu poprosimy Cię o rozwinięcie kodu, który zaczęliśmy tworzyć w naszych wyzwaniach. Zadanie składa się z dwóch części:
+
+## Modelowanie rozprzestrzeniania się COVID-19
+
+ - [ ] Wykreśl wykresy *R* dla 5-6 różnych krajów na jednym wykresie w celu porównania lub na kilku wykresach obok siebie.
+ - [ ] Sprawdź, jak liczba zgonów i wyzdrowień koreluje z liczbą przypadków zakażeń.
+ - [ ] Ustal, jak długo trwa typowa choroba, wizualnie korelując wskaźnik zakażeń i wskaźnik zgonów oraz szukając pewnych anomalii. Może być konieczne przeanalizowanie różnych krajów, aby to ustalić.
+ - [ ] Oblicz wskaźnik śmiertelności i sprawdź, jak zmienia się on w czasie. *Możesz chcieć uwzględnić długość choroby w dniach, aby przesunąć jedną serię czasową przed wykonaniem obliczeń.*
+
+## Analiza publikacji naukowych o COVID-19
+
+- [ ] Zbuduj macierz współwystępowania różnych leków i sprawdź, które leki często występują razem (tj. są wspomniane w jednym streszczeniu). Możesz zmodyfikować kod do budowy macierzy współwystępowania dla leków i diagnoz.
+- [ ] Zwizualizuj tę macierz za pomocą mapy cieplnej.
+- [ ] Jako dodatkowe wyzwanie, zwizualizuj współwystępowanie leków za pomocą [diagramu akordowego](https://en.wikipedia.org/wiki/Chord_diagram). [Ta biblioteka](https://pypi.org/project/chord/) może pomóc w narysowaniu diagramu akordowego.
+- [ ] Jako kolejne dodatkowe wyzwanie, wyodrębnij dawki różnych leków (takie jak **400mg** w *przyjmuj 400mg chlorochiny dziennie*) za pomocą wyrażeń regularnych i zbuduj ramkę danych pokazującą różne dawki dla różnych leków. **Uwaga**: weź pod uwagę wartości liczbowe, które znajdują się w bliskim sąsiedztwie tekstowym nazwy leku.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | -- |
+Wszystkie zadania są ukończone, zilustrowane graficznie i wyjaśnione, w tym co najmniej jedno z dwóch dodatkowych wyzwań | Ukończono więcej niż 5 zadań, nie podjęto dodatkowych wyzwań lub wyniki nie są jasne | Ukończono mniej niż 5 (ale więcej niż 3) zadań, wizualizacje nie pomagają w przedstawieniu punktu
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/08-data-preparation/README.md b/translations/pl/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..9c6963f2
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,342 @@
+
+# Praca z danymi: Przygotowanie danych
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Przygotowanie danych - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+W zależności od źródła, surowe dane mogą zawierać pewne nieścisłości, które utrudniają analizę i modelowanie. Innymi słowy, takie dane można określić jako „brudne” i wymagają oczyszczenia. Ta lekcja koncentruje się na technikach czyszczenia i transformacji danych, aby poradzić sobie z problemami związanymi z brakującymi, nieprecyzyjnymi lub niekompletnymi danymi. Omawiane tematy wykorzystują Python i bibliotekę Pandas, a ich zastosowanie zostanie [zademonstrowane w notatniku](../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb) w tym katalogu.
+
+## Dlaczego czyszczenie danych jest ważne
+
+- **Łatwość użycia i ponownego wykorzystania**: Kiedy dane są odpowiednio zorganizowane i znormalizowane, łatwiej je wyszukiwać, używać i udostępniać innym.
+
+- **Spójność**: Praca z danymi często wymaga korzystania z więcej niż jednego zestawu danych, które pochodzą z różnych źródeł i muszą być połączone. Upewnienie się, że każdy zestaw danych jest znormalizowany według wspólnych standardów, zapewnia ich użyteczność po scaleniu w jeden zestaw.
+
+- **Dokładność modeli**: Oczyszczone dane poprawiają dokładność modeli, które na nich bazują.
+
+## Typowe cele i strategie czyszczenia danych
+
+- **Eksploracja zestawu danych**: Eksploracja danych, która jest omawiana w [późniejszej lekcji](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), pozwala odkryć dane wymagające oczyszczenia. Obserwacja wartości w zestawie danych może pomóc w ustaleniu oczekiwań co do jego pozostałej części lub wskazać problemy, które można rozwiązać. Eksploracja może obejmować podstawowe zapytania, wizualizacje i próbkowanie.
+
+- **Formatowanie**: W zależności od źródła, dane mogą być niespójne w sposobie ich prezentacji. Może to powodować problemy w wyszukiwaniu i reprezentacji wartości, gdzie dane są widoczne w zestawie, ale nie są odpowiednio przedstawione w wizualizacjach lub wynikach zapytań. Typowe problemy z formatowaniem obejmują usuwanie białych znaków, dat i typów danych. Rozwiązywanie problemów z formatowaniem zazwyczaj należy do osób korzystających z danych. Na przykład standardy dotyczące prezentacji dat i liczb mogą różnić się w zależności od kraju.
+
+- **Duplikaty**: Dane, które występują więcej niż raz, mogą prowadzić do nieprecyzyjnych wyników i zazwyczaj powinny zostać usunięte. Jest to częsty problem przy łączeniu dwóch lub więcej zestawów danych. Jednak w niektórych przypadkach duplikaty mogą zawierać dodatkowe informacje, które warto zachować.
+
+- **Brakujące dane**: Brakujące dane mogą powodować nieścisłości oraz słabe lub stronnicze wyniki. Czasami można je rozwiązać poprzez ponowne załadowanie danych, uzupełnienie brakujących wartości za pomocą obliczeń i kodu, np. w Pythonie, lub po prostu usunięcie wartości i powiązanych danych. Przyczyny brakujących danych mogą być różne, a działania podejmowane w celu ich rozwiązania zależą od tego, jak i dlaczego dane zniknęły.
+
+## Eksploracja informacji w DataFrame
+> **Cel nauki:** Po zakończeniu tej części powinieneś być w stanie znaleźć ogólne informacje o danych przechowywanych w DataFrame w Pandas.
+
+Po załadowaniu danych do Pandas, najprawdopodobniej będą one w formacie DataFrame (odwołaj się do poprzedniej [lekcji](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) dla szczegółowego przeglądu). Jednak jeśli zestaw danych w Twoim DataFrame zawiera 60 000 wierszy i 400 kolumn, jak zacząć rozumieć, z czym pracujesz? Na szczęście [Pandas](https://pandas.pydata.org/) oferuje wygodne narzędzia do szybkiego przeglądania ogólnych informacji o DataFrame, a także pierwszych i ostatnich kilku wierszy.
+
+Aby zbadać tę funkcjonalność, zaimportujemy bibliotekę Python scikit-learn i użyjemy ikonicznego zestawu danych: **Iris data set**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| | długość działki (cm) | szerokość działki (cm) | długość płatka (cm) | szerokość płatka (cm) |
+|----------------------------------------|-----------------------|-------------------------|---------------------|-----------------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Na początek metoda `info()` służy do wyświetlenia podsumowania zawartości obecnej w `DataFrame`. Spójrzmy na ten zestaw danych, aby zobaczyć, co mamy:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Z tego dowiadujemy się, że zestaw danych *Iris* ma 150 wpisów w czterech kolumnach bez brakujących wartości. Wszystkie dane są przechowywane jako liczby zmiennoprzecinkowe 64-bitowe.
+
+- **DataFrame.head()**: Następnie, aby sprawdzić rzeczywistą zawartość `DataFrame`, używamy metody `head()`. Zobaczmy, jak wyglądają pierwsze kilka wierszy naszego `iris_df`:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Z kolei, aby sprawdzić ostatnie kilka wierszy `DataFrame`, używamy metody `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Wniosek:** Nawet patrząc tylko na metadane o informacji w DataFrame lub na pierwsze i ostatnie kilka wartości, możesz od razu uzyskać wyobrażenie o rozmiarze, kształcie i zawartości danych, z którymi pracujesz.
+
+## Radzenie sobie z brakującymi danymi
+> **Cel nauki:** Po zakończeniu tej części powinieneś wiedzieć, jak zastępować lub usuwać brakujące wartości z DataFrame.
+
+Większość zestawów danych, które chcesz (lub musisz) używać, zawiera brakujące wartości. Sposób, w jaki radzisz sobie z brakującymi danymi, niesie ze sobą subtelne kompromisy, które mogą wpłynąć na Twoją ostateczną analizę i wyniki w rzeczywistym świecie.
+
+Pandas obsługuje brakujące wartości na dwa sposoby. Pierwszy, który widziałeś wcześniej w poprzednich sekcjach, to `NaN`, czyli Not a Number. Jest to specjalna wartość będąca częścią specyfikacji IEEE dla liczb zmiennoprzecinkowych i jest używana wyłącznie do wskazywania brakujących wartości zmiennoprzecinkowych.
+
+Dla brakujących wartości innych niż liczby zmiennoprzecinkowe, Pandas używa obiektu Python `None`. Chociaż może się wydawać mylące, że napotkasz dwa różne rodzaje wartości oznaczających zasadniczo to samo, istnieją solidne programistyczne powody dla takiego wyboru projektowego, a w praktyce takie podejście umożliwia Pandas dostarczenie dobrego kompromisu w zdecydowanej większości przypadków. Niemniej jednak zarówno `None`, jak i `NaN` mają ograniczenia, które należy mieć na uwadze w kontekście ich użycia.
+
+Więcej o `NaN` i `None` znajdziesz w [notatniku](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Wykrywanie brakujących wartości**: W `Pandas` metody `isnull()` i `notnull()` są głównymi narzędziami do wykrywania brakujących danych. Obie zwracają maski logiczne dla Twoich danych. Będziemy używać `numpy` dla wartości `NaN`:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Przyjrzyj się uważnie wynikom. Czy coś Cię zaskoczyło? Chociaż `0` jest arytmetycznym zerem, jest to jednak całkowicie poprawna liczba całkowita i Pandas traktuje ją jako taką. `''` jest nieco bardziej subtelne. Chociaż używaliśmy go w Sekcji 1 do reprezentowania pustej wartości tekstowej, jest to jednak obiekt tekstowy, a nie reprezentacja null w rozumieniu Pandas.
+
+Teraz odwróćmy sytuację i użyjmy tych metod w sposób bardziej zbliżony do praktycznego zastosowania. Maski logiczne można używać bezpośrednio jako indeksy ``Series`` lub ``DataFrame``, co jest przydatne przy pracy z izolowanymi brakującymi (lub obecnymi) wartościami.
+
+> **Wniosek:** Zarówno metody `isnull()` jak i `notnull()` dają podobne wyniki, gdy używasz ich w `DataFrame`: pokazują wyniki oraz indeks tych wyników, co będzie niezwykle pomocne podczas pracy z danymi.
+
+- **Usuwanie brakujących wartości**: Oprócz identyfikacji brakujących wartości, Pandas oferuje wygodny sposób usuwania wartości null z `Series` i `DataFrame`. (Szczególnie w przypadku dużych zestawów danych, często bardziej wskazane jest po prostu usunięcie brakujących wartości [NA] z analizy niż radzenie sobie z nimi w inny sposób). Aby zobaczyć to w praktyce, wróćmy do `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Zauważ, że powinno to wyglądać jak wynik `example3[example3.notnull()]`. Różnica polega na tym, że zamiast indeksowania na podstawie zamaskowanych wartości, `dropna` usunęło te brakujące wartości z `Series` `example1`.
+
+Ponieważ `DataFrame` ma dwa wymiary, oferuje więcej opcji usuwania danych.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Zauważyłeś, że Pandas przekonwertował dwie kolumny na liczby zmiennoprzecinkowe, aby uwzględnić `NaN`?)
+
+Nie możesz usunąć pojedynczej wartości z `DataFrame`, więc musisz usunąć całe wiersze lub kolumny. W zależności od tego, co robisz, możesz chcieć zrobić jedno lub drugie, dlatego Pandas daje opcje dla obu. Ponieważ w nauce o danych kolumny zazwyczaj reprezentują zmienne, a wiersze obserwacje, częściej usuwa się wiersze danych; domyślne ustawienie dla `dropna()` to usunięcie wszystkich wierszy zawierających jakiekolwiek wartości null:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Jeśli to konieczne, możesz usunąć wartości NA z kolumn. Użyj `axis=1`, aby to zrobić:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Zauważ, że może to usunąć wiele danych, które chciałbyś zachować, szczególnie w mniejszych zestawach danych. Co jeśli chcesz usunąć tylko wiersze lub kolumny zawierające kilka lub nawet wszystkie wartości null? Możesz określić te ustawienia w `dropna` za pomocą parametrów `how` i `thresh`.
+
+Domyślnie `how='any'` (jeśli chcesz sprawdzić samodzielnie lub zobaczyć, jakie inne parametry ma metoda, uruchom `example4.dropna?` w komórce kodu). Możesz alternatywnie określić `how='all'`, aby usunąć tylko wiersze lub kolumny zawierające wszystkie wartości null. Rozszerzmy nasz przykład `DataFrame`, aby zobaczyć to w praktyce.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+Parametr `thresh` daje bardziej precyzyjną kontrolę: ustawiasz liczbę *nie-nullowych* wartości, które wiersz lub kolumna musi mieć, aby zostały zachowane:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Tutaj pierwszy i ostatni wiersz zostały usunięte, ponieważ zawierają tylko dwie nie-nullowe wartości.
+
+- **Uzupełnianie brakujących wartości**: W zależności od zestawu danych, czasami bardziej sensowne jest uzupełnienie brakujących wartości niż ich usunięcie. Możesz użyć `isnull`, aby zrobić to bezpośrednio, ale może to być pracochłonne, szczególnie jeśli masz wiele wartości do uzupełnienia. Ponieważ jest to tak częste zadanie w nauce o danych, Pandas oferuje `fillna`, który zwraca kopię `Series` lub `DataFrame` z brakującymi wartościami zastąpionymi wybraną przez Ciebie wartością. Stwórzmy kolejny przykład `Series`, aby zobaczyć, jak to działa w praktyce.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Możesz uzupełnić wszystkie brakujące wpisy jedną wartością, na przykład `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Możesz **uzupełnić w przód** brakujące wartości, używając ostatniej poprawnej wartości do uzupełnienia null:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Możesz również **uzupełnić w tył**, propagując następną poprawną wartość wstecz, aby uzupełnić null:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Jak się domyślasz, działa to tak samo z `DataFrame`, ale możesz również określić `axis`, wzdłuż którego uzupełniasz brakujące wartości. Korzystając ponownie z wcześniej używanego `example2`:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Zauważ, że gdy poprzednia wartość nie jest dostępna do uzupełnienia w przód, wartość null pozostaje.
+> **Wniosek:** Istnieje wiele sposobów radzenia sobie z brakującymi wartościami w zbiorach danych. Konkretna strategia, którą zastosujesz (usuwanie, zastępowanie lub sposób zastępowania), powinna być uzależniona od specyfiki danych. Im więcej będziesz pracować z danymi, tym lepiej zrozumiesz, jak radzić sobie z brakującymi wartościami.
+
+## Usuwanie zduplikowanych danych
+
+> **Cel nauki:** Po zakończeniu tej sekcji powinieneś swobodnie identyfikować i usuwać zduplikowane wartości z DataFrame.
+
+Oprócz brakujących danych, w rzeczywistych zbiorach danych często spotkasz się z duplikatami. Na szczęście `pandas` oferuje prosty sposób wykrywania i usuwania zduplikowanych wpisów.
+
+- **Identyfikowanie duplikatów: `duplicated`**: Możesz łatwo wykryć zduplikowane wartości za pomocą metody `duplicated` w pandas, która zwraca maskę logiczną wskazującą, czy wpis w `DataFrame` jest duplikatem wcześniejszego. Stwórzmy kolejny przykład `DataFrame`, aby zobaczyć to w praktyce.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+
+- **Usuwanie duplikatów: `drop_duplicates`:** zwraca po prostu kopię danych, w której wszystkie wartości oznaczone jako `duplicated` są `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+
+Zarówno `duplicated`, jak i `drop_duplicates` domyślnie uwzględniają wszystkie kolumny, ale możesz określić, aby analizowały tylko podzbiór kolumn w Twoim `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Wniosek:** Usuwanie zduplikowanych danych to kluczowy element prawie każdego projektu związanego z analizą danych. Duplikaty mogą zmieniać wyniki analiz i prowadzić do błędnych wniosków!
+
+## 🚀 Wyzwanie
+
+Wszystkie omawiane materiały są dostępne w formie [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Dodatkowo, po każdej sekcji znajdują się ćwiczenia – spróbuj swoich sił!
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+## Przegląd i samodzielna nauka
+
+Istnieje wiele sposobów na odkrywanie i przygotowywanie danych do analizy i modelowania, a ich czyszczenie to ważny krok, który wymaga praktyki. Spróbuj tych wyzwań z Kaggle, aby poznać techniki, które nie zostały omówione w tej lekcji.
+
+- [Wyzwanie czyszczenia danych: Parsowanie dat](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Wyzwanie czyszczenia danych: Skalowanie i normalizacja danych](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+## Zadanie
+
+[Ocena danych z formularza](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/08-data-preparation/assignment.md b/translations/pl/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..386f3d22
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,26 @@
+
+# Ocena danych z formularza
+
+Klient testował [mały formularz](../../../../2-Working-With-Data/08-data-preparation/index.html), aby zebrać podstawowe informacje o swojej bazie klientów. Przekazał Ci swoje wyniki, abyś zweryfikował dane, które zgromadzili. Możesz otworzyć stronę `index.html` w przeglądarce, aby zapoznać się z formularzem.
+
+Otrzymałeś [zbiór danych w formacie CSV](../../../../data/form.csv), który zawiera wpisy z formularza oraz kilka podstawowych wizualizacji. Klient zauważył, że niektóre wizualizacje wyglądają nieprawidłowo, ale nie wie, jak je poprawić. Możesz je przeanalizować w [notatniku zadania](../../../../2-Working-With-Data/08-data-preparation/assignment.ipynb).
+
+## Instrukcje
+
+Wykorzystaj techniki z tej lekcji, aby zaproponować rekomendacje dotyczące formularza, tak aby zbierał dokładne i spójne informacje.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | ---
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/2-Working-With-Data/README.md b/translations/pl/2-Working-With-Data/README.md
new file mode 100644
index 00000000..cb1bea8f
--- /dev/null
+++ b/translations/pl/2-Working-With-Data/README.md
@@ -0,0 +1,29 @@
+
+# Praca z danymi
+
+
+> Zdjęcie autorstwa Alexander Sinn na Unsplash
+
+W tych lekcjach nauczysz się, jak dane mogą być zarządzane, manipulowane i wykorzystywane w aplikacjach. Dowiesz się o bazach danych relacyjnych i nierelacyjnych oraz o tym, jak dane mogą być w nich przechowywane. Poznasz podstawy pracy z Pythonem w celu zarządzania danymi oraz odkryjesz różne sposoby pracy z Pythonem, aby zarządzać i analizować dane.
+
+### Tematy
+
+1. [Bazy danych relacyjne](05-relational-databases/README.md)
+2. [Bazy danych nierelacyjne](06-non-relational/README.md)
+3. [Praca z Pythonem](07-python/README.md)
+4. [Przygotowanie danych](08-data-preparation/README.md)
+
+### Autorzy
+
+Te lekcje zostały napisane z ❤️ przez [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) i [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/09-visualization-quantities/README.md b/translations/pl/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..f234af58
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,215 @@
+
+# Wizualizacja ilości
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Wizualizacja ilości - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+W tej lekcji dowiesz się, jak korzystać z jednej z wielu dostępnych bibliotek Pythona, aby tworzyć interesujące wizualizacje związane z pojęciem ilości. Korzystając z oczyszczonego zbioru danych o ptakach z Minnesoty, możesz odkryć wiele ciekawych faktów o lokalnej faunie.
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Obserwacja rozpiętości skrzydeł za pomocą Matplotlib
+
+Doskonałą biblioteką do tworzenia zarówno prostych, jak i zaawansowanych wykresów i diagramów jest [Matplotlib](https://matplotlib.org/stable/index.html). Ogólnie rzecz biorąc, proces tworzenia wykresów za pomocą tych bibliotek obejmuje identyfikację części ramki danych, które chcesz przeanalizować, wykonanie niezbędnych transformacji danych, przypisanie wartości osi x i y, wybór rodzaju wykresu oraz jego wyświetlenie. Matplotlib oferuje szeroką gamę wizualizacji, ale w tej lekcji skupimy się na tych najbardziej odpowiednich do wizualizacji ilości: wykresach liniowych, punktowych i słupkowych.
+
+> ✅ Wybierz najlepszy wykres, który pasuje do struktury danych i historii, którą chcesz opowiedzieć.
+> - Aby analizować trendy w czasie: wykres liniowy
+> - Aby porównywać wartości: wykres słupkowy, kolumnowy, kołowy, punktowy
+> - Aby pokazać, jak części odnoszą się do całości: wykres kołowy
+> - Aby pokazać rozkład danych: wykres punktowy, słupkowy
+> - Aby pokazać trendy: wykres liniowy, kolumnowy
+> - Aby pokazać relacje między wartościami: wykres liniowy, punktowy, bąbelkowy
+
+Jeśli masz zbiór danych i chcesz dowiedzieć się, ile jest danego elementu, jednym z pierwszych zadań będzie sprawdzenie jego wartości.
+
+✅ Dostępne są bardzo dobre „ściągi” dla Matplotlib [tutaj](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Tworzenie wykresu liniowego dla wartości rozpiętości skrzydeł ptaków
+
+Otwórz plik `notebook.ipynb` znajdujący się w głównym katalogu tej lekcji i dodaj komórkę.
+
+> Uwaga: dane są przechowywane w głównym katalogu tego repozytorium w folderze `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Te dane to mieszanka tekstu i liczb:
+
+| | Nazwa | NazwaNaukowa | Kategoria | Rząd | Rodzina | Rodzaj | StatusOchrony | MinDługość | MaxDługość | MinMasaCiała | MaxMasaCiała | MinRozpiętość | MaxRozpiętość |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Czarnobrzuchy gwizdacz | Dendrocygna autumnalis | Kaczki/Gęsi/Wodnoptaki | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Płowy gwizdacz | Dendrocygna bicolor | Kaczki/Gęsi/Wodnoptaki | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Śnieżna gęś | Anser caerulescens | Kaczki/Gęsi/Wodnoptaki | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Gęś Rossa | Anser rossii | Kaczki/Gęsi/Wodnoptaki | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Białoczelna gęś | Anser albifrons | Kaczki/Gęsi/Wodnoptaki | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Zacznijmy od wykreślenia niektórych danych liczbowych za pomocą podstawowego wykresu liniowego. Załóżmy, że chcesz zobaczyć maksymalną rozpiętość skrzydeł tych interesujących ptaków.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Co zauważasz od razu? Wydaje się, że jest przynajmniej jeden punkt odstający – to całkiem imponująca rozpiętość skrzydeł! Rozpiętość skrzydeł wynosząca 2300 centymetrów to 23 metry – czy w Minnesocie latają pterodaktyle? Zbadajmy to.
+
+Chociaż możesz szybko posortować dane w Excelu, aby znaleźć te punkty odstające, kontynuuj proces wizualizacji, pracując bezpośrednio na wykresie.
+
+Dodaj etykiety do osi x, aby pokazać, o jakie ptaki chodzi:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Nawet przy obrocie etykiet o 45 stopni jest ich zbyt wiele, aby były czytelne. Spróbujmy innej strategii: oznacz tylko te punkty odstające i ustaw etykiety na wykresie. Możesz użyć wykresu punktowego, aby zrobić więcej miejsca na etykiety:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Co tu się dzieje? Użyłeś `tick_params`, aby ukryć dolne etykiety, a następnie stworzyłeś pętlę nad zbiorem danych o ptakach. Tworząc wykres z małymi niebieskimi kropkami za pomocą `bo`, sprawdziłeś, czy którykolwiek ptak ma maksymalną rozpiętość skrzydeł powyżej 500, i wyświetliłeś jego etykietę obok kropki, jeśli tak. Przesunąłeś etykiety nieco na osi y (`y * (1 - 0.05)`) i użyłeś nazwy ptaka jako etykiety.
+
+Co odkryłeś?
+
+
+## Filtrowanie danych
+
+Zarówno Bielik amerykański, jak i Sokoł preriowy, choć prawdopodobnie bardzo duże ptaki, wydają się mieć błędnie oznaczone dane, z dodatkowym `0` w maksymalnej rozpiętości skrzydeł. Mało prawdopodobne, abyś spotkał Bielika o rozpiętości skrzydeł 25 metrów, ale jeśli tak, daj nam znać! Stwórzmy nową ramkę danych bez tych dwóch punktów odstających:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Po odfiltrowaniu punktów odstających dane są teraz bardziej spójne i zrozumiałe.
+
+
+
+Teraz, gdy mamy czystszy zbiór danych przynajmniej pod względem rozpiętości skrzydeł, odkryjmy więcej o tych ptakach.
+
+Chociaż wykresy liniowe i punktowe mogą przedstawiać informacje o wartościach danych i ich rozkładzie, chcemy zastanowić się nad wartościami zawartymi w tym zbiorze danych. Możesz stworzyć wizualizacje, aby odpowiedzieć na następujące pytania dotyczące ilości:
+
+> Ile jest kategorii ptaków i jakie są ich liczby?
+> Ile ptaków jest wymarłych, zagrożonych, rzadkich lub pospolitych?
+> Ile jest różnych rodzajów i rzędów w terminologii Linneusza?
+## Eksploracja wykresów słupkowych
+
+Wykresy słupkowe są praktyczne, gdy chcesz pokazać grupowanie danych. Przyjrzyjmy się kategoriom ptaków w tym zbiorze danych, aby zobaczyć, która z nich jest najliczniejsza.
+
+W pliku notebooka stwórz podstawowy wykres słupkowy.
+
+✅ Uwaga, możesz albo odfiltrować dwa ptaki odstające, które zidentyfikowaliśmy w poprzedniej sekcji, poprawić błąd w ich rozpiętości skrzydeł, albo pozostawić je w danych do tych ćwiczeń, które nie zależą od wartości rozpiętości skrzydeł.
+
+Jeśli chcesz stworzyć wykres słupkowy, możesz wybrać dane, na których chcesz się skupić. Wykresy słupkowe można tworzyć z surowych danych:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Ten wykres słupkowy jest jednak nieczytelny, ponieważ zawiera zbyt wiele niepogrupowanych danych. Musisz wybrać tylko dane, które chcesz przedstawić, więc przyjrzyjmy się długości ptaków w zależności od ich kategorii.
+
+Przefiltruj dane, aby uwzględnić tylko kategorię ptaków.
+
+✅ Zauważ, że używasz Pandas do zarządzania danymi, a następnie pozwalasz Matplotlib na tworzenie wykresów.
+
+Ponieważ istnieje wiele kategorii, możesz wyświetlić ten wykres pionowo i dostosować jego wysokość, aby uwzględnić wszystkie dane:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Ten wykres słupkowy pokazuje dobry obraz liczby ptaków w każdej kategorii. Na pierwszy rzut oka widać, że największa liczba ptaków w tym regionie należy do kategorii Kaczki/Gęsi/Wodnoptaki. Minnesota to „kraina 10 000 jezior”, więc to nie jest zaskakujące!
+
+✅ Wypróbuj inne liczenia w tym zbiorze danych. Czy coś Cię zaskoczyło?
+
+## Porównywanie danych
+
+Możesz spróbować różnych porównań pogrupowanych danych, tworząc nowe osie. Spróbuj porównać MaxDługość ptaka w zależności od jego kategorii:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Nic zaskakującego tutaj: kolibry mają najmniejszą MaxDługość w porównaniu do pelikanów czy gęsi. Dobrze, gdy dane mają logiczny sens!
+
+Możesz tworzyć bardziej interesujące wizualizacje wykresów słupkowych, nakładając dane. Nałóż Minimalną i Maksymalną Długość na daną kategorię ptaków:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+Na tym wykresie możesz zobaczyć zakres dla każdej kategorii ptaków w odniesieniu do Minimalnej i Maksymalnej Długości. Możesz śmiało powiedzieć, że na podstawie tych danych, im większy ptak, tym większy zakres jego długości. Fascynujące!
+
+
+
+## 🚀 Wyzwanie
+
+Ten zbiór danych o ptakach oferuje bogactwo informacji o różnych typach ptaków w danym ekosystemie. Poszukaj w internecie innych zbiorów danych dotyczących ptaków. Ćwicz tworzenie wykresów i diagramów dotyczących tych ptaków, aby odkryć fakty, których wcześniej nie znałeś.
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Przegląd i samodzielna nauka
+
+Ta pierwsza lekcja dostarczyła Ci informacji o tym, jak korzystać z Matplotlib do wizualizacji ilości. Poszukaj innych sposobów pracy ze zbiorami danych w celu wizualizacji. [Plotly](https://github.com/plotly/plotly.py) to narzędzie, którego nie omówimy w tych lekcjach, więc sprawdź, co może zaoferować.
+## Zadanie
+
+[Linie, punkty i słupki](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby zapewnić poprawność tłumaczenia, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/pl/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..c89f0e08
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Linie, wykresy punktowe i słupkowe
+
+## Instrukcje
+
+W tej lekcji pracowałeś z wykresami liniowymi, punktowymi i słupkowymi, aby przedstawić interesujące fakty dotyczące tego zestawu danych. W tym zadaniu zagłęb się w zestaw danych, aby odkryć fakt dotyczący określonego gatunku ptaka. Na przykład, stwórz notatnik wizualizujący wszystkie interesujące dane, które możesz znaleźć na temat gęsi śnieżnych. Użyj trzech wspomnianych wykresów, aby opowiedzieć historię w swoim notatniku.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+Notatnik zawiera dobre adnotacje, spójną narrację i atrakcyjne wykresy | Notatnik brakuje jednego z tych elementów | Notatnik brakuje dwóch z tych elementów
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/10-visualization-distributions/README.md b/translations/pl/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..9d94b281
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,215 @@
+
+# Wizualizacja rozkładów
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Wizualizacja rozkładów - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+W poprzedniej lekcji dowiedziałeś się kilku interesujących faktów o zbiorze danych dotyczących ptaków z Minnesoty. Znalazłeś błędne dane, wizualizując wartości odstające, oraz przyjrzałeś się różnicom między kategoriami ptaków na podstawie ich maksymalnej długości.
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Eksploracja zbioru danych o ptakach
+
+Innym sposobem na zgłębianie danych jest analiza ich rozkładu, czyli tego, jak dane są zorganizowane wzdłuż osi. Być może, na przykład, chciałbyś dowiedzieć się, jak wygląda ogólny rozkład maksymalnej rozpiętości skrzydeł lub maksymalnej masy ciała ptaków z Minnesoty w tym zbiorze danych.
+
+Odkryjmy kilka faktów na temat rozkładów danych w tym zbiorze. W pliku _notebook.ipynb_ znajdującym się w głównym folderze tej lekcji zaimportuj Pandas, Matplotlib i swoje dane:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Nazwa | NazwaNaukowa | Kategoria | Rząd | Rodzina | Rodzaj | StatusOchrony | MinDługość | MaxDługość | MinMasaCiała | MaxMasaCiała | MinRozpiętość | MaxRozpiętość |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | ----------: | ----------: | ------------: | ------------: | -------------: | -------------: |
+| 0 | Czarnobrzuchy gwizdacz | Dendrocygna autumnalis | Kaczki/Gęsi/Wodne | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Płowy gwizdacz | Dendrocygna bicolor | Kaczki/Gęsi/Wodne | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Śnieżna gęś | Anser caerulescens | Kaczki/Gęsi/Wodne | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Gęś Rossa | Anser rossii | Kaczki/Gęsi/Wodne | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Gęś białoczelna | Anser albifrons | Kaczki/Gęsi/Wodne | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Ogólnie rzecz biorąc, możesz szybko przyjrzeć się rozkładowi danych, używając wykresu punktowego, jak zrobiliśmy to w poprzedniej lekcji:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+To daje ogólny obraz rozkładu długości ciała w zależności od rzędu ptaków, ale nie jest to optymalny sposób przedstawienia prawdziwych rozkładów. Do tego celu zazwyczaj używa się histogramu.
+
+## Praca z histogramami
+
+Matplotlib oferuje bardzo dobre sposoby wizualizacji rozkładów danych za pomocą histogramów. Ten typ wykresu przypomina wykres słupkowy, gdzie rozkład można zobaczyć poprzez wzrost i spadek słupków. Aby zbudować histogram, potrzebujesz danych liczbowych. Histogram można stworzyć, definiując typ wykresu jako 'hist'. Taki wykres pokazuje rozkład MaxBodyMass dla całego zakresu danych liczbowych w zbiorze. Dzieląc tablicę danych na mniejsze przedziały (bins), można zobaczyć rozkład wartości danych:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Jak widać, większość z ponad 400 ptaków w tym zbiorze danych mieści się w zakresie poniżej 2000 dla ich maksymalnej masy ciała. Uzyskaj więcej informacji o danych, zmieniając parametr `bins` na wyższą wartość, na przykład 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Ten wykres pokazuje rozkład w nieco bardziej szczegółowy sposób. Wykres mniej przesunięty w lewo można stworzyć, wybierając dane tylko z określonego zakresu:
+
+Przefiltruj dane, aby uzyskać tylko te ptaki, których masa ciała jest poniżej 60, i pokaż 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Wypróbuj inne filtry i punkty danych. Aby zobaczyć pełny rozkład danych, usuń filtr `['MaxBodyMass']`, aby pokazać oznaczone rozkłady.
+
+Histogram oferuje również ciekawe ulepszenia kolorystyczne i etykietowe, które warto wypróbować:
+
+Stwórz histogram 2D, aby porównać relację między dwoma rozkładami. Porównajmy `MaxBodyMass` z `MaxLength`. Matplotlib oferuje wbudowany sposób pokazania zbieżności za pomocą jaśniejszych kolorów:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Widać oczekiwaną korelację między tymi dwoma elementami wzdłuż przewidywanej osi, z jednym szczególnie silnym punktem zbieżności:
+
+
+
+Histogramy dobrze sprawdzają się w przypadku danych liczbowych. Co jednak, jeśli chcesz zobaczyć rozkłady według danych tekstowych?
+## Eksploracja zbioru danych pod kątem rozkładów z użyciem danych tekstowych
+
+Ten zbiór danych zawiera również informacje o kategorii ptaków, ich rodzaju, gatunku, rodzinie oraz statusie ochrony. Przyjrzyjmy się bliżej informacjom o statusie ochrony. Jaki jest rozkład ptaków według ich statusu ochrony?
+
+> ✅ W zbiorze danych używane są różne skróty do opisu statusu ochrony. Skróty te pochodzą z [Czerwonej Listy IUCN](https://www.iucnredlist.org/), organizacji katalogującej status gatunków.
+>
+> - CR: Krytycznie zagrożony
+> - EN: Zagrożony
+> - EX: Wymarły
+> - LC: Najmniejszej troski
+> - NT: Bliski zagrożenia
+> - VU: Narażony
+
+Są to wartości tekstowe, więc konieczna będzie transformacja, aby stworzyć histogram. Używając dataframe `filteredBirds`, wyświetl jego status ochrony w zestawieniu z minimalną rozpiętością skrzydeł. Co widzisz?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Nie wydaje się, aby istniała dobra korelacja między minimalną rozpiętością skrzydeł a statusem ochrony. Przetestuj inne elementy zbioru danych, używając tej metody. Możesz również wypróbować różne filtry. Czy znajdujesz jakąś korelację?
+
+## Wykresy gęstości
+
+Być może zauważyłeś, że histogramy, które do tej pory oglądaliśmy, są "schodkowe" i nie tworzą płynnego łuku. Aby pokazać bardziej płynny wykres gęstości, możesz spróbować wykresu gęstości.
+
+Aby pracować z wykresami gęstości, zapoznaj się z nową biblioteką do tworzenia wykresów, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Ładując Seaborn, spróbuj stworzyć podstawowy wykres gęstości:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Widać, że wykres odzwierciedla poprzedni dla danych o minimalnej rozpiętości skrzydeł; jest po prostu nieco bardziej płynny. Według dokumentacji Seaborn, "W porównaniu do histogramu, KDE może stworzyć wykres, który jest mniej zagracony i bardziej czytelny, szczególnie przy rysowaniu wielu rozkładów. Ale ma potencjał do wprowadzenia zniekształceń, jeśli podstawowy rozkład jest ograniczony lub nie jest płynny. Podobnie jak histogram, jakość reprezentacji zależy również od wyboru odpowiednich parametrów wygładzania." [źródło](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Innymi słowy, wartości odstające, jak zawsze, mogą negatywnie wpłynąć na wykresy.
+
+Jeśli chciałbyś ponownie odwiedzić tę poszarpaną linię MaxBodyMass z drugiego wykresu, który stworzyłeś, możesz ją bardzo dobrze wygładzić, odtwarzając ją za pomocą tej metody:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Jeśli chciałbyś uzyskać linię gładką, ale nie za bardzo, edytuj parametr `bw_adjust`:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Przeczytaj o dostępnych parametrach dla tego typu wykresu i eksperymentuj!
+
+Ten typ wykresu oferuje piękne i wyjaśniające wizualizacje. Za pomocą kilku linii kodu możesz na przykład pokazać gęstość maksymalnej masy ciała w zależności od rzędu ptaków:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Możesz również mapować gęstość kilku zmiennych na jednym wykresie. Porównaj maksymalną i minimalną długość ptaka w zależności od jego statusu ochrony:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Być może warto zbadać, czy skupisko ptaków oznaczonych jako "Narażone" według ich długości ma jakieś znaczenie.
+
+## 🚀 Wyzwanie
+
+Histogramy są bardziej zaawansowanym typem wykresu niż podstawowe wykresy punktowe, słupkowe czy liniowe. Poszukaj w internecie dobrych przykładów użycia histogramów. Jak są one wykorzystywane, co pokazują i w jakich dziedzinach lub obszarach badań są najczęściej stosowane?
+
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Przegląd i samodzielna nauka
+
+W tej lekcji używałeś Matplotlib i zacząłeś pracować z Seaborn, aby tworzyć bardziej zaawansowane wykresy. Przeprowadź badania na temat `kdeplot` w Seaborn, czyli "ciągłej krzywej gęstości prawdopodobieństwa w jednym lub więcej wymiarach". Przeczytaj [dokumentację](https://seaborn.pydata.org/generated/seaborn.kdeplot.html), aby zrozumieć, jak to działa.
+
+## Zadanie
+
+[Zastosuj swoje umiejętności](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/pl/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..54881333
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Zastosuj swoje umiejętności
+
+## Instrukcje
+
+Do tej pory pracowałeś z zestawem danych o ptakach z Minnesoty, aby odkryć informacje na temat liczebności ptaków i gęstości populacji. Poćwicz zastosowanie tych technik, korzystając z innego zestawu danych, być może pochodzącego z [Kaggle](https://www.kaggle.com/). Stwórz notebook, który opowie historię na podstawie tego zestawu danych, i upewnij się, że używasz histogramów podczas omawiania danych.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+Notebook zawiera adnotacje dotyczące tego zestawu danych, w tym jego źródła, i wykorzystuje co najmniej 5 histogramów do odkrycia faktów na temat danych. | Notebook zawiera niekompletne adnotacje lub błędy. | Notebook nie zawiera adnotacji i zawiera błędy.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby zapewnić precyzję, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/11-visualization-proportions/README.md b/translations/pl/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..a86f34c1
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,204 @@
+
+# Wizualizacja Proporcji
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Wizualizacja Proporcji - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+W tej lekcji użyjesz innego zestawu danych związanego z naturą, aby wizualizować proporcje, na przykład ile różnych rodzajów grzybów znajduje się w danym zestawie danych o pieczarkach. Przyjrzyjmy się tym fascynującym grzybom, korzystając z zestawu danych pochodzącego z Audubon, zawierającego szczegóły dotyczące 23 gatunków grzybów blaszkowych z rodzin Agaricus i Lepiota. Będziesz eksperymentować z apetycznymi wizualizacjami, takimi jak:
+
+- Wykresy kołowe 🥧
+- Wykresy pierścieniowe 🍩
+- Wykresy "goferowe" 🧇
+
+> 💡 Bardzo ciekawy projekt o nazwie [Charticulator](https://charticulator.com) stworzony przez Microsoft Research oferuje darmowy interfejs typu "przeciągnij i upuść" do wizualizacji danych. W jednym z ich samouczków również używany jest ten zestaw danych o grzybach! Możesz więc jednocześnie eksplorować dane i uczyć się obsługi biblioteki: [Samouczek Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Poznaj swoje grzyby 🍄
+
+Grzyby są bardzo interesujące. Zaimportujmy zestaw danych, aby je zbadać:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Tabela zostaje wyświetlona z danymi idealnymi do analizy:
+
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Trujący | Wypukły | Gładki | Brązowy | Siniaki | Ostry | Wolny | Bliski | Wąski | Czarny | Rozszerzający| Równy | Gładki | Gładki | Biały | Biały | Częściowy | Biały | Jeden | Wiszący | Czarny | Rozproszony| Miejski |
+| Jadalny | Wypukły | Gładki | Żółty | Siniaki | Migdałowy| Wolny | Bliski | Szeroki | Czarny | Rozszerzający| Maczugowaty| Gładki | Gładki | Biały | Biały | Częściowy | Biały | Jeden | Wiszący | Brązowy | Liczny | Trawy |
+| Jadalny | Dzwonkowaty| Gładki | Biały | Siniaki | Anyżowy | Wolny | Bliski | Szeroki | Brązowy | Rozszerzający| Maczugowaty| Gładki | Gładki | Biały | Biały | Częściowy | Biały | Jeden | Wiszący | Brązowy | Liczny | Łąki |
+| Trujący | Wypukły | Łuskowaty | Biały | Siniaki | Ostry | Wolny | Bliski | Wąski | Brązowy | Rozszerzający| Równy | Gładki | Gładki | Biały | Biały | Częściowy | Biały | Jeden | Wiszący | Czarny | Rozproszony| Miejski |
+
+Od razu zauważasz, że wszystkie dane są tekstowe. Musisz je przekonwertować, aby móc użyć ich na wykresie. Większość danych jest w rzeczywistości reprezentowana jako obiekt:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Wynik to:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Weź te dane i przekonwertuj kolumnę 'class' na kategorię:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Teraz, jeśli wyświetlisz dane o grzybach, zobaczysz, że zostały one pogrupowane w kategorie według klasy trujący/jadalny:
+
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Jadalny | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Trujący | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Jeśli postępujesz zgodnie z kolejnością przedstawioną w tej tabeli, aby stworzyć etykiety kategorii klasy, możesz stworzyć wykres kołowy:
+
+## Koło!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voila, wykres kołowy pokazujący proporcje tych danych według dwóch klas grzybów. Bardzo ważne jest, aby kolejność etykiet była poprawna, szczególnie tutaj, więc upewnij się, że weryfikujesz kolejność podczas budowania tablicy etykiet!
+
+
+
+## Pierścienie!
+
+Nieco bardziej interesującym wizualnie wykresem kołowym jest wykres pierścieniowy, czyli wykres kołowy z dziurą w środku. Przyjrzyjmy się naszym danym za pomocą tej metody.
+
+Spójrz na różne siedliska, w których rosną grzyby:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Tutaj grupujesz dane według siedliska. Jest ich 7, więc użyj ich jako etykiet dla wykresu pierścieniowego:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Ten kod rysuje wykres i środkowe koło, a następnie dodaje to koło do wykresu. Zmień szerokość środkowego koła, zmieniając `0.40` na inną wartość.
+
+Wykresy pierścieniowe można dostosowywać na różne sposoby, aby zmieniać etykiety. Etykiety w szczególności można wyróżniać dla lepszej czytelności. Dowiedz się więcej w [dokumentacji](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Teraz, gdy wiesz, jak grupować dane i wyświetlać je jako koło lub pierścień, możesz eksplorować inne rodzaje wykresów. Spróbuj wykresu "goferowego", który jest po prostu innym sposobem wizualizacji ilości.
+
+## Gofry!
+
+Wykres typu "goferowego" to inny sposób wizualizacji ilości w postaci 2D tablicy kwadratów. Spróbuj zwizualizować różne ilości kolorów kapeluszy grzybów w tym zestawie danych. Aby to zrobić, musisz zainstalować bibliotekę pomocniczą o nazwie [PyWaffle](https://pypi.org/project/pywaffle/) i użyć Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Wybierz segment swoich danych do pogrupowania:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Stwórz wykres "goferowy", tworząc etykiety, a następnie grupując swoje dane:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Za pomocą wykresu "goferowego" możesz wyraźnie zobaczyć proporcje kolorów kapeluszy w tym zestawie danych o grzybach. Co ciekawe, jest wiele grzybów z zielonymi kapeluszami!
+
+
+
+✅ Pywaffle obsługuje ikony w wykresach, które wykorzystują dowolne ikony dostępne w [Font Awesome](https://fontawesome.com/). Poeksperymentuj, aby stworzyć jeszcze ciekawszy wykres "goferowy" z ikonami zamiast kwadratów.
+
+W tej lekcji nauczyłeś się trzech sposobów wizualizacji proporcji. Najpierw musisz pogrupować swoje dane w kategorie, a następnie zdecydować, który sposób ich wyświetlenia - koło, pierścień czy gofr - jest najlepszy. Wszystkie są "smaczne" i dostarczają użytkownikowi natychmiastowego wglądu w zestaw danych.
+
+## 🚀 Wyzwanie
+
+Spróbuj odtworzyć te apetyczne wykresy w [Charticulator](https://charticulator.com).
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Przegląd i samodzielna nauka
+
+Czasami nie jest oczywiste, kiedy użyć wykresu kołowego, pierścieniowego czy "goferowego". Oto kilka artykułów na ten temat:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Poszukaj więcej informacji na temat tego trudnego wyboru.
+
+## Zadanie
+
+[Spróbuj w Excelu](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/pl/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..ef9a4b75
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,23 @@
+
+# Wypróbuj to w Excelu
+
+## Instrukcje
+
+Czy wiesz, że w Excelu możesz tworzyć wykresy pierścieniowe, kołowe i gofrowe? Korzystając z wybranego przez siebie zestawu danych, stwórz te trzy wykresy bezpośrednio w arkuszu Excela.
+
+## Kryteria oceny
+
+| Wzorowe | Zadowalające | Wymaga poprawy |
+| ------------------------------------------------------- | ----------------------------------------------- | ------------------------------------------------------ |
+| Przedstawiono arkusz Excela z trzema wykresami | Przedstawiono arkusz Excela z dwoma wykresami | Przedstawiono arkusz Excela z tylko jednym wykresem |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby zapewnić poprawność tłumaczenia, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/12-visualization-relationships/README.md b/translations/pl/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..2c85abdf
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,184 @@
+
+# Wizualizacja relacji: Wszystko o miodzie 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Wizualizacja relacji - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Kontynuując nasz fokus na naturę w badaniach, odkryjmy ciekawe wizualizacje, które pokazują relacje między różnymi rodzajami miodu, zgodnie z danymi pochodzącymi z [Departamentu Rolnictwa Stanów Zjednoczonych](https://www.nass.usda.gov/About_NASS/index.php).
+
+Ten zestaw danych, zawierający około 600 pozycji, przedstawia produkcję miodu w wielu stanach USA. Na przykład można przeanalizować liczbę kolonii, wydajność na kolonię, całkowitą produkcję, zapasy, cenę za funt oraz wartość wyprodukowanego miodu w danym stanie w latach 1998-2012, z jednym wierszem na rok dla każdego stanu.
+
+Ciekawie będzie zwizualizować relację między produkcją danego stanu w danym roku a, na przykład, ceną miodu w tym stanie. Alternatywnie można zwizualizować relację między wydajnością miodu na kolonię w różnych stanach. Ten zakres lat obejmuje niszczycielski 'CCD' lub 'Colony Collapse Disorder', który po raz pierwszy zaobserwowano w 2006 roku (http://npic.orst.edu/envir/ccd.html), co czyni ten zestaw danych szczególnie interesującym do analizy. 🐝
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+W tej lekcji możesz użyć biblioteki Seaborn, którą już wcześniej stosowałeś, jako świetnego narzędzia do wizualizacji relacji między zmiennymi. Szczególnie interesująca jest funkcja `relplot` w Seaborn, która umożliwia tworzenie wykresów punktowych i liniowych, aby szybko zwizualizować '[relacje statystyczne](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', co pozwala naukowcom danych lepiej zrozumieć, jak zmienne są ze sobą powiązane.
+
+## Wykresy punktowe
+
+Użyj wykresu punktowego, aby pokazać, jak cena miodu zmieniała się rok po roku w poszczególnych stanach. Seaborn, korzystając z `relplot`, wygodnie grupuje dane stanowe i wyświetla punkty danych zarówno dla danych kategorycznych, jak i numerycznych.
+
+Zacznijmy od zaimportowania danych i biblioteki Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Zauważasz, że dane dotyczące miodu zawierają kilka interesujących kolumn, w tym rok i cenę za funt. Zbadajmy te dane, pogrupowane według stanów USA:
+
+| stan | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Stwórz podstawowy wykres punktowy, aby pokazać relację między ceną za funt miodu a jego stanem pochodzenia. Ustaw oś `y` wystarczająco wysoką, aby wyświetlić wszystkie stany:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Teraz pokaż te same dane z kolorystyką inspirowaną miodem, aby zobrazować, jak cena zmienia się na przestrzeni lat. Możesz to zrobić, dodając parametr 'hue', który pokazuje zmiany rok po roku:
+
+> ✅ Dowiedz się więcej o [paletach kolorów dostępnych w Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - wypróbuj piękną tęczową paletę kolorów!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Dzięki tej zmianie kolorystyki możesz zauważyć wyraźny postęp w cenach na przestrzeni lat. Rzeczywiście, jeśli spojrzysz na próbkę danych, aby to zweryfikować (wybierz na przykład stan Arizona), możesz dostrzec wzorzec wzrostu cen rok po roku, z nielicznymi wyjątkami:
+
+| stan | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Innym sposobem wizualizacji tego postępu jest użycie rozmiaru zamiast koloru. Dla osób z daltonizmem może to być lepsza opcja. Zmień swoją wizualizację, aby pokazać wzrost ceny poprzez zwiększenie obwodu punktów:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Możesz zauważyć, że rozmiar punktów stopniowo się zwiększa.
+
+
+
+Czy to prosty przypadek podaży i popytu? Z powodu takich czynników jak zmiany klimatyczne i zjawisko zaniku kolonii, czy dostępność miodu na sprzedaż zmniejsza się rok po roku, a co za tym idzie, cena rośnie?
+
+Aby odkryć korelację między niektórymi zmiennymi w tym zestawie danych, przeanalizujmy wykresy liniowe.
+
+## Wykresy liniowe
+
+Pytanie: Czy istnieje wyraźny wzrost ceny miodu za funt rok po roku? Najłatwiej to odkryć, tworząc pojedynczy wykres liniowy:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Odpowiedź: Tak, z pewnymi wyjątkami w okolicach roku 2003:
+
+
+
+✅ Ponieważ Seaborn agreguje dane wokół jednej linii, wyświetla "wiele pomiarów dla każdej wartości x, rysując średnią i 95% przedział ufności wokół średniej". [Źródło](https://seaborn.pydata.org/tutorial/relational.html). To czasochłonne zachowanie można wyłączyć, dodając `ci=None`.
+
+Pytanie: Cóż, czy w 2003 roku można również zauważyć wzrost podaży miodu? Co jeśli spojrzysz na całkowitą produkcję rok po roku?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Odpowiedź: Niekoniecznie. Jeśli spojrzysz na całkowitą produkcję, wydaje się, że faktycznie wzrosła w tym konkretnym roku, mimo że ogólnie rzecz biorąc ilość produkowanego miodu maleje w tych latach.
+
+Pytanie: W takim razie, co mogło spowodować ten wzrost ceny miodu w okolicach roku 2003?
+
+Aby to odkryć, możesz przeanalizować siatkę wykresów.
+
+## Siatki wykresów
+
+Siatki wykresów biorą jeden aspekt twojego zestawu danych (w naszym przypadku możesz wybrać 'rok', aby uniknąć zbyt wielu wygenerowanych wykresów). Seaborn może następnie stworzyć wykres dla każdego z tych aspektów, używając wybranych współrzędnych x i y, co ułatwia porównanie. Czy rok 2003 wyróżnia się w tego typu porównaniu?
+
+Stwórz siatkę wykresów, kontynuując użycie `relplot`, zgodnie z zaleceniami [dokumentacji Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+Na tej wizualizacji możesz porównać wydajność na kolonię i liczbę kolonii rok po roku, obok siebie, z ustawionym wrapem na 3 dla kolumn:
+
+
+
+Dla tego zestawu danych nic szczególnego nie wyróżnia się w odniesieniu do liczby kolonii i ich wydajności rok po roku oraz stan po stanie. Czy istnieje inny sposób, aby znaleźć korelację między tymi dwoma zmiennymi?
+
+## Wykresy z dwiema liniami
+
+Spróbuj wykresu wieloliniowego, nakładając na siebie dwa wykresy liniowe, używając funkcji 'despine' w Seaborn, aby usunąć górne i prawe osie, oraz `ax.twinx` [pochodzącego z Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx pozwala wykresowi dzielić oś x i wyświetlać dwie osie y. Wyświetl wydajność na kolonię i liczbę kolonii, nałożone na siebie:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Chociaż nic szczególnego nie rzuca się w oczy w okolicach roku 2003, pozwala nam to zakończyć tę lekcję na nieco bardziej optymistycznej nucie: mimo że ogólnie liczba kolonii maleje, ich liczba stabilizuje się, nawet jeśli ich wydajność na kolonię spada.
+
+Naprzód, pszczoły, naprzód!
+
+🐝❤️
+## 🚀 Wyzwanie
+
+W tej lekcji dowiedziałeś się nieco więcej o innych zastosowaniach wykresów punktowych i siatek wykresów, w tym siatek wykresów. Podejmij wyzwanie, tworząc siatkę wykresów, używając innego zestawu danych, może takiego, który używałeś wcześniej w tych lekcjach. Zauważ, jak długo zajmuje ich tworzenie i jak musisz być ostrożny w kwestii liczby siatek, które chcesz wygenerować, korzystając z tych technik.
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Przegląd i samodzielna nauka
+
+Wykresy liniowe mogą być proste lub dość złożone. Przeczytaj trochę więcej w [dokumentacji Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) o różnych sposobach ich budowy. Spróbuj ulepszyć wykresy liniowe, które stworzyłeś w tej lekcji, korzystając z innych metod wymienionych w dokumentacji.
+## Zadanie
+
+[Zanurz się w ulu](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/pl/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..bede4559
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,23 @@
+
+# Zanurkuj w ul
+
+## Instrukcje
+
+W tej lekcji zacząłeś analizować zestaw danych dotyczący pszczół i ich produkcji miodu na przestrzeni czasu, w którym odnotowano spadki populacji kolonii pszczół. Zbadaj ten zestaw danych głębiej i stwórz notatnik, który opowie historię zdrowia populacji pszczół, stan po stanie i rok po roku. Czy odkrywasz coś interesującego w tym zestawie danych?
+
+## Kryteria oceny
+
+| Wzorowe | Wystarczające | Wymaga poprawy |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------- | ---------------------------------------- |
+| Przedstawiony jest notatnik z historią opatrzoną co najmniej trzema różnymi wykresami pokazującymi aspekty zestawu danych, stan po stanie i rok po roku | Notatnik nie zawiera jednego z tych elementów | Notatnik nie zawiera dwóch z tych elementów |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..4e93a24f
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,180 @@
+
+# Tworzenie Znaczących Wizualizacji
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Znaczące Wizualizacje - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+> "Jeśli wystarczająco długo torturujesz dane, wyznają wszystko" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Jedną z podstawowych umiejętności data scientistów jest zdolność do tworzenia znaczących wizualizacji danych, które pomagają odpowiadać na pytania. Przed wizualizacją danych należy upewnić się, że zostały one oczyszczone i przygotowane, jak to robiliśmy w poprzednich lekcjach. Dopiero potem można zacząć decydować, jak najlepiej je zaprezentować.
+
+W tej lekcji omówimy:
+
+1. Jak wybrać odpowiedni typ wykresu
+2. Jak unikać zwodniczych wykresów
+3. Jak pracować z kolorem
+4. Jak stylizować wykresy dla czytelności
+5. Jak tworzyć animowane lub trójwymiarowe wykresy
+6. Jak budować kreatywne wizualizacje
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Wybór odpowiedniego typu wykresu
+
+W poprzednich lekcjach eksperymentowaliśmy z tworzeniem różnych interesujących wizualizacji danych za pomocą Matplotlib i Seaborn. Ogólnie rzecz biorąc, można wybrać [odpowiedni typ wykresu](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) dla pytania, które zadajemy, korzystając z poniższej tabeli:
+
+| Potrzebujesz: | Powinieneś użyć: |
+| -------------------------- | ------------------------------- |
+| Pokazać trendy danych w czasie | Liniowy |
+| Porównać kategorie | Słupkowy, Kołowy |
+| Porównać sumy | Kołowy, Słupkowy warstwowy |
+| Pokazać relacje | Punktowy, Liniowy, Facet, Podwójny liniowy |
+| Pokazać rozkłady | Punktowy, Histogram, Pudełkowy |
+| Pokazać proporcje | Kołowy, Donut, Waffle |
+
+> ✅ W zależności od struktury danych, może być konieczne ich konwersja z tekstowych na numeryczne, aby dany typ wykresu mógł je obsłużyć.
+
+## Unikanie zwodniczych wykresów
+
+Nawet jeśli data scientist starannie wybierze odpowiedni wykres dla danych, istnieje wiele sposobów, w jakie dane mogą być przedstawione w sposób wspierający określony punkt widzenia, często kosztem ich wiarygodności. Istnieje wiele przykładów zwodniczych wykresów i infografik!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Jak kłamią wykresy")
+
+> 🎥 Kliknij obrazek powyżej, aby obejrzeć konferencyjną prezentację o zwodniczych wykresach
+
+Ten wykres odwraca oś X, aby pokazać coś przeciwnego do prawdy, bazując na dacie:
+
+
+
+[Ten wykres](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) jest jeszcze bardziej zwodniczy, ponieważ wzrok kieruje się na prawo, aby wyciągnąć wniosek, że z czasem liczba przypadków COVID w różnych hrabstwach spadła. W rzeczywistości, jeśli przyjrzymy się datom, okazuje się, że zostały one przestawione, aby stworzyć fałszywy trend spadkowy.
+
+
+
+Ten słynny przykład wykorzystuje kolor ORAZ odwróconą oś Y, aby wprowadzić w błąd: zamiast wnioskować, że liczba zgonów związanych z bronią wzrosła po uchwaleniu przyjaznych dla broni przepisów, wzrok zostaje oszukany, aby myśleć, że stało się odwrotnie:
+
+
+
+Ten dziwny wykres pokazuje, jak proporcje mogą być manipulowane, co prowadzi do komicznego efektu:
+
+
+
+Porównywanie rzeczy nieporównywalnych to kolejny nieuczciwy trik. Istnieje [świetna strona internetowa](https://tylervigen.com/spurious-correlations) poświęcona 'fałszywym korelacjom', pokazująca 'fakty' korelujące takie rzeczy jak wskaźnik rozwodów w Maine i spożycie margaryny. Grupa na Reddit również zbiera [brzydkie użycia](https://www.reddit.com/r/dataisugly/top/?t=all) danych.
+
+Ważne jest, aby zrozumieć, jak łatwo wzrok może zostać oszukany przez zwodnicze wykresy. Nawet jeśli intencje data scientist są dobre, wybór złego typu wykresu, takiego jak wykres kołowy pokazujący zbyt wiele kategorii, może być zwodniczy.
+
+## Kolor
+
+Na przykładzie wykresu 'przemoc z użyciem broni na Florydzie' widzieliśmy, jak kolor może dodać dodatkową warstwę znaczenia do wykresów, szczególnie tych, które nie zostały zaprojektowane przy użyciu bibliotek takich jak Matplotlib i Seaborn, które oferują różne sprawdzone palety kolorów. Jeśli tworzysz wykres ręcznie, warto zapoznać się z [teorią kolorów](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Pamiętaj, projektując wykresy, że dostępność jest ważnym aspektem wizualizacji. Niektórzy użytkownicy mogą być daltonistami - czy Twój wykres jest czytelny dla osób z wadami wzroku?
+
+Bądź ostrożny przy wyborze kolorów dla swojego wykresu, ponieważ kolor może przekazywać znaczenie, którego nie zamierzałeś. 'Różowe panie' na wykresie 'wzrostu' powyżej przekazują wyraźnie 'kobiece' przypisane znaczenie, które dodaje do dziwaczności samego wykresu.
+
+Choć [znaczenie kolorów](https://colormatters.com/color-symbolism/the-meanings-of-colors) może różnić się w różnych częściach świata i zmieniać się w zależności od odcienia, ogólnie rzecz biorąc, znaczenia kolorów obejmują:
+
+| Kolor | Znaczenie |
+| ------ | ------------------- |
+| czerwony | siła |
+| niebieski | zaufanie, lojalność |
+| żółty | szczęście, ostrożność |
+| zielony | ekologia, szczęście, zazdrość |
+| fioletowy | szczęście |
+| pomarańczowy | energia |
+
+Jeśli masz za zadanie stworzenie wykresu z niestandardowymi kolorami, upewnij się, że Twoje wykresy są zarówno dostępne, jak i że wybrany kolor odpowiada znaczeniu, które chcesz przekazać.
+
+## Stylizacja wykresów dla czytelności
+
+Wykresy nie są znaczące, jeśli nie są czytelne! Poświęć chwilę na dostosowanie szerokości i wysokości wykresu, aby dobrze skalował się z danymi. Jeśli jedna zmienna (np. wszystkie 50 stanów) musi być wyświetlona, pokaż je pionowo na osi Y, jeśli to możliwe, aby uniknąć wykresu przewijanego poziomo.
+
+Oznacz swoje osie, dodaj legendę, jeśli to konieczne, i oferuj podpowiedzi dla lepszego zrozumienia danych.
+
+Jeśli Twoje dane są tekstowe i rozbudowane na osi X, możesz ustawić tekst pod kątem dla lepszej czytelności. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) oferuje wykresy 3D, jeśli dane na to pozwalają. Zaawansowane wizualizacje danych można tworzyć za pomocą `mpl_toolkits.mplot3d`.
+
+
+
+## Animacja i wyświetlanie wykresów 3D
+
+Niektóre z najlepszych wizualizacji danych dzisiaj są animowane. Shirley Wu stworzyła niesamowite wizualizacje za pomocą D3, takie jak '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', gdzie każdy kwiat jest wizualizacją filmu. Innym przykładem dla Guardian jest 'bussed out', interaktywne doświadczenie łączące wizualizacje z Greensock i D3 oraz format artykułu typu scrollytelling, aby pokazać, jak NYC radzi sobie z problemem bezdomności, wysyłając ludzi poza miasto.
+
+
+
+> "Bussed Out: Jak Ameryka przemieszcza swoich bezdomnych" od [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Wizualizacje autorstwa Nadieh Bremer & Shirley Wu
+
+Choć ta lekcja nie wystarcza, aby szczegółowo nauczyć tych potężnych bibliotek wizualizacyjnych, spróbuj swoich sił w D3 w aplikacji Vue.js, używając biblioteki do wyświetlenia wizualizacji książki "Niebezpieczne związki" jako animowanej sieci społecznej.
+
+> "Les Liaisons Dangereuses" to powieść epistolarna, czyli powieść przedstawiona jako seria listów. Napisana w 1782 roku przez Choderlos de Laclos, opowiada historię okrutnych, moralnie zbankrutowanych społecznych manewrów dwóch rywalizujących protagonistów francuskiej arystokracji z końca XVIII wieku, Wicehrabiego de Valmont i Markizy de Merteuil. Oboje spotykają swój koniec, ale nie bez wyrządzenia dużych szkód społecznych. Powieść rozwija się jako seria listów pisanych do różnych osób w ich kręgach, planując zemstę lub po prostu sprawiając kłopoty. Stwórz wizualizację tych listów, aby odkryć głównych bohaterów narracji, wizualnie.
+
+Ukończysz aplikację internetową, która wyświetli animowany widok tej sieci społecznej. Wykorzystuje ona bibliotekę stworzoną do [wizualizacji sieci](https://github.com/emiliorizzo/vue-d3-network) za pomocą Vue.js i D3. Po uruchomieniu aplikacji możesz przeciągać węzły na ekranie, aby przemieszczać dane.
+
+
+
+## Projekt: Stwórz wykres pokazujący sieć za pomocą D3.js
+
+> W folderze tej lekcji znajduje się folder `solution`, w którym znajdziesz ukończony projekt jako odniesienie.
+
+1. Postępuj zgodnie z instrukcjami w pliku README.md w folderze głównym startera. Upewnij się, że masz zainstalowane NPM i Node.js na swoim komputerze przed instalacją zależności projektu.
+
+2. Otwórz folder `starter/src`. Znajdziesz tam folder `assets`, w którym znajduje się plik .json z wszystkimi listami z powieści, ponumerowanymi, z adnotacjami 'do' i 'od'.
+
+3. Uzupełnij kod w `components/Nodes.vue`, aby umożliwić wizualizację. Znajdź metodę o nazwie `createLinks()` i dodaj następującą pętlę zagnieżdżoną.
+
+Przejdź przez obiekt .json, aby uchwycić dane 'do' i 'od' dla listów i zbudować obiekt `links`, aby biblioteka wizualizacyjna mogła go wykorzystać:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Uruchom swoją aplikację z terminala (npm run serve) i ciesz się wizualizacją!
+
+## 🚀 Wyzwanie
+
+Przejrzyj internet w poszukiwaniu zwodniczych wizualizacji. Jak autor oszukuje użytkownika i czy jest to zamierzone? Spróbuj poprawić wizualizacje, aby pokazać, jak powinny wyglądać.
+
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Przegląd i samodzielna nauka
+
+Oto kilka artykułów do przeczytania o zwodniczych wizualizacjach danych:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Zapoznaj się z tymi interesującymi wizualizacjami historycznych zasobów i artefaktów:
+
+https://handbook.pubpub.org/
+
+Przejrzyj ten artykuł o tym, jak animacja może poprawić wizualizacje:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Zadanie
+
+[Stwórz własną niestandardową wizualizację](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..177481cc
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,23 @@
+
+# Stwórz własną wizualizację
+
+## Instrukcje
+
+Korzystając z przykładowego kodu w tym projekcie, stwórz sieć społecznościową, wykorzystując dane dotyczące swoich własnych interakcji społecznych. Możesz odwzorować swoje korzystanie z mediów społecznościowych lub stworzyć diagram przedstawiający członków Twojej rodziny. Stwórz interesującą aplikację internetową, która pokaże unikalną wizualizację sieci społecznościowej.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+Repozytorium na GitHubie zawiera działający kod (spróbuj wdrożyć go jako statyczną aplikację internetową) oraz posiada szczegółowy README wyjaśniający projekt | Repozytorium nie działa poprawnie lub nie jest dobrze udokumentowane | Repozytorium nie działa poprawnie i nie jest dobrze udokumentowane
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..3e510aa3
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,38 @@
+
+# Projekt wizualizacji danych Dangerous Liaisons
+
+Aby rozpocząć, upewnij się, że masz zainstalowane NPM i Node na swoim komputerze. Zainstaluj zależności (npm install), a następnie uruchom projekt lokalnie (npm run serve):
+
+## Konfiguracja projektu
+```
+npm install
+```
+
+### Kompilacja i automatyczne odświeżanie dla rozwoju
+```
+npm run serve
+```
+
+### Kompilacja i minimalizacja dla produkcji
+```
+npm run build
+```
+
+### Sprawdzanie i poprawianie plików
+```
+npm run lint
+```
+
+### Dostosowanie konfiguracji
+Zobacz [Odnośnik do konfiguracji](https://cli.vuejs.org/config/).
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby zapewnić precyzję, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..4e23d5ea
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,38 @@
+
+# Projekt wizualizacji danych Dangerous Liaisons
+
+Aby rozpocząć, upewnij się, że masz zainstalowane NPM i Node na swoim komputerze. Zainstaluj zależności (npm install), a następnie uruchom projekt lokalnie (npm run serve):
+
+## Konfiguracja projektu
+```
+npm install
+```
+
+### Kompilacja i automatyczne odświeżanie podczas rozwoju
+```
+npm run serve
+```
+
+### Kompilacja i minimalizacja dla produkcji
+```
+npm run build
+```
+
+### Sprawdzanie i poprawianie plików
+```
+npm run lint
+```
+
+### Dostosowanie konfiguracji
+Zobacz [Odnośnik do konfiguracji](https://cli.vuejs.org/config/).
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/pl/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..ae0a4941
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,229 @@
+
+# Wizualizacja Ilości
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Wizualizacja Ilości - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+W tej lekcji dowiesz się, jak korzystać z niektórych z wielu dostępnych bibliotek pakietów R, aby tworzyć interesujące wizualizacje związane z pojęciem ilości. Korzystając z oczyszczonego zestawu danych o ptakach z Minnesoty, możesz poznać wiele ciekawych faktów o lokalnej faunie.
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Obserwacja rozpiętości skrzydeł za pomocą ggplot2
+Doskonale nadającą się do tworzenia zarówno prostych, jak i zaawansowanych wykresów i diagramów biblioteką jest [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Ogólnie rzecz biorąc, proces tworzenia wykresów za pomocą tych bibliotek obejmuje identyfikację części ramki danych, które chcesz przeanalizować, przekształcenie danych w razie potrzeby, przypisanie wartości osi x i y, wybór rodzaju wykresu oraz jego wyświetlenie.
+
+`ggplot2` to system do deklaratywnego tworzenia grafik, oparty na The Grammar of Graphics. [Grammar of Graphics](https://en.wikipedia.org/wiki/Ggplot2) to ogólny schemat wizualizacji danych, który dzieli wykresy na semantyczne komponenty, takie jak skale i warstwy. Innymi słowy, łatwość tworzenia wykresów dla danych jednowymiarowych lub wielowymiarowych przy użyciu niewielkiej ilości kodu sprawia, że `ggplot2` jest najpopularniejszym pakietem do wizualizacji w R. Użytkownik określa, jak `ggplot2` ma mapować zmienne na estetykę, jakie prymitywy graficzne użyć, a resztą zajmuje się `ggplot2`.
+
+> ✅ Wykres = Dane + Estetyka + Geometria
+> - Dane odnoszą się do zestawu danych
+> - Estetyka wskazuje zmienne do analizy (zmienne x i y)
+> - Geometria odnosi się do rodzaju wykresu (liniowy, słupkowy itp.)
+
+Wybierz najlepszą geometrię (rodzaj wykresu) w zależności od danych i historii, którą chcesz opowiedzieć za pomocą wykresu.
+
+> - Aby analizować trendy: linia, kolumna
+> - Aby porównywać wartości: słupek, kolumna, koło, wykres punktowy
+> - Aby pokazać, jak części odnoszą się do całości: koło
+> - Aby pokazać rozkład danych: wykres punktowy, słupek
+> - Aby pokazać relacje między wartościami: linia, wykres punktowy, bąbelkowy
+
+✅ Możesz również sprawdzić ten opisowy [cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) dla ggplot2.
+
+## Tworzenie wykresu liniowego dla wartości rozpiętości skrzydeł ptaków
+
+Otwórz konsolę R i zaimportuj zestaw danych.
+> Uwaga: Zestaw danych znajduje się w katalogu głównym tego repozytorium w folderze `/data`.
+
+Zaimportujmy zestaw danych i zobaczmy jego początek (pierwsze 5 wierszy).
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Początek danych zawiera mieszankę tekstu i liczb:
+
+| | Nazwa | NazwaNaukowa | Kategoria | Rząd | Rodzina | Rodzaj | StatusOchrony | MinDługość | MaxDługość | MinMasaCiała | MaxMasaCiała | MinRozpiętość | MaxRozpiętość |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Czarnobrzuchy gwizdacz | Dendrocygna autumnalis | Kaczki/Gęsi/Wodnopławy| Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Płowy gwizdacz | Dendrocygna bicolor | Kaczki/Gęsi/Wodnopławy| Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Śnieżna gęś | Anser caerulescens | Kaczki/Gęsi/Wodnopławy| Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Gęś Rossa | Anser rossii | Kaczki/Gęsi/Wodnopławy| Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Gęś białoczelna | Anser albifrons | Kaczki/Gęsi/Wodnopławy| Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Zacznijmy od wykreślenia niektórych danych liczbowych za pomocą podstawowego wykresu liniowego. Załóżmy, że chcesz zobaczyć maksymalną rozpiętość skrzydeł tych interesujących ptaków.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Tutaj instalujesz pakiet `ggplot2`, a następnie importujesz go do przestrzeni roboczej za pomocą polecenia `library("ggplot2")`. Aby wykreślić dowolny wykres w ggplot, używana jest funkcja `ggplot()`, w której określasz zestaw danych, zmienne x i y jako atrybuty. W tym przypadku używamy funkcji `geom_line()`, ponieważ chcemy wykreślić wykres liniowy.
+
+
+
+Co zauważasz od razu? Wydaje się, że jest co najmniej jeden odstający wynik - to całkiem spora rozpiętość skrzydeł! Rozpiętość skrzydeł ponad 2000 centymetrów to ponad 20 metrów - czy w Minnesocie żyją pterodaktyle? Zbadajmy to.
+
+Chociaż możesz szybko posortować dane w Excelu, aby znaleźć te odstające wyniki, które prawdopodobnie są literówkami, kontynuuj proces wizualizacji, pracując bezpośrednio z wykresem.
+
+Dodaj etykiety do osi x, aby pokazać, o jakie ptaki chodzi:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Określamy kąt w `theme` i ustawiamy etykiety osi x i y w `xlab()` i `ylab()` odpowiednio. `ggtitle()` nadaje nazwę wykresowi.
+
+
+
+Nawet przy obrocie etykiet o 45 stopni jest ich zbyt wiele, aby je odczytać. Spróbujmy innej strategii: oznacz tylko te odstające wyniki i ustaw etykiety wewnątrz wykresu. Możesz użyć wykresu punktowego, aby zrobić więcej miejsca na etykiety:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Co tu się dzieje? Użyłeś funkcji `geom_point()`, aby wykreślić punkty. Dzięki temu dodałeś etykiety dla ptaków, które miały `MaxWingspan > 500`, a także ukryłeś etykiety na osi x, aby odciążyć wykres.
+
+Co odkrywasz?
+
+
+
+## Filtrowanie danych
+
+Zarówno Bielik amerykański, jak i Sokół preriowy, choć prawdopodobnie bardzo duże ptaki, wydają się być błędnie oznaczone, z dodatkowym zerem w ich maksymalnej rozpiętości skrzydeł. Mało prawdopodobne, że spotkasz Bielika z rozpiętością skrzydeł 25 metrów, ale jeśli tak, daj nam znać! Stwórzmy nową ramkę danych bez tych dwóch odstających wyników:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Stworzyliśmy nową ramkę danych `birds_filtered`, a następnie wykreśliliśmy wykres punktowy. Po odfiltrowaniu odstających wyników dane są teraz bardziej spójne i zrozumiałe.
+
+
+
+Teraz, gdy mamy czystszy zestaw danych przynajmniej pod względem rozpiętości skrzydeł, odkryjmy więcej o tych ptakach.
+
+Chociaż wykresy liniowe i punktowe mogą przedstawiać informacje o wartościach danych i ich rozkładach, chcemy pomyśleć o wartościach zawartych w tym zestawie danych. Możesz stworzyć wizualizacje, aby odpowiedzieć na następujące pytania dotyczące ilości:
+
+> Ile kategorii ptaków istnieje i jakie są ich liczby?
+> Ile ptaków jest wymarłych, zagrożonych, rzadkich lub pospolitych?
+> Ile jest różnych rodzajów i rzędów w terminologii Linneusza?
+
+## Eksploracja wykresów słupkowych
+
+Wykresy słupkowe są praktyczne, gdy chcesz pokazać grupowanie danych. Zbadajmy kategorie ptaków w tym zestawie danych, aby zobaczyć, która jest najliczniejsza.
+Stwórzmy wykres słupkowy na przefiltrowanych danych.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+W poniższym fragmencie instalujemy pakiety [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) i [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0), aby pomóc w manipulacji i grupowaniu danych w celu wykreślenia wykresu słupkowego. Najpierw grupujesz dane według `Category` ptaków, a następnie podsumowujesz kolumny `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Następnie wykreślasz wykres słupkowy za pomocą pakietu `ggplot2`, określając kolory dla różnych kategorii i etykiety.
+
+
+
+Ten wykres słupkowy jest jednak nieczytelny, ponieważ jest zbyt wiele niepogrupowanych danych. Musisz wybrać tylko dane, które chcesz wykreślić, więc spójrzmy na długość ptaków w zależności od ich kategorii.
+
+Przefiltruj swoje dane, aby uwzględnić tylko kategorię ptaków.
+
+Ponieważ istnieje wiele kategorii, możesz wyświetlić ten wykres pionowo i dostosować jego wysokość, aby uwzględnić wszystkie dane:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Najpierw liczysz unikalne wartości w kolumnie `Category`, a następnie sortujesz je w nowej ramce danych `birds_count`. Te posortowane dane są następnie uwzględniane na tym samym poziomie, aby były wykreślone w uporządkowany sposób. Korzystając z `ggplot2`, wykreślasz dane na wykresie słupkowym. Funkcja `coord_flip()` wykreśla poziome słupki.
+
+
+
+Ten wykres słupkowy pokazuje dobry widok liczby ptaków w każdej kategorii. Na pierwszy rzut oka widać, że największa liczba ptaków w tym regionie należy do kategorii Kaczki/Gęsi/Wodnopławy. Minnesota to "kraina 10 000 jezior", więc to nie jest zaskakujące!
+
+✅ Spróbuj innych zliczeń na tym zestawie danych. Czy coś Cię zaskoczyło?
+
+## Porównywanie danych
+
+Możesz spróbować różnych porównań pogrupowanych danych, tworząc nowe osie. Spróbuj porównać MaxLength ptaka w zależności od jego kategorii:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Grupujemy dane `birds_filtered` według `Category`, a następnie wykreślamy wykres słupkowy.
+
+
+
+Nic zaskakującego tutaj: kolibry mają najmniejszą MaxLength w porównaniu do pelikanów czy gęsi. Dobrze, gdy dane mają sens logiczny!
+
+Możesz tworzyć bardziej interesujące wizualizacje wykresów słupkowych, nakładając dane. Nałóżmy Minimalną i Maksymalną Długość na daną kategorię ptaków:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Wyzwanie
+
+Ten zestaw danych o ptakach oferuje bogactwo informacji o różnych typach ptaków w danym ekosystemie. Poszukaj w internecie innych zestawów danych o ptakach. Ćwicz tworzenie wykresów i diagramów na podstawie tych danych, aby odkryć fakty, o których nie miałeś pojęcia.
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Przegląd i samodzielna nauka
+
+Ta pierwsza lekcja dostarczyła Ci informacji o tym, jak używać `ggplot2` do wizualizacji ilości. Poszukaj innych sposobów pracy z zestawami danych do wizualizacji. Poszukaj zestawów danych, które możesz wizualizować za pomocą innych pakietów, takich jak [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) i [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Zadanie
+[Linie, Punkty i Słupki](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby zapewnić precyzję, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/pl/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..a85c517d
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Linie, wykresy punktowe i słupkowe
+
+## Instrukcje
+
+W tej lekcji pracowałeś z wykresami liniowymi, punktowymi i słupkowymi, aby przedstawić interesujące fakty dotyczące tego zestawu danych. W tym zadaniu zagłęb się w zestaw danych, aby odkryć fakt dotyczący określonego gatunku ptaka. Na przykład, stwórz skrypt wizualizujący wszystkie interesujące dane, które możesz znaleźć na temat gęsi śnieżnych. Użyj trzech wspomnianych wykresów, aby opowiedzieć historię w swoim notatniku.
+
+## Kryteria oceny
+
+Wzorowe | Zadowalające | Wymaga poprawy
+--- | --- | --- |
+Skrypt zawiera dobre adnotacje, spójną narrację i atrakcyjne wykresy | Skrypt nie zawiera jednego z tych elementów | Skrypt nie zawiera dwóch z tych elementów
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/pl/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..c5ea7d53
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,182 @@
+
+# Wizualizacja rozkładów
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Wizualizacja rozkładów - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+W poprzedniej lekcji dowiedziałeś się kilku interesujących faktów o zbiorze danych dotyczącym ptaków z Minnesoty. Znalazłeś błędne dane, wizualizując wartości odstające, oraz przyjrzałeś się różnicom między kategoriami ptaków na podstawie ich maksymalnej długości.
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Eksploracja zbioru danych o ptakach
+
+Innym sposobem na zgłębianie danych jest analiza ich rozkładu, czyli tego, jak dane są zorganizowane wzdłuż osi. Na przykład, możesz chcieć dowiedzieć się, jak wygląda ogólny rozkład maksymalnej rozpiętości skrzydeł lub maksymalnej masy ciała ptaków z Minnesoty w tym zbiorze danych.
+
+Odkryjmy kilka faktów dotyczących rozkładów danych w tym zbiorze. W konsoli R zaimportuj `ggplot2` oraz bazę danych. Usuń wartości odstające z bazy danych, tak jak w poprzednim temacie.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Nazwa | NazwaNaukowa | Kategoria | Rząd | Rodzina | Rodzaj | StatusOchrony | MinDługość | MaxDługość | MinMasaCiała | MaxMasaCiała | MinRozpiętość | MaxRozpiętość |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Czarnobrzucha kaczka gwizdająca | Dendrocygna autumnalis | Kaczki/Gęsi/Wodne ptaki | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Płowa kaczka gwizdająca | Dendrocygna bicolor | Kaczki/Gęsi/Wodne ptaki | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Gęś śnieżna | Anser caerulescens | Kaczki/Gęsi/Wodne ptaki | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Gęś Ross'a | Anser rossii | Kaczki/Gęsi/Wodne ptaki | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Gęś białoczelna większa | Anser albifrons | Kaczki/Gęsi/Wodne ptaki | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Ogólnie rzecz biorąc, możesz szybko spojrzeć na sposób, w jaki dane są rozłożone, używając wykresu punktowego, tak jak zrobiliśmy to w poprzedniej lekcji:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+To daje przegląd ogólnego rozkładu długości ciała w zależności od rzędu ptaków, ale nie jest to optymalny sposób na przedstawienie prawdziwych rozkładów. Do tego celu zazwyczaj używa się histogramu.
+
+## Praca z histogramami
+
+`ggplot2` oferuje bardzo dobre sposoby wizualizacji rozkładów danych za pomocą histogramów. Ten typ wykresu przypomina wykres słupkowy, gdzie rozkład można zobaczyć poprzez wzrost i spadek słupków. Aby stworzyć histogram, potrzebujesz danych numerycznych. Histogram można zbudować, definiując typ jako 'hist' dla histogramu. Ten wykres pokazuje rozkład MaxBodyMass dla całego zakresu danych numerycznych w zbiorze. Dzieląc zakres danych na mniejsze przedziały, można zobaczyć rozkład wartości danych:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Jak widać, większość z ponad 400 ptaków w tym zbiorze danych mieści się w zakresie poniżej 2000 dla ich maksymalnej masy ciała. Uzyskaj więcej informacji o danych, zmieniając parametr `bins` na wyższą wartość, na przykład 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Ten wykres pokazuje rozkład w nieco bardziej szczegółowy sposób. Wykres mniej przesunięty w lewo można stworzyć, wybierając dane tylko z określonego zakresu:
+
+Przefiltruj swoje dane, aby uzyskać tylko te ptaki, których masa ciała jest poniżej 60, i pokaż 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Wypróbuj inne filtry i punkty danych. Aby zobaczyć pełny rozkład danych, usuń filtr `['MaxBodyMass']`, aby pokazać oznaczone rozkłady.
+
+Histogram oferuje również ciekawe ulepszenia kolorystyczne i etykietowe:
+
+Stwórz histogram 2D, aby porównać relację między dwoma rozkładami. Porównajmy `MaxBodyMass` z `MaxLength`. `ggplot2` oferuje wbudowany sposób pokazania zbieżności za pomocą jaśniejszych kolorów:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Wydaje się, że istnieje oczekiwana korelacja między tymi dwoma elementami wzdłuż przewidywanej osi, z jednym szczególnie silnym punktem zbieżności:
+
+
+
+Histogramy dobrze działają domyślnie dla danych numerycznych. Co jeśli chcesz zobaczyć rozkłady według danych tekstowych?
+## Eksploracja zbioru danych pod kątem rozkładów według danych tekstowych
+
+Ten zbiór danych zawiera również dobre informacje o kategorii ptaków, ich rodzaju, gatunku, rodzinie oraz statusie ochrony. Przyjrzyjmy się tym informacjom o ochronie. Jaki jest rozkład ptaków według ich statusu ochrony?
+
+> ✅ W zbiorze danych używane są różne skróty do opisania statusu ochrony. Skróty te pochodzą z [IUCN Red List Categories](https://www.iucnredlist.org/), organizacji katalogującej status gatunków.
+>
+> - CR: Krytycznie zagrożony
+> - EN: Zagrożony
+> - EX: Wymarły
+> - LC: Najmniejszej troski
+> - NT: Bliski zagrożenia
+> - VU: Wrażliwy
+
+Są to wartości tekstowe, więc będziesz musiał dokonać transformacji, aby stworzyć histogram. Korzystając z dataframe `filteredBirds`, wyświetl jego status ochrony obok minimalnej rozpiętości skrzydeł. Co widzisz?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Nie wydaje się, aby istniała dobra korelacja między minimalną rozpiętością skrzydeł a statusem ochrony. Przetestuj inne elementy zbioru danych, korzystając z tej metody. Możesz również wypróbować różne filtry. Czy znajdujesz jakąś korelację?
+
+## Wykresy gęstości
+
+Być może zauważyłeś, że histogramy, które do tej pory oglądaliśmy, są "schodkowe" i nie płyną gładko w łuku. Aby pokazać bardziej płynny wykres gęstości, możesz spróbować wykresu gęstości.
+
+Przejdźmy teraz do pracy z wykresami gęstości!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Widać, że wykres odzwierciedla poprzedni dla danych o minimalnej rozpiętości skrzydeł; jest po prostu nieco bardziej płynny. Jeśli chciałbyś powrócić do tego poszarpanego wykresu MaxBodyMass z drugiego wykresu, który stworzyłeś, możesz go bardzo dobrze wygładzić, odtwarzając go za pomocą tej metody:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Jeśli chciałbyś uzyskać linię płynną, ale nie zbyt płynną, edytuj parametr `adjust`:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Przeczytaj o dostępnych parametrach dla tego typu wykresu i eksperymentuj!
+
+Ten typ wykresu oferuje piękne wizualizacje wyjaśniające. Na przykład, za pomocą kilku linii kodu możesz pokazać gęstość maksymalnej masy ciała w zależności od rzędu ptaków:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Wyzwanie
+
+Histogramy są bardziej zaawansowanym typem wykresu niż podstawowe wykresy punktowe, słupkowe czy liniowe. Poszukaj w internecie dobrych przykładów użycia histogramów. Jak są używane, co pokazują i w jakich dziedzinach lub obszarach badań są najczęściej stosowane?
+
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Przegląd i samodzielna nauka
+
+W tej lekcji używałeś `ggplot2` i zacząłeś pracować nad tworzeniem bardziej zaawansowanych wykresów. Przeprowadź badania na temat `geom_density_2d()`, "ciągłej krzywej gęstości prawdopodobieństwa w jednej lub więcej wymiarach". Przeczytaj [dokumentację](https://ggplot2.tidyverse.org/reference/geom_density_2d.html), aby zrozumieć, jak to działa.
+
+## Zadanie
+
+[Zastosuj swoje umiejętności](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/pl/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..fd9195a0
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Zastosuj swoje umiejętności
+
+## Instrukcje
+
+Do tej pory pracowałeś z zestawem danych o ptakach z Minnesoty, aby odkryć informacje na temat liczebności ptaków i gęstości populacji. Poćwicz zastosowanie tych technik, korzystając z innego zestawu danych, na przykład pochodzącego z [Kaggle](https://www.kaggle.com/). Stwórz skrypt w języku R, który opowie historię na podstawie tego zestawu danych, i upewnij się, że używasz histogramów podczas jego omawiania.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+Skrypt zawiera adnotacje dotyczące tego zestawu danych, w tym jego źródła, i wykorzystuje co najmniej 5 histogramów do odkrycia faktów na temat danych. | Skrypt zawiera niekompletne adnotacje lub błędy. | Skrypt nie zawiera adnotacji i zawiera błędy.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/pl/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..22c2f59d
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,196 @@
+
+# Wizualizacja proporcji
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Wizualizacja proporcji - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+W tej lekcji użyjesz innego zestawu danych związanych z naturą, aby zwizualizować proporcje, na przykład ile różnych rodzajów grzybów występuje w danym zestawie danych o pieczarkach. Zbadajmy te fascynujące grzyby, korzystając z zestawu danych pochodzącego od Audubon, zawierającego szczegóły dotyczące 23 gatunków grzybów blaszkowych z rodzin Agaricus i Lepiota. Będziesz eksperymentować z apetycznymi wizualizacjami, takimi jak:
+
+- Wykresy kołowe 🥧
+- Wykresy pierścieniowe 🍩
+- Wykresy gofrowe 🧇
+
+> 💡 Bardzo interesujący projekt [Charticulator](https://charticulator.com) od Microsoft Research oferuje darmowy interfejs typu "przeciągnij i upuść" do wizualizacji danych. W jednym z ich tutoriali również używają tego zestawu danych o grzybach! Możesz więc eksplorować dane i jednocześnie uczyć się biblioteki: [Tutorial Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Poznaj swoje grzyby 🍄
+
+Grzyby są bardzo interesujące. Zaimportujmy zestaw danych, aby je zbadać:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Tabela zostaje wyświetlona z ciekawymi danymi do analizy:
+
+
+| klasa | kształt kapelusza | powierzchnia kapelusza | kolor kapelusza | siniaki | zapach | przyczepność blaszek | odstępy między blaszkami | rozmiar blaszek | kolor blaszek | kształt trzonu | korzeń trzonu | powierzchnia trzonu nad pierścieniem | powierzchnia trzonu pod pierścieniem | kolor trzonu nad pierścieniem | kolor trzonu pod pierścieniem | typ osłony | kolor osłony | liczba pierścieni | typ pierścienia | kolor zarodników | populacja | siedlisko |
+| --------- | ----------------- | ---------------------- | --------------- | ------- | --------- | -------------------- | ----------------------- | --------------- | ------------- | -------------- | ------------- | ------------------------------- | ------------------------------- | ---------------------------- | ---------------------------- | ---------- | ----------- | ---------------- | --------------- | ---------------- | ---------- | -------- |
+| Trujące | Wypukły | Gładki | Brązowy | Siniaki | Ostry | Wolne | Bliskie | Wąskie | Czarny | Powiększający | Równy | Gładki | Gładki | Biały | Biały | Częściowa | Biały | Jeden | Wiszący | Czarny | Rozproszona | Miejska |
+| Jadalne | Wypukły | Gładki | Żółty | Siniaki | Migdałowy | Wolne | Bliskie | Szerokie | Czarny | Powiększający | Maczugowaty | Gładki | Gładki | Biały | Biały | Częściowa | Biały | Jeden | Wiszący | Brązowy | Liczna | Trawy |
+| Jadalne | Dzwonkowaty | Gładki | Biały | Siniaki | Anyżowy | Wolne | Bliskie | Szerokie | Brązowy | Powiększający | Maczugowaty | Gładki | Gładki | Biały | Biały | Częściowa | Biały | Jeden | Wiszący | Brązowy | Liczna | Łąki |
+| Trujące | Wypukły | Łuskowaty | Biały | Siniaki | Ostry | Wolne | Bliskie | Wąskie | Brązowy | Powiększający | Równy | Gładki | Gładki | Biały | Biały | Częściowa | Biały | Jeden | Wiszący | Czarny | Rozproszona | Miejska |
+| Jadalne | Wypukły | Gładki | Zielony | Bez siniaków | Brak | Wolne | Zatłoczone | Szerokie | Czarny | Zwężający | Równy | Gładki | Gładki | Biały | Biały | Częściowa | Biały | Jeden | Zanikający | Brązowy | Obfita | Trawy |
+| Jadalne | Wypukły | Łuskowaty | Żółty | Siniaki | Migdałowy | Wolne | Bliskie | Szerokie | Brązowy | Powiększający | Maczugowaty | Gładki | Gładki | Biały | Biały | Częściowa | Biały | Jeden | Wiszący | Czarny | Liczna | Trawy |
+
+Od razu zauważasz, że wszystkie dane są tekstowe. Musisz je przekonwertować, aby móc użyć ich w wykresie. Większość danych jest w rzeczywistości reprezentowana jako obiekt:
+
+```r
+names(mushrooms)
+```
+
+Wynik to:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Weź te dane i przekonwertuj kolumnę 'klasa' na kategorię:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Teraz, jeśli wydrukujesz dane o grzybach, zobaczysz, że zostały pogrupowane w kategorie według klasy trujące/jadalne:
+```r
+View(grouped)
+```
+
+| klasa | liczba |
+| --------- | --------- |
+| Jadalne | 4208 |
+| Trujące | 3916 |
+
+Jeśli zastosujesz kolejność przedstawioną w tej tabeli do tworzenia etykiet kategorii klasy, możesz zbudować wykres kołowy.
+
+## Koło!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voila, wykres kołowy pokazujący proporcje tych danych według dwóch klas grzybów. Bardzo ważne jest, aby kolejność etykiet była poprawna, szczególnie tutaj, więc upewnij się, że weryfikujesz kolejność, w jakiej budowana jest tablica etykiet!
+
+
+
+## Pierścienie!
+
+Nieco bardziej interesującym wizualnie wykresem kołowym jest wykres pierścieniowy, czyli wykres kołowy z dziurą w środku. Przyjrzyjmy się naszym danym za pomocą tej metody.
+
+Spójrz na różne siedliska, w których rosną grzyby:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Wynik to:
+| siedlisko | liczba |
+| --------- | --------- |
+| Trawy | 2148 |
+| Liście | 832 |
+| Łąki | 292 |
+| Ścieżki | 1144 |
+| Miejskie | 368 |
+| Odpady | 192 |
+| Drewno | 3148 |
+
+Tutaj grupujesz swoje dane według siedliska. Jest ich 7, więc użyj ich jako etykiet dla wykresu pierścieniowego:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Ten kod używa dwóch bibliotek - ggplot2 i webr. Korzystając z funkcji PieDonut z biblioteki webr, możemy łatwo stworzyć wykres pierścieniowy!
+
+Wykresy pierścieniowe w R można również tworzyć, używając tylko biblioteki ggplot2. Możesz dowiedzieć się więcej na ten temat [tutaj](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) i spróbować samodzielnie.
+
+Teraz, gdy wiesz, jak grupować dane i wyświetlać je jako koło lub pierścień, możesz eksplorować inne typy wykresów. Spróbuj wykresu gofrowego, który jest po prostu innym sposobem eksplorowania ilości.
+
+## Gofry!
+
+Wykres typu 'gofrowy' to inny sposób wizualizacji ilości jako 2D tablicy kwadratów. Spróbuj zwizualizować różne ilości kolorów kapeluszy grzybów w tym zestawie danych. Aby to zrobić, musisz zainstalować pomocniczą bibliotekę [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) i użyć jej do wygenerowania wizualizacji:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Wybierz segment swoich danych do grupowania:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Stwórz wykres gofrowy, tworząc etykiety, a następnie grupując swoje dane:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Korzystając z wykresu gofrowego, możesz wyraźnie zobaczyć proporcje kolorów kapeluszy w tym zestawie danych o grzybach. Co ciekawe, jest wiele grzybów z zielonymi kapeluszami!
+
+
+
+W tej lekcji nauczyłeś się trzech sposobów wizualizacji proporcji. Najpierw musisz pogrupować swoje dane w kategorie, a następnie zdecydować, który sposób ich wyświetlania jest najlepszy - koło, pierścień czy gofr. Wszystkie są apetyczne i dają użytkownikowi natychmiastowy wgląd w zestaw danych.
+
+## 🚀 Wyzwanie
+
+Spróbuj odtworzyć te apetyczne wykresy w [Charticulator](https://charticulator.com).
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Przegląd i samodzielna nauka
+
+Czasami nie jest oczywiste, kiedy użyć wykresu kołowego, pierścieniowego czy gofrowego. Oto kilka artykułów do przeczytania na ten temat:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Poszukaj więcej informacji na temat tej trudnej decyzji.
+
+## Zadanie
+
+[Spróbuj w Excelu](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/pl/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..f0dcd1c0
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,175 @@
+
+# Wizualizacja Zależności: Wszystko o Miodzie 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Wizualizacja Zależności - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Kontynuując nasz fokus na naturę w badaniach, odkryjmy ciekawe wizualizacje, które pokazują zależności między różnymi rodzajami miodu, zgodnie z danymi pochodzącymi z [Departamentu Rolnictwa Stanów Zjednoczonych](https://www.nass.usda.gov/About_NASS/index.php).
+
+Ten zestaw danych, zawierający około 600 pozycji, przedstawia produkcję miodu w wielu stanach USA. Na przykład można przeanalizować liczbę kolonii, wydajność na kolonię, całkowitą produkcję, zapasy, cenę za funt oraz wartość wyprodukowanego miodu w danym stanie w latach 1998-2012, z jednym wierszem na rok dla każdego stanu.
+
+Ciekawie będzie zwizualizować zależność między produkcją w danym stanie w danym roku a, na przykład, ceną miodu w tym stanie. Alternatywnie można zwizualizować zależność między wydajnością miodu na kolonię w różnych stanach. Ten zakres lat obejmuje niszczycielski 'CCD' lub 'Colony Collapse Disorder', który po raz pierwszy zaobserwowano w 2006 roku (http://npic.orst.edu/envir/ccd.html), co czyni ten zestaw danych szczególnie interesującym do analizy. 🐝
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+W tej lekcji możesz użyć ggplot2, który już wcześniej stosowałeś, jako świetnej biblioteki do wizualizacji zależności między zmiennymi. Szczególnie interesujące jest użycie funkcji `geom_point` i `qplot` w ggplot2, które pozwalają na szybkie tworzenie wykresów punktowych i liniowych, aby zwizualizować '[zależności statystyczne](https://ggplot2.tidyverse.org/)'. Dzięki temu naukowiec danych może lepiej zrozumieć, jak zmienne się ze sobą wiążą.
+
+## Wykresy punktowe
+
+Użyj wykresu punktowego, aby pokazać, jak cena miodu zmieniała się rok po roku w poszczególnych stanach. ggplot2, korzystając z `ggplot` i `geom_point`, wygodnie grupuje dane stanowe i wyświetla punkty danych zarówno dla danych kategorycznych, jak i numerycznych.
+
+Zacznijmy od zaimportowania danych i biblioteki Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Zauważ, że dane o miodzie zawierają kilka interesujących kolumn, w tym rok i cenę za funt. Przyjrzyjmy się tym danym, pogrupowanym według stanów USA:
+
+| stan | liczba_kol | wydajność_na_kol | całkowita_prod | zapasy | cena_za_funt | wartość_prod | rok |
+| ----- | ---------- | ---------------- | -------------- | -------- | ------------ | ------------ | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 | 22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Stwórz podstawowy wykres punktowy, aby pokazać zależność między ceną za funt miodu a stanem jego pochodzenia. Ustaw oś `y` wystarczająco wysoką, aby wyświetlić wszystkie stany:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Teraz pokaż te same dane z kolorystyką inspirowaną miodem, aby zobrazować, jak cena zmienia się na przestrzeni lat. Możesz to zrobić, dodając parametr 'scale_color_gradientn', który pokazuje zmiany rok po roku:
+
+> ✅ Dowiedz się więcej o [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - wypróbuj piękną tęczową paletę kolorów!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Dzięki tej zmianie kolorystyki można zauważyć wyraźny postęp w cenie miodu za funt na przestrzeni lat. Jeśli spojrzysz na próbkę danych, aby to zweryfikować (na przykład wybierając stan Arizona), można dostrzec wzorzec wzrostu cen rok po roku, z kilkoma wyjątkami:
+
+| stan | liczba_kol | wydajność_na_kol | całkowita_prod | zapasy | cena_za_funt | wartość_prod | rok |
+| ----- | ---------- | ---------------- | -------------- | ------- | ------------ | ------------ | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Innym sposobem wizualizacji tego postępu jest użycie rozmiaru zamiast koloru. Dla osób z daltonizmem może to być lepsza opcja. Zmień swoją wizualizację, aby pokazać wzrost ceny poprzez zwiększenie obwodu punktów:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Widać, że rozmiar punktów stopniowo się zwiększa.
+
+
+
+Czy to prosty przypadek podaży i popytu? Z powodu takich czynników jak zmiany klimatyczne i zjawisko zaniku kolonii, czy dostępność miodu na sprzedaż zmniejsza się rok po roku, a co za tym idzie, cena wzrasta?
+
+Aby odkryć korelację między niektórymi zmiennymi w tym zestawie danych, przyjrzyjmy się wykresom liniowym.
+
+## Wykresy liniowe
+
+Pytanie: Czy można zauważyć wyraźny wzrost ceny miodu za funt rok po roku? Najłatwiej to odkryć, tworząc pojedynczy wykres liniowy:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Odpowiedź: Tak, z pewnymi wyjątkami w okolicach roku 2003:
+
+
+
+Pytanie: Czy w 2003 roku można również zauważyć wzrost podaży miodu? Co jeśli spojrzysz na całkowitą produkcję rok po roku?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Odpowiedź: Niekoniecznie. Jeśli spojrzysz na całkowitą produkcję, wydaje się, że faktycznie wzrosła w tym konkretnym roku, mimo że ogólnie rzecz biorąc ilość produkowanego miodu maleje w tych latach.
+
+Pytanie: W takim razie, co mogło spowodować wzrost ceny miodu w okolicach roku 2003?
+
+Aby to odkryć, możesz użyć siatki wykresów.
+
+## Siatki wykresów
+
+Siatki wykresów pozwalają na podział danych na jeden aspekt (w naszym przypadku możesz wybrać 'rok', aby uniknąć zbyt wielu podziałów). Seaborn może następnie stworzyć wykres dla każdego z tych aspektów, z wybranymi współrzędnymi x i y, co ułatwia porównanie. Czy rok 2003 wyróżnia się w tego typu porównaniu?
+
+Stwórz siatkę wykresów, używając `facet_wrap`, jak zaleca [dokumentacja ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+Na tej wizualizacji możesz porównać wydajność na kolonię i liczbę kolonii rok po roku, obok siebie, z ustawieniem wrap na 3 dla kolumn:
+
+
+
+Dla tego zestawu danych nic szczególnego nie wyróżnia się w odniesieniu do liczby kolonii i ich wydajności rok po roku oraz stan po stanie. Czy istnieje inny sposób na znalezienie korelacji między tymi dwoma zmiennymi?
+
+## Wykresy z dwiema liniami
+
+Spróbuj wykresu wieloliniowego, nakładając na siebie dwa wykresy liniowe, używając funkcji `par` i `plot` w R. Będziemy wykreślać rok na osi x i wyświetlać dwie osie y. Wyświetl wydajność na kolonię i liczbę kolonii, nałożone na siebie:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Chociaż nic szczególnego nie rzuca się w oczy w okolicach roku 2003, pozwala nam to zakończyć tę lekcję na nieco bardziej optymistycznej nucie: mimo ogólnego spadku liczby kolonii, liczba kolonii stabilizuje się, nawet jeśli ich wydajność na kolonię maleje.
+
+Naprzód, pszczoły, naprzód!
+
+🐝❤️
+## 🚀 Wyzwanie
+
+W tej lekcji dowiedziałeś się nieco więcej o innych zastosowaniach wykresów punktowych i siatek wykresów, w tym siatek wykresów. Podejmij wyzwanie i stwórz siatkę wykresów, używając innego zestawu danych, być może takiego, którego używałeś wcześniej w tych lekcjach. Zwróć uwagę, ile czasu zajmuje ich stworzenie i jak ważne jest ostrożne podejście do liczby siatek, które chcesz narysować, korzystając z tych technik.
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Przegląd i Samodzielna Nauka
+
+Wykresy liniowe mogą być proste lub dość złożone. Przeczytaj trochę więcej w [dokumentacji ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) o różnych sposobach ich budowy. Spróbuj ulepszyć wykresy liniowe, które stworzyłeś w tej lekcji, korzystając z innych metod wymienionych w dokumentacji.
+## Zadanie
+
+[Zanurz się w ulu](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/pl/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..916243da
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,180 @@
+
+# Tworzenie Znaczących Wizualizacji
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Znaczące Wizualizacje - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+> "Jeśli wystarczająco długo torturujesz dane, przyznają się do wszystkiego" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Jedną z podstawowych umiejętności data scientistów jest zdolność tworzenia znaczących wizualizacji danych, które pomagają odpowiadać na postawione pytania. Zanim jednak zaczniesz wizualizować dane, musisz upewnić się, że zostały one oczyszczone i przygotowane, tak jak to robiłeś w poprzednich lekcjach. Dopiero wtedy możesz zdecydować, jak najlepiej je zaprezentować.
+
+W tej lekcji omówimy:
+
+1. Jak wybrać odpowiedni typ wykresu
+2. Jak unikać wprowadzających w błąd wykresów
+3. Jak pracować z kolorami
+4. Jak stylizować wykresy, aby były czytelne
+5. Jak tworzyć animowane lub trójwymiarowe wykresy
+6. Jak budować kreatywne wizualizacje
+
+## [Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Wybór odpowiedniego typu wykresu
+
+W poprzednich lekcjach eksperymentowałeś z tworzeniem różnych interesujących wizualizacji danych, używając bibliotek Matplotlib i Seaborn. Ogólnie rzecz biorąc, możesz wybrać [odpowiedni typ wykresu](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) w zależności od pytania, na które chcesz odpowiedzieć, korzystając z poniższej tabeli:
+
+| Potrzebujesz: | Powinieneś użyć: |
+| -------------------------- | ------------------------------- |
+| Pokazać trendy w czasie | Liniowy |
+| Porównać kategorie | Słupkowy, Kołowy |
+| Porównać sumy | Kołowy, Słupkowy skumulowany |
+| Pokazać relacje | Punktowy, Liniowy, Facet, Dual Line |
+| Pokazać rozkłady | Punktowy, Histogram, Box |
+| Pokazać proporcje | Kołowy, Donut, Waffle |
+
+> ✅ W zależności od struktury danych, może być konieczne przekształcenie ich z tekstowych na numeryczne, aby dany wykres mógł je obsłużyć.
+
+## Unikaj wprowadzania w błąd
+
+Nawet jeśli data scientist starannie dobierze odpowiedni wykres do danych, istnieje wiele sposobów, w jakie dane mogą być przedstawione w sposób wprowadzający w błąd, często kosztem ich wiarygodności. Istnieje wiele przykładów mylących wykresów i infografik!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Kliknij obrazek powyżej, aby obejrzeć prezentację na temat mylących wykresów
+
+Ten wykres odwraca oś X, aby pokazać coś odwrotnego do prawdy, bazując na dacie:
+
+
+
+[Ten wykres](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) jest jeszcze bardziej mylący, ponieważ wzrok kieruje się w prawo, sugerując, że liczba przypadków COVID spadła w różnych hrabstwach. W rzeczywistości, jeśli przyjrzysz się dokładnie datom, zauważysz, że zostały one przestawione, aby stworzyć fałszywy trend spadkowy.
+
+
+
+Ten znany przykład używa koloru ORAZ odwróconej osi Y, aby wprowadzić w błąd: zamiast wniosku, że liczba zgonów z użyciem broni wzrosła po wprowadzeniu przyjaznego broni ustawodawstwa, wzrok zostaje oszukany, by myśleć, że jest odwrotnie:
+
+
+
+Ten dziwny wykres pokazuje, jak proporcje mogą być zmanipulowane, co prowadzi do komicznego efektu:
+
+
+
+Porównywanie rzeczy nieporównywalnych to kolejny nieuczciwy trik. Istnieje [świetna strona internetowa](https://tylervigen.com/spurious-correlations) poświęcona 'fałszywym korelacjom', pokazująca 'fakty', takie jak korelacja między wskaźnikiem rozwodów w Maine a spożyciem margaryny. Grupa na Reddicie również zbiera [brzydkie przykłady](https://www.reddit.com/r/dataisugly/top/?t=all) użycia danych.
+
+Ważne jest, aby zrozumieć, jak łatwo wzrok może zostać oszukany przez mylące wykresy. Nawet jeśli intencje data scientista są dobre, wybór złego typu wykresu, na przykład wykresu kołowego zbyt wielu kategorii, może wprowadzać w błąd.
+
+## Kolor
+
+Na przykładzie wykresu o przemocy z użyciem broni na Florydzie widzieliśmy, jak kolor może dodać dodatkową warstwę znaczenia do wykresów, szczególnie tych, które nie zostały zaprojektowane przy użyciu bibliotek takich jak ggplot2 czy RColorBrewer, które oferują różne sprawdzone palety kolorów. Jeśli tworzysz wykres ręcznie, warto zapoznać się z [teorią kolorów](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Pamiętaj, projektując wykresy, że dostępność jest ważnym aspektem wizualizacji. Niektórzy użytkownicy mogą być daltonistami - czy Twój wykres jest czytelny dla osób z wadami wzroku?
+
+Bądź ostrożny przy wyborze kolorów do wykresu, ponieważ mogą one przekazywać znaczenie, którego nie zamierzałeś. 'Różowe panie' na wykresie 'wzrostu' powyżej nadają mu wyraźnie 'kobiecy' charakter, co dodatkowo podkreśla absurdalność samego wykresu.
+
+Chociaż [znaczenie kolorów](https://colormatters.com/color-symbolism/the-meanings-of-colors) może różnić się w zależności od regionu świata i zmieniać w zależności od odcienia, ogólnie przyjęte znaczenia kolorów obejmują:
+
+| Kolor | Znaczenie |
+| ------ | ------------------- |
+| czerwony | siła |
+| niebieski | zaufanie, lojalność |
+| żółty | szczęście, ostrożność |
+| zielony | ekologia, szczęście, zazdrość |
+| fioletowy | szczęście |
+| pomarańczowy | energia |
+
+Jeśli masz za zadanie stworzyć wykres z niestandardowymi kolorami, upewnij się, że jest on zarówno dostępny, jak i że wybrany kolor odpowiada znaczeniu, które chcesz przekazać.
+
+## Stylizacja wykresów dla czytelności
+
+Wykresy nie są znaczące, jeśli nie są czytelne! Poświęć chwilę na dostosowanie szerokości i wysokości wykresu, aby dobrze skalował się z danymi. Jeśli musisz wyświetlić wiele zmiennych (np. wszystkie 50 stanów), pokaż je pionowo na osi Y, aby uniknąć przewijania w poziomie.
+
+Oznacz osie, dodaj legendę, jeśli to konieczne, i oferuj podpowiedzi, aby ułatwić zrozumienie danych.
+
+Jeśli Twoje dane są tekstowe i obszerne na osi X, możesz ustawić tekst pod kątem, aby poprawić czytelność. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) oferuje wykresy 3D, jeśli Twoje dane to umożliwiają. Zaawansowane wizualizacje danych można tworzyć za jego pomocą.
+
+
+
+## Animacja i wyświetlanie wykresów 3D
+
+Niektóre z najlepszych wizualizacji danych są dziś animowane. Shirley Wu stworzyła niesamowite wizualizacje za pomocą D3, takie jak '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', gdzie każdy kwiat jest wizualizacją filmu. Innym przykładem jest projekt dla Guardiana 'bussed out', interaktywne doświadczenie łączące wizualizacje z Greensock i D3 oraz artykuł w formacie 'scrollytelling', pokazujący, jak Nowy Jork radzi sobie z problemem bezdomności, wysyłając ludzi poza miasto.
+
+
+
+> "Bussed Out: How America Moves its Homeless" z [Guardiana](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Wizualizacje autorstwa Nadieh Bremer & Shirley Wu
+
+Chociaż ta lekcja nie wystarczy, aby szczegółowo nauczyć się tych potężnych bibliotek wizualizacyjnych, spróbuj swoich sił w D3 w aplikacji Vue.js, używając biblioteki do wyświetlenia wizualizacji książki "Niebezpieczne Związki" jako animowanej sieci społecznej.
+
+> "Niebezpieczne Związki" to powieść epistolarna, czyli powieść przedstawiona jako seria listów. Napisana w 1782 roku przez Choderlosa de Laclos, opowiada historię bezwzględnych, moralnie zbankrutowanych intryg dwóch protagonistów francuskiej arystokracji z końca XVIII wieku, Wicehrabiego de Valmont i Markizy de Merteuil. Oboje ponoszą klęskę na końcu, ale nie bez wyrządzenia znacznych szkód społecznych. Powieść rozwija się jako seria listów pisanych do różnych osób z ich otoczenia, planujących zemstę lub po prostu sprawiających kłopoty. Stwórz wizualizację tych listów, aby odkryć głównych bohaterów narracji w sposób wizualny.
+
+Ukończysz aplikację internetową, która wyświetli animowany widok tej sieci społecznej. Wykorzystuje ona bibliotekę stworzoną do [wizualizacji sieci](https://github.com/emiliorizzo/vue-d3-network) za pomocą Vue.js i D3. Gdy aplikacja działa, możesz przeciągać węzły na ekranie, aby przemieszczać dane.
+
+
+
+## Projekt: Stwórz wykres przedstawiający sieć za pomocą D3.js
+
+> W folderze tej lekcji znajduje się folder `solution`, w którym znajdziesz ukończony projekt jako odniesienie.
+
+1. Postępuj zgodnie z instrukcjami w pliku README.md w folderze głównym startera. Upewnij się, że masz zainstalowane NPM i Node.js na swoim komputerze przed instalacją zależności projektu.
+
+2. Otwórz folder `starter/src`. Znajdziesz tam folder `assets`, w którym znajduje się plik .json z wszystkimi listami z powieści, ponumerowanymi, z adnotacjami 'to' i 'from'.
+
+3. Uzupełnij kod w `components/Nodes.vue`, aby umożliwić wizualizację. Znajdź metodę o nazwie `createLinks()` i dodaj następującą pętlę zagnieżdżoną.
+
+Przejdź przez obiekt .json, aby uchwycić dane 'to' i 'from' dla listów i zbudować obiekt `links`, aby biblioteka wizualizacyjna mogła go wykorzystać:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Uruchom aplikację z terminala (npm run serve) i ciesz się wizualizacją!
+
+## 🚀 Wyzwanie
+
+Przejrzyj internet w poszukiwaniu mylących wizualizacji. Jak autor wprowadza użytkownika w błąd i czy jest to celowe? Spróbuj poprawić wizualizacje, aby pokazać, jak powinny wyglądać.
+
+## [Quiz po lekcji](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Przegląd i samodzielna nauka
+
+Oto kilka artykułów do przeczytania na temat mylących wizualizacji danych:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Zapoznaj się z tymi interesującymi wizualizacjami historycznych zasobów i artefaktów:
+
+https://handbook.pubpub.org/
+
+Przeczytaj ten artykuł o tym, jak animacja może wzbogacić Twoje wizualizacje:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Zadanie
+
+[Stwórz własną niestandardową wizualizację](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/3-Data-Visualization/README.md b/translations/pl/3-Data-Visualization/README.md
new file mode 100644
index 00000000..71bd3b1e
--- /dev/null
+++ b/translations/pl/3-Data-Visualization/README.md
@@ -0,0 +1,40 @@
+
+# Wizualizacje
+
+
+> Zdjęcie autorstwa Jenna Lee na Unsplash
+
+Wizualizacja danych to jedno z najważniejszych zadań data scientistów. Obrazy są warte tysiąca słów, a wizualizacja może pomóc w identyfikacji różnych interesujących aspektów danych, takich jak skoki, wartości odstające, grupowania, tendencje i wiele innych, które pomagają zrozumieć historię, jaką opowiadają dane.
+
+W tych pięciu lekcjach będziesz eksplorować dane pochodzące z natury i tworzyć interesujące oraz piękne wizualizacje, korzystając z różnych technik.
+
+| Numer Tematu | Temat | Powiązana Lekcja | Autor |
+| :-----------: | :--: | :--------------: | :----: |
+| 1. | Wizualizacja ilości | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Wizualizacja rozkładów | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Wizualizacja proporcji | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Wizualizacja relacji | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Tworzenie znaczących wizualizacji | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Podziękowania
+
+Te lekcje dotyczące wizualizacji zostały napisane z 🌸 przez [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) i [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Dane dotyczące produkcji miodu w USA pochodzą z projektu Jessiki Li na [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). [Dane](https://usda.library.cornell.edu/concern/publications/rn301137d) zostały zaczerpnięte z [Departamentu Rolnictwa Stanów Zjednoczonych](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Dane dotyczące grzybów pochodzą również z [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset), zaktualizowane przez Hatterasa Duntona. Ten zbiór danych zawiera opisy hipotetycznych próbek odpowiadających 23 gatunkom grzybów blaszkowych z rodziny Agaricus i Lepiota. Dane oparte na "The Audubon Society Field Guide to North American Mushrooms" (1981). Zbiór danych został przekazany do UCI ML 27 w 1987 roku.
+
+🦆 Dane dotyczące ptaków z Minnesoty pochodzą z [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds), zebrane z [Wikipedii](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) przez Hannah Collins.
+
+Wszystkie te zbiory danych są licencjonowane jako [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/pl/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..ef395733
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,121 @@
+
+# Wprowadzenie do cyklu życia Data Science
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Wprowadzenie do cyklu życia Data Science - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz przed wykładem](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+Na tym etapie prawdopodobnie zdajesz sobie sprawę, że data science to proces. Ten proces można podzielić na 5 etapów:
+
+- Zbieranie
+- Przetwarzanie
+- Analiza
+- Komunikacja
+- Utrzymanie
+
+Ta lekcja koncentruje się na 3 częściach cyklu życia: zbieraniu, przetwarzaniu i utrzymaniu.
+
+
+> Zdjęcie autorstwa [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Zbieranie
+
+Pierwszy etap cyklu życia jest bardzo ważny, ponieważ kolejne etapy są od niego zależne. W praktyce składa się z dwóch połączonych etapów: pozyskiwania danych oraz definiowania celu i problemów, które należy rozwiązać.
+Definiowanie celów projektu wymaga głębszego zrozumienia problemu lub pytania. Najpierw musimy zidentyfikować i pozyskać osoby, które potrzebują rozwiązania swojego problemu. Mogą to być interesariusze w firmie lub sponsorzy projektu, którzy pomogą określić, kto lub co skorzysta na tym projekcie, a także co i dlaczego jest potrzebne. Dobrze zdefiniowany cel powinien być mierzalny i ilościowy, aby określić akceptowalny wynik.
+
+Pytania, które może zadać data scientist:
+- Czy ten problem był już wcześniej rozwiązywany? Co zostało odkryte?
+- Czy cel i zamierzenia są zrozumiałe dla wszystkich zaangażowanych?
+- Czy istnieje niejasność i jak ją zredukować?
+- Jakie są ograniczenia?
+- Jak może wyglądać końcowy wynik?
+- Jakie zasoby (czas, ludzie, obliczenia) są dostępne?
+
+Następnie należy zidentyfikować, zebrać, a na końcu zbadać dane potrzebne do osiągnięcia zdefiniowanych celów. Na tym etapie pozyskiwania data scientist musi również ocenić ilość i jakość danych. Wymaga to pewnej eksploracji danych, aby potwierdzić, że pozyskane dane wspierają osiągnięcie pożądanego wyniku.
+
+Pytania, które może zadać data scientist dotyczące danych:
+- Jakie dane są już dostępne?
+- Kto jest właścicielem tych danych?
+- Jakie są kwestie związane z prywatnością?
+- Czy mam wystarczająco dużo danych, aby rozwiązać ten problem?
+- Czy dane są wystarczającej jakości dla tego problemu?
+- Jeśli odkryję dodatkowe informacje dzięki tym danym, czy powinniśmy rozważyć zmianę lub redefinicję celów?
+
+## Przetwarzanie
+
+Etap przetwarzania w cyklu życia koncentruje się na odkrywaniu wzorców w danych oraz modelowaniu. Niektóre techniki stosowane na tym etapie wymagają metod statystycznych do odkrywania wzorców. Zazwyczaj byłoby to żmudne zadanie dla człowieka przy dużym zbiorze danych, dlatego polega się na komputerach, które przyspieszają ten proces. Na tym etapie data science i uczenie maszynowe się przecinają. Jak nauczyłeś się w pierwszej lekcji, uczenie maszynowe to proces budowania modeli do zrozumienia danych. Modele są reprezentacją relacji między zmiennymi w danych, które pomagają przewidywać wyniki.
+
+Popularne techniki stosowane na tym etapie są omówione w programie ML dla początkujących. Kliknij linki, aby dowiedzieć się więcej:
+
+- [Klasyfikacja](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organizowanie danych w kategorie dla bardziej efektywnego wykorzystania.
+- [Klasteryzacja](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Grupowanie danych w podobne grupy.
+- [Regresja](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Określanie relacji między zmiennymi w celu przewidywania lub prognozowania wartości.
+
+## Utrzymanie
+
+Na diagramie cyklu życia możesz zauważyć, że utrzymanie znajduje się pomiędzy zbieraniem a przetwarzaniem. Utrzymanie to ciągły proces zarządzania, przechowywania i zabezpieczania danych w trakcie realizacji projektu i powinno być brane pod uwagę przez cały czas trwania projektu.
+
+### Przechowywanie danych
+
+Rozważania dotyczące sposobu i miejsca przechowywania danych mogą wpływać na koszt ich przechowywania, a także na wydajność dostępu do danych. Decyzje te prawdopodobnie nie będą podejmowane wyłącznie przez data scientist, ale mogą oni podejmować wybory dotyczące pracy z danymi w zależności od sposobu ich przechowywania.
+
+Oto kilka aspektów nowoczesnych systemów przechowywania danych, które mogą wpływać na te wybory:
+
+**Na miejscu vs poza miejscem vs chmura publiczna lub prywatna**
+
+Na miejscu odnosi się do hostowania i zarządzania danymi na własnym sprzęcie, na przykład posiadania serwera z dyskami twardymi przechowującymi dane, podczas gdy poza miejscem polega na sprzęcie, którego nie posiadasz, takim jak centrum danych. Chmura publiczna to popularny wybór do przechowywania danych, który nie wymaga wiedzy o tym, jak i gdzie dokładnie dane są przechowywane, gdzie publiczna odnosi się do zunifikowanej infrastruktury współdzielonej przez wszystkich użytkowników chmury. Niektóre organizacje mają rygorystyczne polityki bezpieczeństwa, które wymagają pełnego dostępu do sprzętu, na którym dane są hostowane, i polegają na prywatnej chmurze oferującej własne usługi chmurowe. Więcej o danych w chmurze dowiesz się w [późniejszych lekcjach](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Zimne vs gorące dane**
+
+Podczas trenowania modeli możesz potrzebować więcej danych treningowych. Jeśli jesteś zadowolony z modelu, więcej danych będzie napływać, aby model mógł spełniać swoje zadanie. W każdym przypadku koszt przechowywania i dostępu do danych wzrośnie wraz z ich akumulacją. Oddzielenie rzadko używanych danych, znanych jako zimne dane, od często używanych gorących danych może być tańszą opcją przechowywania danych za pomocą sprzętu lub usług programowych. Jeśli zimne dane muszą zostać uzyskane, może to zająć trochę więcej czasu w porównaniu do gorących danych.
+
+### Zarządzanie danymi
+
+Podczas pracy z danymi możesz odkryć, że niektóre z nich wymagają oczyszczenia za pomocą technik omówionych w lekcji dotyczącej [przygotowania danych](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation), aby zbudować dokładne modele. Gdy pojawią się nowe dane, będą wymagały podobnych działań, aby utrzymać spójność jakości. Niektóre projekty będą obejmować użycie zautomatyzowanego narzędzia do oczyszczania, agregacji i kompresji przed przeniesieniem danych do ich ostatecznej lokalizacji. Przykładem takiego narzędzia jest Azure Data Factory.
+
+### Zabezpieczanie danych
+
+Jednym z głównych celów zabezpieczania danych jest zapewnienie, że osoby pracujące z nimi kontrolują, co jest zbierane i w jakim kontekście jest używane. Utrzymanie bezpieczeństwa danych obejmuje ograniczenie dostępu tylko do osób, które go potrzebują, przestrzeganie lokalnych przepisów i regulacji, a także utrzymanie standardów etycznych, jak omówiono w [lekcji o etyce](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Oto kilka działań, które zespół może podjąć, mając na uwadze bezpieczeństwo:
+- Upewnienie się, że wszystkie dane są zaszyfrowane
+- Informowanie klientów o tym, jak ich dane są wykorzystywane
+- Usuwanie dostępu do danych dla osób, które opuściły projekt
+- Pozwalanie tylko wybranym członkom projektu na modyfikowanie danych
+
+## 🚀 Wyzwanie
+
+Istnieje wiele wersji cyklu życia Data Science, gdzie każdy etap może mieć różne nazwy i liczbę etapów, ale zawiera te same procesy omówione w tej lekcji.
+
+Zapoznaj się z [cyklem życia procesu Team Data Science](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) oraz [standardowym procesem dla eksploracji danych w różnych branżach](https://www.datascience-pm.com/crisp-dm-2/). Wymień 3 podobieństwa i różnice między nimi.
+
+|Proces Team Data Science (TDSP)|Standardowy proces dla eksploracji danych w różnych branżach (CRISP-DM)|
+|--|--|
+| |  |
+| Obraz autorstwa [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Obraz autorstwa [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Quiz po wykładzie](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Przegląd i samodzielna nauka
+
+Zastosowanie cyklu życia Data Science obejmuje wiele ról i zadań, gdzie niektóre mogą koncentrować się na określonych częściach każdego etapu. Proces Team Data Science dostarcza kilka zasobów, które wyjaśniają rodzaje ról i zadań, jakie ktoś może mieć w projekcie.
+
+* [Role i zadania w procesie Team Data Science](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Wykonywanie zadań związanych z data science: eksploracja, modelowanie i wdrażanie](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Zadanie
+
+[Ocena zbioru danych](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/pl/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..7ccd5f31
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,35 @@
+
+# Ocena Zbioru Danych
+
+Klient zwrócił się do Twojego zespołu o pomoc w zbadaniu sezonowych nawyków wydatkowych klientów taksówek w Nowym Jorku.
+
+Chcą wiedzieć: **Czy pasażerowie żółtych taksówek w Nowym Jorku dają większe napiwki kierowcom zimą czy latem?**
+
+Twój zespół znajduje się w etapie [Zbierania](Readme.md#Capturing) Cyklu Życia Data Science, a Ty jesteś odpowiedzialny za obsługę zbioru danych. Otrzymałeś notebook oraz [dane](../../../../data/taxi.csv) do analizy.
+
+W tym katalogu znajduje się [notebook](../../../../4-Data-Science-Lifecycle/14-Introduction/notebook.ipynb), który wykorzystuje Pythona do ładowania danych o przejazdach żółtymi taksówkami z [Komisji Taksówek i Limuzyn NYC](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Możesz również otworzyć plik z danymi taksówek w edytorze tekstu lub oprogramowaniu do arkuszy kalkulacyjnych, takim jak Excel.
+
+## Instrukcje
+
+- Oceń, czy dane w tym zbiorze mogą pomóc odpowiedzieć na pytanie.
+- Przejrzyj [katalog danych otwartych NYC](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Zidentyfikuj dodatkowy zbiór danych, który mógłby być pomocny w odpowiedzi na pytanie klienta.
+- Napisz 3 pytania, które zadałbyś klientowi, aby uzyskać więcej wyjaśnień i lepsze zrozumienie problemu.
+
+Zapoznaj się ze [słownikiem zbioru danych](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) oraz [przewodnikiem użytkownika](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf), aby uzyskać więcej informacji o danych.
+
+## Kryteria oceny
+
+Wzorowe | Adekwatne | Wymaga poprawy
+--- | --- | ---
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/pl/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..4a051f06
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,59 @@
+
+# Cykl życia nauki o danych: Analiza
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Cykl życia nauki o danych: Analiza - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+## Quiz przed wykładem
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Analiza w cyklu życia danych potwierdza, że dane mogą odpowiedzieć na postawione pytania lub rozwiązać konkretny problem. Ten etap może również skupiać się na potwierdzeniu, że model prawidłowo odnosi się do tych pytań i problemów. Ta lekcja koncentruje się na eksploracyjnej analizie danych (Exploratory Data Analysis, EDA), czyli technikach definiowania cech i relacji w danych, które mogą być wykorzystane do przygotowania danych do modelowania.
+
+Wykorzystamy przykładowy zbiór danych z [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1), aby pokazać, jak można to zastosować w Pythonie z użyciem biblioteki Pandas. Ten zbiór danych zawiera liczbę wystąpień niektórych popularnych słów w e-mailach, przy czym źródła tych e-maili są anonimowe. Skorzystaj z [notatnika](../../../../4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) w tym katalogu, aby śledzić proces.
+
+## Eksploracyjna analiza danych
+
+Faza pozyskiwania w cyklu życia to moment, w którym dane są gromadzone, a problemy i pytania są definiowane. Ale skąd wiemy, że dane mogą wspierać końcowy wynik?
+Przypomnijmy, że naukowiec danych może zadać następujące pytania, gdy pozyskuje dane:
+- Czy mam wystarczająco dużo danych, aby rozwiązać ten problem?
+- Czy dane są wystarczającej jakości dla tego problemu?
+- Jeśli odkryję dodatkowe informacje w tych danych, czy powinniśmy rozważyć zmianę lub redefinicję celów?
+
+Eksploracyjna analiza danych to proces poznawania danych, który może pomóc odpowiedzieć na te pytania, a także zidentyfikować wyzwania związane z pracą z danym zbiorem danych. Skupmy się na niektórych technikach stosowanych w tym celu.
+
+## Profilowanie danych, statystyki opisowe i Pandas
+Jak ocenić, czy mamy wystarczająco dużo danych, aby rozwiązać problem? Profilowanie danych może podsumować i zebrać ogólne informacje o naszym zbiorze danych za pomocą technik statystyki opisowej. Profilowanie danych pomaga zrozumieć, co mamy do dyspozycji, a statystyki opisowe pomagają zrozumieć, ile tego mamy.
+
+W kilku poprzednich lekcjach używaliśmy Pandas do generowania statystyk opisowych za pomocą funkcji [`describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Funkcja ta dostarcza informacji takich jak liczba elementów, wartości maksymalne i minimalne, średnia, odchylenie standardowe i kwantyle dla danych numerycznych. Korzystanie z takich statystyk opisowych jak `describe()` może pomóc ocenić, ile danych mamy i czy potrzebujemy więcej.
+
+## Próbkowanie i zapytania
+Eksplorowanie całego dużego zbioru danych może być bardzo czasochłonne i jest to zadanie, które zazwyczaj wykonuje komputer. Jednak próbki danych są pomocnym narzędziem w zrozumieniu danych i pozwalają lepiej zrozumieć, co znajduje się w zbiorze danych i co on reprezentuje. Dzięki próbce można zastosować prawdopodobieństwo i statystykę, aby dojść do ogólnych wniosków na temat danych. Chociaż nie ma określonej reguły dotyczącej tego, ile danych należy próbować, warto zauważyć, że im więcej danych próbkujemy, tym bardziej precyzyjne mogą być nasze uogólnienia.
+
+Pandas oferuje funkcję [`sample()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html), w której można podać argument określający, ile losowych próbek chcemy otrzymać i wykorzystać.
+
+Ogólne zapytania dotyczące danych mogą pomóc odpowiedzieć na niektóre pytania i teorie, które możemy mieć. W przeciwieństwie do próbkowania, zapytania pozwalają nam kontrolować i skupić się na konkretnych częściach danych, które nas interesują. Funkcja [`query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) w bibliotece Pandas pozwala wybierać kolumny i uzyskiwać proste odpowiedzi na temat danych poprzez pobrane wiersze.
+
+## Eksploracja za pomocą wizualizacji
+Nie musisz czekać, aż dane zostaną dokładnie oczyszczone i przeanalizowane, aby zacząć tworzyć wizualizacje. W rzeczywistości posiadanie wizualnej reprezentacji podczas eksploracji może pomóc zidentyfikować wzorce, relacje i problemy w danych. Ponadto wizualizacje stanowią środek komunikacji z osobami, które nie są zaangażowane w zarządzanie danymi, i mogą być okazją do podzielenia się i wyjaśnienia dodatkowych pytań, które nie zostały uwzględnione na etapie pozyskiwania. Odwołaj się do [sekcji o wizualizacjach](../../../../../../../../../3-Data-Visualization), aby dowiedzieć się więcej o popularnych sposobach eksploracji wizualnej.
+
+## Eksploracja w celu identyfikacji niespójności
+Wszystkie tematy poruszone w tej lekcji mogą pomóc zidentyfikować brakujące lub niespójne wartości, ale Pandas oferuje funkcje do sprawdzania niektórych z nich. Funkcje [isna() lub isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) mogą sprawdzać brakujące wartości. Ważnym elementem eksploracji tych wartości w danych jest zbadanie, dlaczego znalazły się w takim stanie. Może to pomóc w podjęciu decyzji o [działaniach, które należy podjąć, aby je rozwiązać](../../../../../../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Zadanie
+
+[Eksploracja w poszukiwaniu odpowiedzi](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/pl/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..34e000fc
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,34 @@
+
+# Poszukiwanie odpowiedzi
+
+To jest kontynuacja [zadania](../14-Introduction/assignment.md) z poprzedniej lekcji, gdzie krótko przyjrzeliśmy się zbiorowi danych. Teraz przyjrzymy się danym bardziej szczegółowo.
+
+Przypomnijmy pytanie, na które klient chce poznać odpowiedź: **Czy pasażerowie żółtych taksówek w Nowym Jorku dają większe napiwki kierowcom zimą czy latem?**
+
+Twój zespół znajduje się w etapie [Analizy](README.md) Cyklu Życia Danych, gdzie odpowiadacie za przeprowadzenie eksploracyjnej analizy danych (EDA) na zbiorze danych. Otrzymaliście notatnik i zbiór danych zawierający 200 transakcji taksówkowych ze stycznia i lipca 2019 roku.
+
+## Instrukcje
+
+W tym katalogu znajduje się [notatnik](../../../../4-Data-Science-Lifecycle/15-analyzing/assignment.ipynb) oraz dane pochodzące od [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Zapoznaj się ze [słownikiem danych](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) oraz [przewodnikiem użytkownika](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf), aby uzyskać więcej informacji o danych.
+
+Wykorzystaj niektóre techniki z tej lekcji, aby przeprowadzić własną eksploracyjną analizę danych w notatniku (możesz dodać komórki, jeśli chcesz) i odpowiedz na poniższe pytania:
+
+- Jakie inne czynniki w danych mogą wpływać na wysokość napiwku?
+- Które kolumny prawdopodobnie nie będą potrzebne do odpowiedzi na pytania klienta?
+- Na podstawie dostarczonych danych, czy wydaje się, że istnieją dowody na sezonowe różnice w dawaniu napiwków?
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | ---
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/16-communication/README.md b/translations/pl/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..84d86f43
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# Cykl życia Data Science: Komunikacja
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Cykl życia Data Science: Komunikacja - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Sprawdź swoją wiedzę na temat tego, co nas czeka, rozwiązując powyższy quiz przed wykładem!
+
+# Wprowadzenie
+
+### Czym jest komunikacja?
+Zacznijmy tę lekcję od zdefiniowania, czym jest komunikacja. **Komunikacja to przekazywanie lub wymiana informacji.** Informacje mogą obejmować pomysły, myśli, uczucia, wiadomości, sygnały ukryte, dane – wszystko, co **_nadawca_** (osoba przekazująca informacje) chce, aby **_odbiorca_** (osoba odbierająca informacje) zrozumiał. W tej lekcji będziemy odnosić się do nadawców jako komunikatorów, a do odbiorców jako publiczności.
+
+### Komunikacja danych i opowiadanie historii
+Rozumiemy, że celem komunikacji jest przekazywanie lub wymiana informacji. Jednak w przypadku komunikacji danych celem nie powinno być jedynie przekazanie liczb publiczności. Celem powinno być opowiedzenie historii opartej na danych – skuteczna komunikacja danych i opowiadanie historii idą w parze. Twoja publiczność bardziej zapamięta historię, którą opowiesz, niż same liczby. W dalszej części tej lekcji omówimy kilka sposobów, w jakie możesz wykorzystać opowiadanie historii, aby skuteczniej komunikować swoje dane.
+
+### Rodzaje komunikacji
+W trakcie tej lekcji omówimy dwa różne rodzaje komunikacji: komunikację jednokierunkową i dwukierunkową.
+
+**Komunikacja jednokierunkowa** ma miejsce, gdy nadawca przekazuje informacje odbiorcy, bez żadnej informacji zwrotnej lub odpowiedzi. Przykłady komunikacji jednokierunkowej widzimy na co dzień – w masowych e-mailach, w wiadomościach informacyjnych, które przekazują najnowsze historie, czy w reklamach telewizyjnych, które informują, dlaczego ich produkt jest świetny. W każdym z tych przypadków nadawca nie oczekuje wymiany informacji. Jego celem jest jedynie przekazanie informacji.
+
+**Komunikacja dwukierunkowa** ma miejsce, gdy wszystkie zaangażowane strony pełnią rolę zarówno nadawców, jak i odbiorców. Nadawca rozpoczyna komunikację z odbiorcą, a odbiorca udziela informacji zwrotnej lub odpowiedzi. Komunikacja dwukierunkowa to to, co tradycyjnie rozumiemy pod pojęciem komunikacji. Zazwyczaj myślimy o rozmowie – czy to osobiście, przez telefon, w mediach społecznościowych, czy za pomocą wiadomości tekstowych.
+
+Podczas komunikacji danych zdarzają się sytuacje, w których będziesz korzystać z komunikacji jednokierunkowej (np. podczas prezentacji na konferencji lub przed dużą grupą, gdzie pytania nie będą zadawane bezpośrednio po wystąpieniu) oraz sytuacje, w których będziesz korzystać z komunikacji dwukierunkowej (np. podczas przekonywania kilku interesariuszy do podjęcia decyzji lub przekonywania współpracownika, że warto poświęcić czas i wysiłek na stworzenie czegoś nowego).
+
+# Skuteczna komunikacja
+
+### Twoje obowiązki jako komunikatora
+Podczas komunikacji to Ty jesteś odpowiedzialny za to, aby odbiorcy zrozumieli informacje, które chcesz im przekazać. Gdy komunikujesz dane, nie chcesz, aby odbiorcy zapamiętali jedynie liczby – chcesz, aby zapamiętali historię opartą na Twoich danych. Dobry komunikator danych to dobry narrator.
+
+Jak opowiadać historię za pomocą danych? Istnieje nieskończona liczba sposobów – poniżej przedstawiamy 6, które omówimy w tej lekcji:
+1. Zrozum swoją publiczność, kanał i metodę komunikacji
+2. Zacznij od końca
+3. Podejdź do tego jak do prawdziwej historii
+4. Używaj znaczących słów i zwrotów
+5. Wykorzystaj emocje
+
+Każda z tych strategii zostanie szczegółowo omówiona poniżej.
+
+### 1. Zrozum swoją publiczność, kanał i metodę komunikacji
+Sposób, w jaki komunikujesz się z członkami rodziny, prawdopodobnie różni się od sposobu, w jaki komunikujesz się z przyjaciółmi. Prawdopodobnie używasz innych słów i zwrotów, które są bardziej zrozumiałe dla osób, z którymi rozmawiasz. Powinieneś przyjąć podobne podejście podczas komunikacji danych. Zastanów się, do kogo mówisz. Pomyśl o ich celach i kontekście, jaki mają w odniesieniu do sytuacji, którą im wyjaśniasz.
+
+Większość swojej publiczności możesz prawdopodobnie zaklasyfikować do jednej z kategorii. W artykule _Harvard Business Review_ „[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” strateg Dell, Jim Stikeleather, wyróżnia pięć kategorii publiczności:
+
+- **Nowicjusz**: pierwszy kontakt z tematem, ale nie chce nadmiernego uproszczenia
+- **Ogólnik**: zna temat, ale szuka ogólnego zrozumienia i głównych wątków
+- **Menedżer**: szczegółowe, praktyczne zrozumienie złożoności i powiązań z dostępem do szczegółów
+- **Ekspert**: bardziej zainteresowany eksploracją i odkrywaniem niż opowiadaniem historii, z dużą ilością szczegółów
+- **Dyrektor**: ma czas tylko na zrozumienie znaczenia i wniosków z ważonych prawdopodobieństw
+
+Te kategorie mogą pomóc Ci dostosować sposób prezentacji danych do publiczności.
+
+Oprócz zrozumienia kategorii swojej publiczności, powinieneś również wziąć pod uwagę kanał, za pomocą którego będziesz się komunikować. Twoje podejście powinno się różnić w zależności od tego, czy piszesz notatkę lub e-mail, czy prowadzisz spotkanie lub prezentujesz na konferencji.
+
+Na koniec, zrozumienie, czy będziesz korzystać z komunikacji jednokierunkowej, czy dwukierunkowej, jest również kluczowe.
+
+Jeśli komunikujesz się z publicznością składającą się głównie z nowicjuszy i korzystasz z komunikacji jednokierunkowej, musisz najpierw edukować publiczność i dostarczyć jej odpowiedni kontekst. Następnie musisz przedstawić swoje dane, wyjaśnić, co one oznaczają i dlaczego są ważne. W takim przypadku warto skupić się na jasności przekazu, ponieważ publiczność nie będzie mogła zadać Ci bezpośrednich pytań.
+
+Jeśli komunikujesz się z publicznością składającą się głównie z menedżerów i korzystasz z komunikacji dwukierunkowej, prawdopodobnie nie będziesz musiał edukować publiczności ani dostarczać jej zbyt wiele kontekstu. Możesz od razu przejść do omawiania zebranych danych i ich znaczenia. W takim scenariuszu warto jednak skupić się na zarządzaniu czasem i kontrolowaniu swojej prezentacji. W przypadku komunikacji dwukierunkowej (szczególnie z publicznością menedżerską, która szuka „praktycznego zrozumienia złożoności i powiązań z dostępem do szczegółów”) mogą pojawić się pytania, które odciągną dyskusję od historii, którą próbujesz opowiedzieć. W takich sytuacjach możesz podjąć działania, aby skierować rozmowę z powrotem na właściwe tory.
+
+### 2. Zacznij od końca
+Zaczynanie od końca oznacza zrozumienie, jakie wnioski chcesz, aby Twoja publiczność wyniosła, zanim zaczniesz się z nią komunikować. Przemyślenie tego, co chcesz przekazać, z wyprzedzeniem może pomóc Ci stworzyć historię, którą publiczność będzie w stanie śledzić. Zaczynanie od końca jest odpowiednie zarówno dla komunikacji jednokierunkowej, jak i dwukierunkowej.
+
+Jak zacząć od końca? Przed komunikacją danych zapisz swoje kluczowe wnioski. Następnie na każdym etapie przygotowywania historii, którą chcesz opowiedzieć, zadaj sobie pytanie: „Jak to wpisuje się w historię, którą opowiadam?”
+
+Bądź świadomy – choć zaczynanie od końca jest idealne, nie powinieneś komunikować jedynie danych, które wspierają Twoje wnioski. Takie podejście nazywa się wybiórczym przedstawianiem danych (ang. Cherry-Picking), które polega na komunikowaniu jedynie tych danych, które wspierają Twój punkt widzenia, ignorując pozostałe.
+
+Jeśli wszystkie zebrane dane jednoznacznie wspierają Twoje wnioski – świetnie. Jeśli jednak istnieją dane, które nie wspierają Twoich wniosków lub nawet przemawiają przeciwko nim, powinieneś je również zakomunikować. W takim przypadku bądź szczery wobec swojej publiczności i wyjaśnij, dlaczego mimo wszystko trzymasz się swojej historii.
+
+### 3. Podejdź do tego jak do prawdziwej historii
+Tradycyjna historia składa się z 5 faz. Możesz znać je jako Ekspozycja, Narastająca Akcja, Punkt Kulminacyjny, Opadająca Akcja i Rozwiązanie. Lub w prostszej formie: Kontekst, Konflikt, Punkt Kulminacyjny, Zakończenie, Wnioski. Podczas komunikacji danych i swojej historii możesz przyjąć podobne podejście.
+
+Możesz zacząć od kontekstu, ustawić scenę i upewnić się, że Twoja publiczność jest na tej samej stronie. Następnie wprowadź konflikt. Dlaczego musiałeś zebrać te dane? Jakie problemy próbowałeś rozwiązać? Potem przejdź do punktu kulminacyjnego. Jakie są dane? Co one oznaczają? Jakie rozwiązania sugerują dane? Następnie przejdź do zakończenia, gdzie możesz powtórzyć problem i zaproponowane rozwiązania. Na koniec dochodzimy do wniosków, gdzie możesz podsumować kluczowe wnioski i zaproponować kolejne kroki, które zespół powinien podjąć.
+
+### 4. Używaj znaczących słów i zwrotów
+Jeśli pracowalibyśmy razem nad produktem, a ja powiedziałbym: „Nasi użytkownicy potrzebują dużo czasu na rejestrację w naszej platformie”, jak długo według Ciebie trwa „dużo czasu”? Godzinę? Tydzień? Trudno powiedzieć. A co, jeśli powiedziałbym to całej publiczności? Każda osoba w publiczności mogłaby mieć inną wizję tego, ile czasu zajmuje rejestracja.
+
+A co, jeśli powiedziałbym: „Nasi użytkownicy potrzebują średnio 3 minut na rejestrację w naszej platformie”?
+
+Taki przekaz jest bardziej klarowny. Podczas komunikacji danych łatwo jest założyć, że wszyscy w Twojej publiczności myślą tak samo jak Ty. Ale tak nie jest. Jasność przekazu to Twoja odpowiedzialność jako komunikatora. Jeśli dane lub Twoja historia nie są jasne, publiczność będzie miała trudności z ich zrozumieniem, a Twoje kluczowe wnioski mogą zostać zapomniane.
+
+Możesz komunikować dane bardziej klarownie, używając znaczących słów i zwrotów zamiast niejasnych. Poniżej kilka przykładów:
+
+- Mieliśmy *imponujący* rok!
+ - Jedna osoba może pomyśleć, że „imponujący” oznacza wzrost przychodów o 2%-3%, a inna, że o 50%-60%.
+- Wskaźniki sukcesu naszych użytkowników wzrosły *dramatycznie*.
+ - Jak duży wzrost oznacza „dramatyczny”?
+- To przedsięwzięcie wymaga *znacznego* wysiłku.
+ - Ile wysiłku to „znaczny”?
+
+Używanie niejasnych słów może być przydatne jako wstęp do bardziej szczegółowych danych lub jako podsumowanie historii, którą właśnie opowiedziałeś. Jednak warto upewnić się, że każda część Twojej prezentacji jest jasna dla publiczności.
+
+### 5. Wykorzystaj emocje
+Emocje są kluczowe w opowiadaniu historii. Są jeszcze ważniejsze, gdy opowiadasz historię za pomocą danych. Podczas komunikacji danych wszystko koncentruje się na wnioskach, które chcesz, aby Twoja publiczność wyniosła. Wywołanie emocji u publiczności pomaga jej się utożsamić z Twoją historią i zwiększa prawdopodobieństwo podjęcia przez nią działań. Emocje również zwiększają szanse, że publiczność zapamięta Twoje przesłanie.
+
+Prawdopodobnie spotkałeś się z tym w reklamach telewizyjnych. Niektóre reklamy są bardzo poważne i wykorzystują smutek, aby połączyć się z publicznością i podkreślić prezentowane dane. Inne reklamy są bardzo radosne i sprawiają, że kojarzysz ich dane z pozytywnymi emocjami.
+
+Jak wykorzystać emocje podczas komunikacji danych? Oto kilka sposobów:
+
+- Używaj świadectw i osobistych historii
+ - Podczas zbierania danych staraj się zbierać zarówno dane ilościowe, jak i jakościowe, i integruj oba rodzaje danych w swojej komunikacji. Jeśli Twoje dane są głównie ilościowe, poszukaj historii od osób, aby dowiedzieć się więcej o ich doświadczeniach związanych z tym, co mówią Twoje dane.
+- Używaj obrazów
+ - Obrazy pomagają publiczności wyobrazić sobie siebie w danej sytuacji. Używając obrazów, możesz skierować publiczność w stronę emocji, które Twoim zdaniem powinna odczuwać w związku z Twoimi danymi.
+- Używaj kolorów
+ - Różne kolory wywołują różne emocje. Popularne kolory i emocje, które wywołują, to:
+ - Niebieski zazwyczaj kojarzy się z pokojem i zaufaniem
+ - Zielony zazwyczaj odnosi się do natury i środowiska
+ - Czerwony zazwyczaj oznacza pasję i ekscytację
+ - Żółty zazwyczaj symbolizuje optymizm i szczęście
+
+# Studium przypadku: Komunikacja
+Emerson jest menedżerem produktu aplikacji mobilnej. Emerson zauważył, że klienci zgłaszają o 42% więcej skarg i błędów w weekendy. Emerson zauważył również, że klienci, którzy zgłaszają skargę, która pozostaje bez odpowiedzi przez ponad 48 godzin, są o 32% bardziej skłonni do wystawienia aplikacji oceny 1 lub 2 w sklepie z aplikacjami.
+
+Po przeprowadzeniu badań Emerson ma kilka rozwiązań, które mogą rozwiązać problem. Emerson organizuje 30-minutowe spotkanie z trzema liderami firmy, aby przedstawić dane i proponowane rozwiązania.
+
+Celem Emersona podczas tego spotkania jest przekonanie liderów firmy, że poniższe dwa rozwiązania mogą poprawić ocenę aplikacji, co prawdopodobnie przełoży się na wyższe przychody.
+
+**Rozwiązanie 1.** Zatrudnienie przedstawicieli obsługi klienta do pracy w weekendy
+
+**Rozwiązanie 2.** Zakup nowego systemu zgłoszeń obsługi klienta, który umożliwi przedstawicielom łatwe identyfikowanie zgłoszeń oczekujących najdłużej – aby mogli priorytetowo je obsługiwać.
+W trakcie spotkania Emerson poświęca 5 minut na wyjaśnienie, dlaczego niska ocena w sklepie z aplikacjami jest problemem, 10 minut na omówienie procesu badawczego i identyfikacji trendów, 10 minut na przejrzenie ostatnich skarg klientów, a ostatnie 5 minut na pobieżne przedstawienie dwóch potencjalnych rozwiązań.
+
+Czy to był skuteczny sposób komunikacji Emersona podczas tego spotkania?
+
+Podczas spotkania jeden z liderów firmy skupił się na 10 minutach dotyczących skarg klientów, które Emerson omówił. Po spotkaniu były to jedyne informacje, które ten lider zapamiętał. Inny lider firmy skoncentrował się głównie na opisie procesu badawczego przez Emersona. Trzeci lider zapamiętał proponowane rozwiązania, ale nie był pewien, jak można je wdrożyć.
+
+W powyższej sytuacji widać znaczną różnicę między tym, co Emerson chciał, aby liderzy zespołów wynieśli ze spotkania, a tym, co faktycznie zapamiętali. Poniżej przedstawiono inne podejście, które Emerson mógłby rozważyć.
+
+Jak Emerson mógłby poprawić swoje podejście?
+Kontekst, Konflikt, Punkt kulminacyjny, Zakończenie, Podsumowanie
+**Kontekst** – Emerson mógłby poświęcić pierwsze 5 minut na wprowadzenie do całej sytuacji i upewnienie się, że liderzy zespołów rozumieją, jak problemy wpływają na kluczowe dla firmy wskaźniki, takie jak przychody.
+
+Można to przedstawić w ten sposób: „Obecnie ocena naszej aplikacji w sklepie wynosi 2,5. Oceny w sklepie z aplikacjami są kluczowe dla optymalizacji widoczności aplikacji (App Store Optimization), co wpływa na to, ilu użytkowników widzi naszą aplikację w wynikach wyszukiwania i jak jest ona postrzegana przez potencjalnych użytkowników. Oczywiście liczba użytkowników jest bezpośrednio powiązana z przychodami.”
+
+**Konflikt** Następnie Emerson mógłby poświęcić około 5 minut na omówienie konfliktu.
+
+Można to ująć w ten sposób: „Użytkownicy zgłaszają o 42% więcej skarg i błędów w weekendy. Klienci, którzy zgłaszają skargę, a ich zgłoszenie pozostaje bez odpowiedzi przez ponad 48 godzin, są o 32% mniej skłonni do wystawienia naszej aplikacji oceny wyższej niż 2 w sklepie. Poprawa oceny naszej aplikacji w sklepie do 4 zwiększyłaby naszą widoczność o 20-30%, co, jak szacuję, zwiększyłoby przychody o 10%.” Oczywiście Emerson powinien być przygotowany na uzasadnienie tych liczb.
+
+**Punkt kulminacyjny** Po przedstawieniu podstawowych informacji Emerson mógłby przejść do punktu kulminacyjnego na około 5 minut.
+
+Emerson mógłby przedstawić proponowane rozwiązania, wyjaśnić, w jaki sposób te rozwiązania rozwiążą opisane problemy, jak można je wdrożyć w istniejące procesy, ile będą kosztować, jaki będzie ich zwrot z inwestycji (ROI), a może nawet pokazać zrzuty ekranu lub makiety, jak te rozwiązania mogłyby wyglądać po wdrożeniu. Emerson mógłby również podzielić się opiniami użytkowników, których skargi zostały rozpatrzone po ponad 48 godzinach, a także opinią obecnego przedstawiciela obsługi klienta w firmie, który mógłby skomentować obecny system zgłoszeń.
+
+**Zakończenie** Teraz Emerson mógłby poświęcić 5 minut na ponowne przedstawienie problemów, z którymi boryka się firma, przypomnienie proponowanych rozwiązań i omówienie, dlaczego są one właściwe.
+
+**Podsumowanie** Ponieważ jest to spotkanie z kilkoma interesariuszami, podczas którego przewidziana jest dwustronna komunikacja, Emerson mógłby zaplanować 10 minut na pytania, aby upewnić się, że wszystko, co było niejasne dla liderów zespołów, zostało wyjaśnione przed zakończeniem spotkania.
+
+Gdyby Emerson zastosował podejście nr 2, istnieje znacznie większe prawdopodobieństwo, że liderzy zespołów wynieśliby ze spotkania dokładnie to, co Emerson chciał im przekazać – że sposób obsługi skarg i błędów można poprawić, a istnieją dwa rozwiązania, które można wdrożyć, aby to osiągnąć. To podejście byłoby znacznie bardziej efektywne w przekazywaniu danych i historii, które Emerson chce przedstawić.
+
+# Podsumowanie
+### Streszczenie głównych punktów
+- Komunikacja to przekazywanie lub wymiana informacji.
+- Podczas komunikowania danych celem nie powinno być jedynie przekazanie liczb odbiorcom. Celem powinno być opowiedzenie historii opartej na danych.
+- Istnieją dwa rodzaje komunikacji: komunikacja jednokierunkowa (informacje są przekazywane bez oczekiwania na odpowiedź) i komunikacja dwukierunkowa (informacje są wymieniane w obie strony).
+- Istnieje wiele strategii opowiadania historii za pomocą danych. Pięć strategii, które omówiliśmy, to:
+ - Zrozum swoją publiczność, medium i metodę komunikacji
+ - Zacznij z myślą o końcu
+ - Podejdź do tego jak do prawdziwej historii
+ - Używaj znaczących słów i zwrotów
+ - Wykorzystuj emocje
+
+### Polecane zasoby do samodzielnej nauki
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Sprawdź, czego się nauczyłeś, korzystając z powyższego quizu!
+
+## Zadanie
+
+[Badanie rynku](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/pl/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..dd257936
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,24 @@
+
+# Opowiedz historię
+
+## Instrukcje
+
+Data Science polega na opowiadaniu historii. Wybierz dowolny zestaw danych i napisz krótki tekst o historii, którą można z niego opowiedzieć. Co masz nadzieję, że Twój zestaw danych ujawni? Co zrobisz, jeśli jego odkrycia okażą się problematyczne? Co jeśli Twoje dane nie ujawnią łatwo swoich tajemnic? Pomyśl o scenariuszach, które Twój zestaw danych może przedstawić, i zapisz je.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | -- |
+
+Jednostronicowy esej jest przedstawiony w formacie .doc, zestaw danych jest wyjaśniony, udokumentowany, przypisany, a spójna historia jest zaprezentowana z szczegółowymi przykładami z danych.| Krótszy esej jest przedstawiony w mniej szczegółowej formie | Esej jest pozbawiony jednego z powyższych elementów.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/4-Data-Science-Lifecycle/README.md b/translations/pl/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..422c4b44
--- /dev/null
+++ b/translations/pl/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,28 @@
+
+# Cykl życia Data Science
+
+
+> Zdjęcie autorstwa Headway na Unsplash
+
+W tych lekcjach poznasz niektóre aspekty cyklu życia Data Science, w tym analizę i komunikację związaną z danymi.
+
+### Tematy
+
+1. [Wprowadzenie](14-Introduction/README.md)
+2. [Analiza](15-analyzing/README.md)
+3. [Komunikacja](16-communication/README.md)
+
+### Podziękowania
+
+Te lekcje zostały napisane z ❤️ przez [Jalena McGee](https://twitter.com/JalenMCG) i [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/pl/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..e0a8ffb7
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,112 @@
+
+# Wprowadzenie do Data Science w Chmurze
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data Science w Chmurze: Wprowadzenie - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+
+W tej lekcji poznasz podstawowe zasady działania chmury, dowiesz się, dlaczego warto korzystać z usług chmurowych do realizacji projektów z zakresu data science, a także zobaczysz przykłady projektów data science realizowanych w chmurze.
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Czym jest chmura?
+
+Chmura, czyli Cloud Computing, to dostarczanie szerokiego zakresu usług obliczeniowych w modelu pay-as-you-go, hostowanych na infrastrukturze dostępnej przez internet. Usługi te obejmują rozwiązania takie jak przechowywanie danych, bazy danych, sieci, oprogramowanie, analitykę i usługi inteligentne.
+
+Zazwyczaj wyróżniamy trzy rodzaje chmur: publiczną, prywatną i hybrydową:
+
+* Chmura publiczna: jest własnością i jest zarządzana przez zewnętrznego dostawcę usług chmurowych, który udostępnia swoje zasoby obliczeniowe publicznie przez internet.
+* Chmura prywatna: odnosi się do zasobów chmurowych używanych wyłącznie przez jedną firmę lub organizację, z usługami i infrastrukturą utrzymywanymi w prywatnej sieci.
+* Chmura hybrydowa: to system łączący chmury publiczne i prywatne. Użytkownicy korzystają z lokalnego centrum danych, jednocześnie umożliwiając uruchamianie danych i aplikacji w jednej lub kilku chmurach publicznych.
+
+Większość usług chmurowych można podzielić na trzy kategorie: Infrastruktura jako Usługa (IaaS), Platforma jako Usługa (PaaS) i Oprogramowanie jako Usługa (SaaS).
+
+* Infrastruktura jako Usługa (IaaS): użytkownicy wynajmują infrastrukturę IT, taką jak serwery, maszyny wirtualne (VM), pamięć masową, sieci, systemy operacyjne.
+* Platforma jako Usługa (PaaS): użytkownicy wynajmują środowisko do tworzenia, testowania, dostarczania i zarządzania aplikacjami. Nie muszą martwić się o konfigurację ani zarządzanie infrastrukturą serwerów, pamięci masowej, sieci i baz danych potrzebnych do rozwoju.
+* Oprogramowanie jako Usługa (SaaS): użytkownicy uzyskują dostęp do aplikacji oprogramowania przez internet, na żądanie i zazwyczaj w modelu subskrypcyjnym. Nie muszą martwić się o hosting i zarządzanie aplikacją, infrastrukturą ani konserwacją, taką jak aktualizacje oprogramowania i poprawki bezpieczeństwa.
+
+Do największych dostawców usług chmurowych należą Amazon Web Services, Google Cloud Platform i Microsoft Azure.
+
+## Dlaczego warto wybrać chmurę do Data Science?
+
+Deweloperzy i specjaliści IT wybierają chmurę z wielu powodów, w tym:
+
+* Innowacja: możesz zasilać swoje aplikacje, integrując innowacyjne usługi stworzone przez dostawców chmurowych bezpośrednio w swoich aplikacjach.
+* Elastyczność: płacisz tylko za usługi, których potrzebujesz, i możesz wybierać spośród szerokiej gamy usług. Zazwyczaj płacisz w modelu pay-as-you-go i dostosowujesz usługi do swoich zmieniających się potrzeb.
+* Budżet: nie musisz inwestować w zakup sprzętu i oprogramowania, konfigurację i prowadzenie lokalnych centrów danych – płacisz tylko za to, co wykorzystasz.
+* Skalowalność: Twoje zasoby mogą być skalowane w zależności od potrzeb projektu, co oznacza, że Twoje aplikacje mogą korzystać z większej lub mniejszej mocy obliczeniowej, pamięci i przepustowości, dostosowując się do czynników zewnętrznych w dowolnym momencie.
+* Produktywność: możesz skupić się na swojej działalności, zamiast tracić czas na zadania, które mogą być zarządzane przez kogoś innego, takie jak zarządzanie centrami danych.
+* Niezawodność: Cloud Computing oferuje różne sposoby ciągłego tworzenia kopii zapasowych danych i umożliwia tworzenie planów odzyskiwania danych po awarii, aby utrzymać działalność i usługi nawet w czasach kryzysu.
+* Bezpieczeństwo: możesz korzystać z polityk, technologii i mechanizmów kontrolnych, które wzmacniają bezpieczeństwo Twojego projektu.
+
+To tylko niektóre z najczęstszych powodów, dla których ludzie decydują się na korzystanie z usług chmurowych. Teraz, gdy lepiej rozumiemy, czym jest chmura i jakie są jej główne zalety, przyjrzyjmy się bardziej szczegółowo pracy Data Scientistów i deweloperów pracujących z danymi oraz temu, jak chmura może pomóc im w przezwyciężeniu różnych wyzwań:
+
+* Przechowywanie dużych ilości danych: zamiast kupować, zarządzać i chronić duże serwery, możesz przechowywać swoje dane bezpośrednio w chmurze, korzystając z rozwiązań takich jak Azure Cosmos DB, Azure SQL Database i Azure Data Lake Storage.
+* Integracja danych: integracja danych to kluczowy element Data Science, który pozwala przejść od zbierania danych do podejmowania działań. Dzięki usługom integracji danych oferowanym w chmurze możesz zbierać, przekształcać i integrować dane z różnych źródeł w jednym magazynie danych, korzystając z Data Factory.
+* Przetwarzanie danych: przetwarzanie ogromnych ilości danych wymaga dużej mocy obliczeniowej, a nie każdy ma dostęp do wystarczająco wydajnych maszyn. Dlatego wiele osób decyduje się na wykorzystanie ogromnej mocy obliczeniowej chmury do uruchamiania i wdrażania swoich rozwiązań.
+* Korzystanie z usług analityki danych: usługi chmurowe, takie jak Azure Synapse Analytics, Azure Stream Analytics i Azure Databricks, pomagają przekształcać dane w użyteczne informacje.
+* Korzystanie z usług uczenia maszynowego i inteligencji danych: zamiast zaczynać od zera, możesz korzystać z algorytmów uczenia maszynowego oferowanych przez dostawcę chmurowego, takich jak AzureML. Możesz także korzystać z usług kognitywnych, takich jak zamiana mowy na tekst, zamiana tekstu na mowę, analiza obrazu i wiele innych.
+
+## Przykłady Data Science w Chmurze
+
+Przyjrzyjmy się kilku scenariuszom, aby lepiej to zrozumieć.
+
+### Analiza nastrojów w mediach społecznościowych w czasie rzeczywistym
+Zacznijmy od scenariusza często analizowanego przez osoby rozpoczynające naukę uczenia maszynowego: analiza nastrojów w mediach społecznościowych w czasie rzeczywistym.
+
+Załóżmy, że prowadzisz stronę internetową z wiadomościami i chcesz wykorzystać dane na żywo, aby zrozumieć, jakie treści mogą zainteresować Twoich czytelników. Aby dowiedzieć się więcej, możesz stworzyć program, który przeprowadza analizę nastrojów w czasie rzeczywistym na podstawie danych z publikacji na Twitterze dotyczących tematów istotnych dla Twoich czytelników.
+
+Kluczowe wskaźniki, które będziesz analizować, to liczba tweetów na określone tematy (hashtagi) oraz nastrój, który jest określany za pomocą narzędzi analitycznych przeprowadzających analizę nastrojów wokół określonych tematów.
+
+Kroki niezbędne do stworzenia tego projektu to:
+
+* Utworzenie centrum zdarzeń do strumieniowego przesyłania danych wejściowych, które będzie zbierać dane z Twittera.
+* Skonfigurowanie i uruchomienie aplikacji klienckiej Twittera, która będzie wywoływać interfejsy API strumieniowe Twittera.
+* Utworzenie zadania Stream Analytics.
+* Określenie danych wejściowych i zapytania dla zadania.
+* Utworzenie miejsca docelowego dla danych wyjściowych i określenie danych wyjściowych zadania.
+* Uruchomienie zadania.
+
+Aby zobaczyć cały proces, zapoznaj się z [dokumentacją](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Analiza prac naukowych
+Przyjrzyjmy się innemu przykładowi projektu stworzonego przez [Dmitrija Soshnikova](http://soshnikov.com), jednego z autorów tego programu nauczania.
+
+Dmitrij stworzył narzędzie analizujące prace naukowe dotyczące COVID. Przeglądając ten projekt, zobaczysz, jak można stworzyć narzędzie, które wydobywa wiedzę z prac naukowych, uzyskuje wgląd i pomaga badaczom efektywnie poruszać się po dużych zbiorach prac.
+
+Oto kroki użyte w tym projekcie:
+* Wydobywanie i wstępne przetwarzanie informacji za pomocą [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Wykorzystanie [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) do równoległego przetwarzania.
+* Przechowywanie i zapytania o informacje za pomocą [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Tworzenie interaktywnego pulpitu do eksploracji i wizualizacji danych za pomocą Power BI.
+
+Aby zobaczyć cały proces, odwiedź [blog Dmitrija](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Jak widać, usługi chmurowe można wykorzystać na wiele sposobów do realizacji projektów z zakresu Data Science.
+
+## Przypis
+
+Źródła:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Quiz po wykładzie
+
+[Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Zadanie
+
+[Badanie rynku](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/pl/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..3c06b0fa
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,23 @@
+
+# Badania Rynkowe
+
+## Instrukcje
+
+W tej lekcji dowiedziałeś się, że istnieje kilku ważnych dostawców usług chmurowych. Przeprowadź badania rynkowe, aby dowiedzieć się, co każdy z nich może zaoferować Data Scientistom. Czy ich oferty są porównywalne? Napisz pracę opisującą oferty trzech lub więcej z tych dostawców usług chmurowych.
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | --- |
+Jednostronicowa praca opisuje oferty trzech dostawców usług chmurowych dla data science i wskazuje różnice między nimi. | Przedstawiono krótszą pracę | Przedstawiono pracę bez przeprowadzenia analizy
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/pl/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..19082446
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,345 @@
+
+# Data Science w Chmurze: Podejście "Low code/No code"
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Data Science w Chmurze: Low Code - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Spis treści:
+
+- [Data Science w Chmurze: Podejście "Low code/No code"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz przed wykładem](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Wprowadzenie](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Czym jest Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Projekt przewidywania niewydolności serca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Zbiór danych dotyczących niewydolności serca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Trenowanie modelu w Azure ML Studio metodą Low code/No code](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Tworzenie przestrzeni roboczej Azure ML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Zasoby obliczeniowe](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Wybór odpowiednich opcji dla zasobów obliczeniowych](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Tworzenie klastra obliczeniowego](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Ładowanie zbioru danych](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Trenowanie metodą Low code/No code z AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Wdrażanie modelu metodą Low code/No code i wykorzystanie punktu końcowego](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Wdrażanie modelu](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Wykorzystanie punktu końcowego](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Wyzwanie](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz po wykładzie](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Przegląd i samodzielna nauka](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Zadanie domowe](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Wprowadzenie
+### 1.1 Czym jest Azure Machine Learning?
+
+Platforma chmurowa Azure to ponad 200 produktów i usług chmurowych zaprojektowanych, aby pomóc w realizacji nowych rozwiązań. Data scientist poświęcają dużo czasu na eksplorację i wstępne przetwarzanie danych oraz testowanie różnych algorytmów trenowania modeli, aby uzyskać dokładne modele. Te zadania są czasochłonne i często nieefektywnie wykorzystują kosztowny sprzęt obliczeniowy.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) to platforma chmurowa do budowania i obsługi rozwiązań uczenia maszynowego w Azure. Oferuje szeroki zakres funkcji i możliwości, które pomagają data scientist w przygotowaniu danych, trenowaniu modeli, publikowaniu usług predykcyjnych oraz monitorowaniu ich użycia. Najważniejsze jest to, że zwiększa efektywność pracy, automatyzując wiele czasochłonnych zadań związanych z trenowaniem modeli, oraz umożliwia korzystanie z zasobów obliczeniowych w chmurze, które skutecznie skalują się, obsługując duże ilości danych, przy kosztach ponoszonych tylko w momencie ich użycia.
+
+Azure ML dostarcza wszystkie narzędzia potrzebne programistom i data scientist do realizacji ich procesów uczenia maszynowego. Obejmują one:
+
+- **Azure Machine Learning Studio**: portal internetowy w Azure Machine Learning oferujący opcje low-code i no-code dla trenowania modeli, wdrażania, automatyzacji, śledzenia i zarządzania zasobami. Studio integruje się z Azure Machine Learning SDK, zapewniając płynne doświadczenie.
+- **Jupyter Notebooks**: szybkie prototypowanie i testowanie modeli ML.
+- **Azure Machine Learning Designer**: umożliwia przeciąganie i upuszczanie modułów w celu budowania eksperymentów i wdrażania pipeline'ów w środowisku low-code.
+- **Automated machine learning UI (AutoML)**: automatyzuje iteracyjne zadania związane z rozwojem modeli uczenia maszynowego, pozwalając na budowanie modeli ML na dużą skalę, z wysoką efektywnością i produktywnością, przy jednoczesnym utrzymaniu jakości modeli.
+- **Data Labelling**: narzędzie wspomagane ML do automatycznego etykietowania danych.
+- **Rozszerzenie uczenia maszynowego dla Visual Studio Code**: zapewnia pełne środowisko programistyczne do budowania i zarządzania projektami ML.
+- **Machine learning CLI**: oferuje polecenia do zarządzania zasobami Azure ML z poziomu wiersza poleceń.
+- **Integracja z frameworkami open-source**, takimi jak PyTorch, TensorFlow, Scikit-learn i wiele innych, do trenowania, wdrażania i zarządzania procesem uczenia maszynowego od początku do końca.
+- **MLflow**: biblioteka open-source do zarządzania cyklem życia eksperymentów uczenia maszynowego. **MLFlow Tracking** to komponent MLflow, który rejestruje i śledzi metryki treningowe oraz artefakty modelu, niezależnie od środowiska eksperymentu.
+
+### 1.2 Projekt przewidywania niewydolności serca:
+
+Nie ma wątpliwości, że tworzenie i budowanie projektów to najlepszy sposób na sprawdzenie swoich umiejętności i wiedzy. W tej lekcji będziemy eksplorować dwa różne sposoby budowania projektu data science dotyczącego przewidywania ataków niewydolności serca w Azure ML Studio: metodą Low code/No code oraz za pomocą Azure ML SDK, jak pokazano na poniższym schemacie:
+
+
+
+Każda metoda ma swoje zalety i wady. Podejście Low code/No code jest łatwiejsze na początek, ponieważ polega na interakcji z GUI (Graficzny Interfejs Użytkownika) i nie wymaga wcześniejszej znajomości kodu. Ta metoda umożliwia szybkie testowanie wykonalności projektu i tworzenie POC (Proof Of Concept). Jednakże, gdy projekt się rozwija i musi być gotowy do produkcji, tworzenie zasobów za pomocą GUI staje się niepraktyczne. Wtedy konieczne jest programowe zautomatyzowanie wszystkiego, od tworzenia zasobów po wdrażanie modelu. Właśnie wtedy znajomość Azure ML SDK staje się kluczowa.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Znajomość kodu | Nie wymagana | Wymagana |
+| Czas tworzenia | Szybko i łatwo | Zależy od znajomości kodu |
+| Gotowość produkcyjna | Nie | Tak |
+
+### 1.3 Zbiór danych dotyczących niewydolności serca:
+
+Choroby sercowo-naczyniowe (CVD) są główną przyczyną zgonów na świecie, odpowiadając za 31% wszystkich zgonów globalnie. Czynniki ryzyka środowiskowe i behawioralne, takie jak używanie tytoniu, niezdrowa dieta i otyłość, brak aktywności fizycznej oraz szkodliwe używanie alkoholu, mogą być wykorzystane jako cechy w modelach estymacyjnych. Możliwość oszacowania prawdopodobieństwa rozwoju CVD może być bardzo przydatna w zapobieganiu atakom u osób wysokiego ryzyka.
+
+Kaggle udostępniło publicznie [zbiór danych dotyczący niewydolności serca](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data), który wykorzystamy w tym projekcie. Możesz pobrać zbiór danych już teraz. Jest to zbiór danych tabelarycznych z 13 kolumnami (12 cech i 1 zmienna docelowa) oraz 299 wierszami.
+
+| | Nazwa zmiennej | Typ | Opis | Przykład |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numeryczny | wiek pacjenta | 25 |
+| 2 | anaemia | logiczny | Zmniejszenie liczby czerwonych krwinek lub hemoglobiny | 0 lub 1 |
+| 3 | creatinine_phosphokinase | numeryczny | Poziom enzymu CPK we krwi | 542 |
+| 4 | diabetes | logiczny | Czy pacjent ma cukrzycę | 0 lub 1 |
+| 5 | ejection_fraction | numeryczny | Procent krwi opuszczającej serce przy każdym skurczu | 45 |
+| 6 | high_blood_pressure | logiczny | Czy pacjent ma nadciśnienie | 0 lub 1 |
+| 7 | platelets | numeryczny | Płytki krwi we krwi | 149000 |
+| 8 | serum_creatinine | numeryczny | Poziom kreatyniny w surowicy krwi | 0.5 |
+| 9 | serum_sodium | numeryczny | Poziom sodu w surowicy krwi | jun |
+| 10 | sex | logiczny | kobieta lub mężczyzna | 0 lub 1 |
+| 11 | smoking | logiczny | Czy pacjent pali | 0 lub 1 |
+| 12 | time | numeryczny | okres obserwacji (dni) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Target] | logiczny | czy pacjent zmarł w okresie obserwacji | 0 lub 1 |
+
+Po pobraniu zbioru danych możemy rozpocząć projekt w Azure.
+
+## 2. Trenowanie modelu w Azure ML Studio metodą Low code/No code
+### 2.1 Tworzenie przestrzeni roboczej Azure ML
+Aby trenować model w Azure ML, najpierw musisz utworzyć przestrzeń roboczą Azure ML. Przestrzeń robocza to zasób najwyższego poziomu w Azure Machine Learning, zapewniający centralne miejsce do pracy ze wszystkimi artefaktami tworzonymi podczas korzystania z Azure Machine Learning. Przestrzeń robocza przechowuje historię wszystkich uruchomień treningowych, w tym logi, metryki, wyniki i migawkę skryptów. Informacje te są wykorzystywane do określenia, które uruchomienie treningowe daje najlepszy model. [Dowiedz się więcej](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Zaleca się korzystanie z najnowszej wersji przeglądarki kompatybilnej z Twoim systemem operacyjnym. Obsługiwane są następujące przeglądarki:
+
+- Microsoft Edge (Nowy Microsoft Edge, najnowsza wersja. Nie Microsoft Edge legacy)
+- Safari (najnowsza wersja, tylko Mac)
+- Chrome (najnowsza wersja)
+- Firefox (najnowsza wersja)
+
+Aby korzystać z Azure Machine Learning, utwórz przestrzeń roboczą w swojej subskrypcji Azure. Następnie możesz używać tej przestrzeni roboczej do zarządzania danymi, zasobami obliczeniowymi, kodem, modelami i innymi artefaktami związanymi z obciążeniami uczenia maszynowego.
+
+> **_UWAGA:_** Twoja subskrypcja Azure zostanie obciążona niewielką opłatą za przechowywanie danych, dopóki przestrzeń robocza Azure Machine Learning istnieje w Twojej subskrypcji, dlatego zalecamy usunięcie przestrzeni roboczej Azure Machine Learning, gdy nie będziesz już z niej korzystać.
+
+1. Zaloguj się do [portalu Azure](https://ms.portal.azure.com/) za pomocą danych logowania Microsoft powiązanych z Twoją subskrypcją Azure.
+2. Wybierz **+Utwórz zasób**
+
+ 
+
+ Wyszukaj Machine Learning i wybierz kafelek Machine Learning
+
+ 
+
+ Kliknij przycisk utwórz
+
+ 
+
+ Wypełnij ustawienia w następujący sposób:
+ - Subskrypcja: Twoja subskrypcja Azure
+ - Grupa zasobów: Utwórz lub wybierz grupę zasobów
+ - Nazwa przestrzeni roboczej: Wprowadź unikalną nazwę dla swojej przestrzeni roboczej
+ - Region: Wybierz najbliższy region geograficzny
+ - Konto magazynu: Zwróć uwagę na domyślne nowe konto magazynu, które zostanie utworzone dla Twojej przestrzeni roboczej
+ - Key vault: Zwróć uwagę na domyślny nowy key vault, który zostanie utworzony dla Twojej przestrzeni roboczej
+ - Application insights: Zwróć uwagę na domyślny nowy zasób Application Insights, który zostanie utworzony dla Twojej przestrzeni roboczej
+ - Rejestr kontenerów: Brak (zostanie utworzony automatycznie przy pierwszym wdrożeniu modelu do kontenera)
+
+ 
+
+ - Kliknij przycisk utwórz + recenzja, a następnie przycisk utwórz
+3. Poczekaj, aż Twoja przestrzeń robocza zostanie utworzona (może to potrwać kilka minut). Następnie przejdź do niej w portalu. Możesz ją znaleźć poprzez usługę Machine Learning w Azure.
+4. Na stronie Przegląd dla Twojej przestrzeni roboczej uruchom Azure Machine Learning Studio (lub otwórz nową kartę przeglądarki i przejdź do https://ml.azure.com), a następnie zaloguj się do Azure Machine Learning Studio za pomocą swojego konta Microsoft. Jeśli zostaniesz poproszony, wybierz katalog i subskrypcję Azure oraz swoją przestrzeń roboczą Azure Machine Learning.
+
+
+
+5. W Azure Machine Learning Studio przełącz ikonę ☰ w lewym górnym rogu, aby zobaczyć różne strony w interfejsie. Możesz używać tych stron do zarządzania zasobami w swojej przestrzeni roboczej.
+
+
+
+Możesz zarządzać swoją przestrzenią roboczą za pomocą portalu Azure, ale dla data scientist i inżynierów operacji uczenia maszynowego Azure Machine Learning Studio oferuje bardziej skoncentrowany interfejs użytkownika do zarządzania zasobami przestrzeni roboczej.
+
+### 2.2 Zasoby obliczeniowe
+
+Zasoby obliczeniowe to zasoby w chmurze, na których możesz uruchamiać procesy trenowania modeli i eksploracji danych. Istnieją cztery rodzaje zasobów obliczeniowych, które możesz utworzyć:
+
+- **Compute Instances**: Stacje robocze dla data scientist do pracy z danymi i modelami. Obejmuje to utworzenie maszyny wirtualnej (VM) i uruchomienie instancji notebooka. Następnie możesz trenować model, wywołując klaster obliczeniowy z notebooka.
+- **Compute Clusters**: Skalowalne klastry maszyn wirtualnych do przetwarzania kodu eksperymentów na żądanie. Będziesz ich potrzebować podczas trenowania modelu. Compute Clusters mogą również korzystać ze specjalistycznych zasobów GPU lub CPU.
+- **Inference Clusters**: Cele wdrożeniowe dla usług predykcyjnych wykorzystujących Twoje wytrenowane modele.
+- **Attached Compute**: Łączy z istniejącymi zasobami obliczeniowymi Azure, takimi jak maszyny wirtualne czy klastry Azure Databricks.
+
+#### 2.2.1 Wybór odpowiednich opcji dla zasobów obliczeniowych
+
+Podczas tworzenia zasobu obliczeniowego należy wziąć pod uwagę kilka kluczowych czynników, które mogą być istotne dla podjęcia decyzji.
+
+**Potrzebujesz CPU czy GPU?**
+
+CPU (Central Processing Unit) to układ elektroniczny wykonujący instrukcje składające się na program komputerowy. GPU (Graphics Processing Unit) to wyspecjalizowany układ elektroniczny, który może wykonywać kod związany z grafiką w bardzo szybkim tempie.
+
+Główna różnica między architekturą CPU a GPU polega na tym, że CPU jest zaprojektowane do szybkiego wykonywania szerokiego zakresu zadań (mierzonego prędkością zegara CPU), ale ma ograniczoną równoległość zadań, które mogą być wykonywane jednocześnie. GPU są zaprojektowane do obliczeń równoległych, dzięki czemu znacznie lepiej nadają się do zadań związanych z uczeniem głębokim.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Mniej kosztowne | Bardziej kosztowne |
+| Niższy poziom równoległości | Wyższy poziom równoległości |
+| Wolniejsze w trenowaniu modeli uczenia głębokiego | Optymalne dla uczenia głębokiego |
+
+**Rozmiar klastra**
+
+Większe klastry są droższe, ale zapewniają lepszą responsywność. Dlatego, jeśli masz czas, ale ograniczony budżet, powinieneś zacząć od małego klastra. Z kolei, jeśli masz środki finansowe, ale mało czasu, powinieneś zacząć od większego klastra.
+
+**Rozmiar maszyny wirtualnej (VM)**
+
+W zależności od ograniczeń czasowych i budżetowych możesz dostosować rozmiar pamięci RAM, dysku, liczbę rdzeni i prędkość zegara. Zwiększenie tych parametrów będzie droższe, ale zapewni lepszą wydajność.
+
+**Dedykowane czy instancje o niskim priorytecie?**
+
+Instancja o niskim priorytecie oznacza, że jest przerywalna: Microsoft Azure może przejąć te zasoby i przypisać je do innego zadania, przerywając pracę. Instancja dedykowana, czyli nieprzerywalna, oznacza, że zadanie nigdy nie zostanie zakończone bez Twojej zgody. To kolejny aspekt wyboru między czasem a kosztami, ponieważ instancje przerywalne są tańsze niż dedykowane.
+
+#### 2.2.2 Tworzenie klastra obliczeniowego
+
+W [Azure ML workspace](https://ml.azure.com/), który utworzyliśmy wcześniej, przejdź do sekcji "Compute", gdzie zobaczysz różne zasoby obliczeniowe, o których właśnie rozmawialiśmy (tj. instancje obliczeniowe, klastry obliczeniowe, klastry inferencyjne i podłączone zasoby obliczeniowe). W tym projekcie będziemy potrzebować klastra obliczeniowego do trenowania modelu. W Studio kliknij menu "Compute", następnie zakładkę "Compute cluster" i kliknij przycisk "+ New", aby utworzyć klaster obliczeniowy.
+
+
+
+1. Wybierz opcje: Dedykowane vs Niski priorytet, CPU lub GPU, rozmiar VM i liczbę rdzeni (możesz zachować domyślne ustawienia dla tego projektu).
+2. Kliknij przycisk "Next".
+
+
+
+3. Nadaj klastrowi nazwę obliczeniową.
+4. Wybierz opcje: Minimalna/maksymalna liczba węzłów, czas bezczynności przed skalowaniem w dół, dostęp SSH. Zauważ, że jeśli minimalna liczba węzłów wynosi 0, zaoszczędzisz pieniądze, gdy klaster będzie bezczynny. Zauważ, że im większa liczba maksymalnych węzłów, tym krótszy czas trenowania. Zalecana maksymalna liczba węzłów to 3.
+5. Kliknij przycisk "Create". Ten krok może zająć kilka minut.
+
+
+
+Świetnie! Teraz, gdy mamy klaster obliczeniowy, musimy załadować dane do Azure ML Studio.
+
+### 2.3 Ładowanie zestawu danych
+
+1. W [Azure ML workspace](https://ml.azure.com/), który utworzyliśmy wcześniej, kliknij "Datasets" w lewym menu i kliknij przycisk "+ Create dataset", aby utworzyć zestaw danych. Wybierz opcję "From local files" i wybierz zestaw danych Kaggle, który wcześniej pobraliśmy.
+
+ 
+
+2. Nadaj zestawowi danych nazwę, typ i opis. Kliknij "Next". Prześlij dane z plików. Kliknij "Next".
+
+ 
+
+3. W sekcji "Schema" zmień typ danych na Boolean dla następujących cech: anaemia, diabetes, high blood pressure, sex, smoking, i DEATH_EVENT. Kliknij "Next" i "Create".
+
+ 
+
+Świetnie! Teraz, gdy zestaw danych jest gotowy, a klaster obliczeniowy utworzony, możemy rozpocząć trenowanie modelu!
+
+### 2.4 Trenowanie bez kodu lub z minimalnym kodem za pomocą AutoML
+
+Tradycyjny rozwój modeli uczenia maszynowego jest zasobożerny, wymaga znaczącej wiedzy dziedzinowej i czasu na stworzenie oraz porównanie dziesiątek modeli. Automatyczne uczenie maszynowe (AutoML) to proces automatyzacji czasochłonnych, iteracyjnych zadań związanych z rozwojem modeli uczenia maszynowego. Pozwala naukowcom danych, analitykom i programistom budować modele ML na dużą skalę, efektywnie i produktywnie, jednocześnie utrzymując wysoką jakość modeli. Skraca czas potrzebny na uzyskanie modeli ML gotowych do produkcji, zapewniając łatwość i efektywność. [Dowiedz się więcej](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. W [Azure ML workspace](https://ml.azure.com/), który utworzyliśmy wcześniej, kliknij "Automated ML" w lewym menu i wybierz zestaw danych, który właśnie przesłałeś. Kliknij "Next".
+
+ 
+
+2. Wprowadź nazwę nowego eksperymentu, kolumnę docelową (DEATH_EVENT) oraz klaster obliczeniowy, który utworzyliśmy. Kliknij "Next".
+
+ 
+
+3. Wybierz "Classification" i kliknij "Finish". Ten krok może zająć od 30 minut do 1 godziny, w zależności od rozmiaru klastra obliczeniowego.
+
+ 
+
+4. Po zakończeniu uruchomienia kliknij zakładkę "Automated ML", wybierz swoje uruchomienie i kliknij algorytm w karcie "Best model summary".
+
+ 
+
+Tutaj możesz zobaczyć szczegółowy opis najlepszego modelu wygenerowanego przez AutoML. Możesz również eksplorować inne modele w zakładce "Models". Poświęć kilka minut na zapoznanie się z modelami w sekcji "Explanations (preview)". Po wybraniu modelu, który chcesz użyć (tutaj wybierzemy najlepszy model wybrany przez AutoML), zobaczymy, jak można go wdrożyć.
+
+## 3. Wdrożenie modelu bez kodu lub z minimalnym kodem i konsumpcja punktu końcowego
+### 3.1 Wdrożenie modelu
+
+Interfejs automatycznego uczenia maszynowego pozwala na wdrożenie najlepszego modelu jako usługi internetowej w kilku krokach. Wdrożenie to integracja modelu, aby mógł dokonywać prognoz na podstawie nowych danych i identyfikować potencjalne obszary możliwości. W tym projekcie wdrożenie jako usługi internetowej oznacza, że aplikacje medyczne będą mogły korzystać z modelu, aby dokonywać prognoz na żywo dotyczących ryzyka zawału serca u pacjentów.
+
+W opisie najlepszego modelu kliknij przycisk "Deploy".
+
+
+
+15. Nadaj nazwę, opis, typ obliczeń (Azure Container Instance), włącz uwierzytelnianie i kliknij "Deploy". Ten krok może zająć około 20 minut. Proces wdrożenia obejmuje kilka kroków, w tym rejestrację modelu, generowanie zasobów i ich konfigurację dla usługi internetowej. Pod wiadomością "Deploy status" pojawi się status. Wybierz "Refresh" okresowo, aby sprawdzić status wdrożenia. Model jest wdrożony i działa, gdy status to "Healthy".
+
+
+
+16. Po wdrożeniu kliknij zakładkę "Endpoint" i wybierz punkt końcowy, który właśnie wdrożyłeś. Znajdziesz tutaj wszystkie szczegóły dotyczące punktu końcowego.
+
+
+
+Niesamowite! Teraz, gdy mamy wdrożony model, możemy rozpocząć konsumpcję punktu końcowego.
+
+### 3.2 Konsumpcja punktu końcowego
+
+Kliknij zakładkę "Consume". Tutaj znajdziesz punkt końcowy REST oraz skrypt w Pythonie w opcji konsumpcji. Poświęć chwilę na przeczytanie kodu w Pythonie.
+
+Ten skrypt można uruchomić bezpośrednio z lokalnego komputera i będzie konsumował Twój punkt końcowy.
+
+
+
+Zwróć uwagę na te dwie linie kodu:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+Zmienna `url` to punkt końcowy REST znaleziony w zakładce "Consume", a zmienna `api_key` to klucz główny również znaleziony w zakładce "Consume" (tylko w przypadku, gdy włączyłeś uwierzytelnianie). Tak właśnie skrypt konsumuje punkt końcowy.
+
+18. Po uruchomieniu skryptu powinieneś zobaczyć następujący wynik:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Oznacza to, że prognoza niewydolności serca dla podanych danych jest prawdziwa. To ma sens, ponieważ jeśli przyjrzysz się bliżej danym automatycznie wygenerowanym w skrypcie, wszystko jest ustawione na 0 i fałsz domyślnie. Możesz zmienić dane na następujący przykład wejściowy:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Skrypt powinien zwrócić:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Gratulacje! Właśnie skonsumowałeś wdrożony model i wytrenowałeś go na Azure ML!
+
+> **_NOTE:_** Po zakończeniu projektu nie zapomnij usunąć wszystkich zasobów.
+## 🚀 Wyzwanie
+
+Przyjrzyj się dokładnie wyjaśnieniom modelu i szczegółom, które AutoML wygenerował dla najlepszych modeli. Spróbuj zrozumieć, dlaczego najlepszy model jest lepszy od pozostałych. Jakie algorytmy zostały porównane? Jakie są różnice między nimi? Dlaczego najlepszy model działa lepiej w tym przypadku?
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Przegląd i samodzielna nauka
+
+W tej lekcji nauczyłeś się, jak trenować, wdrażać i konsumować model do prognozowania ryzyka niewydolności serca w sposób bez kodu lub z minimalnym kodem w chmurze. Jeśli jeszcze tego nie zrobiłeś, zagłęb się w wyjaśnienia modelu wygenerowane przez AutoML dla najlepszych modeli i spróbuj zrozumieć, dlaczego najlepszy model jest lepszy od pozostałych.
+
+Możesz zgłębić temat AutoML bez kodu lub z minimalnym kodem, czytając tę [dokumentację](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Zadanie
+
+[Projekt Data Science bez kodu lub z minimalnym kodem na Azure ML](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/pl/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..1b04d264
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,23 @@
+
+# Projekt Data Science w stylu Low code/No code na Azure ML
+
+## Instrukcje
+
+Widzieliśmy, jak korzystać z platformy Azure ML, aby trenować, wdrażać i używać modelu w sposób Low code/No code. Teraz poszukaj danych, które możesz wykorzystać do trenowania innego modelu, wdrożenia go i używania. Możesz znaleźć zestawy danych na [Kaggle](https://kaggle.com) oraz [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Kryteria oceny
+
+| Wzorowe | Wystarczające | Wymaga poprawy |
+|---------|---------------|----------------|
+|Podczas przesyłania danych zadbałeś o zmianę typu cech, jeśli było to konieczne. Oczyściłeś dane, jeśli było to potrzebne. Przeprowadziłeś trening na zestawie danych za pomocą AutoML i sprawdziłeś wyjaśnienia modelu. Wdrożyłeś najlepszy model i byłeś w stanie go używać. | Podczas przesyłania danych zadbałeś o zmianę typu cech, jeśli było to konieczne. Przeprowadziłeś trening na zestawie danych za pomocą AutoML, wdrożyłeś najlepszy model i byłeś w stanie go używać. | Wdrożyłeś najlepszy model wytrenowany przez AutoML i byłeś w stanie go używać. |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/pl/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..67a2f075
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,310 @@
+
+# Data Science w Chmurze: Podejście "Azure ML SDK"
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Data Science w Chmurze: Azure ML SDK - _Sketchnote autorstwa [@nitya](https://twitter.com/nitya)_ |
+
+Spis treści:
+
+- [Data Science w Chmurze: Podejście "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz przed wykładem](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Wprowadzenie](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Czym jest Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Projekt przewidywania niewydolności serca i wprowadzenie do zbioru danych](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Trenowanie modelu za pomocą Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Tworzenie przestrzeni roboczej Azure ML](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Tworzenie instancji obliczeniowej](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Ładowanie zbioru danych](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Tworzenie Notatników](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Trenowanie modelu](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Konfiguracja przestrzeni roboczej, eksperymentu, klastra obliczeniowego i zbioru danych](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 Konfiguracja AutoML i trenowanie](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Wdrażanie modelu i konsumpcja punktu końcowego za pomocą Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Zapisywanie najlepszego modelu](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Wdrażanie modelu](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Konsumpcja punktu końcowego](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Wyzwanie](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz po wykładzie](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Przegląd i samodzielna nauka](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Zadanie domowe](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Quiz przed wykładem](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Wprowadzenie
+
+### 1.1 Czym jest Azure ML SDK?
+
+Data Scientist i deweloperzy AI używają Azure Machine Learning SDK do budowania i uruchamiania przepływów pracy związanych z uczeniem maszynowym za pomocą usługi Azure Machine Learning. Możesz korzystać z tej usługi w dowolnym środowisku Python, w tym Jupyter Notebooks, Visual Studio Code lub ulubionym IDE dla Pythona.
+
+Kluczowe obszary SDK obejmują:
+
+- Eksplorację, przygotowanie i zarządzanie cyklem życia zbiorów danych używanych w eksperymentach uczenia maszynowego.
+- Zarządzanie zasobami chmurowymi w celu monitorowania, logowania i organizowania eksperymentów uczenia maszynowego.
+- Trenowanie modeli lokalnie lub z wykorzystaniem zasobów chmurowych, w tym przyspieszonego trenowania modeli na GPU.
+- Korzystanie z automatycznego uczenia maszynowego, które przyjmuje parametry konfiguracji i dane treningowe. Automatycznie iteruje przez algorytmy i ustawienia hiperparametrów, aby znaleźć najlepszy model do przewidywań.
+- Wdrażanie usług internetowych w celu przekształcenia wytrenowanych modeli w usługi RESTful, które mogą być używane w dowolnej aplikacji.
+
+[Dowiedz się więcej o Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+W [poprzedniej lekcji](../18-Low-Code/README.md) zobaczyliśmy, jak trenować, wdrażać i konsumować model w sposób Low code/No code. Użyliśmy zbioru danych dotyczącego niewydolności serca, aby wygenerować model przewidywania niewydolności serca. W tej lekcji zrobimy dokładnie to samo, ale używając Azure Machine Learning SDK.
+
+
+
+### 1.2 Projekt przewidywania niewydolności serca i wprowadzenie do zbioru danych
+
+Sprawdź [tutaj](../18-Low-Code/README.md) wprowadzenie do projektu przewidywania niewydolności serca i zbioru danych.
+
+## 2. Trenowanie modelu za pomocą Azure ML SDK
+### 2.1 Tworzenie przestrzeni roboczej Azure ML
+
+Dla uproszczenia będziemy pracować w notatniku Jupyter. Zakładamy, że masz już przestrzeń roboczą i instancję obliczeniową. Jeśli masz już przestrzeń roboczą, możesz przejść bezpośrednio do sekcji 2.3 Tworzenie notatnika.
+
+Jeśli nie, postępuj zgodnie z instrukcjami w sekcji **2.1 Tworzenie przestrzeni roboczej Azure ML** w [poprzedniej lekcji](../18-Low-Code/README.md), aby utworzyć przestrzeń roboczą.
+
+### 2.2 Tworzenie instancji obliczeniowej
+
+W [przestrzeni roboczej Azure ML](https://ml.azure.com/), którą utworzyliśmy wcześniej, przejdź do menu Compute, gdzie zobaczysz różne dostępne zasoby obliczeniowe.
+
+
+
+Stwórzmy instancję obliczeniową, aby uruchomić notatnik Jupyter.
+1. Kliknij przycisk + New.
+2. Nadaj nazwę swojej instancji obliczeniowej.
+3. Wybierz opcje: CPU lub GPU, rozmiar VM i liczbę rdzeni.
+4. Kliknij przycisk Create.
+
+Gratulacje, właśnie stworzyłeś instancję obliczeniową! Użyjemy tej instancji do stworzenia notatnika w sekcji [Tworzenie Notatników](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Ładowanie zbioru danych
+Jeśli jeszcze nie załadowałeś zbioru danych, odwołaj się do sekcji **2.3 Ładowanie zbioru danych** w [poprzedniej lekcji](../18-Low-Code/README.md).
+
+### 2.4 Tworzenie Notatników
+
+> **_UWAGA:_** W kolejnym kroku możesz stworzyć nowy notatnik od podstaw lub załadować [notatnik, który stworzyliśmy](../../../../5-Data-Science-In-Cloud/19-Azure/notebook.ipynb) w Azure ML Studio. Aby go załadować, po prostu kliknij menu "Notebook" i załaduj notatnik.
+
+Notatniki są bardzo ważnym elementem procesu data science. Mogą być używane do przeprowadzania eksploracyjnej analizy danych (EDA), wywoływania klastra obliczeniowego w celu trenowania modelu, a także klastra inferencyjnego w celu wdrożenia punktu końcowego.
+
+Aby stworzyć notatnik, potrzebujemy węzła obliczeniowego, który obsługuje instancję notatnika Jupyter. Wróć do [przestrzeni roboczej Azure ML](https://ml.azure.com/) i kliknij na Instancje obliczeniowe. Na liście instancji obliczeniowych powinieneś zobaczyć [instancję obliczeniową, którą stworzyliśmy wcześniej](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. W sekcji Applications kliknij opcję Jupyter.
+2. Zaznacz pole "Yes, I understand" i kliknij przycisk Continue.
+
+3. Powinno otworzyć się nowe okno przeglądarki z instancją notatnika Jupyter. Kliknij przycisk "New", aby stworzyć nowy notatnik.
+
+
+
+Teraz, gdy mamy notatnik, możemy rozpocząć trenowanie modelu za pomocą Azure ML SDK.
+
+### 2.5 Trenowanie modelu
+
+Przede wszystkim, jeśli masz jakiekolwiek wątpliwości, odwołaj się do [dokumentacji Azure ML SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Zawiera ona wszystkie niezbędne informacje dotyczące modułów, które omówimy w tej lekcji.
+
+#### 2.5.1 Konfiguracja przestrzeni roboczej, eksperymentu, klastra obliczeniowego i zbioru danych
+
+Musisz załadować `workspace` z pliku konfiguracyjnego za pomocą następującego kodu:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+To zwraca obiekt typu `Workspace`, który reprezentuje przestrzeń roboczą. Następnie musisz stworzyć `experiment` za pomocą następującego kodu:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Aby uzyskać lub stworzyć eksperyment w przestrzeni roboczej, należy odwołać się do eksperymentu za pomocą jego nazwy. Nazwa eksperymentu musi mieć od 3 do 36 znaków, zaczynać się od litery lub cyfry i może zawierać tylko litery, cyfry, podkreślenia i myślniki. Jeśli eksperyment nie zostanie znaleziony w przestrzeni roboczej, zostanie utworzony nowy eksperyment.
+
+Teraz musisz stworzyć klaster obliczeniowy do trenowania za pomocą następującego kodu. Zauważ, że ten krok może zająć kilka minut.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Możesz uzyskać zbiór danych z przestrzeni roboczej, używając nazwy zbioru danych w następujący sposób:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 Konfiguracja AutoML i trenowanie
+
+Aby skonfigurować AutoML, użyj klasy [AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Jak opisano w dokumentacji, istnieje wiele parametrów, z którymi możesz eksperymentować. W tym projekcie użyjemy następujących parametrów:
+
+- `experiment_timeout_minutes`: Maksymalny czas (w minutach), przez jaki eksperyment może być uruchamiany, zanim zostanie automatycznie zatrzymany, a wyniki udostępnione.
+- `max_concurrent_iterations`: Maksymalna liczba równoczesnych iteracji treningowych dozwolona dla eksperymentu.
+- `primary_metric`: Główny wskaźnik używany do określenia statusu eksperymentu.
+- `compute_target`: Cel obliczeniowy Azure Machine Learning, na którym ma być uruchomiony eksperyment AutoML.
+- `task`: Typ zadania do wykonania. Wartości mogą być 'classification', 'regression' lub 'forecasting', w zależności od rodzaju problemu AutoML.
+- `training_data`: Dane treningowe używane w eksperymencie. Powinny zawierać zarówno cechy treningowe, jak i kolumnę etykiet (opcjonalnie kolumnę wag próbek).
+- `label_column_name`: Nazwa kolumny etykiet.
+- `path`: Pełna ścieżka do folderu projektu Azure Machine Learning.
+- `enable_early_stopping`: Czy włączyć wczesne zakończenie, jeśli wynik nie poprawia się w krótkim okresie.
+- `featurization`: Wskaźnik, czy etap featuryzacji powinien być wykonywany automatycznie, czy nie, lub czy powinna być używana niestandardowa featuryzacja.
+- `debug_log`: Plik logów do zapisywania informacji debugowych.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Teraz, gdy konfiguracja jest ustawiona, możesz wytrenować model za pomocą następującego kodu. Ten krok może zająć do godziny, w zależności od rozmiaru klastra.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Możesz uruchomić widget RunDetails, aby wyświetlić różne eksperymenty.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Wdrażanie modelu i konsumpcja punktu końcowego za pomocą Azure ML SDK
+
+### 3.1 Zapisywanie najlepszego modelu
+
+Obiekt `remote_run` jest typu [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Ten obiekt zawiera metodę `get_output()`, która zwraca najlepszy przebieg i odpowiadający mu wytrenowany model.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Możesz zobaczyć parametry użyte dla najlepszego modelu, po prostu drukując `fitted_model`, oraz zobaczyć właściwości najlepszego modelu, używając metody [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Teraz zarejestruj model za pomocą metody [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Wdrażanie modelu
+
+Gdy najlepszy model zostanie zapisany, możemy go wdrożyć za pomocą klasy [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). InferenceConfig reprezentuje ustawienia konfiguracji dla niestandardowego środowiska używanego do wdrożenia. Klasa [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) reprezentuje model uczenia maszynowego wdrożony jako punkt końcowy usługi internetowej na Azure Container Instances. Wdrożona usługa jest zrównoważonym obciążeniem, punktem końcowym HTTP z interfejsem REST API. Możesz wysyłać dane do tego API i otrzymywać przewidywania zwracane przez model.
+
+Model jest wdrażany za pomocą metody [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Ten krok powinien zająć kilka minut.
+
+### 3.3 Konsumpcja punktu końcowego
+
+Możesz konsumować swój punkt końcowy, tworząc przykładowe dane wejściowe:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+A następnie możesz wysłać te dane wejściowe do swojego modelu w celu uzyskania przewidywań:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Powinno to zwrócić `'{"result": [false]}'`. Oznacza to, że dane pacjenta, które wysłaliśmy do punktu końcowego, wygenerowały predykcję `false`, co oznacza, że ta osoba prawdopodobnie nie jest zagrożona zawałem serca.
+
+Gratulacje! Właśnie skorzystałeś z modelu wdrożonego i wytrenowanego na Azure ML za pomocą Azure ML SDK!
+
+> **_NOTE:_** Po zakończeniu projektu nie zapomnij usunąć wszystkich zasobów.
+
+## 🚀 Wyzwanie
+
+Jest wiele innych rzeczy, które można zrobić za pomocą SDK, niestety nie możemy omówić ich wszystkich w tej lekcji. Ale dobra wiadomość: nauczenie się, jak przeszukiwać dokumentację SDK, może zaprowadzić Cię daleko na własną rękę. Sprawdź dokumentację Azure ML SDK i znajdź klasę `Pipeline`, która pozwala tworzyć potoki. Potok to zbiór kroków, które można wykonać jako przepływ pracy.
+
+**Wskazówka:** Przejdź do [dokumentacji SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) i wpisz słowa kluczowe w pasku wyszukiwania, takie jak "Pipeline". Powinieneś znaleźć klasę `azureml.pipeline.core.Pipeline` w wynikach wyszukiwania.
+
+## [Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Przegląd i samodzielna nauka
+
+W tej lekcji nauczyłeś się, jak wytrenować, wdrożyć i wykorzystać model do przewidywania ryzyka niewydolności serca za pomocą Azure ML SDK w chmurze. Sprawdź tę [dokumentację](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) dla dalszych informacji o Azure ML SDK. Spróbuj stworzyć własny model za pomocą Azure ML SDK.
+
+## Zadanie
+
+[Projekt Data Science z użyciem Azure ML SDK](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/pl/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..1ae62c61
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,23 @@
+
+# Projekt Data Science z użyciem Azure ML SDK
+
+## Instrukcje
+
+Widzieliśmy, jak korzystać z platformy Azure ML do trenowania, wdrażania i używania modelu za pomocą Azure ML SDK. Teraz poszukaj danych, które możesz wykorzystać do trenowania innego modelu, jego wdrożenia i używania. Możesz poszukać zestawów danych na [Kaggle](https://kaggle.com) oraz [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Kryteria oceny
+
+| Wzorowe | Wystarczające | Wymaga poprawy |
+|---------|---------------|----------------|
+|Podczas konfiguracji AutoML zapoznałeś się z dokumentacją SDK, aby sprawdzić, jakie parametry możesz użyć. Przeprowadziłeś trening na zestawie danych za pomocą AutoML korzystając z Azure ML SDK i sprawdziłeś wyjaśnienia modelu. Wdrożyłeś najlepszy model i byłeś w stanie go używać za pomocą Azure ML SDK. | Przeprowadziłeś trening na zestawie danych za pomocą AutoML korzystając z Azure ML SDK i sprawdziłeś wyjaśnienia modelu. Wdrożyłeś najlepszy model i byłeś w stanie go używać za pomocą Azure ML SDK. | Przeprowadziłeś trening na zestawie danych za pomocą AutoML korzystając z Azure ML SDK. Wdrożyłeś najlepszy model i byłeś w stanie go używać za pomocą Azure ML SDK. |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/5-Data-Science-In-Cloud/README.md b/translations/pl/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..7985b27e
--- /dev/null
+++ b/translations/pl/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,33 @@
+
+# Data Science w Chmurze
+
+
+
+> Zdjęcie autorstwa [Jelleke Vanooteghem](https://unsplash.com/@ilumire) z [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Jeśli chodzi o analizę danych z dużymi zbiorami danych, chmura może być prawdziwym przełomem. W ciągu najbliższych trzech lekcji dowiemy się, czym jest chmura i dlaczego może być bardzo pomocna. Zbadamy również zbiór danych dotyczących niewydolności serca i zbudujemy model, który pomoże ocenić prawdopodobieństwo wystąpienia niewydolności serca u danej osoby. Wykorzystamy moc chmury, aby wytrenować, wdrożyć i używać modelu na dwa różne sposoby. Jeden sposób polega na użyciu wyłącznie interfejsu użytkownika w podejściu Low code/No code, a drugi sposób na wykorzystaniu Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Tematy
+
+1. [Dlaczego warto używać chmury w analizie danych?](17-Introduction/README.md)
+2. [Analiza danych w chmurze: Podejście "Low code/No code"](18-Low-Code/README.md)
+3. [Analiza danych w chmurze: Podejście "Azure ML SDK"](19-Azure/README.md)
+
+### Podziękowania
+Te lekcje zostały napisane z ☁️ i 💕 przez [Maud Levy](https://twitter.com/maudstweets) oraz [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Dane do projektu przewidywania niewydolności serca pochodzą od [
+Larxel](https://www.kaggle.com/andrewmvd) na [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Są one licencjonowane na podstawie [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/pl/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..7a77ca63
--- /dev/null
+++ b/translations/pl/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,153 @@
+
+# Data Science w Rzeczywistym Świecie
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Data Science w Rzeczywistym Świecie - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Jesteśmy prawie na końcu tej podróży edukacyjnej!
+
+Zaczęliśmy od definicji data science i etyki, zbadaliśmy różne narzędzia i techniki analizy oraz wizualizacji danych, przeanalizowaliśmy cykl życia data science, a także przyjrzeliśmy się skalowaniu i automatyzacji procesów data science za pomocą usług chmurowych. Pewnie zastanawiasz się: _"Jak dokładnie mogę przełożyć te wszystkie nauki na rzeczywiste konteksty?"_
+
+W tej lekcji zbadamy zastosowania data science w różnych branżach i przyjrzymy się konkretnym przykładom w obszarach badań, humanistyki cyfrowej i zrównoważonego rozwoju. Omówimy również możliwości projektów studenckich i zakończymy przydatnymi zasobami, które pomogą Ci kontynuować naukę!
+
+## Quiz Przed Lekcją
+
+[Quiz przed lekcją](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Data Science + Przemysł
+
+Dzięki demokratyzacji AI, programiści mają teraz łatwiejszy dostęp do projektowania i integracji decyzji opartych na AI oraz wniosków opartych na danych w doświadczeniach użytkowników i procesach rozwoju. Oto kilka przykładów, jak data science jest "stosowane" w rzeczywistych aplikacjach w przemyśle:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) wykorzystało data science do korelacji wyszukiwanych haseł z trendami grypy. Choć podejście miało wady, zwróciło uwagę na możliwości (i wyzwania) prognozowania zdrowotnego opartego na danych.
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - opisuje, jak UPS wykorzystuje data science i uczenie maszynowe do przewidywania optymalnych tras dostaw, uwzględniając warunki pogodowe, wzorce ruchu, terminy dostaw i inne czynniki.
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - dane zebrane dzięki [Freedom Of Information Laws](https://chriswhong.com/open-data/foil_nyc_taxi/) pomogły zwizualizować dzień z życia taksówek w Nowym Jorku, pokazując, jak poruszają się po zatłoczonym mieście, ile zarabiają i jak długo trwają ich kursy w ciągu 24 godzin.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - wykorzystuje dane (o miejscach odbioru i dowozu, czasie trwania podróży, preferowanych trasach itp.) zebrane z milionów codziennych przejazdów Ubera do budowy narzędzia analitycznego wspierającego wyceny, bezpieczeństwo, wykrywanie oszustw i decyzje nawigacyjne.
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - koncentruje się na _analizie predykcyjnej_ (analiza drużyn i zawodników - jak w [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - oraz zarządzanie fanami) i _wizualizacji danych_ (dashboardy drużyn i fanów, gry itp.) z zastosowaniami takimi jak scouting talentów, zakłady sportowe i zarządzanie obiektami/wydarzeniami.
+
+ * [Data Science w Bankowości](https://data-flair.training/blogs/data-science-in-banking/) - podkreśla wartość data science w branży finansowej, z zastosowaniami od modelowania ryzyka i wykrywania oszustw, po segmentację klientów, prognozowanie w czasie rzeczywistym i systemy rekomendacji. Analiza predykcyjna wspiera również kluczowe miary, takie jak [oceny kredytowe](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Data Science w Ochronie Zdrowia](https://data-flair.training/blogs/data-science-in-healthcare/) - podkreśla zastosowania takie jak obrazowanie medyczne (np. MRI, RTG, tomografia komputerowa), genomika (sekwencjonowanie DNA), rozwój leków (ocena ryzyka, prognozowanie sukcesu), analiza predykcyjna (opieka nad pacjentem i logistyka dostaw), śledzenie i zapobieganie chorobom itp.
+
+ Źródło obrazu: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Rysunek pokazuje inne dziedziny i przykłady zastosowania technik data science. Chcesz zbadać inne zastosowania? Sprawdź sekcję [Przegląd i Samodzielna Nauka](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) poniżej.
+
+## Data Science + Badania
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Badania - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Podczas gdy rzeczywiste zastosowania często koncentrują się na przypadkach użycia w przemyśle na dużą skalę, zastosowania i projekty _badawcze_ mogą być użyteczne z dwóch perspektyw:
+
+* _możliwości innowacji_ - eksploracja szybkiego prototypowania zaawansowanych koncepcji i testowanie doświadczeń użytkowników dla aplikacji nowej generacji.
+* _wyzwania wdrożeniowe_ - badanie potencjalnych szkód lub niezamierzonych konsekwencji technologii data science w rzeczywistych kontekstach.
+
+Dla studentów projekty badawcze mogą dostarczyć zarówno możliwości nauki, jak i współpracy, które poprawią zrozumienie tematu oraz poszerzą świadomość i zaangażowanie w pracę z odpowiednimi osobami lub zespołami w obszarach zainteresowań. Jak więc wyglądają projekty badawcze i jaki mogą mieć wpływ?
+
+Przyjrzyjmy się jednemu przykładowi - [MIT Gender Shades Study](http://gendershades.org/overview.html) autorstwa Joy Buolamwini (MIT Media Labs) z [kluczowym artykułem badawczym](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) współautorstwa Timnit Gebru (wówczas w Microsoft Research), który koncentrował się na:
+
+ * **Co:** Celem projektu badawczego była _ocena uprzedzeń obecnych w algorytmach i zbiorach danych do analizy twarzy_ w oparciu o płeć i typ skóry.
+ * **Dlaczego:** Analiza twarzy jest wykorzystywana w takich obszarach jak egzekwowanie prawa, bezpieczeństwo na lotniskach, systemy rekrutacyjne i inne - konteksty, w których nieprawidłowe klasyfikacje (np. z powodu uprzedzeń) mogą powodować potencjalne szkody ekonomiczne i społeczne dla dotkniętych osób lub grup. Zrozumienie (i eliminowanie lub łagodzenie) uprzedzeń jest kluczowe dla sprawiedliwości w użytkowaniu.
+ * **Jak:** Badacze zauważyli, że istniejące benchmarki wykorzystywały głównie osoby o jaśniejszej karnacji, i stworzyli nowy zbiór danych (ponad 1000 obrazów), który był _bardziej zrównoważony_ pod względem płci i typu skóry. Zbiór danych został użyty do oceny dokładności trzech produktów do klasyfikacji płci (od Microsoft, IBM i Face++).
+
+Wyniki pokazały, że choć ogólna dokładność klasyfikacji była dobra, zauważono znaczną różnicę w wskaźnikach błędów między różnymi podgrupami - z **błędnym przypisaniem płci** częściej występującym u kobiet lub osób o ciemniejszej karnacji, co wskazuje na uprzedzenia.
+
+**Kluczowe Wyniki:** Zwrócono uwagę, że data science potrzebuje bardziej _reprezentatywnych zbiorów danych_ (zrównoważone podgrupy) i bardziej _inkluzji zespołów_ (różnorodne tła), aby wcześniej rozpoznawać i eliminować lub łagodzić takie uprzedzenia w rozwiązaniach AI. Takie badania są również kluczowe dla wielu organizacji w definiowaniu zasad i praktyk dla _odpowiedzialnej AI_, aby poprawić sprawiedliwość w ich produktach i procesach AI.
+
+**Chcesz dowiedzieć się więcej o odpowiednich badaniach w Microsoft?**
+
+* Sprawdź [Projekty Badawcze Microsoft](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) dotyczące sztucznej inteligencji.
+* Odkryj projekty studenckie z [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Sprawdź projekt [Fairlearn](https://fairlearn.org/) i inicjatywy [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6).
+
+## Data Science + Humanistyka
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Humanistyka Cyfrowa - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Humanistyka Cyfrowa [została zdefiniowana](https://digitalhumanities.stanford.edu/about-dh-stanford) jako "zbiór praktyk i podejść łączących metody obliczeniowe z badaniami humanistycznymi". [Projekty Stanforda](https://digitalhumanities.stanford.edu/projects) takie jak _"rebooting history"_ i _"poetic thinking"_ ilustrują powiązanie między [Humanistyką Cyfrową a Data Science](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - podkreślając techniki takie jak analiza sieci, wizualizacja informacji, analiza przestrzenna i tekstowa, które mogą pomóc nam ponownie przeanalizować historyczne i literackie zbiory danych, aby uzyskać nowe wnioski i perspektywy.
+
+*Chcesz zbadać i rozwinąć projekt w tej dziedzinie?*
+
+Sprawdź ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - świetny przykład od [Jen Looper](https://twitter.com/jenlooper), który pyta, jak możemy wykorzystać data science, aby ponownie przeanalizować znaną poezję i ocenić jej znaczenie oraz wkład autora w nowych kontekstach. Na przykład, _czy możemy przewidzieć porę roku, w której wiersz został napisany, analizując jego ton lub nastrój_ - i co to mówi nam o stanie umysłu autora w danym okresie?
+
+Aby odpowiedzieć na to pytanie, podążamy za krokami cyklu życia data science:
+ * [`Pozyskiwanie Danych`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - aby zebrać odpowiedni zbiór danych do analizy. Opcje obejmują korzystanie z API (np. [Poetry DB API](https://poetrydb.org/index.html)) lub skrobanie stron internetowych (np. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) za pomocą narzędzi takich jak [Scrapy](https://scrapy.org/).
+ * [`Czyszczenie Danych`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - wyjaśnia, jak tekst może być formatowany, oczyszczany i upraszczany za pomocą podstawowych narzędzi, takich jak Visual Studio Code i Microsoft Excel.
+ * [`Analiza Danych`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - wyjaśnia, jak możemy teraz zaimportować zbiór danych do "Notatników" w celu analizy za pomocą pakietów Python (takich jak pandas, numpy i matplotlib) do organizowania i wizualizacji danych.
+ * [`Analiza Nastrojów`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - wyjaśnia, jak możemy zintegrować usługi chmurowe, takie jak Text Analytics, używając narzędzi niskokodowych, takich jak [Power Automate](https://flow.microsoft.com/en-us/) do zautomatyzowanych przepływów pracy przetwarzania danych.
+
+Korzystając z tego przepływu pracy, możemy zbadać sezonowe wpływy na nastrój wierszy i pomóc nam wyrobić własne opinie na temat autora. Wypróbuj to sam - a następnie rozbuduj notatnik, aby zadać inne pytania lub zwizualizować dane w nowy sposób!
+
+> Możesz użyć niektórych narzędzi z [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit), aby realizować te kierunki badań.
+
+## Data Science + Zrównoważony Rozwój
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Zrównoważony Rozwój - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[Agenda na Rzecz Zrównoważonego Rozwoju 2030](https://sdgs.un.org/2030agenda) - przyjęta przez wszystkich członków ONZ w 2015 roku - identyfikuje 17 celów, w tym te, które koncentrują się na **Ochronie Planety** przed degradacją i skutkami zmian klimatycznych. Inicjatywa [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) wspiera te cele, badając, w jaki sposób rozwiązania technologiczne mogą wspierać i budować bardziej zrównoważoną przyszłość, z [fokusem na 4 cele](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - bycie neutralnym węglowo, pozytywnym wodnie, bezodpadowym i bioróżnorodnym do 2030 roku.
+
+Rozwiązywanie tych wyzwań w sposób skalowalny i terminowy wymaga myślenia w skali chmury - oraz dużych zbiorów danych. Inicjatywa [Planetary Computer](https://planetarycomputer.microsoft.com/) oferuje 4 komponenty, które pomagają data scientistom i programistom w tym wysiłku:
+
+ * [Katalog Danych](https://planetarycomputer.microsoft.com/catalog) - z petabajtami danych o systemach Ziemi (dostępnych za darmo i hostowanych na Azure).
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - aby pomóc użytkownikom w wyszukiwaniu odpowiednich danych w przestrzeni i czasie.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - zarządzane środowisko dla naukowców do przetwarzania ogromnych zbiorów danych geospołecznych.
+ * [Aplikacje](https://planetarycomputer.microsoft.com/applications) - prezentują przypadki użycia i narzędzia do uzyskiwania wniosków dotyczących zrównoważonego rozwoju.
+**Projekt Planetary Computer jest obecnie w fazie testowej (stan na wrzesień 2021)** - oto jak możesz zacząć przyczyniać się do rozwiązań na rzecz zrównoważonego rozwoju, wykorzystując naukę o danych.
+
+* [Poproś o dostęp](https://planetarycomputer.microsoft.com/account/request), aby rozpocząć eksplorację i nawiązać kontakt z innymi użytkownikami.
+* [Przeglądaj dokumentację](https://planetarycomputer.microsoft.com/docs/overview/about), aby zrozumieć obsługiwane zestawy danych i interfejsy API.
+* Odkrywaj aplikacje, takie jak [Monitorowanie ekosystemu](https://analytics-lab.org/ecosystemmonitoring/), aby znaleźć inspirację do tworzenia własnych pomysłów na aplikacje.
+
+Zastanów się, jak możesz wykorzystać wizualizację danych, aby ujawnić lub wzmocnić istotne spostrzeżenia dotyczące takich obszarów jak zmiany klimatyczne czy wylesianie. Albo pomyśl, jak te spostrzeżenia mogą być użyte do tworzenia nowych doświadczeń użytkownika, które motywują do zmiany zachowań na bardziej zrównoważone.
+
+## Nauka o danych + Studenci
+
+Rozmawialiśmy o zastosowaniach w przemyśle i badaniach, a także o przykładach aplikacji nauki o danych w humanistyce cyfrowej i zrównoważonym rozwoju. Jak więc możesz rozwijać swoje umiejętności i dzielić się wiedzą jako początkujący w nauce o danych?
+
+Oto kilka przykładów projektów studenckich z zakresu nauki o danych, które mogą Cię zainspirować.
+
+ * [Letnia szkoła nauki o danych MSR](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) z projektami na GitHubie [projects](https://github.com/msr-ds3), które eksplorują takie tematy jak:
+ - [Rasowe uprzedzenia w użyciu siły przez policję](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Niezawodność systemu metra w Nowym Jorku](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+ * [Cyfryzacja kultury materialnej: Badanie rozkładów społeczno-ekonomicznych w Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - od [Ornella Altunyan](https://twitter.com/ornelladotcom) i zespołu z Claremont, wykorzystując [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Wyzwanie
+
+Poszukaj artykułów, które polecają projekty z zakresu nauki o danych przyjazne dla początkujących - na przykład [te 50 obszarów tematycznych](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) lub [te 21 pomysłów na projekty](https://www.intellspot.com/data-science-project-ideas) albo [te 16 projektów z kodem źródłowym](https://data-flair.training/blogs/data-science-project-ideas/), które możesz rozłożyć na części i przerobić. Nie zapomnij również blogować o swoich doświadczeniach w nauce i dzielić się swoimi spostrzeżeniami z nami wszystkimi.
+
+## Quiz po wykładzie
+
+[Quiz po wykładzie](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Przegląd i samodzielna nauka
+
+Chcesz zgłębić więcej przypadków użycia? Oto kilka interesujących artykułów:
+ * [17 zastosowań i przykładów nauki o danych](https://builtin.com/data-science/data-science-applications-examples) - lipiec 2021
+ * [11 zapierających dech w piersiach zastosowań nauki o danych w rzeczywistości](https://myblindbird.com/data-science-applications-real-world/) - maj 2021
+ * [Nauka o danych w rzeczywistości](https://towardsdatascience.com/data-science-in-the-real-world/home) - kolekcja artykułów
+ * Nauka o danych w: [Edukacji](https://data-flair.training/blogs/data-science-in-education/), [Rolnictwie](https://data-flair.training/blogs/data-science-in-agriculture/), [Finansach](https://data-flair.training/blogs/data-science-in-finance/), [Filmach](https://data-flair.training/blogs/data-science-at-movies/) i innych.
+
+## Zadanie
+
+[Zbadaj zestaw danych Planetary Computer](assignment.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/pl/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..1dd798de
--- /dev/null
+++ b/translations/pl/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,48 @@
+
+# Eksploracja zbioru danych Planetary Computer
+
+## Instrukcje
+
+W tej lekcji omówiliśmy różne dziedziny zastosowań nauki o danych – z dogłębnymi przykładami związanymi z badaniami, zrównoważonym rozwojem i cyfrowymi naukami humanistycznymi. W tym zadaniu zgłębisz jeden z tych przykładów bardziej szczegółowo i zastosujesz zdobytą wiedzę na temat wizualizacji danych oraz analizy, aby wyciągnąć wnioski dotyczące danych związanych ze zrównoważonym rozwojem.
+
+Projekt [Planetary Computer](https://planetarycomputer.microsoft.com/) zawiera zbiory danych i interfejsy API, które można uzyskać po założeniu konta – jeśli chcesz spróbować wykonać dodatkowy krok w zadaniu, złóż wniosek o dostęp. Strona oferuje również funkcję [Explorer](https://planetarycomputer.microsoft.com/explore), którą można używać bez zakładania konta.
+
+`Kroki:`
+Interfejs Explorer (pokazany na zrzucie ekranu poniżej) pozwala wybrać zbiór danych (z dostępnych opcji), gotowe zapytanie (do filtrowania danych) oraz opcję renderowania (do stworzenia odpowiedniej wizualizacji). W ramach tego zadania Twoim celem jest:
+
+ 1. Przeczytaj [dokumentację Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) – zrozum dostępne opcje.
+ 2. Przeglądaj [Katalog zbiorów danych](https://planetarycomputer.microsoft.com/catalog) – dowiedz się, do czego służy każdy zbiór.
+ 3. Skorzystaj z Explorer – wybierz interesujący Cię zbiór danych, odpowiednie zapytanie i opcję renderowania.
+
+
+
+`Twoje zadanie:`
+Przeanalizuj wizualizację, która zostanie wygenerowana w przeglądarce, i odpowiedz na następujące pytania:
+ * Jakie _cechy_ posiada zbiór danych?
+ * Jakie _wnioski_ lub rezultaty dostarcza wizualizacja?
+ * Jakie są _implikacje_ tych wniosków dla celów zrównoważonego rozwoju projektu?
+ * Jakie są _ograniczenia_ wizualizacji (tj. jakie informacje nie zostały przedstawione)?
+ * Gdybyś miał dostęp do surowych danych, jakie _alternatywne wizualizacje_ byś stworzył i dlaczego?
+
+`Dodatkowe punkty:`
+Złóż wniosek o założenie konta – i zaloguj się po jego akceptacji.
+ * Skorzystaj z opcji _Launch Hub_, aby otworzyć surowe dane w Notebooku.
+ * Eksploruj dane interaktywnie i zaimplementuj alternatywne wizualizacje, które zaproponowałeś.
+ * Przeanalizuj swoje własne wizualizacje – czy udało Ci się wyciągnąć wnioski, których wcześniej brakowało?
+
+## Kryteria oceny
+
+Wzorowe | Wystarczające | Wymaga poprawy
+--- | --- | -- |
+Odpowiedziano na wszystkie pięć kluczowych pytań. Student jasno określił, w jaki sposób obecne i alternatywne wizualizacje mogą dostarczyć wniosków dotyczących celów lub wyników związanych ze zrównoważonym rozwojem. | Student odpowiedział szczegółowo na co najmniej trzy główne pytania, pokazując, że miał praktyczne doświadczenie z Explorer. | Student nie odpowiedział na wiele pytań lub dostarczył niewystarczające szczegóły – co wskazuje na brak znaczącego podejścia do projektu. |
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/6-Data-Science-In-Wild/README.md b/translations/pl/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..4f54211a
--- /dev/null
+++ b/translations/pl/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,23 @@
+
+# Data Science w Praktyce
+
+Zastosowania data science w różnych branżach.
+
+### Tematy
+
+1. [Data Science w Rzeczywistym Świecie](20-Real-World-Examples/README.md)
+
+### Podziękowania
+
+Napisane z ❤️ przez [Nitya Narasimhan](https://twitter.com/nitya)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby zapewnić poprawność tłumaczenia, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z korzystania z tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/CODE_OF_CONDUCT.md b/translations/pl/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..efbb834a
--- /dev/null
+++ b/translations/pl/CODE_OF_CONDUCT.md
@@ -0,0 +1,21 @@
+
+# Kodeks postępowania Microsoft Open Source
+
+Ten projekt przyjął [Kodeks postępowania Microsoft Open Source](https://opensource.microsoft.com/codeofconduct/).
+
+Zasoby:
+
+- [Kodeks postępowania Microsoft Open Source](https://opensource.microsoft.com/codeofconduct/)
+- [FAQ dotyczące Kodeksu postępowania Microsoft](https://opensource.microsoft.com/codeofconduct/faq/)
+- W razie pytań lub wątpliwości skontaktuj się pod adresem [opencode@microsoft.com](mailto:opencode@microsoft.com)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/CONTRIBUTING.md b/translations/pl/CONTRIBUTING.md
new file mode 100644
index 00000000..039fe068
--- /dev/null
+++ b/translations/pl/CONTRIBUTING.md
@@ -0,0 +1,26 @@
+
+# Współtworzenie
+
+Ten projekt zachęca do współtworzenia i zgłaszania sugestii. Większość wkładów wymaga od Ciebie
+zgody na Umowę Licencyjną Współtwórcy (CLA), która potwierdza, że masz prawo do,
+i faktycznie udzielasz nam prawa do korzystania z Twojego wkładu. Szczegóły znajdziesz na stronie
+https://cla.microsoft.com.
+
+Gdy zgłaszasz pull request, bot CLA automatycznie sprawdzi, czy musisz
+przekazać CLA i odpowiednio oznaczy PR (np. etykieta, komentarz). Po prostu postępuj zgodnie z
+instrukcjami podanymi przez bota. Musisz to zrobić tylko raz dla wszystkich repozytoriów korzystających z naszego CLA.
+
+Ten projekt przyjął [Kodeks Postępowania Microsoft Open Source](https://opensource.microsoft.com/codeofconduct/).
+Więcej informacji znajdziesz w [FAQ dotyczących Kodeksu Postępowania](https://opensource.microsoft.com/codeofconduct/faq/)
+lub skontaktuj się z [opencode@microsoft.com](mailto:opencode@microsoft.com), jeśli masz dodatkowe pytania lub uwagi.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/README.md b/translations/pl/README.md
new file mode 100644
index 00000000..0b34bbab
--- /dev/null
+++ b/translations/pl/README.md
@@ -0,0 +1,162 @@
+
+# Data Science dla Początkujących - Program Nauczania
+
+Azure Cloud Advocates w Microsoft z przyjemnością oferują 10-tygodniowy, 20-lekcyjny program nauczania dotyczący Data Science. Każda lekcja zawiera quizy przed i po lekcji, pisemne instrukcje do wykonania lekcji, rozwiązanie oraz zadanie. Nasze podejście oparte na projektach pozwala uczyć się poprzez tworzenie, co jest sprawdzonym sposobem na trwałe przyswojenie nowych umiejętności.
+
+**Serdeczne podziękowania dla naszych autorów:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Specjalne podziękowania 🙏 dla naszych [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) autorów, recenzentów i współtwórców treści,** w szczególności Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200),
+[Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar , [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Data Science dla Początkujących - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## Ogłoszenie - Nowy Program Nauczania o Generatywnej AI właśnie został wydany!
+
+Właśnie opublikowaliśmy 12-lekcyjny program nauczania dotyczący generatywnej AI. Dowiedz się więcej o:
+
+- tworzeniu zapytań i inżynierii zapytań
+- generowaniu aplikacji tekstowych i obrazowych
+- aplikacjach wyszukiwania
+
+Jak zawsze, każda lekcja zawiera zadania do wykonania, testy wiedzy i wyzwania.
+
+Sprawdź tutaj:
+
+> https://aka.ms/genai-beginners
+
+# Jesteś studentem?
+
+Rozpocznij od następujących zasobów:
+
+- [Strona Student Hub](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Na tej stronie znajdziesz zasoby dla początkujących, pakiety dla studentów, a nawet sposoby na zdobycie darmowego vouchera certyfikacyjnego. To strona, którą warto dodać do zakładek i sprawdzać co jakiś czas, ponieważ treści są zmieniane co najmniej raz w miesiącu.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Dołącz do globalnej społeczności ambasadorów studentów, to może być Twoja droga do Microsoft.
+
+# Rozpoczęcie
+
+> **Nauczyciele**: [dołączyliśmy kilka sugestii](for-teachers.md) dotyczących korzystania z tego programu nauczania. Chętnie poznamy Wasze opinie [na naszym forum dyskusyjnym](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Studenci](https://aka.ms/student-page)**: aby korzystać z tego programu nauczania samodzielnie, zrób fork całego repozytorium i wykonaj ćwiczenia samodzielnie, zaczynając od quizu przed lekcją. Następnie przeczytaj lekcję i wykonaj pozostałe aktywności. Spróbuj tworzyć projekty, rozumiejąc lekcje, zamiast kopiować kod rozwiązania; jednak ten kod jest dostępny w folderach /solutions w każdej lekcji projektowej. Innym pomysłem może być utworzenie grupy naukowej z przyjaciółmi i wspólne przechodzenie przez treści. Do dalszej nauki polecamy [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Poznaj Zespół
+
+[](https://youtu.be/8mzavjQSMM4 "Promo video")
+
+**Gif by** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Kliknij obrazek powyżej, aby obejrzeć wideo o projekcie i ludziach, którzy go stworzyli!
+
+## Pedagogika
+
+Podczas tworzenia tego programu nauczania wybraliśmy dwa główne założenia pedagogiczne: zapewnienie, że jest on oparty na projektach oraz że zawiera częste quizy. Pod koniec tej serii studenci poznają podstawowe zasady data science, w tym koncepcje etyczne, przygotowanie danych, różne sposoby pracy z danymi, wizualizację danych, analizę danych, rzeczywiste przypadki użycia data science i wiele więcej.
+
+Dodatkowo, quiz o niskim poziomie trudności przed zajęciami ustawia intencję studenta na naukę danego tematu, a drugi quiz po zajęciach zapewnia dalsze utrwalenie wiedzy. Ten program nauczania został zaprojektowany tak, aby był elastyczny i przyjemny, i można go realizować w całości lub częściowo. Projekty zaczynają się od prostych i stają się coraz bardziej złożone pod koniec 10-tygodniowego cyklu.
+
+> Znajdź nasz [Kodeks Postępowania](CODE_OF_CONDUCT.md), [Współtworzenie](CONTRIBUTING.md), [Tłumaczenia](TRANSLATIONS.md). Czekamy na Wasze konstruktywne opinie!
+
+## Każda lekcja zawiera:
+
+- Opcjonalny sketchnote
+- Opcjonalne dodatkowe wideo
+- Quiz rozgrzewkowy przed lekcją
+- Pisemną lekcję
+- W przypadku lekcji projektowych, przewodniki krok po kroku dotyczące budowy projektu
+- Sprawdzanie wiedzy
+- Wyzwanie
+- Dodatkowe materiały do czytania
+- Zadanie
+- Quiz po lekcji
+
+> **Uwaga dotycząca quizów**: Wszystkie quizy znajdują się w folderze Quiz-App, w sumie 40 quizów po trzy pytania każdy. Są one powiązane z lekcjami, ale aplikację quizową można uruchomić lokalnie lub wdrożyć na Azure; postępuj zgodnie z instrukcjami w folderze `quiz-app`. Quizy są stopniowo lokalizowane.
+
+## Lekcje
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Data Science dla Początkujących: Plan - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+| Numer Lekcji | Temat | Grupa Lekcji | Cele Nauczania | Powiązana Lekcja | Autor |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definiowanie Data Science | [Wprowadzenie](1-Introduction/README.md) | Poznaj podstawowe pojęcia związane z data science i jak jest ono powiązane ze sztuczną inteligencją, uczeniem maszynowym i big data. | [lekcja](1-Introduction/01-defining-data-science/README.md) [wideo](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Etyka w Data Science | [Wprowadzenie](1-Introduction/README.md) | Koncepcje etyki danych, wyzwania i ramy. | [lekcja](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definiowanie Danych | [Wprowadzenie](1-Introduction/README.md) | Jak klasyfikowane są dane i ich typowe źródła. | [lekcja](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Wprowadzenie do Statystyki i Prawdopodobieństwa | [Wprowadzenie](1-Introduction/README.md) | Matematyczne techniki prawdopodobieństwa i statystyki do analizy danych. | [lekcja](1-Introduction/04-stats-and-probability/README.md) [wideo](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Praca z Danymi Relacyjnymi | [Praca z Danymi](2-Working-With-Data/README.md) | Wprowadzenie do danych relacyjnych oraz podstawy eksploracji i analizy danych relacyjnych za pomocą języka SQL (wymawiane „si-kłel”). | [lekcja](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Praca z Danymi NoSQL | [Praca z Danymi](2-Working-With-Data/README.md) | Wprowadzenie do danych nierelacyjnych, ich różnych typów oraz podstawy eksploracji i analizy baz dokumentów. | [lekcja](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Praca z Pythonem | [Praca z Danymi](2-Working-With-Data/README.md) | Podstawy używania Pythona do eksploracji danych z bibliotekami takimi jak Pandas. Zalecane jest podstawowe zrozumienie programowania w Pythonie. | [lekcja](2-Working-With-Data/07-python/README.md) [wideo](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Przygotowanie danych | [Praca z danymi](2-Working-With-Data/README.md) | Tematy dotyczące technik czyszczenia i transformacji danych w celu radzenia sobie z brakującymi, niedokładnymi lub niekompletnymi danymi. | [lekcja](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Wizualizacja ilości | [Wizualizacja danych](3-Data-Visualization/README.md) | Naucz się używać Matplotlib do wizualizacji danych o ptakach 🦆 | [lekcja](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Wizualizacja rozkładów danych | [Wizualizacja danych](3-Data-Visualization/README.md) | Wizualizacja obserwacji i trendów w określonym przedziale. | [lekcja](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Wizualizacja proporcji | [Wizualizacja danych](3-Data-Visualization/README.md) | Wizualizacja dyskretnych i grupowych procentów. | [lekcja](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Wizualizacja relacji | [Wizualizacja danych](3-Data-Visualization/README.md) | Wizualizacja połączeń i korelacji między zestawami danych i ich zmiennymi. | [lekcja](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Znaczące wizualizacje | [Wizualizacja danych](3-Data-Visualization/README.md) | Techniki i wskazówki, jak sprawić, by wizualizacje były wartościowe dla skutecznego rozwiązywania problemów i uzyskiwania wniosków. | [lekcja](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Wprowadzenie do cyklu życia Data Science | [Cykl życia](4-Data-Science-Lifecycle/README.md) | Wprowadzenie do cyklu życia Data Science i jego pierwszego etapu, czyli pozyskiwania i ekstrakcji danych. | [lekcja](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analiza | [Cykl życia](4-Data-Science-Lifecycle/README.md) | Ta faza cyklu życia Data Science koncentruje się na technikach analizy danych. | [lekcja](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Komunikacja | [Cykl życia](4-Data-Science-Lifecycle/README.md) | Ta faza cyklu życia Data Science skupia się na prezentowaniu wniosków z danych w sposób ułatwiający ich zrozumienie decydentom. | [lekcja](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Data Science w chmurze | [Dane w chmurze](5-Data-Science-In-Cloud/README.md) | Seria lekcji wprowadzających do Data Science w chmurze i jej korzyści. | [lekcja](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) i [Maud](https://twitter.com/maudstweets) |
+| 18 | Data Science w chmurze | [Dane w chmurze](5-Data-Science-In-Cloud/README.md) | Trenowanie modeli za pomocą narzędzi Low Code. | [lekcja](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) i [Maud](https://twitter.com/maudstweets) |
+| 19 | Data Science w chmurze | [Dane w chmurze](5-Data-Science-In-Cloud/README.md) | Wdrażanie modeli za pomocą Azure Machine Learning Studio. | [lekcja](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) i [Maud](https://twitter.com/maudstweets) |
+| 20 | Data Science w praktyce | [W praktyce](6-Data-Science-In-Wild/README.md) | Projekty oparte na Data Science w rzeczywistym świecie. | [lekcja](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Wykonaj poniższe kroki, aby otworzyć ten przykład w Codespace:
+1. Kliknij menu rozwijane Code i wybierz opcję Open with Codespaces.
+2. Wybierz + New codespace na dole panelu.
+Więcej informacji znajdziesz w [dokumentacji GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Wykonaj poniższe kroki, aby otworzyć to repozytorium w kontenerze za pomocą lokalnego komputera i VSCode z rozszerzeniem VS Code Remote - Containers:
+
+1. Jeśli po raz pierwszy korzystasz z kontenera deweloperskiego, upewnij się, że Twój system spełnia wymagania wstępne (np. zainstalowany Docker) opisane w [dokumentacji wprowadzającej](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+Aby użyć tego repozytorium, możesz otworzyć je w izolowanym woluminie Dockera:
+
+**Uwaga**: W tle zostanie użyte polecenie Remote-Containers: **Clone Repository in Container Volume...**, aby sklonować kod źródłowy do woluminu Dockera zamiast lokalnego systemu plików. [Woluminy](https://docs.docker.com/storage/volumes/) są preferowanym mechanizmem do przechowywania danych kontenera.
+
+Lub otwórz lokalnie sklonowaną lub pobraną wersję repozytorium:
+
+- Sklonuj to repozytorium na swój lokalny system plików.
+- Naciśnij F1 i wybierz polecenie **Remote-Containers: Open Folder in Container...**.
+- Wybierz sklonowaną kopię tego folderu, poczekaj na uruchomienie kontenera i wypróbuj różne funkcje.
+
+## Dostęp offline
+
+Możesz uruchomić tę dokumentację offline, korzystając z [Docsify](https://docsify.js.org/#/). Sforkuj to repozytorium, [zainstaluj Docsify](https://docsify.js.org/#/quickstart) na swoim lokalnym komputerze, a następnie w katalogu głównym tego repozytorium wpisz `docsify serve`. Strona internetowa zostanie uruchomiona na porcie 3000 na Twoim localhost: `localhost:3000`.
+
+> Uwaga, notatniki nie będą renderowane za pomocą Docsify, więc jeśli musisz uruchomić notatnik, zrób to osobno w VS Code, korzystając z jądra Pythona.
+
+## Poszukiwani pomocnicy!
+
+Jeśli chciałbyś przetłumaczyć całość lub część tego programu nauczania, zapoznaj się z naszym przewodnikiem [Translations](TRANSLATIONS.md).
+
+## Inne programy nauczania
+
+Nasz zespół tworzy inne programy nauczania! Sprawdź:
+
+- [Generative AI for Beginners](https://aka.ms/genai-beginners)
+- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative AI with Java](https://aka.ms/genaijava)
+- [AI for Beginners](https://aka.ms/ai-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [IoT for Beginners](https://aka.ms/iot-beginners)
+- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/SECURITY.md b/translations/pl/SECURITY.md
new file mode 100644
index 00000000..826ff680
--- /dev/null
+++ b/translations/pl/SECURITY.md
@@ -0,0 +1,49 @@
+
+## Bezpieczeństwo
+
+Microsoft traktuje bezpieczeństwo swoich produktów i usług bardzo poważnie, w tym wszystkich repozytoriów kodu źródłowego zarządzanych przez nasze organizacje na GitHubie, takie jak [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) oraz [nasze organizacje na GitHubie](https://opensource.microsoft.com/).
+
+Jeśli uważasz, że znalazłeś lukę w zabezpieczeniach w którymkolwiek z repozytoriów należących do Microsoftu, która spełnia [definicję luki w zabezpieczeniach według Microsoftu](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), zgłoś ją do nas zgodnie z poniższymi instrukcjami.
+
+## Zgłaszanie problemów z bezpieczeństwem
+
+**Prosimy, aby nie zgłaszać luk w zabezpieczeniach za pośrednictwem publicznych zgłoszeń na GitHubie.**
+
+Zamiast tego zgłoś je do Microsoft Security Response Center (MSRC) na stronie [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Jeśli wolisz zgłosić problem bez logowania, wyślij wiadomość e-mail na adres [secure@microsoft.com](mailto:secure@microsoft.com). Jeśli to możliwe, zaszyfruj swoją wiadomość za pomocą naszego klucza PGP; możesz go pobrać ze strony [Microsoft Security Response Center PGP Key](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Powinieneś otrzymać odpowiedź w ciągu 24 godzin. Jeśli z jakiegoś powodu jej nie otrzymasz, skontaktuj się ponownie za pomocą e-maila, aby upewnić się, że otrzymaliśmy Twoją wiadomość. Dodatkowe informacje znajdziesz na stronie [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Prosimy o dołączenie poniższych informacji (w miarę możliwości), aby pomóc nam lepiej zrozumieć charakter i zakres potencjalnego problemu:
+
+ * Rodzaj problemu (np. przepełnienie bufora, SQL injection, cross-site scripting itp.)
+ * Pełne ścieżki plików źródłowych związanych z wystąpieniem problemu
+ * Lokalizacja dotkniętego kodu źródłowego (tag/gałąź/commit lub bezpośredni URL)
+ * Wszelkie specjalne konfiguracje wymagane do odtworzenia problemu
+ * Instrukcje krok po kroku, jak odtworzyć problem
+ * Kod proof-of-concept lub exploit (jeśli to możliwe)
+ * Wpływ problemu, w tym sposób, w jaki atakujący mógłby go wykorzystać
+
+Te informacje pomogą nam szybciej przeanalizować Twoje zgłoszenie.
+
+Jeśli zgłaszasz problem w ramach programu nagród za błędy, bardziej szczegółowe raporty mogą przyczynić się do wyższej nagrody. Odwiedź stronę [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty), aby uzyskać więcej informacji o naszych aktywnych programach.
+
+## Preferowane języki
+
+Preferujemy, aby cała komunikacja odbywała się w języku angielskim.
+
+## Polityka
+
+Microsoft stosuje zasadę [Koordynowanego ujawniania luk w zabezpieczeniach](https://www.microsoft.com/en-us/msrc/cvd).
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/SUPPORT.md b/translations/pl/SUPPORT.md
new file mode 100644
index 00000000..f9af9bb8
--- /dev/null
+++ b/translations/pl/SUPPORT.md
@@ -0,0 +1,22 @@
+
+# Wsparcie
+## Jak zgłaszać problemy i uzyskiwać pomoc
+
+Ten projekt korzysta z GitHub Issues do śledzenia błędów i próśb o nowe funkcje. Przed zgłoszeniem nowego problemu, proszę przeszukać istniejące zgłoszenia, aby uniknąć duplikatów. W przypadku nowych zgłoszeń, zgłoś swój błąd lub prośbę o funkcję jako nowe zgłoszenie.
+
+W przypadku pytań i pomocy dotyczącej korzystania z tego projektu, zgłoś problem.
+
+## Polityka wsparcia Microsoft
+
+Wsparcie dla tego repozytorium jest ograniczone do zasobów wymienionych powyżej.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/docs/_sidebar.md b/translations/pl/docs/_sidebar.md
new file mode 100644
index 00000000..74cb3e42
--- /dev/null
+++ b/translations/pl/docs/_sidebar.md
@@ -0,0 +1,38 @@
+
+- Wprowadzenie
+ - [Definiowanie Data Science](../1-Introduction/01-defining-data-science/README.md)
+ - [Etyka w Data Science](../1-Introduction/02-ethics/README.md)
+ - [Definiowanie danych](../1-Introduction/03-defining-data/README.md)
+ - [Prawdopodobieństwo i statystyka](../1-Introduction/04-stats-and-probability/README.md)
+- Praca z danymi
+ - [Relacyjne bazy danych](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Nierelacyjne bazy danych](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Przygotowanie danych](../2-Working-With-Data/08-data-preparation/README.md)
+- Wizualizacja danych
+ - [Wizualizacja ilości](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Wizualizacja rozkładów](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Wizualizacja proporcji](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Wizualizacja relacji](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Znaczące wizualizacje](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Cykl życia Data Science
+ - [Wprowadzenie](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analiza](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Komunikacja](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Data Science w chmurze
+ - [Wprowadzenie](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Data Science w praktyce
+ - [Data Science w praktyce](../6-Data-Science-In-Wild/README.md)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczeniowej AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za autorytatywne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/for-teachers.md b/translations/pl/for-teachers.md
new file mode 100644
index 00000000..fc96d81f
--- /dev/null
+++ b/translations/pl/for-teachers.md
@@ -0,0 +1,76 @@
+
+## Dla Edukatorów
+
+Chcesz wykorzystać ten program nauczania w swojej klasie? Śmiało!
+
+W rzeczywistości możesz użyć go bezpośrednio na GitHubie, korzystając z GitHub Classroom.
+
+Aby to zrobić, zrób fork tego repozytorium. Będziesz musiał utworzyć repozytorium dla każdej lekcji, więc konieczne będzie wyodrębnienie każdego folderu do osobnego repozytorium. Dzięki temu [GitHub Classroom](https://classroom.github.com/classrooms) będzie mógł obsługiwać każdą lekcję oddzielnie.
+
+Te [pełne instrukcje](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) pokażą Ci, jak skonfigurować swoją klasę.
+
+## Korzystanie z repozytorium w obecnej formie
+
+Jeśli chcesz korzystać z tego repozytorium w jego obecnej formie, bez użycia GitHub Classroom, również jest to możliwe. Musisz poinformować swoich uczniów, nad którą lekcją będą pracować wspólnie.
+
+W formacie online (Zoom, Teams lub inne) możesz utworzyć pokoje grupowe na potrzeby quizów i mentorować uczniów, aby pomóc im przygotować się do nauki. Następnie zaproś uczniów do rozwiązywania quizów i przesyłania odpowiedzi jako 'issues' w określonym czasie. Możesz zrobić to samo z zadaniami, jeśli chcesz, aby uczniowie pracowali wspólnie w otwartej przestrzeni.
+
+Jeśli wolisz bardziej prywatny format, poproś uczniów, aby forkowali program nauczania, lekcja po lekcji, do swoich prywatnych repozytoriów GitHub i udostępnili Ci do nich dostęp. W ten sposób mogą rozwiązywać quizy i zadania prywatnie i przesyłać je do Ciebie jako 'issues' w repozytorium Twojej klasy.
+
+Istnieje wiele sposobów, aby to działało w formacie klasy online. Daj nam znać, co działa najlepiej dla Ciebie!
+
+## Zawartość tego programu nauczania:
+
+20 lekcji, 40 quizów i 20 zadań. Do lekcji dołączone są notatki wizualne dla uczniów preferujących naukę wizualną. Wiele lekcji jest dostępnych zarówno w Pythonie, jak i R, i można je realizować za pomocą notebooków Jupyter w VS Code. Dowiedz się więcej o tym, jak skonfigurować swoją klasę do korzystania z tego stosu technologicznego: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Wszystkie notatki wizualne, w tym plakat w dużym formacie, znajdują się w [tym folderze](../../sketchnotes).
+
+Cały program nauczania jest dostępny [w formacie PDF](../../pdf/readme.pdf).
+
+Możesz również uruchomić ten program nauczania jako samodzielną, przyjazną dla trybu offline stronę internetową, korzystając z [Docsify](https://docsify.js.org/#/). [Zainstaluj Docsify](https://docsify.js.org/#/quickstart) na swoim lokalnym komputerze, a następnie w katalogu głównym lokalnej kopii tego repozytorium wpisz `docsify serve`. Strona internetowa zostanie uruchomiona na porcie 3000 na Twoim localhost: `localhost:3000`.
+
+Przyjazna dla trybu offline wersja programu nauczania otworzy się jako samodzielna strona internetowa: https://localhost:3000
+
+Lekcje są podzielone na 6 części:
+
+- 1: Wprowadzenie
+ - 1: Definicja Data Science
+ - 2: Etyka
+ - 3: Definicja danych
+ - 4: Przegląd prawdopodobieństwa i statystyki
+- 2: Praca z danymi
+ - 5: Relacyjne bazy danych
+ - 6: Nierelacyjne bazy danych
+ - 7: Python
+ - 8: Przygotowanie danych
+- 3: Wizualizacja danych
+ - 9: Wizualizacja ilości
+ - 10: Wizualizacja rozkładów
+ - 11: Wizualizacja proporcji
+ - 12: Wizualizacja relacji
+ - 13: Znaczące wizualizacje
+- 4: Cykl życia Data Science
+ - 14: Wprowadzenie
+ - 15: Analiza
+ - 16: Komunikacja
+- 5: Data Science w chmurze
+ - 17: Wprowadzenie
+ - 18: Opcje niskokodowe
+ - 19: Azure
+- 6: Data Science w praktyce
+ - 20: Przegląd
+
+## Podziel się swoimi opiniami!
+
+Chcemy, aby ten program nauczania działał dla Ciebie i Twoich uczniów. Podziel się z nami swoimi opiniami na forach dyskusyjnych! Możesz również utworzyć przestrzeń klasową na forach dyskusyjnych dla swoich uczniów.
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/quiz-app/README.md b/translations/pl/quiz-app/README.md
new file mode 100644
index 00000000..bca1049a
--- /dev/null
+++ b/translations/pl/quiz-app/README.md
@@ -0,0 +1,137 @@
+
+# Quizy
+
+Te quizy to quizy przed i po wykładach w ramach programu nauczania data science dostępnego na stronie https://aka.ms/datascience-beginners
+
+## Dodawanie przetłumaczonego zestawu quizów
+
+Dodaj tłumaczenie quizu, tworząc odpowiadające struktury quizów w folderach `assets/translations`. Kanoniczne quizy znajdują się w `assets/translations/en`. Quizy są podzielone na kilka grup. Upewnij się, że numeracja jest zgodna z odpowiednią sekcją quizu. W tym programie nauczania znajduje się łącznie 40 quizów, a numeracja zaczyna się od 0.
+
+Po edycji tłumaczeń edytuj plik `index.js` w folderze tłumaczeń, aby zaimportować wszystkie pliki zgodnie z konwencjami w `en`.
+
+Edytuj plik `index.js` w `assets/translations`, aby zaimportować nowe przetłumaczone pliki.
+
+Następnie edytuj rozwijane menu w `App.vue` w tej aplikacji, aby dodać swój język. Dopasuj lokalny skrót do nazwy folderu dla swojego języka.
+
+Na koniec edytuj wszystkie linki do quizów w przetłumaczonych lekcjach, jeśli istnieją, aby dodać tę lokalizację jako parametr zapytania: `?loc=fr`, na przykład.
+
+## Konfiguracja projektu
+
+```
+npm install
+```
+
+### Kompilacja i automatyczne odświeżanie dla środowiska deweloperskiego
+
+```
+npm run serve
+```
+
+### Kompilacja i minimalizacja dla środowiska produkcyjnego
+
+```
+npm run build
+```
+
+### Lintowanie i naprawa plików
+
+```
+npm run lint
+```
+
+### Dostosowanie konfiguracji
+
+Zobacz [Configuration Reference](https://cli.vuejs.org/config/).
+
+Podziękowania: Podziękowania dla oryginalnej wersji tej aplikacji quizowej: https://github.com/arpan45/simple-quiz-vue
+
+## Wdrażanie na platformie Azure
+
+Oto przewodnik krok po kroku, który pomoże Ci zacząć:
+
+1. Sforkuj repozytorium GitHub
+Upewnij się, że kod Twojej statycznej aplikacji internetowej znajduje się w Twoim repozytorium GitHub. Sforkuj to repozytorium.
+
+2. Utwórz statyczną aplikację internetową na platformie Azure
+- Utwórz [konto Azure](http://azure.microsoft.com)
+- Przejdź do [portalu Azure](https://portal.azure.com)
+- Kliknij „Utwórz zasób” i wyszukaj „Static Web App”.
+- Kliknij „Utwórz”.
+
+3. Skonfiguruj statyczną aplikację internetową
+- Podstawy:
+ - Subskrypcja: Wybierz swoją subskrypcję Azure.
+ - Grupa zasobów: Utwórz nową grupę zasobów lub użyj istniejącej.
+ - Nazwa: Podaj nazwę swojej statycznej aplikacji internetowej.
+ - Region: Wybierz region najbliższy Twoim użytkownikom.
+
+- #### Szczegóły wdrożenia:
+ - Źródło: Wybierz „GitHub”.
+ - Konto GitHub: Autoryzuj Azure do uzyskania dostępu do Twojego konta GitHub.
+ - Organizacja: Wybierz swoją organizację GitHub.
+ - Repozytorium: Wybierz repozytorium zawierające Twoją statyczną aplikację internetową.
+ - Gałąź: Wybierz gałąź, z której chcesz wdrożyć.
+
+- #### Szczegóły kompilacji:
+ - Presety kompilacji: Wybierz framework, na którym zbudowana jest Twoja aplikacja (np. React, Angular, Vue itp.).
+ - Lokalizacja aplikacji: Określ folder zawierający kod Twojej aplikacji (np. /, jeśli znajduje się w katalogu głównym).
+ - Lokalizacja API: Jeśli masz API, określ jego lokalizację (opcjonalne).
+ - Lokalizacja wynikowa: Określ folder, w którym generowane są wyniki kompilacji (np. build lub dist).
+
+4. Przejrzyj i utwórz
+Przejrzyj swoje ustawienia i kliknij „Utwórz”. Azure skonfiguruje niezbędne zasoby i utworzy plik workflow GitHub Actions w Twoim repozytorium.
+
+5. Workflow GitHub Actions
+Azure automatycznie utworzy plik workflow GitHub Actions w Twoim repozytorium (.github/workflows/azure-static-web-apps-.yml). Ten workflow zajmie się procesem kompilacji i wdrożenia.
+
+6. Monitorowanie wdrożenia
+Przejdź do zakładki „Actions” w swoim repozytorium GitHub.
+Powinieneś zobaczyć uruchomiony workflow. Ten workflow skompiluje i wdroży Twoją statyczną aplikację internetową na platformie Azure.
+Po zakończeniu workflow Twoja aplikacja będzie dostępna pod podanym adresem URL Azure.
+
+### Przykładowy plik workflow
+
+Oto przykład, jak może wyglądać plik workflow GitHub Actions:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Dodatkowe zasoby
+- [Dokumentacja Azure Static Web Apps](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [Dokumentacja GitHub Actions](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pl/sketchnotes/README.md b/translations/pl/sketchnotes/README.md
new file mode 100644
index 00000000..92337f53
--- /dev/null
+++ b/translations/pl/sketchnotes/README.md
@@ -0,0 +1,19 @@
+
+Znajdź wszystkie notatki wizualne tutaj!
+
+## Podziękowania
+
+Nitya Narasimhan, artystka
+
+
+
+**Zastrzeżenie**:
+Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI [Co-op Translator](https://github.com/Azure/co-op-translator). Chociaż staramy się zapewnić dokładność, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/01-defining-data-science/README.md b/translations/pt/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..68874dc1
--- /dev/null
+++ b/translations/pt/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## Tipos de Dados
+
+Como já mencionámos, os dados estão em todo o lado. Só precisamos de os capturar da forma certa! É útil distinguir entre dados **estruturados** e **não estruturados**. Os primeiros são normalmente representados de forma bem organizada, muitas vezes como uma tabela ou várias tabelas, enquanto os últimos são apenas uma coleção de ficheiros. Por vezes, também podemos falar de dados **semi-estruturados**, que têm algum tipo de estrutura que pode variar bastante.
+
+| Estruturados | Semi-estruturados | Não estruturados |
+| ---------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------- | --------------------------------------- |
+| Lista de pessoas com os seus números de telefone | Páginas da Wikipédia com links | Texto da Enciclopédia Britânica |
+| Temperatura em todas as salas de um edifício a cada minuto nos últimos 20 anos | Coleção de artigos científicos em formato JSON com autores, data de publicação e resumo | Partilha de ficheiros com documentos corporativos |
+| Dados sobre idade e género de todas as pessoas que entram no edifício | Páginas da Internet | Vídeo bruto de uma câmara de vigilância |
+
+## Onde Obter Dados
+
+Existem muitas fontes possíveis de dados, e seria impossível listar todas! No entanto, vamos mencionar alguns dos locais típicos onde se podem obter dados:
+
+* **Estruturados**
+ - **Internet das Coisas** (IoT), incluindo dados de diferentes sensores, como sensores de temperatura ou pressão, fornece muitos dados úteis. Por exemplo, se um edifício de escritórios estiver equipado com sensores IoT, podemos controlar automaticamente o aquecimento e a iluminação para minimizar custos.
+ - **Inquéritos** que pedimos aos utilizadores para preencherem após uma compra ou após visitarem um site.
+ - **Análise de comportamento** pode, por exemplo, ajudar-nos a entender até que ponto um utilizador explora um site e qual é o motivo típico para abandonar o site.
+* **Não estruturados**
+ - **Textos** podem ser uma fonte rica de insights, como um **índice de sentimento geral**, ou a extração de palavras-chave e significado semântico.
+ - **Imagens** ou **Vídeos**. Um vídeo de uma câmara de vigilância pode ser usado para estimar o tráfego na estrada e informar as pessoas sobre potenciais engarrafamentos.
+ - **Registos** de servidores web podem ser usados para entender quais as páginas do nosso site que são mais visitadas e por quanto tempo.
+* **Semi-estruturados**
+ - **Grafos de Redes Sociais** podem ser ótimas fontes de dados sobre personalidades dos utilizadores e a sua potencial eficácia na disseminação de informações.
+ - Quando temos um conjunto de fotografias de uma festa, podemos tentar extrair dados sobre **Dinâmica de Grupo** construindo um grafo de pessoas que tiraram fotos juntas.
+
+Ao conhecer diferentes fontes possíveis de dados, pode pensar em diferentes cenários onde as técnicas de ciência de dados podem ser aplicadas para compreender melhor a situação e melhorar os processos empresariais.
+
+## O que Pode Fazer com os Dados
+
+Na Ciência de Dados, focamo-nos nos seguintes passos da jornada dos dados:
+
+Claro, dependendo dos dados reais, alguns passos podem estar ausentes (por exemplo, quando já temos os dados na base de dados ou quando não precisamos de treinar um modelo), ou alguns passos podem ser repetidos várias vezes (como o processamento de dados).
+
+## Digitalização e Transformação Digital
+
+Na última década, muitas empresas começaram a perceber a importância dos dados na tomada de decisões empresariais. Para aplicar os princípios da ciência de dados à gestão de um negócio, é necessário primeiro recolher alguns dados, ou seja, traduzir os processos empresariais para uma forma digital. Isto é conhecido como **digitalização**. Aplicar técnicas de ciência de dados a esses dados para orientar decisões pode levar a aumentos significativos de produtividade (ou até mesmo a uma mudança de rumo no negócio), o que se chama **transformação digital**.
+
+Vamos considerar um exemplo. Suponha que temos um curso de ciência de dados (como este) que oferecemos online aos estudantes, e queremos usar a ciência de dados para o melhorar. Como podemos fazê-lo?
+
+Podemos começar por perguntar "O que pode ser digitalizado?" A forma mais simples seria medir o tempo que cada estudante demora a completar cada módulo e avaliar o conhecimento adquirido através de um teste de escolha múltipla no final de cada módulo. Ao calcular a média do tempo de conclusão entre todos os estudantes, podemos identificar quais os módulos que causam mais dificuldades e trabalhar na sua simplificação.
+> Pode-se argumentar que esta abordagem não é ideal, porque os módulos podem ter comprimentos diferentes. Provavelmente seria mais justo dividir o tempo pelo comprimento do módulo (em número de caracteres) e comparar esses valores em vez disso.
+Quando começamos a analisar os resultados de testes de escolha múltipla, podemos tentar determinar quais conceitos os alunos têm dificuldade em compreender e usar essa informação para melhorar o conteúdo. Para isso, precisamos projetar os testes de forma que cada pergunta esteja associada a um determinado conceito ou bloco de conhecimento.
+
+Se quisermos ir ainda mais longe, podemos traçar o tempo gasto em cada módulo em relação à faixa etária dos alunos. Podemos descobrir que, para algumas faixas etárias, leva um tempo excessivamente longo para concluir o módulo, ou que os alunos desistem antes de terminá-lo. Isso pode ajudar-nos a fornecer recomendações de idade para o módulo e minimizar a insatisfação das pessoas devido a expectativas erradas.
+
+## 🚀 Desafio
+
+Neste desafio, tentaremos encontrar conceitos relevantes para o campo da Ciência de Dados analisando textos. Vamos pegar um artigo da Wikipédia sobre Ciência de Dados, descarregar e processar o texto, e depois construir uma nuvem de palavras como esta:
+
+
+
+Visite [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') para ler o código. Também pode executar o código e ver como ele realiza todas as transformações de dados em tempo real.
+
+> Se não sabe como executar código num Jupyter Notebook, veja [este artigo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Tarefas
+
+* **Tarefa 1**: Modifique o código acima para descobrir conceitos relacionados aos campos de **Big Data** e **Machine Learning**
+* **Tarefa 2**: [Pense em Cenários de Ciência de Dados](assignment.md)
+
+## Créditos
+
+Esta lição foi criada com ♥️ por [Dmitry Soshnikov](http://soshnikov.com)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos pela precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/01-defining-data-science/assignment.md b/translations/pt/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..ae0d30af
--- /dev/null
+++ b/translations/pt/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,44 @@
+
+# Tarefa: Cenários de Ciência de Dados
+
+Nesta primeira tarefa, pedimos que pense em algum processo ou problema da vida real em diferentes domínios de problemas, e como pode melhorá-lo utilizando o processo de Ciência de Dados. Pense no seguinte:
+
+1. Que dados pode recolher?
+1. Como os recolheria?
+1. Como armazenaria os dados? Qual seria o provável volume dos dados?
+1. Que insights poderia obter a partir desses dados? Que decisões poderíamos tomar com base nos dados?
+
+Tente pensar em 3 problemas/processos diferentes e descreva cada um dos pontos acima para cada domínio de problema.
+
+Aqui estão alguns domínios de problemas e questões que podem ajudá-lo a começar a pensar:
+
+1. Como pode usar dados para melhorar o processo educativo das crianças nas escolas?
+1. Como pode usar dados para controlar a vacinação durante a pandemia?
+1. Como pode usar dados para garantir que está a ser produtivo no trabalho?
+
+## Instruções
+
+Preencha a tabela seguinte (substitua os domínios de problemas sugeridos pelos seus próprios, se necessário):
+
+| Domínio do Problema | Problema | Que dados recolher | Como armazenar os dados | Que insights/decisões podemos tomar |
+|----------------------|----------|--------------------|--------------------------|-------------------------------------|
+| Educação | | | | |
+| Vacinação | | | | |
+| Produtividade | | | | |
+
+## Rubrica
+
+Exemplar | Adequado | Precisa de Melhorias
+--- | --- | --- |
+Foi capaz de identificar fontes de dados razoáveis, formas de armazenar os dados e possíveis decisões/insights para todos os domínios de problemas | Alguns aspetos da solução não estão detalhados, o armazenamento de dados não é discutido, pelo menos 2 domínios de problemas são descritos | Apenas partes da solução de dados são descritas, apenas um domínio de problema é considerado.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/pt/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..cf86e7f2
--- /dev/null
+++ b/translations/pt/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,46 @@
+
+# Tarefa: Cenários de Ciência de Dados
+
+Nesta primeira tarefa, pedimos que pense em algum processo ou problema da vida real em diferentes domínios de problemas, e como pode melhorá-lo utilizando o processo de Ciência de Dados. Pense no seguinte:
+
+1. Que dados pode recolher?
+1. Como os recolheria?
+1. Como armazenaria os dados? Qual seria o provável volume dos dados?
+1. Que insights poderia obter a partir desses dados? Que decisões poderíamos tomar com base nos dados?
+
+Tente pensar em 3 problemas/processos diferentes e descreva cada um dos pontos acima para cada domínio de problema.
+
+Aqui estão alguns domínios de problemas e questões que podem ajudá-lo a começar a pensar:
+
+1. Como pode usar dados para melhorar o processo educativo das crianças nas escolas?
+1. Como pode usar dados para controlar a vacinação durante a pandemia?
+1. Como pode usar dados para garantir que está a ser produtivo no trabalho?
+
+## Instruções
+
+Preencha a tabela seguinte (substitua os domínios de problemas sugeridos pelos seus próprios, se necessário):
+
+| Domínio do Problema | Problema | Que dados recolher | Como armazenar os dados | Que insights/decisões podemos tomar |
+|----------------------|----------|--------------------|--------------------------|-------------------------------------|
+| Educação | Na universidade, temos tipicamente baixa frequência às aulas, e temos a hipótese de que os estudantes que assistem às aulas, em média, têm melhor desempenho nos exames. Queremos estimular a frequência e testar a hipótese. | Podemos monitorizar a frequência através de fotografias tiradas pela câmara de segurança na sala de aula, ou rastreando os endereços bluetooth/wifi dos telemóveis dos estudantes na sala. Os dados dos exames já estão disponíveis na base de dados da universidade. | Caso monitorizemos imagens da câmara de segurança - precisamos armazenar algumas (5-10) fotografias durante a aula (dados não estruturados), e depois usar IA para identificar os rostos dos estudantes (converter os dados para formato estruturado). | Podemos calcular a frequência média de cada estudante e verificar se há alguma correlação com as notas dos exames. Falaremos mais sobre correlação na secção de [probabilidade e estatística](../../04-stats-and-probability/README.md). Para estimular a frequência dos estudantes, podemos publicar a classificação semanal de frequência no portal da escola e sortear prémios entre os que tiverem maior frequência. |
+| Vacinação | | | | |
+| Produtividade | | | | |
+
+> *Fornecemos apenas uma resposta como exemplo, para que possa ter uma ideia do que é esperado nesta tarefa.*
+
+## Rubrica
+
+Exemplar | Adequado | Precisa de Melhorias
+--- | --- | --- |
+Foi capaz de identificar fontes de dados razoáveis, formas de armazenar os dados e possíveis decisões/insights para todos os domínios de problemas | Alguns aspetos da solução não estão detalhados, o armazenamento de dados não é discutido, pelo menos 2 domínios de problemas são descritos | Apenas partes da solução de dados são descritas, apenas um domínio de problema é considerado.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/02-ethics/README.md b/translations/pt/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..37f44e4e
--- /dev/null
+++ b/translations/pt/1-Introduction/02-ethics/README.md
@@ -0,0 +1,265 @@
+
+# Introdução à Ética de Dados
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Ética em Ciência de Dados - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Somos todos cidadãos de dados vivendo num mundo dataficado.
+
+As tendências de mercado indicam que, até 2022, 1 em cada 3 grandes organizações comprará e venderá os seus dados através de [Mercados e Bolsas](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) online. Como **Desenvolvedores de Aplicações**, será mais fácil e barato integrar insights baseados em dados e automação orientada por algoritmos nas experiências diárias dos utilizadores. Mas, à medida que a IA se torna mais presente, também será necessário compreender os potenciais danos causados pela [armação](https://www.youtube.com/watch?v=TQHs8SA1qpk) desses algoritmos em larga escala.
+
+As tendências também indicam que criaremos e consumiremos mais de [180 zettabytes](https://www.statista.com/statistics/871513/worldwide-data-created/) de dados até 2025. Como **Cientistas de Dados**, isso nos dá níveis sem precedentes de acesso a dados pessoais. Isso significa que podemos construir perfis comportamentais de utilizadores e influenciar a tomada de decisões de formas que criam uma [ilusão de escolha livre](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), enquanto potencialmente direcionamos os utilizadores para resultados que preferimos. Isso também levanta questões mais amplas sobre privacidade de dados e proteção dos utilizadores.
+
+A ética de dados é agora _uma barreira necessária_ para a ciência e engenharia de dados, ajudando-nos a minimizar potenciais danos e consequências não intencionais das nossas ações orientadas por dados. O [Ciclo de Hype da Gartner para IA](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifica tendências relevantes em ética digital, IA responsável e governança de IA como motores-chave para megatendências maiores em torno da _democratização_ e _industrialização_ da IA.
+
+
+
+Nesta lição, exploraremos a área fascinante da ética de dados - desde conceitos e desafios fundamentais até estudos de caso e conceitos aplicados de IA, como governança - que ajudam a estabelecer uma cultura ética em equipas e organizações que trabalham com dados e IA.
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Definições Básicas
+
+Vamos começar por compreender a terminologia básica.
+
+A palavra "ética" vem da [palavra grega "ethikos"](https://en.wikipedia.org/wiki/Ethics) (e sua raiz "ethos"), que significa _caráter ou natureza moral_.
+
+**Ética** trata dos valores compartilhados e princípios morais que governam o nosso comportamento na sociedade. A ética não se baseia em leis, mas em normas amplamente aceitas sobre o que é "certo vs. errado". No entanto, considerações éticas podem influenciar iniciativas de governança corporativa e regulamentações governamentais que criam mais incentivos para conformidade.
+
+**Ética de Dados** é um [novo ramo da ética](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) que "estuda e avalia problemas morais relacionados a _dados, algoritmos e práticas correspondentes_". Aqui, **"dados"** foca em ações relacionadas à geração, gravação, curadoria, processamento, disseminação, partilha e uso; **"algoritmos"** foca em IA, agentes, aprendizagem automática e robôs; e **"práticas"** foca em tópicos como inovação responsável, programação, hacking e códigos de ética.
+
+**Ética Aplicada** é a [aplicação prática de considerações morais](https://en.wikipedia.org/wiki/Applied_ethics). É o processo de investigar ativamente questões éticas no contexto de _ações, produtos e processos do mundo real_, e tomar medidas corretivas para garantir que permaneçam alinhados com os valores éticos definidos.
+
+**Cultura Ética** trata de [_operacionalizar_ a ética aplicada](https://hbr.org/2019/05/how-to-design-an-ethical-organization) para garantir que os nossos princípios e práticas éticas sejam adotados de forma consistente e escalável em toda a organização. Culturas éticas bem-sucedidas definem princípios éticos em toda a organização, fornecem incentivos significativos para conformidade e reforçam normas éticas ao encorajar e amplificar comportamentos desejados em todos os níveis da organização.
+
+## Conceitos de Ética
+
+Nesta secção, discutiremos conceitos como **valores compartilhados** (princípios) e **desafios éticos** (problemas) para ética de dados - e exploraremos **estudos de caso** que ajudam a compreender esses conceitos em contextos do mundo real.
+
+### 1. Princípios Éticos
+
+Toda estratégia de ética de dados começa por definir _princípios éticos_ - os "valores compartilhados" que descrevem comportamentos aceitáveis e orientam ações conformes nos nossos projetos de dados e IA. Pode-se definir esses princípios a nível individual ou de equipa. No entanto, a maioria das grandes organizações delineia esses princípios numa declaração de missão ou estrutura de _IA ética_ definida a nível corporativo e aplicada de forma consistente em todas as equipas.
+
+**Exemplo:** A declaração de missão de [IA Responsável](https://www.microsoft.com/en-us/ai/responsible-ai) da Microsoft afirma: _"Estamos comprometidos com o avanço da IA orientada por princípios éticos que colocam as pessoas em primeiro lugar"_ - identificando 6 princípios éticos na estrutura abaixo:
+
+
+
+Vamos explorar brevemente esses princípios. _Transparência_ e _responsabilidade_ são valores fundamentais sobre os quais outros princípios se constroem - então vamos começar por aí:
+
+* [**Responsabilidade**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) torna os profissionais _responsáveis_ pelas suas operações de dados e IA, e pela conformidade com esses princípios éticos.
+* [**Transparência**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) garante que as ações de dados e IA sejam _compreensíveis_ (interpretáveis) para os utilizadores, explicando o quê e o porquê por trás das decisões.
+* [**Justiça**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - foca em garantir que a IA trate _todas as pessoas_ de forma justa, abordando quaisquer preconceitos sociotécnicos sistémicos ou implícitos nos dados e sistemas.
+* [**Fiabilidade e Segurança**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - garante que a IA se comporte de forma _consistente_ com os valores definidos, minimizando potenciais danos ou consequências não intencionais.
+* [**Privacidade e Segurança**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - trata de compreender a origem dos dados e fornecer _privacidade de dados e proteções relacionadas_ aos utilizadores.
+* [**Inclusão**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - trata de projetar soluções de IA com intenção, adaptando-as para atender a uma _ampla gama de necessidades e capacidades humanas_.
+
+> 🚨 Pense no que poderia ser a sua declaração de missão de ética de dados. Explore estruturas de IA ética de outras organizações - aqui estão exemplos da [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) e [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Quais valores compartilhados têm em comum? Como esses princípios se relacionam com o produto ou indústria de IA em que operam?
+
+### 2. Desafios Éticos
+
+Depois de definir os princípios éticos, o próximo passo é avaliar as nossas ações de dados e IA para ver se estão alinhadas com esses valores compartilhados. Pense nas suas ações em duas categorias: _coleta de dados_ e _design de algoritmos_.
+
+Na coleta de dados, as ações provavelmente envolverão **dados pessoais** ou informações pessoalmente identificáveis (PII) de indivíduos identificáveis. Isso inclui [diversos itens de dados não pessoais](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) que, _coletivamente_, identificam um indivíduo. Os desafios éticos podem estar relacionados à _privacidade de dados_, _propriedade de dados_ e tópicos relacionados, como _consentimento informado_ e _direitos de propriedade intelectual_ dos utilizadores.
+
+No design de algoritmos, as ações envolverão a coleta e curadoria de **conjuntos de dados**, e o uso desses dados para treinar e implementar **modelos de dados** que preveem resultados ou automatizam decisões em contextos do mundo real. Os desafios éticos podem surgir de _viés nos conjuntos de dados_, problemas de _qualidade dos dados_, _injustiça_ e _má representação_ nos algoritmos - incluindo alguns problemas que são sistémicos por natureza.
+
+Em ambos os casos, os desafios éticos destacam áreas onde as nossas ações podem entrar em conflito com os valores compartilhados. Para detetar, mitigar, minimizar ou eliminar essas preocupações, precisamos fazer perguntas morais "sim/não" relacionadas às nossas ações e tomar medidas corretivas conforme necessário. Vamos dar uma olhada em alguns desafios éticos e nas questões morais que eles levantam:
+
+#### 2.1 Propriedade de Dados
+
+A coleta de dados frequentemente envolve dados pessoais que podem identificar os sujeitos dos dados. [Propriedade de dados](https://permission.io/blog/data-ownership) trata do _controlo_ e [_direitos dos utilizadores_](https://permission.io/blog/data-ownership) relacionados à criação, processamento e disseminação de dados.
+
+As questões morais que precisamos perguntar são:
+ * Quem é o proprietário dos dados? (utilizador ou organização)
+ * Quais direitos têm os sujeitos dos dados? (ex: acesso, eliminação, portabilidade)
+ * Quais direitos têm as organizações? (ex: retificar avaliações maliciosas de utilizadores)
+
+#### 2.2 Consentimento Informado
+
+[Consentimento informado](https://legaldictionary.net/informed-consent/) define o ato de os utilizadores concordarem com uma ação (como coleta de dados) com um _entendimento completo_ dos factos relevantes, incluindo o propósito, os riscos potenciais e as alternativas.
+
+Questões a explorar aqui são:
+ * O utilizador (sujeito dos dados) deu permissão para a captura e uso dos dados?
+ * O utilizador compreendeu o propósito para o qual os dados foram capturados?
+ * O utilizador compreendeu os riscos potenciais da sua participação?
+
+#### 2.3 Propriedade Intelectual
+
+[Propriedade intelectual](https://en.wikipedia.org/wiki/Intellectual_property) refere-se a criações intangíveis resultantes da iniciativa humana, que podem _ter valor económico_ para indivíduos ou empresas.
+
+Questões a explorar aqui são:
+ * Os dados coletados têm valor económico para um utilizador ou empresa?
+ * O **utilizador** tem propriedade intelectual aqui?
+ * A **organização** tem propriedade intelectual aqui?
+ * Se esses direitos existem, como estamos a protegê-los?
+
+#### 2.4 Privacidade de Dados
+
+[Privacidade de dados](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) ou privacidade da informação refere-se à preservação da privacidade do utilizador e proteção da identidade do utilizador em relação a informações pessoalmente identificáveis.
+
+Questões a explorar aqui são:
+ * Os dados (pessoais) dos utilizadores estão protegidos contra ataques e vazamentos?
+ * Os dados dos utilizadores são acessíveis apenas a utilizadores e contextos autorizados?
+ * A anonimidade dos utilizadores é preservada quando os dados são partilhados ou disseminados?
+ * Um utilizador pode ser desidentificado de conjuntos de dados anonimizados?
+
+#### 2.5 Direito ao Esquecimento
+
+O [Direito ao Esquecimento](https://en.wikipedia.org/wiki/Right_to_be_forgotten) ou [Direito à Eliminação](https://www.gdpreu.org/right-to-be-forgotten/) fornece proteção adicional de dados pessoais aos utilizadores. Especificamente, dá aos utilizadores o direito de solicitar a eliminação ou remoção de dados pessoais de pesquisas na Internet e outros locais, _sob circunstâncias específicas_ - permitindo-lhes um novo começo online sem que ações passadas sejam usadas contra eles.
+
+Questões a explorar aqui são:
+ * O sistema permite que os sujeitos dos dados solicitem a eliminação?
+ * A retirada do consentimento do utilizador deve acionar a eliminação automática?
+ * Os dados foram coletados sem consentimento ou por meios ilegais?
+ * Estamos em conformidade com as regulamentações governamentais de privacidade de dados?
+
+#### 2.6 Viés nos Conjuntos de Dados
+
+Viés nos conjuntos de dados ou [Viés de Coleta](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) trata da seleção de um subconjunto _não representativo_ de dados para o desenvolvimento de algoritmos, criando potencial injustiça nos resultados para grupos diversos. Tipos de viés incluem viés de seleção ou amostragem, viés de voluntariado e viés de instrumentos.
+
+Questões a explorar aqui são:
+ * Recrutámos um conjunto representativo de sujeitos dos dados?
+ * Testámos o nosso conjunto de dados coletado ou curado para vários tipos de viés?
+ * Podemos mitigar ou remover quaisquer vieses descobertos?
+
+#### 2.7 Qualidade dos Dados
+
+[Qualidade dos Dados](https://lakefs.io/data-quality-testing/) analisa a validade do conjunto de dados curado usado para desenvolver os nossos algoritmos, verificando se as características e os registos atendem aos requisitos para o nível de precisão e consistência necessário para o propósito da IA.
+
+Questões a explorar aqui são:
+ * Capturámos características válidas para o nosso caso de uso?
+ * Os dados foram capturados de forma consistente em diversas fontes de dados?
+ * O conjunto de dados está completo para condições ou cenários diversos?
+ * As informações capturadas refletem a realidade com precisão?
+
+#### 2.8 Justiça nos Algoritmos
+[Justiça Algorítmica](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) verifica se o design do algoritmo discrimina sistematicamente subgrupos específicos de sujeitos de dados, levando a [potenciais danos](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) na _alocação_ (quando recursos são negados ou retidos desse grupo) e na _qualidade do serviço_ (quando a IA não é tão precisa para alguns subgrupos quanto é para outros).
+
+Perguntas a explorar aqui são:
+ * Avaliámos a precisão do modelo para diversos subgrupos e condições?
+ * Analisámos o sistema em busca de potenciais danos (por exemplo, estereótipos)?
+ * Podemos revisar os dados ou re-treinar os modelos para mitigar os danos identificados?
+
+Explore recursos como [checklists de Justiça em IA](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) para saber mais.
+
+#### 2.9 Distorção de Dados
+
+[Distorção de Dados](https://www.sciencedirect.com/topics/computer-science/misrepresentation) refere-se a questionar se estamos a comunicar insights de dados relatados de forma honesta, mas de maneira enganosa, para apoiar uma narrativa desejada.
+
+Perguntas a explorar aqui são:
+ * Estamos a relatar dados incompletos ou imprecisos?
+ * Estamos a visualizar dados de forma a induzir conclusões enganosas?
+ * Estamos a usar técnicas estatísticas seletivas para manipular resultados?
+ * Existem explicações alternativas que possam oferecer uma conclusão diferente?
+
+#### 2.10 Livre Escolha
+A [Ilusão de Livre Escolha](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ocorre quando "arquiteturas de escolha" do sistema usam algoritmos de tomada de decisão para influenciar as pessoas a tomarem um resultado preferido, enquanto aparentam dar-lhes opções e controlo. Estes [padrões obscuros](https://www.darkpatterns.org/) podem causar danos sociais e económicos aos utilizadores. Como as decisões dos utilizadores impactam perfis de comportamento, estas ações podem potencialmente impulsionar escolhas futuras que amplificam ou prolongam o impacto desses danos.
+
+Perguntas a explorar aqui são:
+ * O utilizador compreendeu as implicações de fazer essa escolha?
+ * O utilizador estava ciente das (alternativas) escolhas e dos prós e contras de cada uma?
+ * O utilizador pode reverter uma escolha automatizada ou influenciada mais tarde?
+
+### 3. Estudos de Caso
+
+Para colocar esses desafios éticos em contextos do mundo real, é útil analisar estudos de caso que destacam os potenciais danos e consequências para indivíduos e a sociedade, quando essas violações éticas são ignoradas.
+
+Aqui estão alguns exemplos:
+
+| Desafio Ético | Estudo de Caso |
+|--- |--- |
+| **Consentimento Informado** | 1972 - [Estudo de Sífilis de Tuskegee](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Homens afro-americanos que participaram no estudo foram prometidos cuidados médicos gratuitos, _mas foram enganados_ por investigadores que não informaram os sujeitos sobre o diagnóstico ou a disponibilidade de tratamento. Muitos morreram e parceiros ou filhos foram afetados; o estudo durou 40 anos. |
+| **Privacidade de Dados** | 2007 - O [prémio de dados da Netflix](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) forneceu a investigadores _10M classificações de filmes anonimizadas de 50K clientes_ para ajudar a melhorar algoritmos de recomendação. No entanto, os investigadores conseguiram correlacionar dados anonimizados com dados pessoalmente identificáveis em _conjuntos de dados externos_ (por exemplo, comentários no IMDb), efetivamente "desanonimizando" alguns assinantes da Netflix.|
+| **Viés na Coleta de Dados** | 2013 - A cidade de Boston [desenvolveu o Street Bump](https://www.boston.gov/transportation/street-bump), uma app que permitia aos cidadãos reportar buracos, fornecendo melhores dados sobre estradas para a cidade identificar e corrigir problemas. No entanto, [pessoas de grupos de baixa renda tinham menos acesso a carros e telemóveis](https://hbr.org/2013/04/the-hidden-biases-in-big-data), tornando os problemas das suas estradas invisíveis nesta app. Os desenvolvedores trabalharam com académicos para abordar questões de _acesso equitativo e divisões digitais_ para maior justiça. |
+| **Justiça Algorítmica** | 2018 - O estudo [Gender Shades do MIT](http://gendershades.org/overview.html) avaliou a precisão de produtos de IA para classificação de género, expondo lacunas na precisão para mulheres e pessoas de cor. Um [cartão Apple de 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) parecia oferecer menos crédito a mulheres do que a homens. Ambos ilustraram problemas de viés algorítmico que levam a danos socioeconómicos.|
+| **Distorção de Dados** | 2020 - O [Departamento de Saúde Pública da Geórgia divulgou gráficos de COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) que pareciam enganar os cidadãos sobre as tendências de casos confirmados com ordenação não cronológica no eixo x. Isto ilustra distorção através de truques de visualização. |
+| **Ilusão de Livre Escolha** | 2020 - A app de aprendizagem [ABCmouse pagou $10M para resolver uma queixa da FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) onde os pais foram presos em subscrições que não conseguiam cancelar. Isto ilustra padrões obscuros em arquiteturas de escolha, onde os utilizadores foram influenciados a tomar decisões potencialmente prejudiciais. |
+| **Privacidade de Dados & Direitos dos Utilizadores** | 2021 - A [violação de dados do Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) expôs dados de 530M de utilizadores, resultando num acordo de $5B com a FTC. No entanto, a empresa recusou-se a notificar os utilizadores da violação, violando os direitos dos utilizadores em relação à transparência e acesso aos dados. |
+
+Quer explorar mais estudos de caso? Confira estes recursos:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - dilemas éticos em diversas indústrias.
+* [Curso de Ética em Ciência de Dados](https://www.coursera.org/learn/data-science-ethics#syllabus) - estudos de caso marcantes explorados.
+* [Onde as coisas deram errado](https://deon.drivendata.org/examples/) - checklist Deon com exemplos.
+
+> 🚨 Pense nos estudos de caso que viu - já experienciou ou foi afetado por um desafio ético semelhante na sua vida? Consegue pensar em pelo menos um outro estudo de caso que ilustre um dos desafios éticos discutidos nesta secção?
+
+## Ética Aplicada
+
+Falámos sobre conceitos éticos, desafios e estudos de caso em contextos do mundo real. Mas como começamos a _aplicar_ princípios e práticas éticas nos nossos projetos? E como _operacionalizamos_ essas práticas para uma melhor governança? Vamos explorar algumas soluções do mundo real:
+
+### 1. Códigos Profissionais
+
+Códigos Profissionais oferecem uma opção para as organizações "incentivarem" os membros a apoiar os seus princípios éticos e declaração de missão. Os códigos são _diretrizes morais_ para o comportamento profissional, ajudando os funcionários ou membros a tomar decisões que estejam alinhadas com os princípios da organização. Eles só são eficazes com a adesão voluntária dos membros; no entanto, muitas organizações oferecem recompensas e penalidades adicionais para motivar a conformidade.
+
+Exemplos incluem:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Código de Ética
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Código de Conduta (criado em 2013)
+ * [ACM Código de Ética e Conduta Profissional](https://www.acm.org/code-of-ethics) (desde 1993)
+
+> 🚨 Pertence a uma organização profissional de engenharia ou ciência de dados? Explore o site para ver se definem um código de ética profissional. O que isso diz sobre os seus princípios éticos? Como estão a "incentivar" os membros a seguir o código?
+
+### 2. Checklists de Ética
+
+Embora os códigos profissionais definam o _comportamento ético_ exigido dos profissionais, eles [têm limitações conhecidas](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) na aplicação, particularmente em projetos de grande escala. Em vez disso, muitos especialistas em ciência de dados [defendem checklists](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), que podem **conectar princípios a práticas** de forma mais determinística e acionável.
+
+Os checklists convertem perguntas em tarefas de "sim/não" que podem ser operacionalizadas, permitindo que sejam rastreadas como parte dos fluxos de trabalho padrão de lançamento de produtos.
+
+Exemplos incluem:
+ * [Deon](https://deon.drivendata.org/) - um checklist de ética em dados de uso geral criado a partir de [recomendações da indústria](https://deon.drivendata.org/#checklist-citations) com uma ferramenta de linha de comando para fácil integração.
+ * [Checklist de Auditoria de Privacidade](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - fornece orientação geral para práticas de manuseio de informações sob perspetivas legais e sociais.
+ * [Checklist de Justiça em IA](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - criado por profissionais de IA para apoiar a adoção e integração de verificações de justiça nos ciclos de desenvolvimento de IA.
+ * [22 perguntas para ética em dados e IA](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - estrutura mais aberta, projetada para exploração inicial de questões éticas em design, implementação e contextos organizacionais.
+
+### 3. Regulamentações de Ética
+
+A ética trata de definir valores compartilhados e fazer o que é certo _voluntariamente_. **Conformidade** trata de _seguir a lei_ onde e quando definida. **Governança** abrange amplamente todas as formas como as organizações operam para aplicar princípios éticos e cumprir leis estabelecidas.
+
+Hoje, a governança assume duas formas dentro das organizações. Primeiro, trata-se de definir princípios de **IA ética** e estabelecer práticas para operacionalizar a adoção em todos os projetos relacionados à IA na organização. Segundo, trata-se de cumprir todas as regulamentações governamentais de **proteção de dados** para as regiões em que opera.
+
+Exemplos de regulamentações de proteção e privacidade de dados:
+
+ * `1974`, [Lei de Privacidade dos EUA](https://www.justice.gov/opcl/privacy-act-1974) - regula a coleta, uso e divulgação de informações pessoais pelo _governo federal_.
+ * `1996`, [Lei de Portabilidade e Responsabilidade de Seguros de Saúde dos EUA (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - protege dados de saúde pessoais.
+ * `1998`, [Lei de Proteção à Privacidade Online das Crianças dos EUA (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - protege a privacidade de dados de crianças menores de 13 anos.
+ * `2018`, [Regulamento Geral de Proteção de Dados (GDPR)](https://gdpr-info.eu/) - fornece direitos aos utilizadores, proteção de dados e privacidade.
+ * `2018`, [Lei de Privacidade do Consumidor da Califórnia (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - dá aos consumidores mais _direitos_ sobre os seus dados (pessoais).
+ * `2021`, [Lei de Proteção de Informações Pessoais da China](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) - uma das regulamentações de privacidade de dados online mais fortes do mundo.
+
+> 🚨 O Regulamento Geral de Proteção de Dados (GDPR) definido pela União Europeia continua a ser uma das regulamentações de privacidade de dados mais influentes hoje. Sabia que também define [8 direitos dos utilizadores](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) para proteger a privacidade digital e os dados pessoais dos cidadãos? Saiba quais são e por que são importantes.
+
+### 4. Cultura de Ética
+
+Note que ainda existe uma lacuna intangível entre _conformidade_ (fazer o suficiente para cumprir "a letra da lei") e abordar [questões sistémicas](https://www.coursera.org/learn/data-science-ethics/home/week/4) (como ossificação, assimetria de informações e injustiça distributiva) que podem acelerar a instrumentalização da IA.
+
+O último requer [abordagens colaborativas para definir culturas de ética](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) que construam conexões emocionais e valores compartilhados consistentes _entre organizações_ na indústria. Isso exige mais [culturas de ética de dados formalizadas](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) nas organizações - permitindo que _qualquer pessoa_ [puxe o cordão Andon](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (para levantar preocupações éticas cedo no processo) e tornando _avaliações éticas_ (por exemplo, em contratações) um critério central na formação de equipas em projetos de IA.
+
+---
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Revisão & Autoestudo
+
+Cursos e livros ajudam a compreender conceitos éticos fundamentais e desafios, enquanto estudos de caso e ferramentas ajudam com práticas de ética aplicada em contextos do mundo real. Aqui estão alguns recursos para começar:
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - lição sobre Justiça, da Microsoft.
+* [Princípios de IA Responsável](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - percurso de aprendizagem gratuito da Microsoft Learn.
+* [Ética e Ciência de Dados](https://resources.oreilly.com/examples/0636920203964) - EBook da O'Reilly (M. Loukides, H. Mason et. al)
+* [Ética na Ciência de Dados](https://www.coursera.org/learn/data-science-ethics#syllabus) - curso online da Universidade de Michigan.
+* [Ética Desvendada](https://ethicsunwrapped.utexas.edu/case-studies) - estudos de caso da Universidade do Texas.
+
+# Tarefa
+
+[Escreva Um Estudo de Caso Sobre Ética de Dados](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/02-ethics/assignment.md b/translations/pt/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..4b1f1acc
--- /dev/null
+++ b/translations/pt/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,33 @@
+
+## Escreva um Estudo de Caso sobre Ética de Dados
+
+## Instruções
+
+Aprendeu sobre vários [Desafios de Ética de Dados](README.md#2-ethics-challenges) e viu alguns exemplos de [Estudos de Caso](README.md#3-case-studies) que refletem desafios de ética de dados em contextos do mundo real.
+
+Nesta tarefa, irá escrever o seu próprio estudo de caso refletindo um desafio de ética de dados baseado na sua experiência ou num contexto relevante do mundo real com o qual esteja familiarizado. Basta seguir estes passos:
+
+1. `Escolha um Desafio de Ética de Dados`. Consulte [os exemplos da lição](README.md#2-ethics-challenges) ou explore exemplos online como [a Checklist Deon](https://deon.drivendata.org/examples/) para se inspirar.
+
+2. `Descreva um Exemplo do Mundo Real`. Pense numa situação de que tenha ouvido falar (notícias, estudo de investigação, etc.) ou que tenha experienciado (comunidade local), onde este desafio específico ocorreu. Reflita sobre as questões de ética de dados relacionadas com o desafio e discuta os potenciais danos ou consequências não intencionais que surgem devido a este problema. Pontos extra: pense em soluções ou processos que possam ser aplicados para ajudar a eliminar ou mitigar o impacto adverso deste desafio.
+
+3. `Forneça uma lista de Recursos Relacionados`. Partilhe um ou mais recursos (links para um artigo, um post de blog pessoal ou imagem, artigo de investigação online, etc.) para provar que isto foi uma ocorrência do mundo real. Pontos extra: partilhe recursos que também demonstrem os potenciais danos e consequências do incidente ou que destaquem passos positivos tomados para evitar a sua recorrência.
+
+
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | -- |
+Um ou mais desafios de ética de dados são identificados.
O estudo de caso descreve claramente um incidente do mundo real que reflete esse desafio e destaca as consequências ou danos indesejáveis que causou.
Existe pelo menos um recurso ligado para provar que isto ocorreu. | Um desafio de ética de dados é identificado.
Pelo menos um dano ou consequência relevante é discutido brevemente.
No entanto, a discussão é limitada ou carece de prova de ocorrência no mundo real. | Um desafio de dados é identificado.
No entanto, a descrição ou os recursos não refletem adequadamente o desafio ou não provam a sua ocorrência no mundo real. |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/03-defining-data/README.md b/translations/pt/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..55fb5ba9
--- /dev/null
+++ b/translations/pt/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,83 @@
+
+# Definindo Dados
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definindo Dados - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Dados são factos, informações, observações e medições que são utilizados para fazer descobertas e apoiar decisões informadas. Um ponto de dados é uma unidade única de dados dentro de um conjunto de dados, que é uma coleção de pontos de dados. Conjuntos de dados podem ter diferentes formatos e estruturas, geralmente baseados na sua origem ou na fonte dos dados. Por exemplo, os ganhos mensais de uma empresa podem estar numa folha de cálculo, enquanto os dados de frequência cardíaca por hora de um smartwatch podem estar no formato [JSON](https://stackoverflow.com/a/383699). É comum que cientistas de dados trabalhem com diferentes tipos de dados dentro de um conjunto de dados.
+
+Esta lição foca-se em identificar e classificar dados pelas suas características e fontes.
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+
+## Como os Dados são Descritos
+
+### Dados Brutos
+Dados brutos são dados que vêm da sua fonte no estado inicial e não foram analisados ou organizados. Para compreender o que está a acontecer num conjunto de dados, é necessário organizá-lo num formato que possa ser entendido por humanos, bem como pela tecnologia que pode ser usada para analisá-lo mais profundamente. A estrutura de um conjunto de dados descreve como está organizado e pode ser classificada como estruturada, não estruturada e semi-estruturada. Estes tipos de estrutura variam dependendo da fonte, mas encaixam-se, em última instância, nestas três categorias.
+
+### Dados Quantitativos
+Dados quantitativos são observações numéricas dentro de um conjunto de dados e podem geralmente ser analisados, medidos e utilizados matematicamente. Alguns exemplos de dados quantitativos são: a população de um país, a altura de uma pessoa ou os ganhos trimestrais de uma empresa. Com alguma análise adicional, os dados quantitativos podem ser usados para descobrir tendências sazonais do Índice de Qualidade do Ar (AQI) ou estimar a probabilidade de trânsito na hora de ponta num dia típico de trabalho.
+
+### Dados Qualitativos
+Dados qualitativos, também conhecidos como dados categóricos, são dados que não podem ser medidos objetivamente como as observações de dados quantitativos. Geralmente são vários formatos de dados subjetivos que capturam a qualidade de algo, como um produto ou processo. Por vezes, dados qualitativos são numéricos, mas não seriam normalmente utilizados matematicamente, como números de telefone ou marcas de tempo. Alguns exemplos de dados qualitativos são: comentários em vídeos, a marca e modelo de um carro ou a cor favorita dos seus amigos mais próximos. Dados qualitativos podem ser usados para compreender quais produtos os consumidores preferem ou identificar palavras-chave populares em currículos de candidaturas de emprego.
+
+### Dados Estruturados
+Dados estruturados são dados organizados em linhas e colunas, onde cada linha terá o mesmo conjunto de colunas. As colunas representam um valor de um tipo específico e serão identificadas com um nome que descreve o que o valor representa, enquanto as linhas contêm os valores reais. As colunas frequentemente têm um conjunto específico de regras ou restrições sobre os valores, para garantir que os valores representam com precisão a coluna. Por exemplo, imagine uma folha de cálculo de clientes onde cada linha deve ter um número de telefone e os números de telefone nunca contêm caracteres alfabéticos. Podem ser aplicadas regras na coluna de número de telefone para garantir que nunca está vazia e contém apenas números.
+
+Uma vantagem dos dados estruturados é que podem ser organizados de forma a serem relacionados com outros dados estruturados. No entanto, como os dados são projetados para serem organizados de uma forma específica, fazer alterações na sua estrutura geral pode exigir muito esforço. Por exemplo, adicionar uma coluna de email à folha de cálculo de clientes que não pode estar vazia significa que será necessário descobrir como adicionar esses valores às linhas existentes de clientes no conjunto de dados.
+
+Exemplos de dados estruturados: folhas de cálculo, bases de dados relacionais, números de telefone, extratos bancários.
+
+### Dados Não Estruturados
+Dados não estruturados geralmente não podem ser categorizados em linhas ou colunas e não contêm um formato ou conjunto de regras a seguir. Como os dados não estruturados têm menos restrições na sua estrutura, é mais fácil adicionar novas informações em comparação com um conjunto de dados estruturado. Se um sensor que captura dados sobre pressão barométrica a cada 2 minutos receber uma atualização que agora permite medir e registrar temperatura, não será necessário alterar os dados existentes se forem não estruturados. No entanto, isso pode tornar a análise ou investigação deste tipo de dados mais demorada. Por exemplo, um cientista que deseja encontrar a temperatura média do mês anterior a partir dos dados do sensor, mas descobre que o sensor registrou um "e" em alguns dos seus dados para indicar que estava avariado, em vez de um número típico, o que significa que os dados estão incompletos.
+
+Exemplos de dados não estruturados: ficheiros de texto, mensagens de texto, ficheiros de vídeo.
+
+### Dados Semi-Estruturados
+Dados semi-estruturados têm características que os tornam uma combinação de dados estruturados e não estruturados. Geralmente não seguem um formato de linhas e colunas, mas são organizados de uma forma considerada estruturada e podem seguir um formato fixo ou conjunto de regras. A estrutura varia entre fontes, como uma hierarquia bem definida ou algo mais flexível que permite uma fácil integração de novas informações. Metadados são indicadores que ajudam a decidir como os dados são organizados e armazenados e terão vários nomes, dependendo do tipo de dados. Alguns nomes comuns para metadados são tags, elementos, entidades e atributos. Por exemplo, uma mensagem de email típica terá um assunto, corpo e um conjunto de destinatários e pode ser organizada por quem ou quando foi enviada.
+
+Exemplos de dados semi-estruturados: HTML, ficheiros CSV, JavaScript Object Notation (JSON).
+
+## Fontes de Dados
+
+Uma fonte de dados é o local inicial onde os dados foram gerados ou onde "vivem" e varia com base em como e quando foram coletados. Dados gerados pelos seus utilizadores são conhecidos como dados primários, enquanto dados secundários vêm de uma fonte que coletou dados para uso geral. Por exemplo, um grupo de cientistas que coleta observações numa floresta tropical seria considerado primário e, se decidirem partilhá-lo com outros cientistas, seria considerado secundário para aqueles que o utilizam.
+
+Bases de dados são uma fonte comum e dependem de um sistema de gestão de bases de dados para hospedar e manter os dados, onde os utilizadores utilizam comandos chamados consultas para explorar os dados. Ficheiros como fontes de dados podem ser ficheiros de áudio, imagem e vídeo, bem como folhas de cálculo como Excel. Fontes da internet são um local comum para hospedar dados, onde bases de dados e ficheiros podem ser encontrados. Interfaces de programação de aplicações, também conhecidas como APIs, permitem que programadores criem formas de partilhar dados com utilizadores externos através da internet, enquanto o processo de web scraping extrai dados de uma página web. As [lições em Trabalhar com Dados](../../../../../../../../../2-Working-With-Data) focam-se em como utilizar várias fontes de dados.
+
+## Conclusão
+
+Nesta lição aprendemos:
+
+- O que são dados
+- Como os dados são descritos
+- Como os dados são classificados e categorizados
+- Onde os dados podem ser encontrados
+
+## 🚀 Desafio
+
+Kaggle é uma excelente fonte de conjuntos de dados abertos. Utilize a [ferramenta de pesquisa de conjuntos de dados](https://www.kaggle.com/datasets) para encontrar alguns conjuntos de dados interessantes e classifique 3-5 conjuntos de dados com este critério:
+
+- Os dados são quantitativos ou qualitativos?
+- Os dados são estruturados, não estruturados ou semi-estruturados?
+
+## [Questionário Pós-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Revisão & Autoestudo
+
+- Esta unidade do Microsoft Learn, intitulada [Classifique os seus Dados](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), tem uma explicação detalhada sobre dados estruturados, semi-estruturados e não estruturados.
+
+## Tarefa
+
+[Classificar Conjuntos de Dados](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/03-defining-data/assignment.md b/translations/pt/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..4282d138
--- /dev/null
+++ b/translations/pt/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,77 @@
+
+# Classificação de Conjuntos de Dados
+
+## Instruções
+
+Siga as instruções nesta tarefa para identificar e classificar os dados com um de cada um dos seguintes tipos de dados:
+
+**Tipos de Estrutura**: Estruturado, Semi-Estruturado ou Não Estruturado
+
+**Tipos de Valor**: Qualitativo ou Quantitativo
+
+**Tipos de Fonte**: Primária ou Secundária
+
+1. Uma empresa foi adquirida e agora tem uma empresa-mãe. Os cientistas de dados receberam uma folha de cálculo com números de telefone de clientes da empresa-mãe.
+
+Tipo de Estrutura:
+
+Tipo de Valor:
+
+Tipo de Fonte:
+
+---
+
+2. Um relógio inteligente tem estado a recolher dados de frequência cardíaca do utilizador, e os dados brutos estão em formato JSON.
+
+Tipo de Estrutura:
+
+Tipo de Valor:
+
+Tipo de Fonte:
+
+---
+
+3. Um inquérito no local de trabalho sobre o moral dos funcionários que está armazenado num ficheiro CSV.
+
+Tipo de Estrutura:
+
+Tipo de Valor:
+
+Tipo de Fonte:
+
+---
+
+4. Astrofísicos estão a aceder a uma base de dados de galáxias que foi recolhida por uma sonda espacial. Os dados contêm o número de planetas em cada galáxia.
+
+Tipo de Estrutura:
+
+Tipo de Valor:
+
+Tipo de Fonte:
+
+---
+
+5. Uma aplicação de finanças pessoais utiliza APIs para ligar-se às contas financeiras de um utilizador, a fim de calcular o seu património líquido. O utilizador pode ver todas as suas transações num formato de linhas e colunas que se assemelha a uma folha de cálculo.
+
+Tipo de Estrutura:
+
+Tipo de Valor:
+
+Tipo de Fonte:
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | -- |
+Identifica corretamente todos os tipos de estrutura, valor e fonte |Identifica corretamente 3 tipos de estrutura, valor e fonte|Identifica corretamente 2 ou menos tipos de estrutura, valor e fonte|
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/04-stats-and-probability/README.md b/translations/pt/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..a7a2aef0
--- /dev/null
+++ b/translations/pt/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,274 @@
+
+# Uma Breve Introdução à Estatística e Probabilidade
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Estatística e Probabilidade - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+A Teoria da Estatística e da Probabilidade são duas áreas altamente relacionadas da Matemática e extremamente relevantes para a Ciência de Dados. É possível trabalhar com dados sem um conhecimento profundo de matemática, mas é sempre melhor conhecer pelo menos alguns conceitos básicos. Aqui apresentaremos uma breve introdução para ajudá-lo a começar.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Probabilidade e Variáveis Aleatórias
+
+**Probabilidade** é um número entre 0 e 1 que expressa quão provável é que um **evento** ocorra. Ela é definida como o número de resultados positivos (que levam ao evento), dividido pelo número total de resultados, assumindo que todos os resultados são igualmente prováveis. Por exemplo, ao lançar um dado, a probabilidade de obtermos um número par é 3/6 = 0,5.
+
+Quando falamos de eventos, usamos **variáveis aleatórias**. Por exemplo, a variável aleatória que representa o número obtido ao lançar um dado pode assumir valores de 1 a 6. O conjunto de números de 1 a 6 é chamado de **espaço amostral**. Podemos falar sobre a probabilidade de uma variável aleatória assumir um determinado valor, por exemplo, P(X=3)=1/6.
+
+A variável aleatória no exemplo anterior é chamada de **discreta**, porque possui um espaço amostral contável, ou seja, há valores separados que podem ser enumerados. Existem casos em que o espaço amostral é um intervalo de números reais ou o conjunto completo de números reais. Essas variáveis são chamadas de **contínuas**. Um bom exemplo é o horário de chegada de um autocarro.
+
+## Distribuição de Probabilidade
+
+No caso de variáveis aleatórias discretas, é fácil descrever a probabilidade de cada evento por uma função P(X). Para cada valor *s* do espaço amostral *S*, ela fornecerá um número entre 0 e 1, de modo que a soma de todos os valores de P(X=s) para todos os eventos seja igual a 1.
+
+A distribuição discreta mais conhecida é a **distribuição uniforme**, na qual há um espaço amostral de N elementos, com probabilidade igual de 1/N para cada um deles.
+
+É mais difícil descrever a distribuição de probabilidade de uma variável contínua, com valores retirados de algum intervalo [a,b] ou do conjunto completo de números reais ℝ. Considere o caso do horário de chegada de um autocarro. Na verdade, para cada horário exato de chegada *t*, a probabilidade de o autocarro chegar exatamente nesse horário é 0!
+
+> Agora sabe que eventos com probabilidade 0 acontecem, e com muita frequência! Pelo menos sempre que o autocarro chega!
+
+Só podemos falar sobre a probabilidade de uma variável cair em um determinado intervalo de valores, por exemplo, P(t1≤X2). Nesse caso, a distribuição de probabilidade é descrita por uma **função densidade de probabilidade** p(x), tal que:
+
+![P(t_1\le X1, x2, ..., xn. Podemos definir o valor **médio** (ou **média aritmética**) da sequência da maneira tradicional como (x1+x2+xn)/n. À medida que aumentamos o tamanho da amostra (ou seja, tomamos o limite com n→∞), obtemos a média (também chamada de **expectativa**) da distribuição. Denotaremos a expectativa por **E**(x).
+
+> Pode-se demonstrar que, para qualquer distribuição discreta com valores {x1, x2, ..., xN} e probabilidades correspondentes p1, p2, ..., pN, a expectativa será igual a E(X)=x1p1+x2p2+...+xNpN.
+
+Para identificar o quão dispersos estão os valores, podemos calcular a variância σ2 = ∑(xi - μ)2/n, onde μ é a média da sequência. O valor σ é chamado de **desvio padrão**, e σ2 é chamado de **variância**.
+
+## Moda, Mediana e Quartis
+
+Às vezes, a média não representa adequadamente o valor "típico" dos dados. Por exemplo, quando há alguns valores extremos completamente fora do intervalo, eles podem afetar a média. Outra boa indicação é a **mediana**, um valor tal que metade dos pontos de dados são menores que ele, e a outra metade - maiores.
+
+Para nos ajudar a entender a distribuição dos dados, é útil falar sobre **quartis**:
+
+* O primeiro quartil, ou Q1, é um valor tal que 25% dos dados estão abaixo dele
+* O terceiro quartil, ou Q3, é um valor tal que 75% dos dados estão abaixo dele
+
+Graficamente, podemos representar a relação entre a mediana e os quartis em um diagrama chamado **box plot**:
+
+
+
+Aqui também calculamos o **intervalo interquartil** IQR=Q3-Q1, e os chamados **outliers** - valores que estão fora dos limites [Q1-1.5*IQR,Q3+1.5*IQR].
+
+Para uma distribuição finita que contém um pequeno número de valores possíveis, um bom valor "típico" é aquele que aparece com mais frequência, chamado de **moda**. É frequentemente aplicado a dados categóricos, como cores. Considere uma situação em que temos dois grupos de pessoas - algumas que preferem fortemente vermelho, e outras que preferem azul. Se codificarmos as cores por números, o valor médio para a cor favorita estaria em algum lugar no espectro laranja-verde, o que não indica a preferência real de nenhum dos grupos. No entanto, a moda seria uma das cores, ou ambas, se o número de pessoas que votaram nelas for igual (nesse caso, chamamos a amostra de **multimodal**).
+
+## Dados do Mundo Real
+
+Quando analisamos dados do mundo real, eles frequentemente não são variáveis aleatórias no sentido de que não realizamos experimentos com resultados desconhecidos. Por exemplo, considere uma equipa de jogadores de basebol e seus dados corporais, como altura, peso e idade. Esses números não são exatamente aleatórios, mas ainda podemos aplicar os mesmos conceitos matemáticos. Por exemplo, uma sequência de pesos de pessoas pode ser considerada uma sequência de valores retirados de alguma variável aleatória. Abaixo está a sequência de pesos de jogadores reais de basebol da [Major League Baseball](http://mlb.mlb.com/index.jsp), retirada [deste conjunto de dados](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (para sua conveniência, apenas os primeiros 20 valores são mostrados):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Nota**: Para ver o exemplo de trabalho com este conjunto de dados, consulte o [notebook complementar](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb). Há também vários desafios ao longo desta lição, e pode completá-los adicionando algum código a esse notebook. Se não souber como operar com dados, não se preocupe - voltaremos a trabalhar com dados usando Python mais tarde. Se não souber como executar código no Jupyter Notebook, veja [este artigo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Aqui está o box plot mostrando média, mediana e quartis para os nossos dados:
+
+
+
+Como os nossos dados contêm informações sobre diferentes **funções** dos jogadores, também podemos fazer o box plot por função - isso permitirá entender como os valores dos parâmetros diferem entre as funções. Desta vez, consideraremos a altura:
+
+
+
+Este diagrama sugere que, em média, a altura dos jogadores de primeira base é maior do que a altura dos jogadores de segunda base. Mais tarde nesta lição, aprenderemos como testar esta hipótese de forma mais formal e como demonstrar que os nossos dados são estatisticamente significativos para provar isso.
+
+> Ao trabalhar com dados do mundo real, assumimos que todos os pontos de dados são amostras retiradas de alguma distribuição de probabilidade. Essa suposição permite-nos aplicar técnicas de machine learning e construir modelos preditivos funcionais.
+
+Para ver qual é a distribuição dos nossos dados, podemos traçar um gráfico chamado **histograma**. O eixo X conterá um número de diferentes intervalos de peso (os chamados **bins**), e o eixo vertical mostrará o número de vezes que a amostra da variável aleatória esteve dentro de um determinado intervalo.
+
+
+
+A partir deste histograma, pode-se ver que todos os valores estão centrados em torno de um determinado peso médio, e quanto mais nos afastamos desse peso, menos frequentes são os pesos desse valor. Ou seja, é muito improvável que o peso de um jogador de basebol seja muito diferente do peso médio. A variância dos pesos mostra a extensão em que os pesos provavelmente diferem da média.
+
+> Se considerarmos os pesos de outras pessoas, que não sejam da liga de basebol, a distribuição provavelmente será diferente. No entanto, o formato da distribuição será o mesmo, mas a média e a variância mudarão. Assim, se treinarmos o nosso modelo com jogadores de basebol, é provável que ele forneça resultados errados quando aplicado a estudantes de uma universidade, porque a distribuição subjacente é diferente.
+
+## Distribuição Normal
+
+A distribuição de pesos que vimos acima é muito típica, e muitas medições do mundo real seguem o mesmo tipo de distribuição, mas com médias e variâncias diferentes. Essa distribuição é chamada de **distribuição normal**, e desempenha um papel muito importante na estatística.
+
+Usar a distribuição normal é uma forma correta de gerar pesos aleatórios de potenciais jogadores de basebol. Uma vez que conhecemos o peso médio `mean` e o desvio padrão `std`, podemos gerar 1000 amostras de peso da seguinte forma:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Se traçarmos o histograma das amostras geradas, veremos uma imagem muito semelhante à mostrada acima. E se aumentarmos o número de amostras e o número de bins, podemos gerar uma imagem de uma distribuição normal mais próxima do ideal:
+
+
+
+*Distribuição Normal com média=0 e desvio padrão=1*
+
+## Intervalos de Confiança
+
+Quando falamos sobre os pesos dos jogadores de basebol, assumimos que existe uma **variável aleatória W** que corresponde à distribuição de probabilidade ideal dos pesos de todos os jogadores de basebol (a chamada **população**). A nossa sequência de pesos corresponde a um subconjunto de todos os jogadores de basebol que chamamos de **amostra**. Uma questão interessante é: podemos conhecer os parâmetros da distribuição de W, ou seja, a média e a variância da população?
+
+A resposta mais simples seria calcular a média e a variância da nossa amostra. No entanto, pode acontecer que a nossa amostra aleatória não represente com precisão a população completa. Assim, faz sentido falar sobre **intervalos de confiança**.
+> **Intervalo de confiança** é a estimativa do verdadeiro valor médio da população com base na nossa amostra, que é precisa dentro de uma determinada probabilidade (ou **nível de confiança**).
+Suponhamos que temos uma amostra X1, ..., Xn da nossa distribuição. Cada vez que retiramos uma amostra da nossa distribuição, acabamos com um valor médio diferente μ. Assim, μ pode ser considerado uma variável aleatória. Um **intervalo de confiança** com confiança p é um par de valores (Lp,Rp), tal que **P**(Lp≤μ≤Rp) = p, ou seja, a probabilidade de o valor médio medido estar dentro do intervalo é igual a p.
+
+Vai além da nossa breve introdução discutir em detalhe como esses intervalos de confiança são calculados. Mais detalhes podem ser encontrados [na Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). Em resumo, definimos a distribuição da média amostral calculada em relação à média verdadeira da população, que é chamada de **distribuição t de Student**.
+
+> **Fato interessante**: A distribuição t de Student foi nomeada em homenagem ao matemático William Sealy Gosset, que publicou seu artigo sob o pseudônimo "Student". Ele trabalhava na cervejaria Guinness e, segundo uma das versões, seu empregador não queria que o público soubesse que estavam usando testes estatísticos para determinar a qualidade das matérias-primas.
+
+Se quisermos estimar a média μ da nossa população com confiança p, precisamos tomar o *(1-p)/2-ésimo percentil* de uma distribuição t de Student A, que pode ser obtido em tabelas ou calculado usando algumas funções integradas de software estatístico (por exemplo, Python, R, etc.). Então, o intervalo para μ seria dado por X±A*D/√n, onde X é a média obtida da amostra e D é o desvio padrão.
+
+> **Nota**: Também omitimos a discussão de um conceito importante de [graus de liberdade](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), que é relevante em relação à distribuição t de Student. Pode consultar livros mais completos sobre estatística para entender este conceito mais profundamente.
+
+Um exemplo de cálculo de intervalo de confiança para pesos e alturas é dado nos [notebooks associados](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+| p | Média do peso |
+|------|---------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Note que quanto maior a probabilidade de confiança, mais amplo é o intervalo de confiança.
+
+## Teste de Hipóteses
+
+No nosso conjunto de dados de jogadores de baseball, existem diferentes funções de jogadores, que podem ser resumidas abaixo (veja o [notebook associado](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) para ver como esta tabela pode ser calculada):
+
+| Função | Altura | Peso | Contagem |
+|--------------------|------------|------------|----------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Podemos notar que as alturas médias dos jogadores de primeira base são maiores do que as dos jogadores de segunda base. Assim, podemos ser tentados a concluir que **jogadores de primeira base são mais altos do que jogadores de segunda base**.
+
+> Esta afirmação é chamada de **hipótese**, porque não sabemos se o fato é realmente verdadeiro ou não.
+
+No entanto, nem sempre é óbvio se podemos fazer esta conclusão. A partir da discussão acima, sabemos que cada média tem um intervalo de confiança associado e, portanto, essa diferença pode ser apenas um erro estatístico. Precisamos de uma forma mais formal de testar nossa hipótese.
+
+Vamos calcular os intervalos de confiança separadamente para as alturas dos jogadores de primeira e segunda base:
+
+| Confiança | Primeira Base | Segunda Base |
+|-----------|---------------|--------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Podemos ver que, sob nenhuma confiança, os intervalos se sobrepõem. Isso prova nossa hipótese de que jogadores de primeira base são mais altos do que jogadores de segunda base.
+
+Mais formalmente, o problema que estamos resolvendo é verificar se **duas distribuições de probabilidade são iguais**, ou pelo menos têm os mesmos parâmetros. Dependendo da distribuição, precisamos usar diferentes testes para isso. Se sabemos que nossas distribuições são normais, podemos aplicar o **[teste t de Student](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+No teste t de Student, calculamos o chamado **valor t**, que indica a diferença entre as médias, levando em conta a variância. É demonstrado que o valor t segue a **distribuição t de Student**, o que nos permite obter o valor limite para um nível de confiança **p** (isso pode ser calculado ou consultado em tabelas numéricas). Em seguida, comparamos o valor t com este limite para aprovar ou rejeitar a hipótese.
+
+Em Python, podemos usar o pacote **SciPy**, que inclui a função `ttest_ind` (além de muitas outras funções estatísticas úteis!). Ela calcula o valor t para nós e também faz a consulta reversa do valor de confiança p, para que possamos apenas olhar para a confiança e tirar a conclusão.
+
+Por exemplo, nossa comparação entre as alturas dos jogadores de primeira e segunda base nos dá os seguintes resultados:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+No nosso caso, o valor p é muito baixo, o que significa que há evidências fortes de que os jogadores de primeira base são mais altos.
+
+Existem também outros tipos de hipóteses que podemos querer testar, por exemplo:
+* Provar que uma determinada amostra segue alguma distribuição. No nosso caso, assumimos que as alturas são distribuídas normalmente, mas isso precisa de verificação estatística formal.
+* Provar que o valor médio de uma amostra corresponde a um valor pré-definido.
+* Comparar as médias de várias amostras (por exemplo, qual é a diferença nos níveis de felicidade entre diferentes faixas etárias).
+
+## Lei dos Grandes Números e Teorema Central do Limite
+
+Uma das razões pelas quais a distribuição normal é tão importante é o chamado **teorema central do limite**. Suponha que temos uma grande amostra de N valores independentes X1, ..., XN, amostrados de qualquer distribuição com média μ e variância σ2. Então, para N suficientemente grande (em outras palavras, quando N→∞), a média ΣiXi será distribuída normalmente, com média μ e variância σ2/N.
+
+> Outra forma de interpretar o teorema central do limite é dizer que, independentemente da distribuição, quando se calcula a média de uma soma de valores de qualquer variável aleatória, acaba-se com uma distribuição normal.
+
+Do teorema central do limite também decorre que, quando N→∞, a probabilidade de a média da amostra ser igual a μ torna-se 1. Isso é conhecido como **a lei dos grandes números**.
+
+## Covariância e Correlação
+
+Uma das coisas que a Ciência de Dados faz é encontrar relações entre dados. Dizemos que duas sequências **correlacionam** quando exibem comportamentos semelhantes ao mesmo tempo, ou seja, elas sobem/descem simultaneamente, ou uma sequência sobe quando outra desce e vice-versa. Em outras palavras, parece haver alguma relação entre duas sequências.
+
+> Correlação não indica necessariamente uma relação causal entre duas sequências; às vezes, ambas as variáveis podem depender de alguma causa externa, ou pode ser puramente por acaso que as duas sequências se correlacionam. No entanto, uma correlação matemática forte é uma boa indicação de que duas variáveis estão de alguma forma conectadas.
+
+Matematicamente, o principal conceito que mostra a relação entre duas variáveis aleatórias é a **covariância**, que é calculada assim: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Calculamos o desvio de ambas as variáveis em relação aos seus valores médios e, em seguida, o produto desses desvios. Se ambas as variáveis se desviam juntas, o produto será sempre um valor positivo, que se somará a uma covariância positiva. Se ambas as variáveis se desviam fora de sincronia (ou seja, uma cai abaixo da média quando outra sobe acima da média), sempre obteremos números negativos, que se somarão a uma covariância negativa. Se os desvios não forem dependentes, eles se somarão a aproximadamente zero.
+
+O valor absoluto da covariância não nos diz muito sobre o quão grande é a correlação, porque depende da magnitude dos valores reais. Para normalizá-lo, podemos dividir a covariância pelo desvio padrão de ambas as variáveis, para obter a **correlação**. A vantagem é que a correlação está sempre no intervalo de [-1,1], onde 1 indica uma correlação positiva forte entre os valores, -1 - uma correlação negativa forte, e 0 - nenhuma correlação (variáveis independentes).
+
+**Exemplo**: Podemos calcular a correlação entre os pesos e alturas dos jogadores de baseball do conjunto de dados mencionado acima:
+```python
+print(np.corrcoef(weights,heights))
+```
+Como resultado, obtemos uma **matriz de correlação** como esta:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> A matriz de correlação C pode ser calculada para qualquer número de sequências de entrada S1, ..., Sn. O valor de Cij é a correlação entre Si e Sj, e os elementos diagonais são sempre 1 (que é também a autocorrelação de Si).
+
+No nosso caso, o valor 0.53 indica que há alguma correlação entre o peso e a altura de uma pessoa. Também podemos fazer o gráfico de dispersão de um valor contra o outro para ver a relação visualmente:
+
+
+
+> Mais exemplos de correlação e covariância podem ser encontrados no [notebook associado](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb).
+
+## Conclusão
+
+Nesta seção, aprendemos:
+
+* propriedades estatísticas básicas dos dados, como média, variância, moda e quartis
+* diferentes distribuições de variáveis aleatórias, incluindo a distribuição normal
+* como encontrar correlação entre diferentes propriedades
+* como usar um aparato matemático e estatístico sólido para provar algumas hipóteses
+* como calcular intervalos de confiança para variáveis aleatórias com base em amostras de dados
+
+Embora esta lista não seja exaustiva dos tópicos que existem dentro de probabilidade e estatística, deve ser suficiente para lhe dar um bom início neste curso.
+
+## 🚀 Desafio
+
+Use o código de exemplo no notebook para testar outras hipóteses:
+1. Jogadores de primeira base são mais velhos do que jogadores de segunda base.
+2. Jogadores de primeira base são mais altos do que jogadores de terceira base.
+3. Shortstops são mais altos do que jogadores de segunda base.
+
+## [Quiz pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Revisão e Autoestudo
+
+Probabilidade e estatística é um tópico tão amplo que merece seu próprio curso. Se estiver interessado em aprofundar-se na teoria, pode querer continuar lendo alguns dos seguintes livros:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) da Universidade de Nova York tem ótimos apontamentos [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (disponível online).
+1. [Peter e Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[código de exemplo em R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[código de exemplo em R](https://github.com/PacktPublishing/Statistics-for-Data-Science)].
+
+## Tarefa
+
+[Pequeno Estudo sobre Diabetes](assignment.md)
+
+## Créditos
+
+Esta lição foi criada com ♥️ por [Dmitry Soshnikov](http://soshnikov.com)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte oficial. Para informações críticas, recomenda-se a tradução profissional humana. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/04-stats-and-probability/assignment.md b/translations/pt/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..30c4a6a7
--- /dev/null
+++ b/translations/pt/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,38 @@
+
+# Pequeno Estudo sobre Diabetes
+
+Nesta tarefa, iremos trabalhar com um pequeno conjunto de dados de pacientes com diabetes retirado de [aqui](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | IDADE | SEXO | IMC | PA | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-------|------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
+
+## Instruções
+
+* Abra o [notebook da tarefa](../../../../1-Introduction/04-stats-and-probability/assignment.ipynb) num ambiente de jupyter notebook
+* Complete todas as tarefas listadas no notebook, nomeadamente:
+ * [ ] Calcular os valores médios e a variância para todos os valores
+ * [ ] Criar boxplots para IMC, PA e Y dependendo do género
+ * [ ] Qual é a distribuição das variáveis Idade, Sexo, IMC e Y?
+ * [ ] Testar a correlação entre diferentes variáveis e a progressão da doença (Y)
+ * [ ] Testar a hipótese de que o grau de progressão da diabetes é diferente entre homens e mulheres
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | --- |
+Todas as tarefas requeridas estão completas, ilustradas graficamente e explicadas | A maioria das tarefas está completa, mas faltam explicações ou conclusões dos gráficos e/ou valores obtidos | Apenas tarefas básicas como cálculo de média/variância e gráficos simples estão completas, sem conclusões retiradas dos dados
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos pela precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/1-Introduction/README.md b/translations/pt/1-Introduction/README.md
new file mode 100644
index 00000000..a6771276
--- /dev/null
+++ b/translations/pt/1-Introduction/README.md
@@ -0,0 +1,29 @@
+
+# Introdução à Ciência de Dados
+
+
+> Foto de Stephen Dawson no Unsplash
+
+Nestes módulos, irá descobrir como a Ciência de Dados é definida e aprender sobre as considerações éticas que devem ser tidas em conta por um cientista de dados. Também irá aprender como os dados são definidos e explorar um pouco de estatística e probabilidade, os domínios académicos centrais da Ciência de Dados.
+
+### Tópicos
+
+1. [Definir Ciência de Dados](01-defining-data-science/README.md)
+2. [Ética na Ciência de Dados](02-ethics/README.md)
+3. [Definir Dados](03-defining-data/README.md)
+4. [Introdução à Estatística e Probabilidade](04-stats-and-probability/README.md)
+
+### Créditos
+
+Estas lições foram escritas com ❤️ por [Nitya Narasimhan](https://twitter.com/nitya) e [Dmitry Soshnikov](https://twitter.com/shwars).
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/05-relational-databases/README.md b/translations/pt/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..677577cf
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,193 @@
+
+# Trabalhar com Dados: Bases de Dados Relacionais
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Trabalhar com Dados: Bases de Dados Relacionais - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+É provável que já tenha utilizado uma folha de cálculo no passado para armazenar informações. Tinha um conjunto de linhas e colunas, onde as linhas continham as informações (ou dados) e as colunas descreviam essas informações (por vezes chamadas de metadados). Uma base de dados relacional é construída com base neste princípio central de colunas e linhas em tabelas, permitindo que tenha informações distribuídas por várias tabelas. Isto possibilita trabalhar com dados mais complexos, evitar duplicação e ter flexibilidade na forma como explora os dados. Vamos explorar os conceitos de uma base de dados relacional.
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Tudo começa com tabelas
+
+Uma base de dados relacional tem como núcleo as tabelas. Tal como numa folha de cálculo, uma tabela é uma coleção de colunas e linhas. A linha contém os dados ou informações com que queremos trabalhar, como o nome de uma cidade ou a quantidade de precipitação. As colunas descrevem os dados que armazenam.
+
+Vamos começar a nossa exploração criando uma tabela para armazenar informações sobre cidades. Podemos começar com o nome e o país. Poderia armazenar isto numa tabela como segue:
+
+| Cidade | País |
+| -------- | ------------- |
+| Tóquio | Japão |
+| Atlanta | Estados Unidos|
+| Auckland | Nova Zelândia |
+
+Repare que os nomes das colunas **cidade**, **país** e **população** descrevem os dados que estão a ser armazenados, e cada linha tem informações sobre uma cidade.
+
+## As limitações de uma abordagem de tabela única
+
+É provável que a tabela acima lhe pareça relativamente familiar. Vamos começar a adicionar alguns dados adicionais à nossa base de dados em crescimento - precipitação anual (em milímetros). Vamos focar-nos nos anos 2018, 2019 e 2020. Se adicionássemos os dados para Tóquio, poderia ficar algo assim:
+
+| Cidade | País | Ano | Quantidade |
+| ------ | ------ | --- | ---------- |
+| Tóquio | Japão | 2020| 1690 |
+| Tóquio | Japão | 2019| 1874 |
+| Tóquio | Japão | 2018| 1445 |
+
+O que nota na nossa tabela? Pode reparar que estamos a duplicar o nome e o país da cidade várias vezes. Isso pode ocupar bastante espaço de armazenamento e é, em grande parte, desnecessário ter múltiplas cópias. Afinal, Tóquio tem apenas um nome que nos interessa.
+
+OK, vamos tentar outra abordagem. Vamos adicionar novas colunas para cada ano:
+
+| Cidade | País | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tóquio | Japão | 1445 | 1874 | 1690 |
+| Atlanta | Estados Unidos| 1779 | 1111 | 1683 |
+| Auckland | Nova Zelândia | 1386 | 942 | 1176 |
+
+Embora isto evite a duplicação de linhas, adiciona outros desafios. Teríamos de modificar a estrutura da nossa tabela sempre que houvesse um novo ano. Além disso, à medida que os nossos dados crescem, ter os anos como colunas tornará mais difícil recuperar e calcular valores.
+
+É por isso que precisamos de múltiplas tabelas e relações. Ao dividir os nossos dados, podemos evitar duplicação e ter mais flexibilidade na forma como trabalhamos com eles.
+
+## Os conceitos de relações
+
+Vamos voltar aos nossos dados e determinar como queremos dividi-los. Sabemos que queremos armazenar o nome e o país das nossas cidades, então isto provavelmente funcionará melhor numa tabela.
+
+| Cidade | País |
+| -------- | ------------- |
+| Tóquio | Japão |
+| Atlanta | Estados Unidos|
+| Auckland | Nova Zelândia |
+
+Mas antes de criarmos a próxima tabela, precisamos de descobrir como referenciar cada cidade. Precisamos de algum tipo de identificador, ID ou (em termos técnicos de bases de dados) uma chave primária. Uma chave primária é um valor usado para identificar uma linha específica numa tabela. Embora isto possa ser baseado num valor em si (poderíamos usar o nome da cidade, por exemplo), deve quase sempre ser um número ou outro identificador. Não queremos que o ID mude, pois isso quebraria a relação. Na maioria dos casos, a chave primária ou ID será um número gerado automaticamente.
+
+> ✅ Chave primária é frequentemente abreviada como PK
+
+### cidades
+
+| cidade_id | Cidade | País |
+| --------- | -------- | ------------- |
+| 1 | Tóquio | Japão |
+| 2 | Atlanta | Estados Unidos|
+| 3 | Auckland | Nova Zelândia |
+
+> ✅ Vai notar que usamos os termos "id" e "chave primária" de forma intercambiável durante esta lição. Os conceitos aqui aplicam-se a DataFrames, que explorará mais tarde. DataFrames não utilizam a terminologia de "chave primária", mas vai notar que se comportam de forma muito semelhante.
+
+Com a nossa tabela de cidades criada, vamos armazenar os dados de precipitação. Em vez de duplicar a informação completa sobre a cidade, podemos usar o ID. Devemos também garantir que a tabela recém-criada tenha uma coluna *id*, já que todas as tabelas devem ter um ID ou chave primária.
+
+### precipitação
+
+| precipitação_id | cidade_id | Ano | Quantidade |
+| --------------- | --------- | --- | ---------- |
+| 1 | 1 | 2018| 1445 |
+| 2 | 1 | 2019| 1874 |
+| 3 | 1 | 2020| 1690 |
+| 4 | 2 | 2018| 1779 |
+| 5 | 2 | 2019| 1111 |
+| 6 | 2 | 2020| 1683 |
+| 7 | 3 | 2018| 1386 |
+| 8 | 3 | 2019| 942 |
+| 9 | 3 | 2020| 1176 |
+
+Repare na coluna **cidade_id** dentro da tabela recém-criada **precipitação**. Esta coluna contém valores que referenciam os IDs na tabela **cidades**. Em termos técnicos de dados relacionais, isto é chamado de **chave estrangeira**; é uma chave primária de outra tabela. Pode pensar nela como uma referência ou um apontador. **cidade_id** 1 refere-se a Tóquio.
+
+> [!NOTE] Chave estrangeira é frequentemente abreviada como FK
+
+## Recuperar os dados
+
+Com os nossos dados separados em duas tabelas, pode estar a perguntar-se como os recuperamos. Se estivermos a usar uma base de dados relacional como MySQL, SQL Server ou Oracle, podemos usar uma linguagem chamada Structured Query Language ou SQL. SQL (por vezes pronunciado "sequel") é uma linguagem padrão usada para recuperar e modificar dados numa base de dados relacional.
+
+Para recuperar dados, usa-se o comando `SELECT`. Na sua essência, **seleciona** as colunas que deseja ver **de** dentro da tabela onde estão contidas. Se quisesse exibir apenas os nomes das cidades, poderia usar o seguinte:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` é onde lista as colunas, e `FROM` é onde lista as tabelas.
+
+> [NOTE] A sintaxe SQL não distingue maiúsculas de minúsculas, o que significa que `select` e `SELECT` têm o mesmo significado. No entanto, dependendo do tipo de base de dados que está a usar, as colunas e tabelas podem ser sensíveis a maiúsculas e minúsculas. Como resultado, é uma boa prática tratar sempre tudo em programação como se fosse sensível a maiúsculas e minúsculas. Quando escreve consultas SQL, a convenção comum é colocar as palavras-chave em letras maiúsculas.
+
+A consulta acima exibirá todas as cidades. Vamos imaginar que só queríamos exibir cidades na Nova Zelândia. Precisamos de algum tipo de filtro. A palavra-chave SQL para isso é `WHERE`, ou "onde algo é verdadeiro".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Juntar dados
+
+Até agora, recuperámos dados de uma única tabela. Agora queremos reunir os dados de **cidades** e **precipitação**. Isto é feito ao *juntar* as tabelas. Vai efetivamente criar uma ligação entre as duas tabelas e combinar os valores de uma coluna de cada tabela.
+
+No nosso exemplo, vamos combinar a coluna **cidade_id** em **precipitação** com a coluna **cidade_id** em **cidades**. Isto vai associar o valor de precipitação à sua respetiva cidade. O tipo de junção que vamos realizar é chamado de *inner join*, o que significa que, se alguma linha não corresponder a nada na outra tabela, não será exibida. No nosso caso, todas as cidades têm dados de precipitação, então tudo será exibido.
+
+Vamos recuperar os dados de precipitação de 2019 para todas as nossas cidades.
+
+Vamos fazer isto em etapas. O primeiro passo é juntar os dados indicando as colunas para a ligação - **cidade_id**, como destacado anteriormente.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Destacámos as duas colunas que queremos e o facto de querermos juntar as tabelas através da **cidade_id**. Agora podemos adicionar a instrução `WHERE` para filtrar apenas o ano de 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Resumo
+
+Bases de dados relacionais são centradas na divisão de informações entre múltiplas tabelas, que são então reunidas para exibição e análise. Isto proporciona um elevado grau de flexibilidade para realizar cálculos e manipular dados. Viu os conceitos principais de uma base de dados relacional e como realizar uma junção entre duas tabelas.
+
+## 🚀 Desafio
+
+Existem inúmeras bases de dados relacionais disponíveis na internet. Pode explorar os dados utilizando as competências que aprendeu acima.
+
+## Questionário pós-aula
+
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Revisão & Autoestudo
+
+Existem vários recursos disponíveis no [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) para continuar a sua exploração de conceitos de SQL e bases de dados relacionais.
+
+- [Descrever conceitos de dados relacionais](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Introdução à consulta com Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL é uma versão de SQL)
+- [Conteúdo de SQL no Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Tarefa
+
+[Título da Tarefa](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/05-relational-databases/assignment.md b/translations/pt/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..43f3f3d9
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,71 @@
+
+# Exibindo dados de aeroportos
+
+Foi-lhe fornecida uma [base de dados](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) construída em [SQLite](https://sqlite.org/index.html) que contém informações sobre aeroportos. O esquema está exibido abaixo. Irá utilizar a [extensão SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) no [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) para exibir informações sobre os aeroportos de diferentes cidades.
+
+## Instruções
+
+Para começar a tarefa, precisará realizar alguns passos. Será necessário instalar algumas ferramentas e descarregar a base de dados de exemplo.
+
+### Configurar o seu sistema
+
+Pode usar o Visual Studio Code e a extensão SQLite para interagir com a base de dados.
+
+1. Aceda a [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) e siga as instruções para instalar o Visual Studio Code
+1. Instale a [extensão SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) conforme indicado na página do Marketplace
+
+### Descarregar e abrir a base de dados
+
+De seguida, descarregue e abra a base de dados.
+
+1. Descarregue o [ficheiro da base de dados no GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) e guarde-o numa pasta
+1. Abra o Visual Studio Code
+1. Abra a base de dados na extensão SQLite selecionando **Ctl-Shift-P** (ou **Cmd-Shift-P** num Mac) e escrevendo `SQLite: Open database`
+1. Selecione **Choose database from file** e abra o ficheiro **airports.db** que descarregou anteriormente
+1. Após abrir a base de dados (não verá uma atualização no ecrã), crie uma nova janela de consulta selecionando **Ctl-Shift-P** (ou **Cmd-Shift-P** num Mac) e escrevendo `SQLite: New query`
+
+Depois de aberta, a nova janela de consulta pode ser usada para executar instruções SQL na base de dados. Pode usar o comando **Ctl-Shift-Q** (ou **Cmd-Shift-Q** num Mac) para executar consultas na base de dados.
+
+> [!NOTE] Para mais informações sobre a extensão SQLite, pode consultar a [documentação](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Esquema da base de dados
+
+O esquema de uma base de dados é o design e a estrutura das suas tabelas. A base de dados **airports** tem duas tabelas, `cities`, que contém uma lista de cidades no Reino Unido e na Irlanda, e `airports`, que contém a lista de todos os aeroportos. Como algumas cidades podem ter vários aeroportos, foram criadas duas tabelas para armazenar as informações. Neste exercício, irá usar joins para exibir informações de diferentes cidades.
+
+| Cidades |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Aeroportos |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK para id em **Cidades**) |
+
+## Tarefa
+
+Crie consultas para retornar as seguintes informações:
+
+1. todos os nomes de cidades na tabela `Cities`
+1. todas as cidades na Irlanda na tabela `Cities`
+1. todos os nomes de aeroportos com as respetivas cidades e países
+1. todos os aeroportos em Londres, Reino Unido
+
+## Rubrica
+
+| Exemplar | Adequado | Precisa de Melhorias |
+| --------- | -------- | -------------------- |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/06-non-relational/README.md b/translations/pt/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..9f210732
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,156 @@
+
+# Trabalhar com Dados: Dados Não-Relacionais
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Trabalhar com Dados NoSQL - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Os dados não estão limitados a bases de dados relacionais. Esta lição foca em dados não-relacionais e abordará os conceitos básicos de folhas de cálculo e NoSQL.
+
+## Folhas de Cálculo
+
+As folhas de cálculo são uma forma popular de armazenar e explorar dados porque exigem menos trabalho para configurar e começar. Nesta lição, aprenderás os componentes básicos de uma folha de cálculo, bem como fórmulas e funções. Os exemplos serão ilustrados com o Microsoft Excel, mas a maioria das partes e tópicos terá nomes e passos semelhantes em comparação com outros softwares de folhas de cálculo.
+
+
+
+Uma folha de cálculo é um ficheiro e estará acessível no sistema de ficheiros de um computador, dispositivo ou sistema de ficheiros baseado na nuvem. O software em si pode ser baseado no navegador ou uma aplicação que deve ser instalada num computador ou descarregada como uma app. No Excel, estes ficheiros também são definidos como **livros de trabalho** e esta terminologia será usada no restante desta lição.
+
+Um livro de trabalho contém uma ou mais **folhas de cálculo**, onde cada folha de cálculo é identificada por separadores. Dentro de uma folha de cálculo, existem retângulos chamados **células**, que contêm os dados reais. Uma célula é a interseção de uma linha e uma coluna, onde as colunas são identificadas por caracteres alfabéticos e as linhas por números. Algumas folhas de cálculo contêm cabeçalhos nas primeiras linhas para descrever os dados numa célula.
+
+Com estes elementos básicos de um livro de trabalho do Excel, usaremos um exemplo dos [Modelos da Microsoft](https://templates.office.com/) focado num inventário para explorar algumas partes adicionais de uma folha de cálculo.
+
+### Gerir um Inventário
+
+O ficheiro de folha de cálculo chamado "InventoryExample" é uma folha de cálculo formatada de itens dentro de um inventário que contém três folhas de cálculo, onde os separadores são identificados como "Inventory List", "Inventory Pick List" e "Bin Lookup". A linha 4 da folha de cálculo Inventory List é o cabeçalho, que descreve o valor de cada célula na coluna do cabeçalho.
+
+
+
+Existem casos em que uma célula depende dos valores de outras células para gerar o seu valor. A folha de cálculo Inventory List acompanha o custo de cada item no inventário, mas e se precisarmos de saber o valor total de tudo no inventário? [**Fórmulas**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) realizam ações nos dados das células e são usadas para calcular o custo do inventário neste exemplo. Esta folha de cálculo utilizou uma fórmula na coluna Inventory Value para calcular o valor de cada item multiplicando a quantidade sob o cabeçalho QTY pelos custos nas células sob o cabeçalho COST. Ao clicar duas vezes ou destacar uma célula, será exibida a fórmula. Notarás que as fórmulas começam com um sinal de igual, seguido do cálculo ou operação.
+
+
+
+Podemos usar outra fórmula para somar todos os valores de Inventory Value e obter o seu valor total. Isto poderia ser calculado somando cada célula para gerar a soma, mas isso pode ser uma tarefa tediosa. O Excel possui [**funções**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), ou fórmulas predefinidas para realizar cálculos nos valores das células. As funções requerem argumentos, que são os valores necessários para realizar esses cálculos. Quando as funções requerem mais de um argumento, eles precisam ser listados numa ordem específica ou a função pode não calcular o valor correto. Este exemplo usa a função SUM e utiliza os valores de Inventory Value como argumento para gerar o total listado na linha 3, coluna B (também referida como B3).
+
+## NoSQL
+
+NoSQL é um termo abrangente para as diferentes formas de armazenar dados não-relacionais e pode ser interpretado como "não-SQL", "não-relacional" ou "não apenas SQL". Estes tipos de sistemas de bases de dados podem ser categorizados em 4 tipos.
+
+
+> Fonte: [Blog de Michał Białecki](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+As bases de dados [chave-valor](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) associam chaves únicas, que são identificadores únicos associados a um valor. Estes pares são armazenados usando uma [tabela de dispersão](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) com uma função de dispersão apropriada.
+
+
+> Fonte: [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+As bases de dados [grafo](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) descrevem relações nos dados e são representadas como uma coleção de nós e arestas. Um nó representa uma entidade, algo que existe no mundo real, como um estudante ou um extrato bancário. As arestas representam a relação entre duas entidades. Cada nó e aresta têm propriedades que fornecem informações adicionais sobre cada um.
+
+
+
+Os [armazenamentos de dados colunares](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) organizam os dados em colunas e linhas, como uma estrutura de dados relacional, mas cada coluna é dividida em grupos chamados famílias de colunas, onde todos os dados sob uma coluna estão relacionados e podem ser recuperados e alterados como uma unidade.
+
+### Armazenamentos de Dados Documentais com o Azure Cosmos DB
+
+Os [armazenamentos de dados documentais](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) baseiam-se no conceito de um armazenamento de dados chave-valor e são compostos por uma série de campos e objetos. Esta secção explorará bases de dados documentais com o emulador do Cosmos DB.
+
+Uma base de dados do Cosmos DB encaixa-se na definição de "Não Apenas SQL", onde a base de dados documental do Cosmos DB depende de SQL para consultar os dados. A [lição anterior](../05-relational-databases/README.md) sobre SQL cobre os conceitos básicos da linguagem, e poderemos aplicar algumas das mesmas consultas a uma base de dados documental aqui. Usaremos o Emulador do Cosmos DB, que nos permite criar e explorar uma base de dados documental localmente num computador. Lê mais sobre o Emulador [aqui](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Um documento é uma coleção de campos e valores de objetos, onde os campos descrevem o que o valor do objeto representa. Abaixo está um exemplo de um documento.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Os campos de interesse neste documento são: `firstname`, `id` e `age`. Os restantes campos com sublinhados foram gerados pelo Cosmos DB.
+
+#### Explorar Dados com o Emulador do Cosmos DB
+
+Podes descarregar e instalar o emulador [para Windows aqui](https://aka.ms/cosmosdb-emulator). Consulta esta [documentação](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) para opções sobre como executar o Emulador no macOS e Linux.
+
+O Emulador abre uma janela no navegador, onde a vista Explorer permite explorar documentos.
+
+
+
+Se estiveres a seguir os passos, clica em "Start with Sample" para gerar uma base de dados de exemplo chamada SampleDB. Se expandires o SampleDB clicando na seta, encontrarás um contentor chamado `Persons`. Um contentor contém uma coleção de itens, que são os documentos dentro do contentor. Podes explorar os quatro documentos individuais sob `Items`.
+
+
+
+#### Consultar Dados Documentais com o Emulador do Cosmos DB
+
+Também podemos consultar os dados de exemplo clicando no botão "New SQL Query" (segundo botão a partir da esquerda).
+
+`SELECT * FROM c` retorna todos os documentos no contentor. Vamos adicionar uma cláusula where e encontrar todos com menos de 40 anos.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+A consulta retorna dois documentos, e nota que o valor de age para cada documento é inferior a 40.
+
+#### JSON e Documentos
+
+Se estás familiarizado com o JavaScript Object Notation (JSON), notarás que os documentos se assemelham a JSON. Existe um ficheiro `PersonsData.json` neste diretório com mais dados que podes carregar no contentor Persons no Emulador através do botão `Upload Item`.
+
+Na maioria dos casos, APIs que retornam dados em JSON podem ser diretamente transferidas e armazenadas em bases de dados documentais. Abaixo está outro documento, que representa tweets da conta do Twitter da Microsoft, recuperados usando a API do Twitter e inseridos no Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Os campos de interesse neste documento são: `created_at`, `id` e `text`.
+
+## 🚀 Desafio
+
+Existe um ficheiro `TwitterData.json` que podes carregar na base de dados SampleDB. Recomenda-se que o adiciones a um contentor separado. Isto pode ser feito:
+
+1. Clicando no botão "New Container" no canto superior direito
+1. Selecionando a base de dados existente (SampleDB) e criando um ID para o contentor
+1. Definindo a chave de partição como `/id`
+1. Clicando em OK (podes ignorar o resto das informações nesta vista, pois este é um pequeno conjunto de dados a ser executado localmente no teu computador)
+1. Abre o teu novo contentor e carrega o ficheiro Twitter Data com o botão `Upload Item`
+
+Tenta executar algumas consultas SELECT para encontrar os documentos que têm "Microsoft" no campo text. Dica: tenta usar a [palavra-chave LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Questionário Pós-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Revisão & Autoestudo
+
+- Existem algumas formatações e funcionalidades adicionais adicionadas a esta folha de cálculo que esta lição não aborda. A Microsoft tem uma [grande biblioteca de documentação e vídeos](https://support.microsoft.com/excel) sobre o Excel, caso estejas interessado em aprender mais.
+
+- Esta documentação arquitetural detalha as características dos diferentes tipos de dados não-relacionais: [Dados Não-Relacionais e NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- O Cosmos DB é uma base de dados não-relacional baseada na nuvem que também pode armazenar os diferentes tipos de NoSQL mencionados nesta lição. Aprende mais sobre estes tipos neste [Módulo de Aprendizagem do Cosmos DB da Microsoft](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Tarefa
+
+[Soda Profits](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/06-non-relational/assignment.md b/translations/pt/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..97119e21
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,31 @@
+
+# Lucros da Soda
+
+## Instruções
+
+A folha de cálculo [Coca Cola Co](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) está a faltar alguns cálculos. A sua tarefa é:
+
+1. Calcular os lucros brutos dos anos fiscais '15, '16, '17 e '18
+ - Lucro Bruto = Receitas Operacionais Líquidas - Custo dos bens vendidos
+1. Calcular a média de todos os lucros brutos. Tente fazer isso com uma função.
+ - Média = Soma dos lucros brutos dividida pelo número de anos fiscais (10)
+ - Documentação sobre a [função MÉDIA](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Este é um ficheiro Excel, mas deve ser editável em qualquer plataforma de folha de cálculo
+
+[Crédito da fonte de dados para Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | --- |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/07-python/README.md b/translations/pt/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..911173d0
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,288 @@
+
+# Trabalhar com Dados: Python e a Biblioteca Pandas
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Trabalhar com Python - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Embora bases de dados ofereçam formas muito eficientes de armazenar dados e consultá-los usando linguagens de consulta, a maneira mais flexível de processar dados é escrever o seu próprio programa para manipulá-los. Em muitos casos, realizar uma consulta em base de dados seria mais eficaz. No entanto, em alguns casos, quando é necessário um processamento de dados mais complexo, isso não pode ser feito facilmente usando SQL.
+O processamento de dados pode ser programado em qualquer linguagem de programação, mas há certas linguagens que são mais avançadas para trabalhar com dados. Cientistas de dados geralmente preferem uma das seguintes linguagens:
+
+* **[Python](https://www.python.org/)**, uma linguagem de programação de propósito geral, frequentemente considerada uma das melhores opções para iniciantes devido à sua simplicidade. Python possui muitas bibliotecas adicionais que podem ajudar a resolver diversos problemas práticos, como extrair dados de um arquivo ZIP ou converter uma imagem para tons de cinza. Além da ciência de dados, Python também é amplamente utilizado para desenvolvimento web.
+* **[R](https://www.r-project.org/)** é uma ferramenta tradicional desenvolvida com foco no processamento estatístico de dados. Também possui um grande repositório de bibliotecas (CRAN), tornando-se uma boa escolha para processamento de dados. No entanto, R não é uma linguagem de propósito geral e raramente é usada fora do domínio da ciência de dados.
+* **[Julia](https://julialang.org/)** é outra linguagem desenvolvida especificamente para ciência de dados. Foi projetada para oferecer melhor desempenho do que Python, tornando-se uma excelente ferramenta para experimentação científica.
+
+Nesta lição, vamos focar no uso de Python para processamento simples de dados. Assumimos que você já tem uma familiaridade básica com a linguagem. Se quiser um aprendizado mais aprofundado sobre Python, pode consultar um dos seguintes recursos:
+
+* [Aprenda Python de Forma Divertida com Gráficos Turtle e Fractais](https://github.com/shwars/pycourse) - Curso introdutório rápido baseado no GitHub sobre programação em Python
+* [Dê seus Primeiros Passos com Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Caminho de Aprendizado no [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Os dados podem vir em várias formas. Nesta lição, vamos considerar três formas de dados - **dados tabulares**, **texto** e **imagens**.
+
+Vamos focar em alguns exemplos de processamento de dados, em vez de oferecer uma visão completa de todas as bibliotecas relacionadas. Isso permitirá que você entenda o essencial do que é possível e saiba onde encontrar soluções para seus problemas quando necessário.
+
+> **Conselho mais útil**. Quando precisar realizar uma operação específica em dados e não souber como fazê-lo, tente pesquisar na internet. [Stackoverflow](https://stackoverflow.com/) geralmente contém muitos exemplos úteis de código em Python para diversas tarefas típicas.
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Dados Tabulares e Dataframes
+
+Você já encontrou dados tabulares quando falamos sobre bases de dados relacionais. Quando você tem muitos dados, e eles estão contidos em várias tabelas interligadas, definitivamente faz sentido usar SQL para trabalhar com eles. No entanto, há muitos casos em que temos uma tabela de dados e precisamos obter algum **entendimento** ou **insights** sobre esses dados, como a distribuição, correlação entre valores, etc. Na ciência de dados, há muitos casos em que precisamos realizar algumas transformações nos dados originais, seguidas de visualização. Ambos os passos podem ser facilmente realizados usando Python.
+
+Existem duas bibliotecas mais úteis em Python que podem ajudar você a lidar com dados tabulares:
+* **[Pandas](https://pandas.pydata.org/)** permite manipular os chamados **Dataframes**, que são análogos às tabelas relacionais. Você pode ter colunas nomeadas e realizar diferentes operações em linhas, colunas e dataframes em geral.
+* **[Numpy](https://numpy.org/)** é uma biblioteca para trabalhar com **tensores**, ou seja, **arrays** multidimensionais. Um array possui valores do mesmo tipo subjacente e é mais simples do que um dataframe, mas oferece mais operações matemáticas e cria menos sobrecarga.
+
+Há também algumas outras bibliotecas que você deve conhecer:
+* **[Matplotlib](https://matplotlib.org/)** é uma biblioteca usada para visualização de dados e criação de gráficos
+* **[SciPy](https://www.scipy.org/)** é uma biblioteca com algumas funções científicas adicionais. Já nos deparamos com esta biblioteca ao falar sobre probabilidade e estatística
+
+Aqui está um trecho de código que você normalmente usaria para importar essas bibliotecas no início do seu programa em Python:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas é centrado em alguns conceitos básicos.
+
+### Series
+
+**Series** é uma sequência de valores, semelhante a uma lista ou array do numpy. A principal diferença é que uma série também possui um **índice**, e quando operamos em séries (por exemplo, somamos), o índice é levado em consideração. O índice pode ser tão simples quanto o número inteiro da linha (é o índice usado por padrão ao criar uma série a partir de uma lista ou array), ou pode ter uma estrutura complexa, como intervalo de datas.
+
+> **Nota**: Há algum código introdutório de Pandas no notebook associado [`notebook.ipynb`](../../../../2-Working-With-Data/07-python/notebook.ipynb). Apenas destacamos alguns exemplos aqui, e você está definitivamente convidado a verificar o notebook completo.
+
+Considere um exemplo: queremos analisar as vendas do nosso ponto de venda de gelados. Vamos gerar uma série de números de vendas (número de itens vendidos por dia) para um determinado período de tempo:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Agora suponha que, a cada semana, organizamos uma festa para amigos e levamos 10 pacotes adicionais de gelado para a festa. Podemos criar outra série, indexada por semana, para demonstrar isso:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Quando somamos duas séries, obtemos o número total:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Nota** que não estamos usando a sintaxe simples `total_items+additional_items`. Se o fizéssemos, receberíamos muitos valores `NaN` (*Not a Number*) na série resultante. Isso ocorre porque há valores ausentes para alguns dos pontos de índice na série `additional_items`, e somar `NaN` a qualquer coisa resulta em `NaN`. Assim, precisamos especificar o parâmetro `fill_value` durante a soma.
+
+Com séries temporais, também podemos **re-amostrar** a série com diferentes intervalos de tempo. Por exemplo, suponha que queremos calcular o volume médio de vendas mensal. Podemos usar o seguinte código:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+Um DataFrame é essencialmente uma coleção de séries com o mesmo índice. Podemos combinar várias séries em um DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Isso criará uma tabela horizontal como esta:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | gosto | de | usar | Python | e | Pandas | muito | mesmo |
+
+Também podemos usar Series como colunas e especificar nomes de colunas usando um dicionário:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Isso nos dará uma tabela como esta:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | gosto |
+| 2 | 3 | de |
+| 3 | 4 | usar |
+| 4 | 5 | Python |
+| 5 | 6 | e |
+| 6 | 7 | Pandas |
+| 7 | 8 | muito |
+| 8 | 9 | mesmo |
+
+**Nota** que também podemos obter este layout de tabela transpondo a tabela anterior, por exemplo, escrevendo
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Aqui `.T` significa a operação de transposição do DataFrame, ou seja, trocar linhas e colunas, e a operação `rename` permite renomear colunas para corresponder ao exemplo anterior.
+
+Aqui estão algumas das operações mais importantes que podemos realizar em DataFrames:
+
+**Seleção de colunas**. Podemos selecionar colunas individuais escrevendo `df['A']` - esta operação retorna uma Series. Também podemos selecionar um subconjunto de colunas em outro DataFrame escrevendo `df[['B','A']]` - isso retorna outro DataFrame.
+
+**Filtragem** de apenas certas linhas por critérios. Por exemplo, para deixar apenas linhas com a coluna `A` maior que 5, podemos escrever `df[df['A']>5]`.
+
+> **Nota**: A forma como a filtragem funciona é a seguinte. A expressão `df['A']<5` retorna uma série booleana, que indica se a expressão é `True` ou `False` para cada elemento da série original `df['A']`. Quando a série booleana é usada como índice, ela retorna um subconjunto de linhas no DataFrame. Assim, não é possível usar expressões booleanas arbitrárias do Python, por exemplo, escrever `df[df['A']>5 and df['A']<7]` estaria errado. Em vez disso, você deve usar a operação especial `&` na série booleana, escrevendo `df[(df['A']>5) & (df['A']<7)]` (*os parênteses são importantes aqui*).
+
+**Criar novas colunas computáveis**. Podemos facilmente criar novas colunas computáveis para nosso DataFrame usando expressões intuitivas como esta:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Este exemplo calcula a divergência de A em relação ao seu valor médio. O que realmente acontece aqui é que estamos calculando uma série e, em seguida, atribuímos essa série ao lado esquerdo, criando outra coluna. Assim, não podemos usar operações que não sejam compatíveis com séries, por exemplo, o código abaixo está errado:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+O último exemplo, embora seja sintaticamente correto, nos dá um resultado errado, porque atribui o comprimento da série `B` a todos os valores na coluna, e não o comprimento dos elementos individuais como pretendíamos.
+
+Se precisarmos calcular expressões complexas como esta, podemos usar a função `apply`. O último exemplo pode ser escrito da seguinte forma:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Após as operações acima, terminaremos com o seguinte DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | gosto | -3.0 | 4 |
+| 2 | 3 | de | -2.0 | 2 |
+| 3 | 4 | usar | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | e | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | muito | 3.0 | 4 |
+| 8 | 9 | mesmo | 4.0 | 4 |
+
+**Selecionar linhas com base em números** pode ser feito usando o construto `iloc`. Por exemplo, para selecionar as primeiras 5 linhas do DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Agrupamento** é frequentemente usado para obter um resultado semelhante a *tabelas dinâmicas* no Excel. Suponha que queremos calcular o valor médio da coluna `A` para cada número dado de `LenB`. Então podemos agrupar nosso DataFrame por `LenB` e chamar `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Se precisarmos calcular a média e o número de elementos no grupo, então podemos usar a função mais complexa `aggregate`:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Isso nos dá a seguinte tabela:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Obtendo Dados
+Já vimos como é fácil construir Series e DataFrames a partir de objetos Python. No entanto, os dados geralmente vêm na forma de um ficheiro de texto ou uma tabela Excel. Felizmente, o Pandas oferece-nos uma maneira simples de carregar dados do disco. Por exemplo, ler um ficheiro CSV é tão simples como isto:
+```python
+df = pd.read_csv('file.csv')
+```
+Veremos mais exemplos de como carregar dados, incluindo obtê-los de sites externos, na seção "Desafio".
+
+### Impressão e Visualização
+
+Um Cientista de Dados frequentemente precisa explorar os dados, por isso é importante ser capaz de visualizá-los. Quando o DataFrame é grande, muitas vezes queremos apenas garantir que estamos a fazer tudo corretamente, imprimindo as primeiras linhas. Isto pode ser feito chamando `df.head()`. Se estiver a executar no Jupyter Notebook, ele imprimirá o DataFrame numa forma tabular agradável.
+
+Também já vimos o uso da função `plot` para visualizar algumas colunas. Embora `plot` seja muito útil para muitas tarefas e suporte diferentes tipos de gráficos através do parâmetro `kind=`, pode sempre usar a biblioteca `matplotlib` diretamente para criar algo mais complexo. Vamos abordar a visualização de dados em detalhe em lições separadas do curso.
+
+Este resumo cobre os conceitos mais importantes do Pandas, no entanto, a biblioteca é muito rica e não há limites para o que pode fazer com ela! Vamos agora aplicar este conhecimento para resolver um problema específico.
+
+## 🚀 Desafio 1: Analisar a Propagação da COVID
+
+O primeiro problema em que nos vamos focar é a modelação da propagação epidémica da COVID-19. Para isso, usaremos os dados sobre o número de indivíduos infetados em diferentes países, fornecidos pelo [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) da [Universidade Johns Hopkins](https://jhu.edu/). O conjunto de dados está disponível neste [repositório GitHub](https://github.com/CSSEGISandData/COVID-19).
+
+Como queremos demonstrar como lidar com dados, convidamo-lo a abrir [`notebook-covidspread.ipynb`](../../../../2-Working-With-Data/07-python/notebook-covidspread.ipynb) e lê-lo de cima para baixo. Pode também executar as células e realizar alguns desafios que deixámos para si no final.
+
+
+
+> Se não sabe como executar código no Jupyter Notebook, veja este [artigo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Trabalhar com Dados Não Estruturados
+
+Embora os dados frequentemente venham em forma tabular, em alguns casos precisamos de lidar com dados menos estruturados, como texto ou imagens. Neste caso, para aplicar as técnicas de processamento de dados que vimos acima, precisamos de **extrair** dados estruturados. Aqui estão alguns exemplos:
+
+* Extrair palavras-chave de texto e ver com que frequência essas palavras-chave aparecem
+* Usar redes neurais para extrair informações sobre objetos numa imagem
+* Obter informações sobre emoções de pessoas num feed de câmara de vídeo
+
+## 🚀 Desafio 2: Analisar Artigos sobre COVID
+
+Neste desafio, continuaremos com o tema da pandemia de COVID e focar-nos-emos no processamento de artigos científicos sobre o assunto. Existe o [Conjunto de Dados CORD-19](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) com mais de 7000 (à data de escrita) artigos sobre COVID, disponível com metadados e resumos (e para cerca de metade deles também está disponível o texto completo).
+
+Um exemplo completo de análise deste conjunto de dados usando o serviço cognitivo [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) é descrito neste [post de blog](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Vamos discutir uma versão simplificada desta análise.
+
+> **NOTE**: Não fornecemos uma cópia do conjunto de dados como parte deste repositório. Pode precisar de fazer o download do ficheiro [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) deste [conjunto de dados no Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Pode ser necessário registar-se no Kaggle. Também pode fazer o download do conjunto de dados sem registo [aqui](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), mas incluirá todos os textos completos além do ficheiro de metadados.
+
+Abra [`notebook-papers.ipynb`](../../../../2-Working-With-Data/07-python/notebook-papers.ipynb) e leia-o de cima para baixo. Pode também executar as células e realizar alguns desafios que deixámos para si no final.
+
+
+
+## Processamento de Dados de Imagem
+
+Recentemente, modelos de IA muito poderosos foram desenvolvidos que permitem compreender imagens. Existem muitas tarefas que podem ser resolvidas usando redes neurais pré-treinadas ou serviços na nuvem. Alguns exemplos incluem:
+
+* **Classificação de Imagens**, que pode ajudá-lo a categorizar a imagem numa das classes pré-definidas. Pode facilmente treinar os seus próprios classificadores de imagem usando serviços como [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Deteção de Objetos** para detetar diferentes objetos na imagem. Serviços como [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) podem detetar vários objetos comuns, e pode treinar um modelo [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) para detetar alguns objetos específicos de interesse.
+* **Deteção Facial**, incluindo idade, género e deteção de emoções. Isto pode ser feito através da [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Todos esses serviços na nuvem podem ser chamados usando [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), e assim podem ser facilmente incorporados no seu fluxo de trabalho de exploração de dados.
+
+Aqui estão alguns exemplos de exploração de dados a partir de fontes de dados de imagem:
+* No post de blog [Como Aprender Ciência de Dados sem Programação](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) exploramos fotos do Instagram, tentando entender o que faz as pessoas darem mais "likes" a uma foto. Primeiro extraímos o máximo de informações possível das imagens usando [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), e depois usamos o [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) para construir um modelo interpretável.
+* No [Workshop de Estudos Faciais](https://github.com/CloudAdvocacy/FaceStudies) usamos a [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) para extrair emoções de pessoas em fotografias de eventos, para tentar entender o que faz as pessoas felizes.
+
+## Conclusão
+
+Quer já tenha dados estruturados ou não estruturados, usando Python pode realizar todos os passos relacionados ao processamento e compreensão de dados. É provavelmente a maneira mais flexível de processar dados, e é por isso que a maioria dos cientistas de dados usa Python como sua ferramenta principal. Aprender Python em profundidade é provavelmente uma boa ideia se estiver sério na sua jornada de ciência de dados!
+
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Revisão & Estudo Individual
+
+**Livros**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Recursos Online**
+* Tutorial oficial [10 minutos para Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)
+* [Documentação sobre Visualização com Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Aprender Python**
+* [Aprenda Python de forma divertida com Turtle Graphics e Fractais](https://github.com/shwars/pycourse)
+* [Dê os seus primeiros passos com Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Caminho de Aprendizagem no [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Tarefa
+
+[Realize um estudo de dados mais detalhado para os desafios acima](assignment.md)
+
+## Créditos
+
+Esta lição foi criada com ♥️ por [Dmitry Soshnikov](http://soshnikov.com)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/07-python/assignment.md b/translations/pt/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..cd278e34
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,35 @@
+
+# Tarefa de Processamento de Dados em Python
+
+Nesta tarefa, pedimos que desenvolvas o código que começámos a criar nos nossos desafios. A tarefa consiste em duas partes:
+
+## Modelação da Propagação da COVID-19
+
+ - [ ] Traçar gráficos de *R* para 5-6 países diferentes num único gráfico para comparação, ou utilizando vários gráficos lado a lado.
+ - [ ] Ver como o número de mortes e recuperações se correlaciona com o número de casos infetados.
+ - [ ] Descobrir quanto tempo dura, em média, a doença, correlacionando visualmente a taxa de infeção e a taxa de mortes, procurando por algumas anomalias. Poderás precisar de analisar diferentes países para descobrir isso.
+ - [ ] Calcular a taxa de letalidade e como esta muda ao longo do tempo. *Poderás querer considerar a duração da doença em dias para deslocar uma série temporal antes de fazer os cálculos.*
+
+## Análise de Artigos sobre a COVID-19
+
+- [ ] Construir uma matriz de coocorrência de diferentes medicamentos e verificar quais medicamentos aparecem frequentemente juntos (ou seja, mencionados num mesmo resumo). Podes modificar o código para construir a matriz de coocorrência de medicamentos e diagnósticos.
+- [ ] Visualizar esta matriz utilizando um mapa de calor.
+- [ ] Como objetivo adicional, visualizar a coocorrência de medicamentos utilizando [diagrama de cordas](https://en.wikipedia.org/wiki/Chord_diagram). [Esta biblioteca](https://pypi.org/project/chord/) pode ajudar-te a desenhar um diagrama de cordas.
+- [ ] Como outro objetivo adicional, extrair as dosagens de diferentes medicamentos (como **400mg** em *tomar 400mg de cloroquina diariamente*) utilizando expressões regulares, e construir um dataframe que mostre diferentes dosagens para diferentes medicamentos. **Nota**: considera valores numéricos que estejam em proximidade textual com o nome do medicamento.
+
+## Rubrica
+
+Exemplar | Adequado | Precisa de Melhorias
+--- | --- | -- |
+Todas as tarefas estão completas, ilustradas graficamente e explicadas, incluindo pelo menos um dos dois objetivos adicionais | Mais de 5 tarefas estão completas, nenhum objetivo adicional foi tentado, ou os resultados não são claros | Menos de 5 (mas mais de 3) tarefas estão completas, as visualizações não ajudam a demonstrar o ponto
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/08-data-preparation/README.md b/translations/pt/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..225439e4
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,344 @@
+
+# Trabalhar com Dados: Preparação de Dados
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Preparação de Dados - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Dependendo da sua origem, os dados brutos podem conter algumas inconsistências que dificultam a análise e modelagem. Em outras palavras, esses dados podem ser categorizados como "sujos" e precisarão ser limpos. Esta lição foca em técnicas para limpar e transformar os dados, lidando com desafios como dados ausentes, imprecisos ou incompletos. Os tópicos abordados nesta lição utilizarão Python e a biblioteca Pandas e serão [demonstrados no notebook](../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb) dentro deste diretório.
+
+## A importância de limpar os dados
+
+- **Facilidade de uso e reutilização**: Quando os dados estão devidamente organizados e normalizados, é mais fácil pesquisá-los, utilizá-los e compartilhá-los com outras pessoas.
+
+- **Consistência**: A ciência de dados frequentemente exige trabalhar com mais de um conjunto de dados, onde conjuntos de diferentes fontes precisam ser combinados. Garantir que cada conjunto de dados individual tenha uma padronização comum assegura que os dados continuem úteis quando todos forem mesclados em um único conjunto.
+
+- **Precisão do modelo**: Dados que foram limpos melhoram a precisão dos modelos que dependem deles.
+
+## Objetivos e estratégias comuns de limpeza
+
+- **Explorar um conjunto de dados**: A exploração de dados, que será abordada numa [lição futura](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), pode ajudar a identificar dados que precisam ser limpos. Observar visualmente os valores dentro de um conjunto de dados pode estabelecer expectativas sobre o restante ou fornecer uma ideia dos problemas que podem ser resolvidos. A exploração pode envolver consultas básicas, visualizações e amostragem.
+
+- **Formatação**: Dependendo da origem, os dados podem ter inconsistências na forma como são apresentados. Isso pode causar problemas na pesquisa e representação dos valores, onde eles aparecem no conjunto de dados, mas não são devidamente representados em visualizações ou resultados de consultas. Problemas comuns de formatação incluem resolver espaços em branco, datas e tipos de dados. Resolver questões de formatação geralmente cabe às pessoas que estão utilizando os dados. Por exemplo, os padrões sobre como datas e números são apresentados podem variar de país para país.
+
+- **Duplicações**: Dados que aparecem mais de uma vez podem produzir resultados imprecisos e geralmente devem ser removidos. Isso pode ocorrer frequentemente ao combinar dois ou mais conjuntos de dados. No entanto, há casos em que duplicações em conjuntos de dados combinados contêm informações adicionais que podem precisar ser preservadas.
+
+- **Dados ausentes**: Dados ausentes podem causar imprecisões, bem como resultados fracos ou tendenciosos. Às vezes, isso pode ser resolvido com um "recarregamento" dos dados, preenchendo os valores ausentes com cálculos e código, como Python, ou simplesmente removendo o valor e os dados correspondentes. Existem várias razões para os dados estarem ausentes, e as ações tomadas para resolver esses valores ausentes podem depender de como e por que eles desapareceram.
+
+## Explorando informações de DataFrame
+> **Objetivo de aprendizagem:** Ao final desta subseção, você deve estar confortável em encontrar informações gerais sobre os dados armazenados em DataFrames do pandas.
+
+Depois de carregar seus dados no pandas, é provável que eles estejam em um DataFrame (consulte a [lição anterior](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) para uma visão detalhada). No entanto, se o conjunto de dados no seu DataFrame tiver 60.000 linhas e 400 colunas, como começar a entender com o que está lidando? Felizmente, o [pandas](https://pandas.pydata.org/) fornece ferramentas convenientes para rapidamente obter informações gerais sobre um DataFrame, além das primeiras e últimas linhas.
+
+Para explorar essa funcionalidade, vamos importar a biblioteca Python scikit-learn e usar um conjunto de dados icônico: o **conjunto de dados Iris**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Para começar, o método `info()` é usado para imprimir um resumo do conteúdo presente em um `DataFrame`. Vamos dar uma olhada neste conjunto de dados para ver o que temos:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+A partir disso, sabemos que o conjunto de dados *Iris* tem 150 entradas em quatro colunas sem entradas nulas. Todos os dados estão armazenados como números de ponto flutuante de 64 bits.
+
+- **DataFrame.head()**: Em seguida, para verificar o conteúdo real do `DataFrame`, usamos o método `head()`. Vamos ver como são as primeiras linhas do nosso `iris_df`:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Por outro lado, para verificar as últimas linhas do `DataFrame`, usamos o método `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Conclusão:** Apenas ao observar os metadados sobre as informações em um DataFrame ou os primeiros e últimos valores, você pode ter uma ideia imediata sobre o tamanho, formato e conteúdo dos dados com os quais está lidando.
+
+## Lidando com Dados Ausentes
+> **Objetivo de aprendizagem:** Ao final desta subseção, você deve saber como substituir ou remover valores nulos de DataFrames.
+
+Na maioria das vezes, os conjuntos de dados que você deseja usar (ou precisa usar) têm valores ausentes. Como os dados ausentes são tratados envolve escolhas sutis que podem afetar sua análise final e os resultados no mundo real.
+
+O pandas lida com valores ausentes de duas maneiras. A primeira, que você já viu em seções anteriores, é `NaN`, ou Not a Number. Este é, na verdade, um valor especial que faz parte da especificação IEEE de ponto flutuante e é usado apenas para indicar valores de ponto flutuante ausentes.
+
+Para valores ausentes que não sejam de ponto flutuante, o pandas usa o objeto `None` do Python. Embora possa parecer confuso encontrar dois tipos diferentes de valores que essencialmente dizem a mesma coisa, há razões programáticas sólidas para essa escolha de design e, na prática, isso permite que o pandas ofereça um bom compromisso para a grande maioria dos casos. Apesar disso, tanto `None` quanto `NaN` têm restrições que você precisa ter em mente em relação ao modo como podem ser usados.
+
+Confira mais sobre `NaN` e `None` no [notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Detectando valores nulos**: No `pandas`, os métodos `isnull()` e `notnull()` são suas principais ferramentas para detectar dados nulos. Ambos retornam máscaras booleanas sobre seus dados. Usaremos `numpy` para valores `NaN`:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Observe atentamente o resultado. Alguma coisa te surpreende? Embora `0` seja um nulo aritmético, ele é, no entanto, um número inteiro perfeitamente válido e o pandas o trata como tal. `''` é um pouco mais sutil. Embora o tenhamos usado na Seção 1 para representar um valor de string vazio, ele é, no entanto, um objeto de string e não uma representação de nulo para o pandas.
+
+Agora, vamos inverter isso e usar esses métodos de uma maneira mais parecida com a prática. Você pode usar máscaras booleanas diretamente como um índice de ``Series`` ou ``DataFrame``, o que pode ser útil ao tentar trabalhar com valores ausentes (ou presentes) isolados.
+
+> **Conclusão**: Tanto os métodos `isnull()` quanto `notnull()` produzem resultados semelhantes quando usados em `DataFrame`s: eles mostram os resultados e o índice desses resultados, o que será extremamente útil ao lidar com seus dados.
+
+- **Removendo valores nulos**: Além de identificar valores ausentes, o pandas fornece um meio conveniente de remover valores nulos de `Series` e `DataFrame`s. (Particularmente em conjuntos de dados grandes, muitas vezes é mais aconselhável simplesmente remover valores ausentes [NA] da sua análise do que lidar com eles de outras maneiras.) Para ver isso em ação, vamos voltar ao `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Observe que isso deve se parecer com sua saída de `example3[example3.notnull()]`. A diferença aqui é que, em vez de apenas indexar os valores mascarados, `dropna` removeu esses valores ausentes da `Series` `example1`.
+
+Como os `DataFrame`s têm duas dimensões, eles oferecem mais opções para remover dados.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Você reparou que o pandas converteu duas das colunas para ponto flutuante para acomodar os `NaN`s?)
+
+Você não pode remover um único valor de um `DataFrame`, então precisa remover linhas ou colunas inteiras. Dependendo do que você está fazendo, pode querer fazer uma coisa ou outra, e o pandas oferece opções para ambas. Como na ciência de dados as colunas geralmente representam variáveis e as linhas representam observações, é mais provável que você remova linhas de dados; a configuração padrão para `dropna()` é remover todas as linhas que contêm quaisquer valores nulos:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Se necessário, você pode remover valores NA de colunas. Use `axis=1` para fazer isso:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Observe que isso pode remover muitos dados que você pode querer manter, particularmente em conjuntos de dados menores. E se você quiser apenas remover linhas ou colunas que contenham vários ou até mesmo todos os valores nulos? Você especifica essas configurações em `dropna` com os parâmetros `how` e `thresh`.
+
+Por padrão, `how='any'` (se quiser verificar por si mesmo ou ver quais outros parâmetros o método possui, execute `example4.dropna?` em uma célula de código). Você pode, alternativamente, especificar `how='all'` para remover apenas linhas ou colunas que contenham todos os valores nulos. Vamos expandir nosso exemplo de `DataFrame` para ver isso em ação.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+O parâmetro `thresh` oferece um controle mais detalhado: você define o número de valores *não nulos* que uma linha ou coluna precisa ter para ser mantida:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Aqui, a primeira e última linha foram removidas, porque contêm apenas dois valores não nulos.
+
+- **Preenchendo valores nulos**: Dependendo do seu conjunto de dados, às vezes faz mais sentido preencher valores nulos com valores válidos do que removê-los. Você poderia usar `isnull` para fazer isso diretamente, mas isso pode ser trabalhoso, especialmente se você tiver muitos valores para preencher. Como essa é uma tarefa comum na ciência de dados, o pandas fornece `fillna`, que retorna uma cópia da `Series` ou `DataFrame` com os valores ausentes substituídos por um valor de sua escolha. Vamos criar outra `Series` de exemplo para ver como isso funciona na prática.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Você pode preencher todas as entradas nulas com um único valor, como `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Você pode **preencher para frente** valores nulos, ou seja, usar o último valor válido para preencher um nulo:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Você também pode **preencher para trás** para propagar o próximo valor válido para trás e preencher um nulo:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Como você pode imaginar, isso funciona da mesma forma com `DataFrame`s, mas você também pode especificar um `axis` ao longo do qual preencher valores nulos. Usando novamente o `example2` anteriormente utilizado:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Observe que, quando um valor anterior não está disponível para preenchimento para frente, o valor nulo permanece.
+> **Conclusão:** Existem várias formas de lidar com valores em falta nos seus conjuntos de dados. A estratégia específica que utiliza (removê-los, substituí-los ou até mesmo como os substitui) deve ser ditada pelas particularidades desses dados. Quanto mais trabalhar e interagir com conjuntos de dados, melhor será a sua capacidade de lidar com valores em falta.
+
+## Remoção de dados duplicados
+
+> **Objetivo de aprendizagem:** No final desta subseção, deverá sentir-se confortável em identificar e remover valores duplicados de DataFrames.
+
+Além de dados em falta, é comum encontrar dados duplicados em conjuntos de dados do mundo real. Felizmente, o `pandas` oferece uma forma simples de detetar e remover entradas duplicadas.
+
+- **Identificar duplicados: `duplicated`**: Pode identificar facilmente valores duplicados utilizando o método `duplicated` no pandas, que devolve uma máscara booleana indicando se uma entrada num `DataFrame` é duplicada de uma anterior. Vamos criar outro exemplo de `DataFrame` para ver isto em ação.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Remover duplicados: `drop_duplicates`:** devolve simplesmente uma cópia dos dados para os quais todos os valores `duplicated` são `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Tanto `duplicated` como `drop_duplicates` consideram por padrão todas as colunas, mas pode especificar que examinem apenas um subconjunto de colunas no seu `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Conclusão:** Remover dados duplicados é uma parte essencial de quase todos os projetos de ciência de dados. Dados duplicados podem alterar os resultados das suas análises e fornecer resultados imprecisos!
+
+
+## 🚀 Desafio
+
+Todo o material discutido está disponível como um [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Além disso, há exercícios após cada seção, experimente resolvê-los!
+
+## [Questionário Pós-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Revisão e Autoestudo
+
+Existem muitas formas de descobrir e abordar a preparação dos seus dados para análise e modelação, e a limpeza dos dados é um passo importante que requer prática. Experimente estes desafios do Kaggle para explorar técnicas que esta lição não abordou.
+
+- [Desafio de Limpeza de Dados: Análise de Datas](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Desafio de Limpeza de Dados: Escalar e Normalizar Dados](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Tarefa
+
+[Avaliação de Dados de um Formulário](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/08-data-preparation/assignment.md b/translations/pt/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..e63e2f60
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,26 @@
+
+# Avaliar Dados de um Formulário
+
+Um cliente tem estado a testar um [pequeno formulário](../../../../2-Working-With-Data/08-data-preparation/index.html) para recolher alguns dados básicos sobre a sua base de clientes. Eles trouxeram os resultados para que valides os dados que recolheram. Podes abrir a página `index.html` no navegador para dar uma olhada no formulário.
+
+Foi-te fornecido um [conjunto de dados em formato csv](../../../../data/form.csv) que contém registos do formulário, bem como algumas visualizações básicas. O cliente apontou que algumas das visualizações parecem incorretas, mas não sabem como resolvê-las. Podes explorá-las no [notebook da tarefa](../../../../2-Working-With-Data/08-data-preparation/assignment.ipynb).
+
+## Instruções
+
+Usa as técnicas desta lição para fazer recomendações sobre o formulário, de forma a garantir que ele recolhe informações precisas e consistentes.
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | ---
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/2-Working-With-Data/README.md b/translations/pt/2-Working-With-Data/README.md
new file mode 100644
index 00000000..1b110fbd
--- /dev/null
+++ b/translations/pt/2-Working-With-Data/README.md
@@ -0,0 +1,29 @@
+
+# Trabalhar com Dados
+
+
+> Foto por Alexander Sinn no Unsplash
+
+Nestes módulos, vais aprender algumas formas de gerir, manipular e utilizar dados em aplicações. Vais aprender sobre bases de dados relacionais e não relacionais e como os dados podem ser armazenados nelas. Vais aprender os fundamentos de trabalhar com Python para gerir dados e descobrir algumas das muitas maneiras de usar Python para gerir e explorar dados.
+
+### Tópicos
+
+1. [Bases de dados relacionais](05-relational-databases/README.md)
+2. [Bases de dados não relacionais](06-non-relational/README.md)
+3. [Trabalhar com Python](07-python/README.md)
+4. [Preparar dados](08-data-preparation/README.md)
+
+### Créditos
+
+Estas lições foram escritas com ❤️ por [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) e [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/09-visualization-quantities/README.md b/translations/pt/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..c867bb92
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,215 @@
+
+# Visualizar Quantidades
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualizar Quantidades - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Nesta lição, vais explorar como usar uma das muitas bibliotecas disponíveis em Python para aprender a criar visualizações interessantes em torno do conceito de quantidade. Usando um conjunto de dados limpo sobre os pássaros do Minnesota, podes aprender muitos factos interessantes sobre a vida selvagem local.
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observar a envergadura com Matplotlib
+
+Uma excelente biblioteca para criar gráficos e diagramas, simples ou sofisticados, de vários tipos é [Matplotlib](https://matplotlib.org/stable/index.html). Em termos gerais, o processo de criar gráficos usando estas bibliotecas inclui identificar as partes do teu dataframe que queres analisar, realizar as transformações necessárias nos dados, atribuir valores aos eixos x e y, decidir o tipo de gráfico a mostrar e, finalmente, exibir o gráfico. O Matplotlib oferece uma grande variedade de visualizações, mas para esta lição, vamos focar-nos nas mais adequadas para visualizar quantidades: gráficos de linha, scatterplots e gráficos de barras.
+
+> ✅ Usa o melhor gráfico para se adequar à estrutura dos teus dados e à história que queres contar.
+> - Para analisar tendências ao longo do tempo: linha
+> - Para comparar valores: barra, coluna, pizza, scatterplot
+> - Para mostrar como as partes se relacionam com o todo: pizza
+> - Para mostrar a distribuição dos dados: scatterplot, barra
+> - Para mostrar tendências: linha, coluna
+> - Para mostrar relações entre valores: linha, scatterplot, bolha
+
+Se tens um conjunto de dados e precisas de descobrir a quantidade de um determinado item, uma das primeiras tarefas será inspecionar os seus valores.
+
+✅ Existem excelentes 'cheat sheets' disponíveis para Matplotlib [aqui](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Criar um gráfico de linha sobre os valores de envergadura das asas dos pássaros
+
+Abre o ficheiro `notebook.ipynb` na raiz da pasta desta lição e adiciona uma célula.
+
+> Nota: os dados estão armazenados na raiz deste repositório na pasta `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Estes dados são uma mistura de texto e números:
+
+| | Nome | NomeCientífico | Categoria | Ordem | Família | Género | EstadoConservação | MinComprimento | MaxComprimento | MinPesoCorporal | MaxPesoCorporal | MinEnvergadura | MaxEnvergadura |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Pato-silvo-de-barriga-preta | Dendrocygna autumnalis | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato-silvo-fulvo | Dendrocygna bicolor | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso-da-neve | Anser caerulescens | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso-de-Ross | Anser rossii | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso-de-fronte-branca-maior | Anser albifrons | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Vamos começar por criar um gráfico básico de linha com alguns dos dados numéricos. Suponhamos que queres visualizar a envergadura máxima destas aves interessantes.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+O que notas imediatamente? Parece haver pelo menos um valor fora do normal - que envergadura impressionante! Uma envergadura de 2300 centímetros equivale a 23 metros - será que há Pterodáctilos a voar pelo Minnesota? Vamos investigar.
+
+Embora possas fazer uma ordenação rápida no Excel para encontrar esses valores fora do normal, que provavelmente são erros de digitação, continua o processo de visualização trabalhando diretamente no gráfico.
+
+Adiciona etiquetas ao eixo x para mostrar que tipo de pássaros estão em questão:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Mesmo com a rotação das etiquetas ajustada para 45 graus, há demasiadas para serem lidas. Vamos tentar uma estratégia diferente: etiquetar apenas os valores fora do normal e posicionar as etiquetas dentro do gráfico. Podes usar um scatterplot para criar mais espaço para as etiquetas:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+O que está a acontecer aqui? Usaste `tick_params` para esconder as etiquetas na parte inferior e depois criaste um loop sobre o conjunto de dados dos pássaros. Ao criar o gráfico com pequenos pontos azuis redondos usando `bo`, verificaste se algum pássaro tinha uma envergadura máxima superior a 500 e exibiste a etiqueta ao lado do ponto, caso fosse o caso. Ajustaste ligeiramente as etiquetas no eixo y (`y * (1 - 0.05)`) e usaste o nome do pássaro como etiqueta.
+
+O que descobriste?
+
+
+## Filtrar os teus dados
+
+Tanto a Águia-careca como o Falcão-das-pradarias, embora provavelmente sejam aves muito grandes, parecem estar mal etiquetados, com um `0` extra adicionado à sua envergadura máxima. É pouco provável que encontres uma Águia-careca com uma envergadura de 25 metros, mas, se isso acontecer, avisa-nos! Vamos criar um novo dataframe sem esses dois valores fora do normal:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Ao filtrar os valores fora do normal, os teus dados tornam-se mais coesos e compreensíveis.
+
+
+
+Agora que temos um conjunto de dados mais limpo, pelo menos em termos de envergadura, vamos descobrir mais sobre estas aves.
+
+Embora gráficos de linha e scatterplots possam exibir informações sobre valores de dados e suas distribuições, queremos pensar nos valores inerentes a este conjunto de dados. Podes criar visualizações para responder às seguintes perguntas sobre quantidade:
+
+> Quantas categorias de pássaros existem e quais são os seus números?
+> Quantos pássaros estão extintos, em perigo, raros ou comuns?
+> Quantos existem dos vários géneros e ordens na terminologia de Linnaeus?
+## Explorar gráficos de barras
+
+Os gráficos de barras são práticos quando precisas de mostrar agrupamentos de dados. Vamos explorar as categorias de pássaros que existem neste conjunto de dados para ver qual é a mais comum em número.
+
+No ficheiro notebook, cria um gráfico de barras básico.
+
+✅ Nota, podes filtrar os dois pássaros fora do normal que identificámos na secção anterior, corrigir o erro na sua envergadura ou deixá-los para estes exercícios que não dependem dos valores de envergadura.
+
+Se quiseres criar um gráfico de barras, podes selecionar os dados que queres focar. Os gráficos de barras podem ser criados a partir de dados brutos:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Este gráfico de barras, no entanto, é ilegível porque há demasiados dados não agrupados. Precisas de selecionar apenas os dados que queres representar, então vamos olhar para o comprimento dos pássaros com base na sua categoria.
+
+Filtra os teus dados para incluir apenas a categoria dos pássaros.
+
+✅ Nota que usas Pandas para gerir os dados e depois deixas o Matplotlib fazer o gráfico.
+
+Como há muitas categorias, podes exibir este gráfico verticalmente e ajustar a sua altura para acomodar todos os dados:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Este gráfico de barras mostra uma boa visão do número de pássaros em cada categoria. Num piscar de olhos, vês que o maior número de pássaros nesta região está na categoria de Patos/Gansos/AvesAquáticas. Minnesota é a 'terra dos 10.000 lagos', por isso não é surpreendente!
+
+✅ Experimenta algumas outras contagens neste conjunto de dados. Há algo que te surpreenda?
+
+## Comparar dados
+
+Podes tentar diferentes comparações de dados agrupados criando novos eixos. Experimenta uma comparação do MaxComprimento de um pássaro, com base na sua categoria:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Nada é surpreendente aqui: os beija-flores têm o menor MaxComprimento em comparação com Pelicanos ou Gansos. É bom quando os dados fazem sentido lógico!
+
+Podes criar visualizações mais interessantes de gráficos de barras ao sobrepor dados. Vamos sobrepor Comprimento Mínimo e Máximo numa determinada categoria de pássaros:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+Neste gráfico, podes ver o intervalo por categoria de pássaros do Comprimento Mínimo e Máximo. Podes dizer com segurança que, dados estes dados, quanto maior o pássaro, maior o intervalo de comprimento. Fascinante!
+
+
+
+## 🚀 Desafio
+
+Este conjunto de dados sobre pássaros oferece uma riqueza de informações sobre diferentes tipos de pássaros dentro de um ecossistema específico. Procura na internet e vê se consegues encontrar outros conjuntos de dados relacionados com pássaros. Pratica a criação de gráficos e diagramas sobre estes pássaros para descobrir factos que não conhecias.
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Revisão & Autoestudo
+
+Esta primeira lição deu-te algumas informações sobre como usar Matplotlib para visualizar quantidades. Faz alguma pesquisa sobre outras formas de trabalhar com conjuntos de dados para visualização. [Plotly](https://github.com/plotly/plotly.py) é uma que não vamos abordar nestas lições, por isso dá uma olhada no que pode oferecer.
+## Tarefa
+
+[Linhas, Scatterplots e Barras](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/pt/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..43bfc1f2
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Linhas, Dispersões e Barras
+
+## Instruções
+
+Nesta lição, trabalhaste com gráficos de linhas, dispersões e gráficos de barras para mostrar factos interessantes sobre este conjunto de dados. Nesta tarefa, aprofunda o conjunto de dados para descobrir um facto sobre um tipo específico de ave. Por exemplo, cria um notebook que visualize todos os dados interessantes que conseguires encontrar sobre os Gansos-da-neve. Usa os três tipos de gráficos mencionados acima para contar uma história no teu notebook.
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | -- |
+Um notebook é apresentado com boas anotações, narrativa sólida e gráficos atrativos | O notebook está a faltar um destes elementos | O notebook está a faltar dois destes elementos
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/10-visualization-distributions/README.md b/translations/pt/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..6945bf0b
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,215 @@
+
+# Visualizar Distribuições
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualizar Distribuições - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Na lição anterior, aprendeste alguns factos interessantes sobre um conjunto de dados sobre as aves do Minnesota. Identificaste alguns dados erróneos ao visualizar outliers e analisaste as diferenças entre categorias de aves com base no seu comprimento máximo.
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Explorar o conjunto de dados das aves
+
+Outra forma de explorar os dados é analisando a sua distribuição, ou seja, como os dados estão organizados ao longo de um eixo. Talvez, por exemplo, queiras saber mais sobre a distribuição geral, neste conjunto de dados, da envergadura máxima ou da massa corporal máxima das aves do Minnesota.
+
+Vamos descobrir alguns factos sobre as distribuições dos dados neste conjunto. No ficheiro _notebook.ipynb_ na raiz da pasta desta lição, importa Pandas, Matplotlib e os teus dados:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Nome | NomeCientífico | Categoria | Ordem | Família | Género | EstadoConservação | ComprMin | ComprMax | MassaMin | MassaMax | EnvergMin | EnvergMax |
+| ---: | :-------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :---------------- | --------:| --------:| ---------:| ---------:| ----------:| ----------:|
+| 0 | Pato-assobiador-de-barriga-preta | Dendrocygna autumnalis | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato-assobiador-ferrugíneo | Dendrocygna bicolor | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso-das-neves | Anser caerulescens | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso-de-Ross | Anser rossii | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso-de-testa-branca-maior | Anser albifrons | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+De forma geral, podes rapidamente observar como os dados estão distribuídos utilizando um gráfico de dispersão, como fizemos na lição anterior:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Isto dá uma visão geral da distribuição do comprimento corporal por Ordem das aves, mas não é a forma ideal de exibir distribuições reais. Essa tarefa é geralmente realizada criando um Histograma.
+
+## Trabalhar com histogramas
+
+O Matplotlib oferece ótimas formas de visualizar a distribuição de dados utilizando Histogramas. Este tipo de gráfico é semelhante a um gráfico de barras, onde a distribuição pode ser vista pelo aumento e diminuição das barras. Para construir um histograma, precisas de dados numéricos. Para criar um Histograma, podes traçar um gráfico definindo o tipo como 'hist' para Histograma. Este gráfico mostra a distribuição da MaxBodyMass para toda a gama de dados numéricos do conjunto. Dividindo o array de dados em pequenos intervalos (bins), é possível exibir a distribuição dos valores dos dados:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Como podes ver, a maioria das mais de 400 aves neste conjunto de dados está na faixa abaixo de 2000 para a sua Massa Corporal Máxima. Obtém mais informações sobre os dados alterando o parâmetro `bins` para um número maior, como 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Este gráfico mostra a distribuição de forma um pouco mais detalhada. Um gráfico menos enviesado para a esquerda poderia ser criado garantindo que apenas selecionas dados dentro de um determinado intervalo:
+
+Filtra os teus dados para obter apenas as aves cuja massa corporal seja inferior a 60 e mostra 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Experimenta outros filtros e pontos de dados. Para ver a distribuição completa dos dados, remove o filtro `['MaxBodyMass']` para mostrar distribuições rotuladas.
+
+O histograma oferece algumas melhorias interessantes de cor e rotulagem para experimentar também:
+
+Cria um histograma 2D para comparar a relação entre duas distribuições. Vamos comparar `MaxBodyMass` vs. `MaxLength`. O Matplotlib oferece uma forma integrada de mostrar convergência utilizando cores mais brilhantes:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Parece haver uma correlação esperada entre estes dois elementos ao longo de um eixo esperado, com um ponto de convergência particularmente forte:
+
+
+
+Os histogramas funcionam bem por padrão para dados numéricos. E se precisares de ver distribuições de acordo com dados textuais?
+## Explorar o conjunto de dados para distribuições usando dados textuais
+
+Este conjunto de dados também inclui boas informações sobre a categoria da ave, o seu género, espécie, família e o seu estado de conservação. Vamos explorar esta informação de conservação. Qual é a distribuição das aves de acordo com o seu estado de conservação?
+
+> ✅ No conjunto de dados, vários acrónimos são usados para descrever o estado de conservação. Estes acrónimos vêm das [Categorias da Lista Vermelha da IUCN](https://www.iucnredlist.org/), uma organização que cataloga o estado das espécies.
+>
+> - CR: Criticamente em Perigo
+> - EN: Em Perigo
+> - EX: Extinto
+> - LC: Pouco Preocupante
+> - NT: Quase Ameaçado
+> - VU: Vulnerável
+
+Estes são valores baseados em texto, por isso precisarás de fazer uma transformação para criar um histograma. Usando o dataframe filteredBirds, exibe o estado de conservação ao lado da sua Envergadura Mínima. O que observas?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Não parece haver uma boa correlação entre a envergadura mínima e o estado de conservação. Testa outros elementos do conjunto de dados usando este método. Podes experimentar diferentes filtros também. Encontras alguma correlação?
+
+## Gráficos de densidade
+
+Podes ter notado que os histogramas que analisámos até agora são 'escalonados' e não fluem suavemente em forma de arco. Para mostrar um gráfico de densidade mais suave, podes experimentar um gráfico de densidade.
+
+Para trabalhar com gráficos de densidade, familiariza-te com uma nova biblioteca de gráficos, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Carregando o Seaborn, experimenta um gráfico de densidade básico:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Podes ver como o gráfico reflete o anterior para os dados de Envergadura Mínima; é apenas um pouco mais suave. De acordo com a documentação do Seaborn, "Em relação a um histograma, o KDE pode produzir um gráfico menos confuso e mais interpretável, especialmente ao desenhar várias distribuições. Mas tem o potencial de introduzir distorções se a distribuição subjacente for limitada ou não for suave. Como um histograma, a qualidade da representação também depende da seleção de bons parâmetros de suavização." [fonte](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Em outras palavras, outliers, como sempre, farão com que os teus gráficos se comportem mal.
+
+Se quisesses revisitar aquela linha irregular de MaxBodyMass no segundo gráfico que criaste, poderias suavizá-la muito bem recriando-a usando este método:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Se quisesses uma linha suave, mas não tão suave, edita o parâmetro `bw_adjust`:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Lê sobre os parâmetros disponíveis para este tipo de gráfico e experimenta!
+
+Este tipo de gráfico oferece visualizações explicativas muito interessantes. Com algumas linhas de código, por exemplo, podes mostrar a densidade da massa corporal máxima por Ordem das aves:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Também podes mapear a densidade de várias variáveis num único gráfico. Testa o Comprimento Máximo e o Comprimento Mínimo de uma ave em comparação com o seu estado de conservação:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Talvez valha a pena investigar se o agrupamento de aves 'Vulneráveis' de acordo com os seus comprimentos é significativo ou não.
+
+## 🚀 Desafio
+
+Os histogramas são um tipo de gráfico mais sofisticado do que gráficos de dispersão, gráficos de barras ou gráficos de linhas básicos. Faz uma pesquisa na internet para encontrar bons exemplos do uso de histogramas. Como são usados, o que demonstram e em que áreas ou campos de investigação tendem a ser utilizados?
+
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Revisão e Autoestudo
+
+Nesta lição, utilizaste o Matplotlib e começaste a trabalhar com o Seaborn para criar gráficos mais sofisticados. Faz uma pesquisa sobre `kdeplot` no Seaborn, uma "curva de densidade de probabilidade contínua em uma ou mais dimensões". Lê a [documentação](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) para entender como funciona.
+
+## Tarefa
+
+[Aplica as tuas competências](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/pt/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..4ea3edd6
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Aplique as suas competências
+
+## Instruções
+
+Até agora, trabalhou com o conjunto de dados de aves de Minnesota para descobrir informações sobre quantidades de aves e densidade populacional. Pratique a aplicação destas técnicas experimentando um conjunto de dados diferente, talvez obtido em [Kaggle](https://www.kaggle.com/). Crie um notebook para contar uma história sobre este conjunto de dados e certifique-se de usar histogramas ao analisá-lo.
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | --- |
+Um notebook é apresentado com anotações sobre este conjunto de dados, incluindo a sua origem, e utiliza pelo menos 5 histogramas para descobrir factos sobre os dados. | Um notebook é apresentado com anotações incompletas ou erros. | Um notebook é apresentado sem anotações e inclui erros.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/11-visualization-proportions/README.md b/translations/pt/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..c72bf4ce
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,202 @@
+
+# Visualizar Proporções
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualizar Proporções - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Nesta lição, vais usar um conjunto de dados focado na natureza para visualizar proporções, como o número de diferentes tipos de fungos que compõem um conjunto de dados sobre cogumelos. Vamos explorar estes fascinantes fungos utilizando um conjunto de dados obtido da Audubon, que lista detalhes sobre 23 espécies de cogumelos com lamelas das famílias Agaricus e Lepiota. Vais experimentar visualizações saborosas como:
+
+- Gráficos de pizza 🥧
+- Gráficos de donut 🍩
+- Gráficos de waffle 🧇
+
+> 💡 Um projeto muito interessante chamado [Charticulator](https://charticulator.com) da Microsoft Research oferece uma interface gratuita de arrastar e soltar para visualizações de dados. Num dos seus tutoriais, eles também utilizam este conjunto de dados sobre cogumelos! Assim, podes explorar os dados e aprender a biblioteca ao mesmo tempo: [Tutorial do Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Conhece os teus cogumelos 🍄
+
+Os cogumelos são muito interessantes. Vamos importar um conjunto de dados para estudá-los:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Uma tabela é exibida com alguns dados excelentes para análise:
+
+| classe | formato do chapéu | superfície do chapéu | cor do chapéu | hematomas | odor | fixação das lamelas | espaçamento das lamelas | tamanho das lamelas | cor das lamelas | formato do pé | raiz do pé | superfície do pé acima do anel | superfície do pé abaixo do anel | cor do pé acima do anel | cor do pé abaixo do anel | tipo de véu | cor do véu | número de anéis | tipo de anel | cor do esporo | população | habitat |
+| --------- | ----------------- | ------------------- | ------------- | --------- | ------- | ------------------- | ---------------------- | ------------------ | --------------- | ------------ | ---------- | ---------------------------- | ---------------------------- | ---------------------- | ---------------------- | ----------- | --------- | -------------- | ----------- | ------------ | --------- | ------- |
+| Venenoso | Convexo | Liso | Castanho | Hematomas | Pungente | Livre | Fechado | Estreito | Preto | Alargado | Igual | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Preto | Espalhado | Urbano |
+| Comestível | Convexo | Liso | Amarelo | Hematomas | Amêndoa | Livre | Fechado | Largo | Preto | Alargado | Club | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Castanho | Numeroso | Relva |
+| Comestível | Sino | Liso | Branco | Hematomas | Anis | Livre | Fechado | Largo | Castanho | Alargado | Club | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Castanho | Numeroso | Prados |
+| Venenoso | Convexo | Escamoso | Branco | Hematomas | Pungente | Livre | Fechado | Estreito | Castanho | Alargado | Igual | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Preto | Espalhado | Urbano |
+
+De imediato, percebes que todos os dados são textuais. Vais precisar converter estes dados para poder utilizá-los num gráfico. Na verdade, a maior parte dos dados está representada como um objeto:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+O resultado é:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Converte os dados da coluna 'classe' para uma categoria:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Agora, se imprimires os dados dos cogumelos, podes ver que foram agrupados em categorias de acordo com a classe venenoso/comestível:
+
+| | formato do chapéu | superfície do chapéu | cor do chapéu | hematomas | odor | fixação das lamelas | espaçamento das lamelas | tamanho das lamelas | cor das lamelas | formato do pé | ... | superfície do pé abaixo do anel | cor do pé acima do anel | cor do pé abaixo do anel | tipo de véu | cor do véu | número de anéis | tipo de anel | cor do esporo | população | habitat |
+| --------- | ----------------- | ------------------- | ------------- | --------- | ---- | ------------------- | ---------------------- | ------------------ | --------------- | ------------ | --- | ---------------------------- | ---------------------- | ---------------------- | ----------- | --------- | -------------- | ----------- | ------------ | --------- | ------- |
+| classe | | | | | | | | | | | | | | | | | | | | | |
+| Comestível | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Venenoso | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Se seguires a ordem apresentada nesta tabela para criar as etiquetas da categoria classe, podes construir um gráfico de pizza:
+
+## Pizza!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voilá, um gráfico de pizza mostrando as proporções destes dados de acordo com estas duas classes de cogumelos. É bastante importante obter a ordem das etiquetas correta, especialmente aqui, por isso certifica-te de verificar a ordem com que o array de etiquetas é construído!
+
+
+
+## Donuts!
+
+Um gráfico de pizza visualmente mais interessante é o gráfico de donut, que é um gráfico de pizza com um buraco no meio. Vamos olhar para os nossos dados usando este método.
+
+Observa os vários habitats onde os cogumelos crescem:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Aqui, estás a agrupar os teus dados por habitat. Existem 7 listados, por isso usa-os como etiquetas para o teu gráfico de donut:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Este código desenha um gráfico e um círculo central, depois adiciona esse círculo central ao gráfico. Edita a largura do círculo central alterando `0.40` para outro valor.
+
+Os gráficos de donut podem ser ajustados de várias formas para alterar as etiquetas. As etiquetas, em particular, podem ser destacadas para melhorar a legibilidade. Aprende mais nos [documentos](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Agora que sabes como agrupar os teus dados e depois exibi-los como pizza ou donut, podes explorar outros tipos de gráficos. Experimenta um gráfico de waffle, que é apenas uma forma diferente de explorar quantidades.
+
+## Waffles!
+
+Um gráfico do tipo 'waffle' é uma forma diferente de visualizar quantidades como uma matriz 2D de quadrados. Experimenta visualizar as diferentes quantidades de cores de chapéus de cogumelos neste conjunto de dados. Para isso, precisas instalar uma biblioteca auxiliar chamada [PyWaffle](https://pypi.org/project/pywaffle/) e usar Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Seleciona um segmento dos teus dados para agrupar:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Cria um gráfico de waffle criando etiquetas e depois agrupando os teus dados:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Usando um gráfico de waffle, podes ver claramente as proporções das cores dos chapéus neste conjunto de dados de cogumelos. Curiosamente, há muitos cogumelos com chapéus verdes!
+
+
+
+✅ O PyWaffle suporta ícones dentro dos gráficos que utilizam qualquer ícone disponível no [Font Awesome](https://fontawesome.com/). Faz algumas experiências para criar um gráfico de waffle ainda mais interessante usando ícones em vez de quadrados.
+
+Nesta lição, aprendeste três formas de visualizar proporções. Primeiro, precisas agrupar os teus dados em categorias e depois decidir qual é a melhor forma de exibir os dados - pizza, donut ou waffle. Todos são deliciosos e gratificam o utilizador com uma visão instantânea de um conjunto de dados.
+
+## 🚀 Desafio
+
+Tenta recriar estes gráficos saborosos no [Charticulator](https://charticulator.com).
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Revisão & Autoestudo
+
+Por vezes, não é óbvio quando usar um gráfico de pizza, donut ou waffle. Aqui estão alguns artigos para ler sobre este tópico:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Faz alguma pesquisa para encontrar mais informações sobre esta decisão difícil.
+
+## Tarefa
+
+[Tenta no Excel](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/pt/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..83d8433e
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,23 @@
+
+# Experimente no Excel
+
+## Instruções
+
+Sabia que pode criar gráficos de rosca, gráficos de pizza e gráficos de waffle no Excel? Usando um conjunto de dados à sua escolha, crie estes três tipos de gráficos diretamente numa folha de cálculo do Excel.
+
+## Critérios de Avaliação
+
+| Exemplar | Adequado | Necessita de Melhorias |
+| ------------------------------------------------------- | ------------------------------------------------- | ---------------------------------------------------- |
+| É apresentada uma folha de cálculo do Excel com os três gráficos | É apresentada uma folha de cálculo do Excel com dois gráficos | É apresentada uma folha de cálculo do Excel com apenas um gráfico |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos pela precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/12-visualization-relationships/README.md b/translations/pt/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..a4696f92
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,184 @@
+
+# Visualizar Relações: Tudo Sobre Mel 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualizar Relações - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Continuando com o foco na natureza da nossa pesquisa, vamos descobrir visualizações interessantes para mostrar as relações entre vários tipos de mel, de acordo com um conjunto de dados derivado do [Departamento de Agricultura dos Estados Unidos](https://www.nass.usda.gov/About_NASS/index.php).
+
+Este conjunto de dados, com cerca de 600 itens, exibe a produção de mel em muitos estados dos EUA. Por exemplo, é possível analisar o número de colónias, rendimento por colónia, produção total, stocks, preço por libra e valor do mel produzido num determinado estado entre 1998 e 2012, com uma linha por ano para cada estado.
+
+Será interessante visualizar a relação entre a produção anual de um estado e, por exemplo, o preço do mel nesse estado. Alternativamente, pode-se visualizar a relação entre o rendimento de mel por colónia em diferentes estados. Este período abrange o devastador 'CCD' ou 'Colony Collapse Disorder' (Desordem do Colapso das Colónias), observado pela primeira vez em 2006 (http://npic.orst.edu/envir/ccd.html), tornando este um conjunto de dados comovente para estudar. 🐝
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Nesta lição, pode usar o Seaborn, que já utilizou anteriormente, como uma boa biblioteca para visualizar relações entre variáveis. Particularmente interessante é o uso da função `relplot` do Seaborn, que permite criar gráficos de dispersão e gráficos de linhas para visualizar rapidamente '[relações estatísticas](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', ajudando o cientista de dados a compreender melhor como as variáveis se relacionam entre si.
+
+## Gráficos de Dispersão
+
+Use um gráfico de dispersão para mostrar como o preço do mel evoluiu, ano após ano, por estado. O Seaborn, utilizando `relplot`, agrupa convenientemente os dados por estado e exibe pontos de dados para dados categóricos e numéricos.
+
+Comecemos por importar os dados e o Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Repare que os dados sobre o mel têm várias colunas interessantes, incluindo ano e preço por libra. Vamos explorar estes dados, agrupados por estado dos EUA:
+
+| estado | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | ano |
+| ------ | ------ | ----------- | --------- | -------- | ---------- | --------- | --- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Crie um gráfico de dispersão básico para mostrar a relação entre o preço por libra de mel e o estado de origem nos EUA. Faça com que o eixo `y` seja suficientemente alto para exibir todos os estados:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Agora, mostre os mesmos dados com um esquema de cores de mel para ilustrar como o preço evolui ao longo dos anos. Pode fazer isso adicionando um parâmetro 'hue' para mostrar a mudança, ano após ano:
+
+> ✅ Saiba mais sobre as [paletas de cores que pode usar no Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - experimente um esquema de cores arco-íris bonito!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Com esta mudança no esquema de cores, pode ver claramente uma forte progressão ao longo dos anos no que diz respeito ao preço do mel por libra. De facto, se verificar um conjunto de amostras nos dados (escolha um estado, como o Arizona, por exemplo), pode observar um padrão de aumento de preços ano após ano, com poucas exceções:
+
+| estado | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | ano |
+| ------ | ------ | ----------- | --------- | ------- | ---------- | --------- | --- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Outra forma de visualizar esta progressão é usar o tamanho, em vez da cor. Para utilizadores daltónicos, esta pode ser uma opção melhor. Edite a sua visualização para mostrar o aumento do preço através do aumento da circunferência dos pontos:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Pode ver o tamanho dos pontos a aumentar gradualmente.
+
+
+
+Será este um caso simples de oferta e procura? Devido a fatores como as alterações climáticas e o colapso das colónias, haverá menos mel disponível para compra ano após ano, e, por isso, o preço aumenta?
+
+Para descobrir uma correlação entre algumas das variáveis deste conjunto de dados, vamos explorar alguns gráficos de linhas.
+
+## Gráficos de Linhas
+
+Pergunta: Existe um aumento claro no preço do mel por libra ao longo dos anos? Pode descobrir isso facilmente criando um único gráfico de linhas:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Resposta: Sim, com algumas exceções por volta do ano 2003:
+
+
+
+✅ Como o Seaborn está a agregar dados numa única linha, ele exibe "as múltiplas medições em cada valor de x, traçando a média e o intervalo de confiança de 95% em torno da média". [Fonte](https://seaborn.pydata.org/tutorial/relational.html). Este comportamento, que consome tempo, pode ser desativado adicionando `ci=None`.
+
+Pergunta: Bem, em 2003 também podemos ver um aumento na oferta de mel? E se observarmos a produção total ano após ano?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Resposta: Não exatamente. Se observarmos a produção total, parece que ela realmente aumentou nesse ano específico, embora, de forma geral, a quantidade de mel produzido esteja em declínio durante esses anos.
+
+Pergunta: Nesse caso, o que poderia ter causado o aumento no preço do mel por volta de 2003?
+
+Para descobrir isso, pode explorar uma grelha de facetas.
+
+## Grelhas de Facetas
+
+As grelhas de facetas utilizam uma faceta do seu conjunto de dados (neste caso, pode escolher 'ano' para evitar produzir demasiadas facetas). O Seaborn pode então criar um gráfico para cada uma dessas facetas das coordenadas x e y escolhidas, facilitando a comparação visual. O ano de 2003 destaca-se neste tipo de comparação?
+
+Crie uma grelha de facetas continuando a usar `relplot`, conforme recomendado pela [documentação do Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+Nesta visualização, pode comparar o rendimento por colónia e o número de colónias ano após ano, lado a lado, com um wrap definido em 3 para as colunas:
+
+
+
+Para este conjunto de dados, nada particularmente se destaca em relação ao número de colónias e ao seu rendimento, ano após ano e estado por estado. Existe uma forma diferente de procurar uma correlação entre estas duas variáveis?
+
+## Gráficos de Linhas Duplas
+
+Experimente um gráfico de linhas múltiplas sobrepondo dois gráficos de linhas um sobre o outro, utilizando o 'despine' do Seaborn para remover as margens superior e direita, e usando `ax.twinx` [derivado do Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). O Twinx permite que um gráfico partilhe o eixo x e exiba dois eixos y. Assim, exiba o rendimento por colónia e o número de colónias, sobrepostos:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Embora nada salte à vista em torno do ano de 2003, isso permite-nos terminar esta lição com uma nota um pouco mais feliz: embora o número de colónias esteja a diminuir no geral, ele está a estabilizar, mesmo que o rendimento por colónia esteja a diminuir.
+
+Força, abelhas, força!
+
+🐝❤️
+## 🚀 Desafio
+
+Nesta lição, aprendeu um pouco mais sobre outros usos de gráficos de dispersão e grelhas de linhas, incluindo grelhas de facetas. Desafie-se a criar uma grelha de facetas usando um conjunto de dados diferente, talvez um que tenha usado antes destas lições. Note quanto tempo demora a criar e como precisa de ter cuidado com o número de grelhas que precisa de desenhar usando estas técnicas.
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Revisão & Autoestudo
+
+Os gráficos de linhas podem ser simples ou bastante complexos. Faça uma leitura na [documentação do Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) sobre as várias formas de construí-los. Tente melhorar os gráficos de linhas que criou nesta lição com outros métodos listados na documentação.
+## Tarefa
+
+[Explore a colmeia](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/pt/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..6c06e040
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,23 @@
+
+# Mergulhe na colmeia
+
+## Instruções
+
+Nesta lição, começaste a explorar um conjunto de dados sobre abelhas e a sua produção de mel ao longo de um período de tempo que registou perdas na população geral das colónias de abelhas. Aprofunda-te neste conjunto de dados e cria um notebook que consiga contar a história da saúde da população de abelhas, estado por estado e ano após ano. Descobres algo interessante neste conjunto de dados?
+
+## Rubrica
+
+| Exemplar | Adequado | Precisa de Melhorias |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| Um notebook é apresentado com uma história anotada com pelo menos três gráficos diferentes mostrando aspetos do conjunto de dados, estado por estado e ano após ano | O notebook carece de um destes elementos | O notebook carece de dois destes elementos |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..5e33a38d
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,180 @@
+
+# Criando Visualizações Significativas
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Visualizações Significativas - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+> "Se você torturar os dados por tempo suficiente, eles confessarão qualquer coisa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Uma das habilidades básicas de um cientista de dados é a capacidade de criar uma visualização de dados significativa que ajude a responder às perguntas que você possa ter. Antes de visualizar os seus dados, é necessário garantir que eles foram limpos e preparados, como feito em lições anteriores. Depois disso, pode-se começar a decidir a melhor forma de apresentar os dados.
+
+Nesta lição, você irá revisar:
+
+1. Como escolher o tipo de gráfico certo
+2. Como evitar gráficos enganosos
+3. Como trabalhar com cores
+4. Como estilizar os gráficos para melhorar a legibilidade
+5. Como criar soluções de gráficos animados ou em 3D
+6. Como construir uma visualização criativa
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Escolha o tipo de gráfico certo
+
+Em lições anteriores, você experimentou criar diversos tipos interessantes de visualizações de dados usando Matplotlib e Seaborn. Em geral, é possível selecionar o [tipo certo de gráfico](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) para a pergunta que você está fazendo utilizando esta tabela:
+
+| Você precisa: | Deve usar: |
+| -------------------------- | ------------------------------ |
+| Mostrar tendências ao longo do tempo | Linha |
+| Comparar categorias | Barra, Pizza |
+| Comparar totais | Pizza, Barra Empilhada |
+| Mostrar relações | Dispersão, Linha, Faceta, Linha Dupla |
+| Mostrar distribuições | Dispersão, Histograma, Caixa |
+| Mostrar proporções | Pizza, Donut, Waffle |
+
+> ✅ Dependendo da composição dos seus dados, pode ser necessário convertê-los de texto para numérico para que um determinado gráfico seja suportado.
+
+## Evite enganos
+
+Mesmo que um cientista de dados seja cuidadoso ao escolher o gráfico certo para os dados certos, existem muitas maneiras de exibir dados de forma a provar um ponto, muitas vezes às custas de comprometer os próprios dados. Há muitos exemplos de gráficos e infográficos enganosos!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Clique na imagem acima para assistir a uma palestra sobre gráficos enganosos
+
+Este gráfico inverte o eixo X para mostrar o oposto da verdade, com base na data:
+
+
+
+[Este gráfico](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) é ainda mais enganoso, pois o olhar é atraído para a direita, levando à conclusão de que, ao longo do tempo, os casos de COVID diminuíram nos vários condados. Na verdade, ao observar atentamente as datas, percebe-se que elas foram reorganizadas para criar essa tendência descendente enganosa.
+
+
+
+Este exemplo notório usa cor E um eixo Y invertido para enganar: em vez de concluir que as mortes por armas aumentaram após a aprovação de uma legislação favorável às armas, o olhar é induzido a pensar que o oposto é verdadeiro:
+
+
+
+Este gráfico estranho mostra como a proporção pode ser manipulada, com efeito hilário:
+
+
+
+Comparar o incomparável é mais um truque duvidoso. Existe um [site maravilhoso](https://tylervigen.com/spurious-correlations) dedicado a 'correlações espúrias', exibindo 'fatos' que correlacionam coisas como a taxa de divórcio no Maine e o consumo de margarina. Um grupo no Reddit também coleta os [usos feios](https://www.reddit.com/r/dataisugly/top/?t=all) de dados.
+
+É importante entender como o olhar pode ser facilmente enganado por gráficos enganosos. Mesmo que a intenção do cientista de dados seja boa, a escolha de um tipo ruim de gráfico, como um gráfico de pizza com muitas categorias, pode ser enganosa.
+
+## Cor
+
+Você viu no gráfico de 'violência armada na Flórida' acima como a cor pode fornecer uma camada adicional de significado aos gráficos, especialmente aqueles não projetados usando bibliotecas como Matplotlib e Seaborn, que vêm com várias bibliotecas e paletas de cores validadas. Se você estiver criando um gráfico manualmente, estude um pouco sobre [teoria das cores](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Esteja ciente, ao projetar gráficos, que acessibilidade é um aspecto importante da visualização. Alguns dos seus utilizadores podem ser daltônicos - o seu gráfico é exibido bem para utilizadores com deficiências visuais?
+
+Tenha cuidado ao escolher cores para o seu gráfico, pois elas podem transmitir significados que você não pretende. As 'senhoras de rosa' no gráfico de 'altura' acima transmitem um significado distintamente 'feminino', que adiciona à estranheza do próprio gráfico.
+
+Embora o [significado das cores](https://colormatters.com/color-symbolism/the-meanings-of-colors) possa variar em diferentes partes do mundo e tende a mudar de acordo com a tonalidade, de forma geral, os significados incluem:
+
+| Cor | Significado |
+| ------ | ------------------- |
+| vermelho | poder |
+| azul | confiança, lealdade |
+| amarelo | felicidade, cautela |
+| verde | ecologia, sorte, inveja |
+| roxo | felicidade |
+| laranja | vivacidade |
+
+Se você for encarregado de criar um gráfico com cores personalizadas, certifique-se de que os seus gráficos sejam acessíveis e que as cores escolhidas coincidam com o significado que você deseja transmitir.
+
+## Estilizando os gráficos para legibilidade
+
+Gráficos não são significativos se não forem legíveis! Reserve um momento para considerar o estilo da largura e altura do seu gráfico para que ele se ajuste bem aos seus dados. Se uma variável (como todos os 50 estados) precisar ser exibida, mostre-os verticalmente no eixo Y, se possível, para evitar um gráfico com rolagem horizontal.
+
+Rotule os seus eixos, forneça uma legenda, se necessário, e ofereça tooltips para melhor compreensão dos dados.
+
+Se os seus dados forem textuais e extensos no eixo X, você pode inclinar o texto para melhorar a legibilidade. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) oferece gráficos em 3D, se os seus dados suportarem. Visualizações de dados sofisticadas podem ser produzidas usando `mpl_toolkits.mplot3d`.
+
+
+
+## Exibição de gráficos animados e em 3D
+
+Algumas das melhores visualizações de dados hoje em dia são animadas. Shirley Wu tem exemplos incríveis feitos com D3, como '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', onde cada flor é uma visualização de um filme. Outro exemplo para o Guardian é 'bussed out', uma experiência interativa que combina visualizações com Greensock e D3, além de um formato de artigo com narrativa para mostrar como NYC lida com o problema dos sem-teto, enviando pessoas para fora da cidade.
+
+
+
+> "Bussed Out: How America Moves its Homeless" do [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualizações por Nadieh Bremer & Shirley Wu
+
+Embora esta lição não seja suficiente para ensinar em profundidade essas poderosas bibliotecas de visualização, experimente usar D3 em uma aplicação Vue.js utilizando uma biblioteca para exibir uma visualização do livro "Dangerous Liaisons" como uma rede social animada.
+
+> "Les Liaisons Dangereuses" é um romance epistolar, ou seja, um romance apresentado como uma série de cartas. Escrito em 1782 por Choderlos de Laclos, conta a história das manobras sociais cruéis e moralmente corruptas de dois protagonistas rivais da aristocracia francesa no final do século XVIII, o Visconde de Valmont e a Marquesa de Merteuil. Ambos encontram seu fim trágico, mas não sem causar um grande dano social. O romance se desenrola como uma série de cartas escritas para várias pessoas em seus círculos, tramando vingança ou simplesmente para causar problemas. Crie uma visualização dessas cartas para descobrir os principais personagens da narrativa, visualmente.
+
+Você completará uma aplicação web que exibirá uma visão animada dessa rede social. Ela utiliza uma biblioteca criada para gerar uma [visualização de uma rede](https://github.com/emiliorizzo/vue-d3-network) usando Vue.js e D3. Quando a aplicação estiver em execução, você pode mover os nós na tela para reorganizar os dados.
+
+
+
+## Projeto: Crie um gráfico para mostrar uma rede usando D3.js
+
+> Esta pasta da lição inclui uma pasta `solution` onde você pode encontrar o projeto completo, para referência.
+
+1. Siga as instruções no arquivo README.md na raiz da pasta inicial. Certifique-se de que você tenha NPM e Node.js instalados na sua máquina antes de instalar as dependências do projeto.
+
+2. Abra a pasta `starter/src`. Você encontrará uma pasta `assets` onde há um arquivo .json com todas as cartas do romance, numeradas, com anotações de 'para' e 'de'.
+
+3. Complete o código em `components/Nodes.vue` para habilitar a visualização. Procure o método chamado `createLinks()` e adicione o seguinte loop aninhado.
+
+Percorra o objeto .json para capturar os dados de 'para' e 'de' das cartas e construa o objeto `links` para que a biblioteca de visualização possa consumi-lo:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Execute a sua aplicação a partir do terminal (npm run serve) e aproveite a visualização!
+
+## 🚀 Desafio
+
+Faça uma pesquisa na internet para descobrir visualizações enganosas. Como o autor engana o utilizador, e isso é intencional? Tente corrigir as visualizações para mostrar como elas deveriam ser.
+
+## [Questionário Pós-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Revisão & Autoestudo
+
+Aqui estão alguns artigos para ler sobre visualizações de dados enganosas:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Confira estas visualizações interessantes de ativos e artefatos históricos:
+
+https://handbook.pubpub.org/
+
+Leia este artigo sobre como animações podem melhorar suas visualizações:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Tarefa
+
+[Crie sua própria visualização personalizada](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..44b6453e
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,23 @@
+
+# Crie a sua própria visualização personalizada
+
+## Instruções
+
+Utilizando o exemplo de código deste projeto para criar uma rede social, simule dados das suas próprias interações sociais. Pode mapear o seu uso de redes sociais ou criar um diagrama dos membros da sua família. Desenvolva uma aplicação web interessante que apresente uma visualização única de uma rede social.
+
+## Critérios de Avaliação
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | --- |
+Um repositório GitHub é apresentado com código que funciona corretamente (experimente implementá-lo como uma aplicação web estática) e inclui um README anotado que explica o projeto | O repositório não funciona corretamente ou não está bem documentado | O repositório não funciona corretamente e não está bem documentado
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..2db4dd9f
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,38 @@
+
+# Projeto de visualização de dados Dangerous Liaisons
+
+Para começar, certifique-se de que tem o NPM e o Node instalados e a funcionar na sua máquina. Instale as dependências (npm install) e, em seguida, execute o projeto localmente (npm run serve):
+
+## Configuração do projeto
+```
+npm install
+```
+
+### Compila e recarrega automaticamente para desenvolvimento
+```
+npm run serve
+```
+
+### Compila e minimiza para produção
+```
+npm run build
+```
+
+### Verifica e corrige ficheiros
+```
+npm run lint
+```
+
+### Personalizar configuração
+Consulte [Referência de Configuração](https://cli.vuejs.org/config/).
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..5e8c7709
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,38 @@
+
+# Projeto de visualização de dados Dangerous Liaisons
+
+Para começar, certifique-se de que tem o NPM e o Node instalados e a funcionar na sua máquina. Instale as dependências (npm install) e depois execute o projeto localmente (npm run serve):
+
+## Configuração do projeto
+```
+npm install
+```
+
+### Compila e recarrega automaticamente para desenvolvimento
+```
+npm run serve
+```
+
+### Compila e minimiza para produção
+```
+npm run build
+```
+
+### Verifica e corrige ficheiros
+```
+npm run lint
+```
+
+### Personalizar configuração
+Consulte [Configuration Reference](https://cli.vuejs.org/config/).
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/pt/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..4c10fd22
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,229 @@
+
+# Visualizar Quantidades
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualizar Quantidades - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Nesta lição, vais explorar como utilizar algumas das muitas bibliotecas de pacotes disponíveis no R para aprender a criar visualizações interessantes em torno do conceito de quantidade. Usando um conjunto de dados limpo sobre os pássaros do Minnesota, podes aprender muitos factos interessantes sobre a vida selvagem local.
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observar a envergadura com ggplot2
+Uma biblioteca excelente para criar gráficos e diagramas simples e sofisticados de vários tipos é [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Em termos gerais, o processo de criação de gráficos usando estas bibliotecas inclui identificar as partes do teu dataframe que queres analisar, realizar as transformações necessárias nos dados, atribuir os valores dos eixos x e y, decidir o tipo de gráfico a mostrar e, finalmente, exibir o gráfico.
+
+`ggplot2` é um sistema para criar gráficos de forma declarativa, baseado na Gramática dos Gráficos. A [Gramática dos Gráficos](https://en.wikipedia.org/wiki/Ggplot2) é um esquema geral para visualização de dados que divide os gráficos em componentes semânticos, como escalas e camadas. Em outras palavras, a facilidade de criar gráficos para dados univariados ou multivariados com pouco código torna o `ggplot2` o pacote mais popular usado para visualizações em R. O utilizador informa ao `ggplot2` como mapear as variáveis para os elementos visuais, os primitivos gráficos a usar, e o `ggplot2` cuida do resto.
+
+> ✅ Gráfico = Dados + Estética + Geometria
+> - Dados referem-se ao conjunto de dados
+> - Estética indica as variáveis a serem estudadas (variáveis x e y)
+> - Geometria refere-se ao tipo de gráfico (gráfico de linhas, barras, etc.)
+
+Escolhe a melhor geometria (tipo de gráfico) de acordo com os teus dados e a história que queres contar através do gráfico.
+
+> - Para analisar tendências: linha, coluna
+> - Para comparar valores: barra, coluna, circular, dispersão
+> - Para mostrar como as partes se relacionam com o todo: circular
+> - Para mostrar a distribuição dos dados: dispersão, barra
+> - Para mostrar relações entre valores: linha, dispersão, bolha
+
+✅ Também podes consultar este [cheatsheet descritivo](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) para ggplot2.
+
+## Criar um gráfico de linhas sobre os valores de envergadura das aves
+
+Abre o console do R e importa o conjunto de dados.
+> Nota: O conjunto de dados está armazenado na raiz deste repositório na pasta `/data`.
+
+Vamos importar o conjunto de dados e observar as primeiras linhas (topo 5) dos dados.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+O início dos dados tem uma mistura de texto e números:
+
+| | Nome | NomeCientífico | Categoria | Ordem | Família | Género | EstadoConservação | MinComprimento | MaxComprimento | MinMassaCorporal | MaxMassaCorporal | MinEnvergadura | MaxEnvergadura |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Pato-silvo-de-barriga-preta | Dendrocygna autumnalis | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato-silvo-fulvo | Dendrocygna bicolor | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso-da-neve | Anser caerulescens | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso-de-Ross | Anser rossii | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso-de-testa-branca-maior | Anser albifrons | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Vamos começar por representar graficamente alguns dos dados numéricos usando um gráfico de linhas básico. Suponhamos que queres visualizar a envergadura máxima destas aves interessantes.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Aqui, instalas o pacote `ggplot2` e depois importas para o ambiente de trabalho usando o comando `library("ggplot2")`. Para criar qualquer gráfico no ggplot, usa-se a função `ggplot()` e especifica-se o conjunto de dados, as variáveis x e y como atributos. Neste caso, usamos a função `geom_line()` porque queremos criar um gráfico de linhas.
+
+
+
+O que notas imediatamente? Parece haver pelo menos um valor atípico - que envergadura impressionante! Uma envergadura de mais de 2000 centímetros equivale a mais de 20 metros - será que há Pterodáctilos a voar em Minnesota? Vamos investigar.
+
+Embora pudesses fazer uma ordenação rápida no Excel para encontrar esses valores atípicos, que provavelmente são erros de digitação, continua o processo de visualização trabalhando diretamente no gráfico.
+
+Adiciona rótulos ao eixo x para mostrar que tipo de aves estão em questão:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Especificamos o ângulo no `theme` e definimos os rótulos dos eixos x e y em `xlab()` e `ylab()` respetivamente. O `ggtitle()` dá um nome ao gráfico.
+
+
+
+Mesmo com a rotação dos rótulos definida para 45 graus, há demasiados para ler. Vamos tentar uma estratégia diferente: rotular apenas os valores atípicos e definir os rótulos dentro do gráfico. Podes usar um gráfico de dispersão para criar mais espaço para os rótulos:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+O que está a acontecer aqui? Usaste a função `geom_point()` para criar pontos de dispersão. Com isso, adicionaste rótulos para aves cuja `MaxWingspan > 500` e também ocultaste os rótulos no eixo x para desobstruir o gráfico.
+
+O que descobres?
+
+
+
+## Filtrar os teus dados
+
+Tanto a Águia-careca como o Falcão-das-pradarias, embora provavelmente sejam aves muito grandes, parecem estar mal rotulados, com um zero extra adicionado à sua envergadura máxima. É improvável que encontres uma Águia-careca com uma envergadura de 25 metros, mas, se isso acontecer, avisa-nos! Vamos criar um novo dataframe sem esses dois valores atípicos:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Criámos um novo dataframe `birds_filtered` e depois representámos um gráfico de dispersão. Ao filtrar os valores atípicos, os teus dados tornam-se mais coesos e compreensíveis.
+
+
+
+Agora que temos um conjunto de dados mais limpo, pelo menos em termos de envergadura, vamos descobrir mais sobre estas aves.
+
+Embora gráficos de linhas e dispersão possam exibir informações sobre valores de dados e suas distribuições, queremos pensar nos valores inerentes a este conjunto de dados. Podes criar visualizações para responder às seguintes perguntas sobre quantidade:
+
+> Quantas categorias de aves existem e quais são os seus números?
+> Quantas aves estão extintas, em perigo, raras ou comuns?
+> Quantas existem dos vários géneros e ordens na terminologia de Linnaeus?
+
+## Explorar gráficos de barras
+
+Os gráficos de barras são práticos quando precisas de mostrar agrupamentos de dados. Vamos explorar as categorias de aves que existem neste conjunto de dados para ver qual é a mais comum em número.
+Vamos criar um gráfico de barras com os dados filtrados.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+No seguinte trecho, instalamos os pacotes [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) e [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) para ajudar a manipular e agrupar dados para criar um gráfico de barras empilhado. Primeiro, agrupas os dados pela `Categoria` das aves e depois resumes as colunas `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Em seguida, crias o gráfico de barras usando o pacote `ggplot2` e especificas as cores para as diferentes categorias e os rótulos.
+
+
+
+Este gráfico de barras, no entanto, é ilegível porque há demasiados dados não agrupados. Precisamos de selecionar apenas os dados que queremos representar, então vamos observar o comprimento das aves com base na sua categoria.
+
+Filtra os teus dados para incluir apenas a categoria das aves.
+
+Como há muitas categorias, podes exibir este gráfico verticalmente e ajustar a sua altura para acomodar todos os dados:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Primeiro, contas os valores únicos na coluna `Categoria` e depois ordenas num novo dataframe `birds_count`. Estes dados ordenados são então considerados no mesmo nível para que sejam representados de forma ordenada. Usando o `ggplot2`, crias o gráfico de barras. O `coord_flip()` cria barras horizontais.
+
+
+
+Este gráfico de barras mostra uma boa visão do número de aves em cada categoria. Num piscar de olhos, vês que o maior número de aves nesta região pertence à categoria de Patos/Gansos/AvesAquáticas. Minnesota é a 'terra dos 10.000 lagos', então isto não é surpreendente!
+
+✅ Experimenta algumas outras contagens neste conjunto de dados. Algo te surpreende?
+
+## Comparar dados
+
+Podes tentar diferentes comparações de dados agrupados criando novos eixos. Experimenta uma comparação do MaxLength de uma ave, com base na sua categoria:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Agrupamos os dados `birds_filtered` pela `Categoria` e depois criamos um gráfico de barras.
+
+
+
+Nada é surpreendente aqui: os beija-flores têm o menor MaxLength em comparação com os Pelicanos ou Gansos. É bom quando os dados fazem sentido lógico!
+
+Podes criar visualizações mais interessantes de gráficos de barras sobrepondo dados. Vamos sobrepor o Comprimento Mínimo e Máximo numa determinada categoria de aves:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Desafio
+
+Este conjunto de dados sobre aves oferece uma riqueza de informações sobre diferentes tipos de aves dentro de um ecossistema particular. Procura na internet e vê se consegues encontrar outros conjuntos de dados relacionados com aves. Pratica a criação de gráficos e diagramas sobre estas aves para descobrir factos que não conhecias.
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Revisão & Autoestudo
+
+Esta primeira lição deu-te algumas informações sobre como usar o `ggplot2` para visualizar quantidades. Faz alguma pesquisa sobre outras formas de trabalhar com conjuntos de dados para visualização. Pesquisa e procura conjuntos de dados que possas visualizar usando outros pacotes como [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) e [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Tarefa
+[Linhas, Dispersões e Barras](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/pt/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..b015f3d9
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,23 @@
+
+# Linhas, Dispersões e Barras
+
+## Instruções
+
+Nesta lição, trabalhaste com gráficos de linhas, dispersões e gráficos de barras para mostrar factos interessantes sobre este conjunto de dados. Nesta tarefa, explora mais profundamente o conjunto de dados para descobrir um facto sobre um determinado tipo de ave. Por exemplo, cria um script que visualize todos os dados interessantes que conseguires encontrar sobre Gansos-das-neves. Usa os três gráficos mencionados acima para contar uma história no teu caderno.
+
+## Rubrica
+
+Exemplar | Adequado | Precisa de Melhorias
+--- | --- | --- |
+Um script é apresentado com boas anotações, narrativa sólida e gráficos atrativos | O script está a faltar um destes elementos | O script está a faltar dois destes elementos
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos pela precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/pt/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..5fef5a6e
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,183 @@
+
+# Visualizar Distribuições
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualizar Distribuições - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Na lição anterior, aprendeste alguns factos interessantes sobre um conjunto de dados sobre as aves do Minnesota. Identificaste dados erróneos ao visualizar outliers e analisaste as diferenças entre categorias de aves com base no seu comprimento máximo.
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Explorar o conjunto de dados das aves
+
+Outra forma de analisar os dados é observar a sua distribuição, ou seja, como os dados estão organizados ao longo de um eixo. Talvez, por exemplo, queiras saber sobre a distribuição geral, neste conjunto de dados, da envergadura máxima ou da massa corporal máxima das aves do Minnesota.
+
+Vamos descobrir alguns factos sobre as distribuições de dados neste conjunto de dados. No teu console R, importa o `ggplot2` e a base de dados. Remove os outliers da base de dados, tal como fizeste no tópico anterior.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Nome | NomeCientífico | Categoria | Ordem | Família | Género | EstadoConservação | ComprMin | ComprMax | MassaMin | MassaMax | EnvergMin | EnvergMax |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Pato-assobiador-de-barriga-preta | Dendrocygna autumnalis | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Pato-assobiador-fulvo | Dendrocygna bicolor | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Ganso-das-neves | Anser caerulescens | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ganso-de-Ross | Anser rossii | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Ganso-de-testa-branca-maior | Anser albifrons | Patos/Gansos/AvesAquáticas | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+De forma geral, podes rapidamente observar como os dados estão distribuídos utilizando um gráfico de dispersão, como fizemos na lição anterior:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Isto dá uma visão geral da distribuição do comprimento corporal por Ordem de aves, mas não é a forma ideal de exibir distribuições reais. Essa tarefa é geralmente realizada criando um Histograma.
+
+## Trabalhar com histogramas
+
+O `ggplot2` oferece ótimas formas de visualizar a distribuição de dados usando Histogramas. Este tipo de gráfico é semelhante a um gráfico de barras, onde a distribuição pode ser observada através do aumento e diminuição das barras. Para construir um histograma, precisas de dados numéricos. Para criar um Histograma, podes traçar um gráfico definindo o tipo como 'hist' para Histograma. Este gráfico mostra a distribuição de MaxBodyMass para todo o intervalo de dados numéricos do conjunto de dados. Dividindo o conjunto de dados em intervalos menores, é possível exibir a distribuição dos valores dos dados:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Como podes ver, a maioria das mais de 400 aves neste conjunto de dados tem uma Massa Corporal Máxima inferior a 2000. Obtém mais informações sobre os dados alterando o parâmetro `bins` para um número maior, como 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Este gráfico mostra a distribuição de forma um pouco mais detalhada. Um gráfico menos enviesado para a esquerda pode ser criado garantindo que apenas selecionas dados dentro de um determinado intervalo:
+
+Filtra os teus dados para obter apenas as aves cuja massa corporal seja inferior a 60 e mostra 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Experimenta outros filtros e pontos de dados. Para ver a distribuição completa dos dados, remove o filtro `['MaxBodyMass']` para mostrar distribuições rotuladas.
+
+O histograma oferece também algumas melhorias de cor e rotulagem interessantes para experimentar:
+
+Cria um histograma 2D para comparar a relação entre duas distribuições. Vamos comparar `MaxBodyMass` vs. `MaxLength`. O `ggplot2` oferece uma forma integrada de mostrar convergência usando cores mais brilhantes:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Parece haver uma correlação esperada entre estes dois elementos ao longo de um eixo esperado, com um ponto de convergência particularmente forte:
+
+
+
+Os histogramas funcionam bem por padrão para dados numéricos. E se precisares de ver distribuições de acordo com dados textuais?
+
+## Explorar o conjunto de dados para distribuições usando dados textuais
+
+Este conjunto de dados também inclui boas informações sobre a categoria da ave, o seu género, espécie e família, bem como o seu estado de conservação. Vamos explorar esta informação de conservação. Qual é a distribuição das aves de acordo com o seu estado de conservação?
+
+> ✅ No conjunto de dados, são usados vários acrónimos para descrever o estado de conservação. Estes acrónimos vêm das [Categorias da Lista Vermelha da IUCN](https://www.iucnredlist.org/), uma organização que cataloga o estado das espécies.
+>
+> - CR: Criticamente em Perigo
+> - EN: Em Perigo
+> - EX: Extinto
+> - LC: Pouco Preocupante
+> - NT: Quase Ameaçado
+> - VU: Vulnerável
+
+Estes são valores baseados em texto, por isso precisarás de fazer uma transformação para criar um histograma. Usando o dataframe filteredBirds, exibe o estado de conservação juntamente com a sua Envergadura Mínima. O que observas?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Não parece haver uma boa correlação entre a envergadura mínima e o estado de conservação. Testa outros elementos do conjunto de dados usando este método. Podes experimentar diferentes filtros também. Encontras alguma correlação?
+
+## Gráficos de densidade
+
+Podes ter notado que os histogramas que vimos até agora são 'escalonados' e não fluem suavemente em forma de arco. Para mostrar um gráfico de densidade mais suave, podes experimentar um gráfico de densidade.
+
+Vamos trabalhar agora com gráficos de densidade!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Podes ver como o gráfico reflete o anterior para os dados de Envergadura Mínima; é apenas um pouco mais suave. Se quisesses revisitar aquela linha irregular de MaxBodyMass no segundo gráfico que construíste, poderias suavizá-la muito bem recriando-a usando este método:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Se quiseres uma linha suave, mas não demasiado suave, edita o parâmetro `adjust`:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Lê sobre os parâmetros disponíveis para este tipo de gráfico e experimenta!
+
+Este tipo de gráfico oferece visualizações explicativas muito bonitas. Com algumas linhas de código, por exemplo, podes mostrar a densidade da massa corporal máxima por Ordem de aves:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Desafio
+
+Os histogramas são um tipo de gráfico mais sofisticado do que gráficos de dispersão, gráficos de barras ou gráficos de linhas básicos. Faz uma pesquisa na internet para encontrar bons exemplos do uso de histogramas. Como são usados, o que demonstram e em que áreas ou campos de estudo tendem a ser utilizados?
+
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Revisão e Autoestudo
+
+Nesta lição, usaste o `ggplot2` e começaste a trabalhar para mostrar gráficos mais sofisticados. Faz uma pesquisa sobre `geom_density_2d()`, uma "curva de densidade de probabilidade contínua em uma ou mais dimensões". Lê a [documentação](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) para entender como funciona.
+
+## Tarefa
+
+[Aplica as tuas competências](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/pt/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..63d82f92
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,23 @@
+
+# Aplique as suas competências
+
+## Instruções
+
+Até agora, trabalhou com o conjunto de dados de aves de Minnesota para descobrir informações sobre quantidades de aves e densidade populacional. Pratique a aplicação destas técnicas experimentando um conjunto de dados diferente, talvez obtido de [Kaggle](https://www.kaggle.com/). Crie um script em R para contar uma história sobre este conjunto de dados e certifique-se de utilizar histogramas ao analisá-lo.
+
+## Critérios de Avaliação
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | --- |
+Um script é apresentado com anotações sobre este conjunto de dados, incluindo a sua origem, e utiliza pelo menos 5 histogramas para descobrir factos sobre os dados. | Um script é apresentado com anotações incompletas ou erros. | Um script é apresentado sem anotações e contém erros.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/pt/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..80785514
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,195 @@
+
+# Visualizar Proporções
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualizar Proporções - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Nesta lição, vais utilizar um conjunto de dados focado na natureza para visualizar proporções, como, por exemplo, quantos tipos diferentes de fungos estão presentes num determinado conjunto de dados sobre cogumelos. Vamos explorar estes fascinantes fungos utilizando um conjunto de dados obtido da Audubon, que lista detalhes sobre 23 espécies de cogumelos com lâminas das famílias Agaricus e Lepiota. Vais experimentar visualizações interessantes como:
+
+- Gráficos de pizza 🥧
+- Gráficos de rosca 🍩
+- Gráficos de waffle 🧇
+
+> 💡 Um projeto muito interessante chamado [Charticulator](https://charticulator.com) da Microsoft Research oferece uma interface gratuita de arrastar e soltar para visualizações de dados. Num dos seus tutoriais, eles também utilizam este conjunto de dados sobre cogumelos! Assim, podes explorar os dados e aprender a biblioteca ao mesmo tempo: [Tutorial do Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Conhece os teus cogumelos 🍄
+
+Os cogumelos são muito interessantes. Vamos importar um conjunto de dados para os estudar:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Uma tabela é exibida com alguns dados excelentes para análise:
+
+| classe | formato-do-chapéu | superfície-do-chapéu | cor-do-chapéu | hematomas | odor | fixação-das-lâminas | espaçamento-das-lâminas | tamanho-das-lâminas | cor-das-lâminas | formato-do-pé | raiz-do-pé | superfície-acima-do-anel | superfície-abaixo-do-anel | cor-acima-do-anel | cor-abaixo-do-anel | tipo-de-véu | cor-do-véu | número-de-aneis | tipo-de-anel | cor-dos-esporos | população | habitat |
+| --------- | ----------------- | -------------------- | ------------- | --------- | ------- | ------------------- | ----------------------- | ------------------- | --------------- | ------------- | ---------- | ------------------------ | ------------------------ | ----------------- | ----------------- | ----------- | ----------- | --------------- | ------------- | --------------- | --------- | ------- |
+| Venenoso | Convexo | Liso | Castanho | Hematomas | Pungente | Livre | Fechado | Estreito | Preto | Alargado | Igual | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Preto | Disperso | Urbano |
+| Comestível| Convexo | Liso | Amarelo | Hematomas | Amêndoa | Livre | Fechado | Largo | Preto | Alargado | Club | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Castanho | Numeroso | Relvados |
+| Comestível| Sino | Liso | Branco | Hematomas | Anis | Livre | Fechado | Largo | Castanho | Alargado | Club | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Castanho | Numeroso | Prados |
+| Venenoso | Convexo | Escamoso | Branco | Hematomas | Pungente | Livre | Fechado | Estreito | Castanho | Alargado | Igual | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Preto | Disperso | Urbano |
+| Comestível| Convexo | Liso | Verde | Sem Hematomas | Nenhum | Livre | Aglomerado | Largo | Preto | Afunilado | Igual | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Evanescente | Castanho | Abundante | Relvados |
+| Comestível| Convexo | Escamoso | Amarelo | Hematomas | Amêndoa | Livre | Fechado | Largo | Castanho | Alargado | Club | Liso | Liso | Branco | Branco | Parcial | Branco | Um | Pendente | Preto | Numeroso | Relvados |
+
+De imediato, percebes que todos os dados são textuais. Terás de converter estes dados para os poderes utilizar num gráfico. Na verdade, a maior parte dos dados está representada como um objeto:
+
+```r
+names(mushrooms)
+```
+
+O resultado é:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Converte os dados da coluna 'class' para uma categoria:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Agora, se imprimires os dados dos cogumelos, podes ver que foram agrupados em categorias de acordo com a classe venenoso/comestível:
+```r
+View(grouped)
+```
+
+| classe | contagem |
+| --------- | --------- |
+| Comestível | 4208 |
+| Venenoso | 3916 |
+
+Se seguires a ordem apresentada nesta tabela para criar as etiquetas das categorias, podes construir um gráfico de pizza.
+
+## Pizza!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voilà, um gráfico de pizza que mostra as proporções destes dados de acordo com estas duas classes de cogumelos. É muito importante garantir que a ordem das etiquetas esteja correta, especialmente aqui, por isso verifica sempre a ordem com que o array de etiquetas é construído!
+
+
+
+## Roscas!
+
+Um gráfico de pizza um pouco mais interessante visualmente é o gráfico de rosca, que é um gráfico de pizza com um buraco no meio. Vamos observar os nossos dados utilizando este método.
+
+Observa os vários habitats onde os cogumelos crescem:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+O resultado é:
+| habitat | contagem |
+| --------- | --------- |
+| Relvados | 2148 |
+| Folhas | 832 |
+| Prados | 292 |
+| Trilhos | 1144 |
+| Urbano | 368 |
+| Resíduos | 192 |
+| Madeira | 3148 |
+
+Aqui, estás a agrupar os teus dados por habitat. Existem 7 listados, por isso utiliza-os como etiquetas para o teu gráfico de rosca:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Este código utiliza duas bibliotecas - ggplot2 e webr. Usando a função PieDonut da biblioteca webr, podemos criar um gráfico de rosca facilmente!
+
+Os gráficos de rosca em R também podem ser feitos utilizando apenas a biblioteca ggplot2. Podes aprender mais sobre isso [aqui](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) e experimentar por ti mesmo.
+
+Agora que sabes como agrupar os teus dados e depois exibi-los como um gráfico de pizza ou rosca, podes explorar outros tipos de gráficos. Experimenta um gráfico de waffle, que é apenas uma forma diferente de explorar quantidades.
+
+## Waffles!
+
+Um gráfico do tipo 'waffle' é uma forma diferente de visualizar quantidades como uma matriz 2D de quadrados. Experimenta visualizar as diferentes quantidades de cores do chapéu dos cogumelos neste conjunto de dados. Para isso, precisas de instalar uma biblioteca auxiliar chamada [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) e utilizá-la para gerar a tua visualização:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Seleciona um segmento dos teus dados para agrupar:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Cria um gráfico de waffle criando etiquetas e depois agrupando os teus dados:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Usando um gráfico de waffle, podes ver claramente as proporções das cores dos chapéus neste conjunto de dados de cogumelos. Curiosamente, existem muitos cogumelos com chapéus verdes!
+
+
+
+Nesta lição, aprendeste três formas de visualizar proporções. Primeiro, precisas de agrupar os teus dados em categorias e depois decidir qual é a melhor forma de exibir os dados - pizza, rosca ou waffle. Todas são deliciosas e oferecem ao utilizador uma visão instantânea de um conjunto de dados.
+
+## 🚀 Desafio
+
+Tenta recriar estes gráficos deliciosos no [Charticulator](https://charticulator.com).
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Revisão e Autoestudo
+
+Por vezes, não é óbvio quando usar um gráfico de pizza, rosca ou waffle. Aqui estão alguns artigos para leres sobre este tema:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Faz alguma pesquisa para encontrares mais informações sobre esta decisão difícil.
+
+## Tarefa
+
+[Experimenta no Excel](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/pt/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..3bf444f5
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,175 @@
+
+# Visualizar Relações: Tudo Sobre Mel 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualizar Relações - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Continuando com o foco na natureza da nossa pesquisa, vamos descobrir visualizações interessantes para mostrar as relações entre vários tipos de mel, de acordo com um conjunto de dados derivado do [Departamento de Agricultura dos Estados Unidos](https://www.nass.usda.gov/About_NASS/index.php).
+
+Este conjunto de dados, com cerca de 600 itens, exibe a produção de mel em muitos estados dos EUA. Por exemplo, é possível observar o número de colónias, rendimento por colónia, produção total, stocks, preço por libra e valor do mel produzido em um determinado estado de 1998 a 2012, com uma linha por ano para cada estado.
+
+Será interessante visualizar a relação entre a produção anual de um estado e, por exemplo, o preço do mel nesse estado. Alternativamente, pode-se visualizar a relação entre o rendimento de mel por colónia nos estados. Este período cobre o devastador 'CCD' ou 'Colony Collapse Disorder', observado pela primeira vez em 2006 (http://npic.orst.edu/envir/ccd.html), tornando este conjunto de dados particularmente relevante para estudo. 🐝
+
+## [Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Nesta lição, pode usar o ggplot2, que já utilizou anteriormente, como uma boa biblioteca para visualizar relações entre variáveis. Particularmente interessante é o uso das funções `geom_point` e `qplot` do ggplot2, que permitem criar gráficos de dispersão e gráficos de linha para visualizar rapidamente '[relações estatísticas](https://ggplot2.tidyverse.org/)', ajudando o cientista de dados a compreender melhor como as variáveis se relacionam.
+
+## Gráficos de dispersão
+
+Use um gráfico de dispersão para mostrar como o preço do mel evoluiu, ano após ano, por estado. O ggplot2, utilizando `ggplot` e `geom_point`, agrupa convenientemente os dados dos estados e exibe pontos de dados para dados categóricos e numéricos.
+
+Vamos começar importando os dados e o Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Repare que os dados sobre mel têm várias colunas interessantes, incluindo ano e preço por libra. Vamos explorar esses dados, agrupados por estado dos EUA:
+
+| estado | numcol | rendimento_por_col | produção_total | stocks | preço_por_libra | valor_prod | ano |
+| ------ | ------ | ------------------ | -------------- | -------- | --------------- | ---------- | --- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 | 22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Crie um gráfico de dispersão básico para mostrar a relação entre o preço por libra de mel e o estado de origem nos EUA. Ajuste o eixo `y` para ser alto o suficiente para exibir todos os estados:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Agora, mostre os mesmos dados com um esquema de cores de mel para ilustrar como o preço evolui ao longo dos anos. Pode fazer isso adicionando o parâmetro 'scale_color_gradientn' para mostrar a mudança, ano após ano:
+
+> ✅ Saiba mais sobre o [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - experimente um esquema de cores arco-íris bonito!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Com esta mudança de esquema de cores, é possível ver claramente uma forte progressão ao longo dos anos no preço do mel por libra. De facto, ao verificar um conjunto de amostra nos dados (escolha um estado, como o Arizona), pode-se observar um padrão de aumento de preço ano após ano, com poucas exceções:
+
+| estado | numcol | rendimento_por_col | produção_total | stocks | preço_por_libra | valor_prod | ano |
+| ------ | ------ | ------------------ | -------------- | ------- | --------------- | ---------- | --- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Outra forma de visualizar esta progressão é usar o tamanho, em vez da cor. Para utilizadores daltónicos, esta pode ser uma opção melhor. Edite a sua visualização para mostrar o aumento do preço através do aumento da circunferência dos pontos:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Pode ver o tamanho dos pontos aumentando gradualmente.
+
+
+
+Será este um caso simples de oferta e procura? Devido a fatores como mudanças climáticas e colapso de colónias, há menos mel disponível para compra ano após ano, e assim o preço aumenta?
+
+Para descobrir uma correlação entre algumas das variáveis deste conjunto de dados, vamos explorar alguns gráficos de linha.
+
+## Gráficos de linha
+
+Pergunta: Existe um aumento claro no preço do mel por libra ano após ano? Pode descobrir isso mais facilmente criando um único gráfico de linha:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Resposta: Sim, com algumas exceções por volta do ano de 2003:
+
+
+
+Pergunta: Bem, em 2003 também podemos ver um pico na oferta de mel? E se observarmos a produção total ano após ano?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Resposta: Não exatamente. Se observar a produção total, parece que ela realmente aumentou nesse ano específico, embora, de forma geral, a quantidade de mel produzida esteja em declínio durante esses anos.
+
+Pergunta: Nesse caso, o que poderia ter causado o pico no preço do mel por volta de 2003?
+
+Para descobrir isso, pode explorar uma grade de facetas.
+
+## Grades de facetas
+
+Grades de facetas utilizam uma faceta do seu conjunto de dados (neste caso, pode escolher 'ano' para evitar produzir muitas facetas). O Seaborn pode então criar um gráfico para cada uma dessas facetas das coordenadas x e y escolhidas, facilitando a comparação visual. O ano de 2003 destaca-se neste tipo de comparação?
+
+Crie uma grade de facetas utilizando `facet_wrap`, conforme recomendado pela [documentação do ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+Nesta visualização, pode comparar o rendimento por colónia e o número de colónias ano após ano, lado a lado, com uma disposição de 3 colunas:
+
+
+
+Para este conjunto de dados, nada particularmente se destaca em relação ao número de colónias e ao seu rendimento, ano após ano e estado por estado. Existe uma forma diferente de encontrar uma correlação entre estas duas variáveis?
+
+## Gráficos de linha dupla
+
+Experimente um gráfico de linha múltipla sobrepondo dois gráficos de linha um sobre o outro, utilizando as funções `par` e `plot` do R. Vamos plotar o ano no eixo x e exibir dois eixos y. Assim, exibiremos o rendimento por colónia e o número de colónias, sobrepostos:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Embora nada salte aos olhos em torno do ano de 2003, isso permite terminar esta lição com uma nota um pouco mais feliz: embora o número de colónias esteja em declínio geral, ele está a estabilizar, mesmo que o rendimento por colónia esteja a diminuir.
+
+Força, abelhas!
+
+🐝❤️
+## 🚀 Desafio
+
+Nesta lição, aprendeu um pouco mais sobre outros usos de gráficos de dispersão e grades de linha, incluindo grades de facetas. Desafie-se a criar uma grade de facetas utilizando um conjunto de dados diferente, talvez um que tenha usado antes destas lições. Note quanto tempo leva para criar e como precisa ter cuidado com o número de grades que deseja desenhar utilizando estas técnicas.
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Revisão & Autoestudo
+
+Gráficos de linha podem ser simples ou bastante complexos. Faça uma leitura na [documentação do ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) sobre as várias formas de construí-los. Tente melhorar os gráficos de linha que construiu nesta lição com outros métodos listados na documentação.
+## Tarefa
+
+[Explore a colmeia](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/pt/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..31789299
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,180 @@
+
+# Criando Visualizações Significativas
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Visualizações Significativas - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+> "Se você torturar os dados por tempo suficiente, eles confessarão qualquer coisa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Uma das habilidades básicas de um cientista de dados é a capacidade de criar uma visualização de dados significativa que ajude a responder às perguntas que você possa ter. Antes de visualizar os seus dados, é necessário garantir que eles foram limpos e preparados, como feito em lições anteriores. Depois disso, você pode começar a decidir como apresentar os dados da melhor forma.
+
+Nesta lição, você irá revisar:
+
+1. Como escolher o tipo de gráfico certo
+2. Como evitar gráficos enganosos
+3. Como trabalhar com cores
+4. Como estilizar os gráficos para melhorar a legibilidade
+5. Como criar soluções de gráficos animados ou em 3D
+6. Como construir uma visualização criativa
+
+## [Quiz Pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Escolha o tipo de gráfico certo
+
+Em lições anteriores, você experimentou criar diversos tipos de visualizações de dados interessantes usando Matplotlib e Seaborn. Em geral, você pode selecionar o [tipo certo de gráfico](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) para a pergunta que está fazendo utilizando esta tabela:
+
+| Você precisa: | Você deve usar: |
+| -------------------------- | ------------------------------- |
+| Mostrar tendências ao longo do tempo | Linha |
+| Comparar categorias | Barra, Pizza |
+| Comparar totais | Pizza, Barra Empilhada |
+| Mostrar relações | Dispersão, Linha, Faceta, Linha Dupla |
+| Mostrar distribuições | Dispersão, Histograma, Caixa |
+| Mostrar proporções | Pizza, Donut, Waffle |
+
+> ✅ Dependendo da composição dos seus dados, pode ser necessário convertê-los de texto para numérico para que um determinado gráfico seja suportado.
+
+## Evite enganos
+
+Mesmo que um cientista de dados seja cuidadoso ao escolher o gráfico certo para os dados certos, existem muitas maneiras de exibir dados de forma a provar um ponto, muitas vezes às custas de comprometer os próprios dados. Há muitos exemplos de gráficos e infográficos enganosos!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Como os gráficos enganam")
+
+> 🎥 Clique na imagem acima para assistir a uma palestra sobre gráficos enganosos
+
+Este gráfico inverte o eixo X para mostrar o oposto da verdade, com base na data:
+
+
+
+[Este gráfico](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) é ainda mais enganoso, pois o olhar é atraído para a direita, levando à conclusão de que, ao longo do tempo, os casos de COVID diminuíram nos vários condados. Na verdade, ao observar atentamente as datas, percebe-se que elas foram reorganizadas para criar essa tendência descendente enganosa.
+
+
+
+Este exemplo notório usa cor E um eixo Y invertido para enganar: em vez de concluir que as mortes por armas aumentaram após a aprovação de uma legislação favorável às armas, o olhar é enganado para pensar que o oposto é verdadeiro:
+
+
+
+Este gráfico estranho mostra como a proporção pode ser manipulada, com efeito hilário:
+
+
+
+Comparar o incomparável é mais um truque duvidoso. Existe um [site maravilhoso](https://tylervigen.com/spurious-correlations) dedicado a 'correlações espúrias', exibindo 'fatos' que correlacionam coisas como a taxa de divórcio no Maine e o consumo de margarina. Um grupo no Reddit também coleta os [usos feios](https://www.reddit.com/r/dataisugly/top/?t=all) de dados.
+
+É importante entender como o olhar pode ser facilmente enganado por gráficos enganosos. Mesmo que a intenção do cientista de dados seja boa, a escolha de um tipo de gráfico ruim, como um gráfico de pizza com muitas categorias, pode ser enganosa.
+
+## Cor
+
+Você viu no gráfico de 'violência armada na Flórida' acima como a cor pode fornecer uma camada adicional de significado aos gráficos, especialmente aqueles que não foram projetados usando bibliotecas como ggplot2 e RColorBrewer, que vêm com várias bibliotecas e paletas de cores validadas. Se você estiver criando um gráfico manualmente, estude um pouco sobre [teoria das cores](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Esteja ciente, ao projetar gráficos, que acessibilidade é um aspecto importante da visualização. Alguns dos seus usuários podem ser daltônicos - o seu gráfico é exibido bem para usuários com deficiências visuais?
+
+Tenha cuidado ao escolher cores para o seu gráfico, pois elas podem transmitir significados que você não pretende. As 'senhoras de rosa' no gráfico de 'altura' acima transmitem um significado distintamente 'feminino', que adiciona à estranheza do próprio gráfico.
+
+Embora o [significado das cores](https://colormatters.com/color-symbolism/the-meanings-of-colors) possa variar em diferentes partes do mundo e tende a mudar de acordo com a tonalidade, de forma geral, os significados incluem:
+
+| Cor | Significado |
+| ------ | ------------------- |
+| vermelho | poder |
+| azul | confiança, lealdade |
+| amarelo | felicidade, cautela |
+| verde | ecologia, sorte, inveja |
+| roxo | felicidade |
+| laranja | vivacidade |
+
+Se você for encarregado de criar um gráfico com cores personalizadas, certifique-se de que os seus gráficos sejam acessíveis e que a cor escolhida coincida com o significado que você está tentando transmitir.
+
+## Estilizando os gráficos para legibilidade
+
+Gráficos não são significativos se não forem legíveis! Reserve um momento para considerar o estilo da largura e altura do gráfico para que ele se ajuste bem aos seus dados. Se uma variável (como todos os 50 estados) precisar ser exibida, mostre-os verticalmente no eixo Y, se possível, para evitar um gráfico com rolagem horizontal.
+
+Rotule os seus eixos, forneça uma legenda, se necessário, e ofereça tooltips para melhor compreensão dos dados.
+
+Se os seus dados forem textuais e extensos no eixo X, você pode inclinar o texto para melhorar a legibilidade. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) oferece gráficos em 3D, se os seus dados suportarem. Visualizações de dados sofisticadas podem ser produzidas usando esta biblioteca.
+
+
+
+## Exibição de gráficos animados e em 3D
+
+Algumas das melhores visualizações de dados hoje em dia são animadas. Shirley Wu tem exemplos incríveis feitos com D3, como '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', onde cada flor é uma visualização de um filme. Outro exemplo para o Guardian é 'bussed out', uma experiência interativa que combina visualizações com Greensock e D3, além de um formato de artigo com narrativa para mostrar como NYC lida com o problema dos sem-teto, enviando pessoas para fora da cidade.
+
+
+
+> "Bussed Out: Como a América Move os Sem-Teto" do [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualizações por Nadieh Bremer & Shirley Wu
+
+Embora esta lição não seja suficiente para ensinar em profundidade essas poderosas bibliotecas de visualização, experimente usar D3 em um aplicativo Vue.js utilizando uma biblioteca para exibir uma visualização do livro "Ligações Perigosas" como uma rede social animada.
+
+> "Les Liaisons Dangereuses" é um romance epistolar, ou seja, um romance apresentado como uma série de cartas. Escrito em 1782 por Choderlos de Laclos, conta a história das manobras sociais imorais e vingativas de dois protagonistas da aristocracia francesa do final do século XVIII, o Visconde de Valmont e a Marquesa de Merteuil. Ambos encontram seu fim trágico, mas não sem causar muitos danos sociais. O romance se desenrola como uma série de cartas escritas para várias pessoas em seus círculos, tramando vingança ou simplesmente causando problemas. Crie uma visualização dessas cartas para descobrir os principais personagens da narrativa, visualmente.
+
+Você completará um aplicativo web que exibirá uma visão animada dessa rede social. Ele utiliza uma biblioteca criada para gerar uma [visualização de uma rede](https://github.com/emiliorizzo/vue-d3-network) usando Vue.js e D3. Quando o aplicativo estiver em execução, você pode mover os nós na tela para reorganizar os dados.
+
+
+
+## Projeto: Crie um gráfico para mostrar uma rede usando D3.js
+
+> Esta pasta da lição inclui uma pasta `solution` onde você pode encontrar o projeto completo, para sua referência.
+
+1. Siga as instruções no arquivo README.md na raiz da pasta inicial. Certifique-se de que você tenha NPM e Node.js instalados na sua máquina antes de instalar as dependências do projeto.
+
+2. Abra a pasta `starter/src`. Você encontrará uma pasta `assets` onde há um arquivo .json com todas as cartas do romance, numeradas, com anotações de 'para' e 'de'.
+
+3. Complete o código em `components/Nodes.vue` para habilitar a visualização. Procure o método chamado `createLinks()` e adicione o seguinte loop aninhado.
+
+Percorra o objeto .json para capturar os dados de 'para' e 'de' das cartas e construa o objeto `links` para que a biblioteca de visualização possa consumi-lo:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Execute o seu aplicativo a partir do terminal (npm run serve) e aproveite a visualização!
+
+## 🚀 Desafio
+
+Faça um tour pela internet para descobrir visualizações enganosas. Como o autor engana o usuário, e isso é intencional? Tente corrigir as visualizações para mostrar como elas deveriam ser.
+
+## [Quiz Pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Revisão e Estudo Individual
+
+Aqui estão alguns artigos para ler sobre visualizações de dados enganosas:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Confira estas visualizações interessantes de ativos e artefatos históricos:
+
+https://handbook.pubpub.org/
+
+Leia este artigo sobre como animações podem melhorar suas visualizações:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Tarefa
+
+[Crie sua própria visualização personalizada](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/3-Data-Visualization/README.md b/translations/pt/3-Data-Visualization/README.md
new file mode 100644
index 00000000..aaadb039
--- /dev/null
+++ b/translations/pt/3-Data-Visualization/README.md
@@ -0,0 +1,40 @@
+
+# Visualizações
+
+
+> Foto de Jenna Lee no Unsplash
+
+Visualizar dados é uma das tarefas mais importantes de um cientista de dados. Imagens valem mais do que mil palavras, e uma visualização pode ajudá-lo a identificar vários aspetos interessantes dos seus dados, como picos, valores atípicos, agrupamentos, tendências e muito mais, que podem ajudá-lo a compreender a história que os seus dados estão a tentar contar.
+
+Nestes cinco tópicos, irá explorar dados provenientes da natureza e criar visualizações interessantes e bonitas utilizando várias técnicas.
+
+| Número do Tópico | Tópico | Aula Ligada | Autor |
+| :--------------: | :----: | :---------: | :---: |
+| 1. | Visualizar quantidades | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Visualizar distribuições | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Visualizar proporções | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Visualizar relações | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Criar Visualizações Significativas | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Créditos
+
+Estas lições sobre visualizações foram escritas com 🌸 por [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) e [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Os dados sobre a produção de mel nos EUA foram obtidos a partir do projeto de Jessica Li no [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). Os [dados](https://usda.library.cornell.edu/concern/publications/rn301137d) são derivados do [Departamento de Agricultura dos Estados Unidos](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Os dados sobre cogumelos também foram obtidos do [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset), revistos por Hatteras Dunton. Este conjunto de dados inclui descrições de amostras hipotéticas correspondentes a 23 espécies de cogumelos com lamelas das famílias Agaricus e Lepiota. Os cogumelos foram retirados do guia "The Audubon Society Field Guide to North American Mushrooms" (1981). Este conjunto de dados foi doado ao UCI ML 27 em 1987.
+
+🦆 Os dados sobre aves do Minnesota foram retirados do [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) e extraídos da [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) por Hannah Collins.
+
+Todos estes conjuntos de dados estão licenciados como [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/pt/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..9a7e57f2
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,121 @@
+
+# Introdução ao Ciclo de Vida da Ciência de Dados
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Introdução ao Ciclo de Vida da Ciência de Dados - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Questionário Pré-Aula](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+Neste ponto, provavelmente já percebeu que a ciência de dados é um processo. Este processo pode ser dividido em 5 etapas:
+
+- Captura
+- Processamento
+- Análise
+- Comunicação
+- Manutenção
+
+Esta lição foca-se em 3 partes do ciclo de vida: captura, processamento e manutenção.
+
+
+> Foto por [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Captura
+
+A primeira etapa do ciclo de vida é muito importante, pois as etapas seguintes dependem dela. É, na prática, duas etapas combinadas numa só: adquirir os dados e definir o propósito e os problemas que precisam ser resolvidos.
+Definir os objetivos do projeto exigirá um contexto mais profundo sobre o problema ou questão. Primeiro, precisamos identificar e envolver aqueles que precisam de uma solução para o seu problema. Estes podem ser partes interessadas de uma empresa ou patrocinadores do projeto, que podem ajudar a identificar quem ou o que beneficiará deste projeto, bem como o que precisam e porquê. Um objetivo bem definido deve ser mensurável e quantificável para definir um resultado aceitável.
+
+Perguntas que um cientista de dados pode fazer:
+- Este problema já foi abordado antes? O que foi descoberto?
+- O propósito e o objetivo são compreendidos por todos os envolvidos?
+- Existe ambiguidade e como reduzi-la?
+- Quais são as restrições?
+- Como será o resultado final?
+- Quantos recursos (tempo, pessoas, computação) estão disponíveis?
+
+A seguir, é necessário identificar, recolher e, finalmente, explorar os dados necessários para alcançar os objetivos definidos. Nesta etapa de aquisição, os cientistas de dados também devem avaliar a quantidade e a qualidade dos dados. Isso requer alguma exploração dos dados para confirmar se o que foi adquirido ajudará a alcançar o resultado desejado.
+
+Perguntas que um cientista de dados pode fazer sobre os dados:
+- Que dados já estão disponíveis para mim?
+- Quem é o proprietário destes dados?
+- Quais são as preocupações de privacidade?
+- Tenho dados suficientes para resolver este problema?
+- Os dados têm qualidade aceitável para este problema?
+- Se descobrir informações adicionais através destes dados, devemos considerar alterar ou redefinir os objetivos?
+
+## Processamento
+
+A etapa de processamento do ciclo de vida foca-se em descobrir padrões nos dados, bem como na modelagem. Algumas técnicas utilizadas nesta etapa requerem métodos estatísticos para identificar os padrões. Normalmente, esta seria uma tarefa tediosa para um humano realizar com um grande conjunto de dados, sendo necessário recorrer a computadores para acelerar o processo. Esta etapa também é onde a ciência de dados e o machine learning se cruzam. Como aprendeu na primeira lição, o machine learning é o processo de construir modelos para compreender os dados. Os modelos são uma representação da relação entre variáveis nos dados que ajudam a prever resultados.
+
+Técnicas comuns utilizadas nesta etapa são abordadas no currículo de ML para Iniciantes. Siga os links para saber mais sobre elas:
+
+- [Classificação](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organizar dados em categorias para uso mais eficiente.
+- [Agrupamento](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Agrupar dados em grupos semelhantes.
+- [Regressão](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Determinar as relações entre variáveis para prever ou estimar valores.
+
+## Manutenção
+
+No diagrama do ciclo de vida, pode ter notado que a manutenção está entre a captura e o processamento. A manutenção é um processo contínuo de gestão, armazenamento e segurança dos dados ao longo do projeto e deve ser considerada durante todo o seu desenvolvimento.
+
+### Armazenamento de Dados
+
+As decisões sobre como e onde os dados são armazenados podem influenciar o custo do armazenamento, bem como o desempenho no acesso aos dados. Decisões como estas provavelmente não serão tomadas apenas por um cientista de dados, mas ele pode ter de fazer escolhas sobre como trabalhar com os dados com base na forma como estão armazenados.
+
+Aqui estão alguns aspetos dos sistemas modernos de armazenamento de dados que podem afetar estas escolhas:
+
+**No local vs fora do local vs nuvem pública ou privada**
+
+"No local" refere-se a hospedar e gerir os dados no seu próprio equipamento, como possuir um servidor com discos rígidos que armazenam os dados, enquanto "fora do local" depende de equipamentos que não são seus, como um centro de dados. A nuvem pública é uma escolha popular para armazenar dados que não requer conhecimento sobre como ou onde exatamente os dados estão armazenados, sendo que "pública" refere-se a uma infraestrutura subjacente unificada partilhada por todos os que utilizam a nuvem. Algumas organizações têm políticas de segurança rigorosas que exigem acesso completo ao equipamento onde os dados estão hospedados e, por isso, recorrem a uma nuvem privada que fornece os seus próprios serviços de nuvem. Aprenderá mais sobre dados na nuvem em [lições futuras](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Dados frios vs dados quentes**
+
+Ao treinar os seus modelos, pode precisar de mais dados de treino. Se estiver satisfeito com o seu modelo, mais dados chegarão para que o modelo cumpra o seu propósito. Em qualquer caso, o custo de armazenar e aceder aos dados aumentará à medida que acumular mais. Separar dados raramente usados, conhecidos como dados frios, de dados frequentemente acedidos, conhecidos como dados quentes, pode ser uma opção de armazenamento mais económica através de hardware ou serviços de software. Se for necessário aceder a dados frios, pode demorar um pouco mais a recuperá-los em comparação com os dados quentes.
+
+### Gestão de Dados
+
+Ao trabalhar com dados, pode descobrir que alguns deles precisam de ser limpos utilizando algumas das técnicas abordadas na lição sobre [preparação de dados](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) para construir modelos precisos. Quando novos dados chegam, será necessário aplicar os mesmos processos para manter a consistência na qualidade. Alguns projetos envolverão o uso de uma ferramenta automatizada para limpeza, agregação e compressão antes de os dados serem movidos para o seu local final. O Azure Data Factory é um exemplo de uma dessas ferramentas.
+
+### Segurança dos Dados
+
+Um dos principais objetivos de garantir a segurança dos dados é assegurar que aqueles que trabalham com eles têm controlo sobre o que é recolhido e em que contexto está a ser utilizado. Manter os dados seguros envolve limitar o acesso apenas a quem precisa, aderir às leis e regulamentos locais, bem como manter padrões éticos, como abordado na [lição sobre ética](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Aqui estão algumas ações que uma equipa pode realizar com a segurança em mente:
+- Confirmar que todos os dados estão encriptados
+- Fornecer aos clientes informações sobre como os seus dados são utilizados
+- Remover o acesso aos dados de quem deixou o projeto
+- Permitir que apenas certos membros do projeto alterem os dados
+
+## 🚀 Desafio
+
+Existem muitas versões do Ciclo de Vida da Ciência de Dados, onde cada etapa pode ter nomes diferentes e um número distinto de fases, mas conterá os mesmos processos mencionados nesta lição.
+
+Explore o [Ciclo de Vida do Processo de Ciência de Dados em Equipa](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) e o [Processo Padrão da Indústria para Mineração de Dados](https://www.datascience-pm.com/crisp-dm-2/). Nomeie 3 semelhanças e diferenças entre os dois.
+
+|Processo de Ciência de Dados em Equipa (TDSP)|Processo Padrão da Indústria para Mineração de Dados (CRISP-DM)|
+|--|--|
+| |  |
+| Imagem por [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Imagem por [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Questionário Pós-Aula](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Revisão e Autoestudo
+
+Aplicar o Ciclo de Vida da Ciência de Dados envolve múltiplos papéis e tarefas, onde alguns podem focar-se em partes específicas de cada etapa. O Processo de Ciência de Dados em Equipa fornece alguns recursos que explicam os tipos de papéis e tarefas que alguém pode ter num projeto.
+
+* [Papéis e tarefas no Processo de Ciência de Dados em Equipa](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Executar tarefas de ciência de dados: exploração, modelagem e implementação](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Tarefa
+
+[Avaliar um Conjunto de Dados](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/pt/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..82570fe3
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,35 @@
+
+# Avaliando um Conjunto de Dados
+
+Um cliente procurou a sua equipa para obter ajuda na investigação dos hábitos sazonais de gastos dos clientes de táxi em Nova Iorque.
+
+Eles querem saber: **Os passageiros de táxi amarelo em Nova Iorque dão gorjetas maiores aos motoristas no inverno ou no verão?**
+
+A sua equipa está na fase de [Captura](Readme.md#Capturing) do Ciclo de Vida de Ciência de Dados e você está encarregado de lidar com o conjunto de dados. Foi-lhe fornecido um notebook e [dados](../../../../data/taxi.csv) para explorar.
+
+Neste diretório há um [notebook](../../../../4-Data-Science-Lifecycle/14-Introduction/notebook.ipynb) que utiliza Python para carregar dados de viagens de táxi amarelo da [Comissão de Táxis e Limousines de NYC](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Você também pode abrir o ficheiro de dados de táxi num editor de texto ou software de folha de cálculo como o Excel.
+
+## Instruções
+
+- Avalie se os dados deste conjunto podem ajudar a responder à pergunta.
+- Explore o [catálogo de Dados Abertos de NYC](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identifique um conjunto de dados adicional que possa ser útil para responder à pergunta do cliente.
+- Escreva 3 perguntas que faria ao cliente para obter mais esclarecimentos e uma melhor compreensão do problema.
+
+Consulte o [dicionário do conjunto de dados](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) e o [guia do utilizador](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) para mais informações sobre os dados.
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | ---
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/pt/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..3f0c96b7
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,59 @@
+
+# O Ciclo de Vida da Ciência de Dados: Análise
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Ciclo de Vida da Ciência de Dados: Análise - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## Questionário Pré-Aula
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+A análise no ciclo de vida dos dados confirma se os dados podem responder às questões propostas ou resolver um problema específico. Esta etapa também pode focar em confirmar se um modelo está a abordar corretamente essas questões e problemas. Esta lição concentra-se na Análise Exploratória de Dados (ou EDA), que são técnicas para definir características e relações dentro dos dados e que podem ser usadas para preparar os dados para modelagem.
+
+Usaremos um conjunto de dados de exemplo do [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) para mostrar como isso pode ser aplicado com Python e a biblioteca Pandas. Este conjunto de dados contém uma contagem de algumas palavras comuns encontradas em e-mails, sendo que as fontes desses e-mails são anónimas. Utilize o [notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) neste diretório para acompanhar.
+
+## Análise Exploratória de Dados
+
+A fase de captura do ciclo de vida é onde os dados são adquiridos, bem como os problemas e questões em questão, mas como sabemos se os dados podem ajudar a suportar o resultado final?
+Lembre-se de que um cientista de dados pode fazer as seguintes perguntas ao adquirir os dados:
+- Tenho dados suficientes para resolver este problema?
+- Os dados têm qualidade aceitável para este problema?
+- Se descobrir informações adicionais através destes dados, devemos considerar alterar ou redefinir os objetivos?
+
+A Análise Exploratória de Dados é o processo de conhecer os dados e pode ser usada para responder a estas perguntas, bem como identificar os desafios de trabalhar com o conjunto de dados. Vamos focar em algumas das técnicas usadas para alcançar isso.
+
+## Perfilagem de Dados, Estatísticas Descritivas e Pandas
+Como avaliamos se temos dados suficientes para resolver este problema? A perfilagem de dados pode resumir e reunir algumas informações gerais sobre o nosso conjunto de dados através de técnicas de estatísticas descritivas. A perfilagem de dados ajuda-nos a entender o que está disponível para nós, e as estatísticas descritivas ajudam-nos a entender quantas coisas estão disponíveis para nós.
+
+Em algumas das lições anteriores, utilizámos o Pandas para fornecer algumas estatísticas descritivas com a [função `describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Esta função fornece a contagem, valores máximos e mínimos, média, desvio padrão e quantis nos dados numéricos. Usar estatísticas descritivas como a função `describe()` pode ajudar a avaliar quanto temos e se precisamos de mais.
+
+## Amostragem e Consultas
+Explorar tudo num grande conjunto de dados pode ser muito demorado e é uma tarefa que geralmente é deixada para o computador. No entanto, a amostragem é uma ferramenta útil para compreender os dados e permite-nos ter uma melhor noção do que está no conjunto de dados e do que ele representa. Com uma amostra, pode-se aplicar probabilidade e estatísticas para chegar a algumas conclusões gerais sobre os dados. Embora não haja uma regra definida sobre a quantidade de dados que se deve amostrar, é importante notar que quanto mais dados se amostrar, mais precisa será a generalização que se pode fazer sobre os dados.
+O Pandas possui a [função `sample()` na sua biblioteca](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html), onde se pode passar um argumento indicando quantas amostras aleatórias se deseja receber e usar.
+
+Consultas gerais aos dados podem ajudar a responder a algumas perguntas e teorias gerais que se possa ter. Em contraste com a amostragem, as consultas permitem ter controlo e focar em partes específicas dos dados sobre as quais se tem dúvidas.
+A [função `query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) na biblioteca Pandas permite selecionar colunas e obter respostas simples sobre os dados através das linhas recuperadas.
+
+## Explorar com Visualizações
+Não é necessário esperar até que os dados estejam completamente limpos e analisados para começar a criar visualizações. Na verdade, ter uma representação visual enquanto se explora pode ajudar a identificar padrões, relações e problemas nos dados. Além disso, as visualizações fornecem um meio de comunicação com aqueles que não estão envolvidos na gestão dos dados e podem ser uma oportunidade para partilhar e esclarecer questões adicionais que não foram abordadas na fase de captura. Consulte a [secção sobre Visualizações](../../../../../../../../../3-Data-Visualization) para saber mais sobre algumas formas populares de explorar visualmente.
+
+## Explorar para identificar inconsistências
+Todos os tópicos desta lição podem ajudar a identificar valores em falta ou inconsistentes, mas o Pandas fornece funções para verificar alguns destes. [isna() ou isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) podem verificar valores em falta. Uma parte importante de explorar esses valores nos seus dados é explorar por que razão eles acabaram assim em primeiro lugar. Isso pode ajudar a decidir quais [ações tomar para os resolver](../../../../../../../../../2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Tarefa
+
+[Explorar para obter respostas](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/pt/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..172d4d19
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,34 @@
+
+# Explorando respostas
+
+Esta é uma continuação do [exercício](../14-Introduction/assignment.md) da lição anterior, onde analisámos brevemente o conjunto de dados. Agora vamos aprofundar a análise dos dados.
+
+Mais uma vez, a pergunta que o cliente quer responder é: **Os passageiros de táxis amarelos na cidade de Nova Iorque dão mais gorjetas aos motoristas no inverno ou no verão?**
+
+A sua equipa está na fase de [Análise](README.md) do Ciclo de Vida da Ciência de Dados, onde é responsável por realizar a análise exploratória de dados no conjunto de dados. Foi-lhe fornecido um notebook e um conjunto de dados que contém 200 transações de táxi de janeiro e julho de 2019.
+
+## Instruções
+
+Neste diretório encontra-se um [notebook](../../../../4-Data-Science-Lifecycle/15-analyzing/assignment.ipynb) e dados da [Comissão de Táxis e Limusinas](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Consulte o [dicionário do conjunto de dados](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) e o [guia do utilizador](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) para mais informações sobre os dados.
+
+Utilize algumas das técnicas desta lição para realizar a sua própria análise exploratória de dados no notebook (adicione células, se necessário) e responda às seguintes perguntas:
+
+- Que outros fatores nos dados podem influenciar o valor da gorjeta?
+- Quais colunas provavelmente não serão necessárias para responder às perguntas do cliente?
+- Com base no que foi fornecido até agora, os dados parecem fornecer alguma evidência de comportamento sazonal nas gorjetas?
+
+## Rubrica
+
+Exemplar | Adequado | Precisa de Melhorias
+--- | --- | ---
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/16-communication/README.md b/translations/pt/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..1ec54cc9
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# O Ciclo de Vida da Ciência de Dados: Comunicação
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Ciclo de Vida da Ciência de Dados: Comunicação - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Teste os seus conhecimentos sobre o que está por vir com o questionário pré-aula acima!
+
+# Introdução
+
+### O que é Comunicação?
+Vamos começar esta lição definindo o que significa comunicar. **Comunicar é transmitir ou trocar informações.** Informações podem ser ideias, pensamentos, sentimentos, mensagens, sinais subtis, dados – qualquer coisa que um **_emissor_** (alguém que envia informações) queira que um **_receptor_** (alguém que recebe informações) compreenda. Nesta lição, referir-nos-emos aos emissores como comunicadores e aos receptores como a audiência.
+
+### Comunicação de Dados & Contar Histórias
+Sabemos que, ao comunicar, o objetivo é transmitir ou trocar informações. Mas, ao comunicar dados, o objetivo não deve ser apenas passar números para a audiência. O objetivo deve ser comunicar uma história informada pelos seus dados – comunicação eficaz de dados e contar histórias andam de mãos dadas. A sua audiência tem mais probabilidade de se lembrar de uma história que contou do que de um número que apresentou. Mais adiante nesta lição, abordaremos algumas formas de usar a narrativa para comunicar os seus dados de forma mais eficaz.
+
+### Tipos de Comunicação
+Ao longo desta lição, serão discutidos dois tipos diferentes de comunicação: Comunicação Unidirecional e Comunicação Bidirecional.
+
+**Comunicação unidirecional** ocorre quando um emissor envia informações a um receptor, sem qualquer feedback ou resposta. Vemos exemplos de comunicação unidirecional todos os dias – em emails em massa, quando as notícias transmitem as histórias mais recentes, ou até mesmo quando um anúncio de televisão aparece e informa sobre as vantagens de um produto. Em cada um destes casos, o emissor não procura uma troca de informações. Ele apenas procura transmitir ou entregar informações.
+
+**Comunicação bidirecional** ocorre quando todas as partes envolvidas atuam tanto como emissores quanto como receptores. Um emissor começa por comunicar com um receptor, e o receptor fornece feedback ou uma resposta. Comunicação bidirecional é o que tradicionalmente pensamos quando falamos de comunicação. Normalmente, imaginamos pessoas envolvidas numa conversa – seja pessoalmente, por telefone, redes sociais ou mensagens de texto.
+
+Ao comunicar dados, haverá casos em que usará comunicação unidirecional (pense em apresentar numa conferência ou a um grande grupo onde não serão feitas perguntas diretamente após a apresentação) e casos em que usará comunicação bidirecional (pense em usar dados para persuadir alguns stakeholders a apoiar uma ideia ou convencer um colega de equipa a investir tempo e esforço em algo novo).
+
+# Comunicação Eficaz
+
+### As Suas Responsabilidades como Comunicador
+Ao comunicar, é sua responsabilidade garantir que o(s) receptor(es) compreendam as informações que pretende transmitir. Quando comunica dados, não quer apenas que os receptores retenham números, mas sim que compreendam uma história informada pelos seus dados. Um bom comunicador de dados é também um bom contador de histórias.
+
+Como contar uma história com dados? Existem infinitas formas – mas abaixo estão 6 estratégias que abordaremos nesta lição:
+1. Compreender a Sua Audiência, o Seu Canal e o Seu Método de Comunicação
+2. Começar com o Fim em Mente
+3. Abordar como uma História Real
+4. Usar Palavras e Frases Significativas
+5. Usar Emoção
+
+Cada uma destas estratégias será explicada em maior detalhe abaixo.
+
+### 1. Compreender a Sua Audiência, o Seu Canal e o Seu Método de Comunicação
+A forma como comunica com familiares provavelmente é diferente da forma como comunica com amigos. Provavelmente usa palavras e frases diferentes que as pessoas com quem está a falar têm mais probabilidade de compreender. Deve adotar a mesma abordagem ao comunicar dados. Pense em quem está a comunicar. Pense nos objetivos e no contexto que têm em relação à situação que está a explicar.
+
+Provavelmente pode agrupar a maioria da sua audiência numa categoria. Num artigo da _Harvard Business Review_, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” (Como Contar uma História com Dados), o estrategista executivo da Dell, Jim Stikeleather, identifica cinco categorias de audiência:
+
+ - **Principiante**: primeiro contacto com o tema, mas não quer uma explicação demasiado simplificada
+ - **Generalista**: tem conhecimento do tema, mas procura uma visão geral e os principais pontos
+ - **Gestor**: compreensão detalhada e prática das complexidades e inter-relações, com acesso a detalhes
+ - **Especialista**: mais exploração e descoberta, menos narrativa, com grande detalhe
+ - **Executivo**: tem apenas tempo para captar a relevância e as conclusões das probabilidades ponderadas
+
+Estas categorias podem orientar a forma como apresenta os dados à sua audiência.
+
+Além de pensar na categoria da sua audiência, deve também considerar o canal que está a usar para comunicar com ela. A sua abordagem deve ser ligeiramente diferente se estiver a escrever um memorando ou email, em comparação com uma reunião ou apresentação numa conferência.
+
+Além de compreender a sua audiência, saber como irá comunicar com ela (usando comunicação unidirecional ou bidirecional) também é fundamental.
+
+Se estiver a comunicar com uma audiência maioritariamente principiante e a usar comunicação unidirecional, deve primeiro educar a audiência e dar-lhe o contexto adequado. Depois, deve apresentar os seus dados, explicar o que significam e porque são importantes. Neste caso, pode querer focar-se em garantir clareza, pois a sua audiência não poderá fazer perguntas diretas.
+
+Se estiver a comunicar com uma audiência maioritariamente gestora e a usar comunicação bidirecional, provavelmente não precisará de educar a audiência ou fornecer muito contexto. Pode começar diretamente a discutir os dados que recolheu e porque são importantes. Neste cenário, no entanto, deve focar-se no controlo do tempo e da apresentação. Ao usar comunicação bidirecional (especialmente com uma audiência gestora que procura uma “compreensão prática das complexidades e inter-relações”), podem surgir perguntas que desviem a discussão do rumo da história que está a tentar contar. Quando isso acontecer, pode tomar medidas para redirecionar a discussão para a sua narrativa.
+
+### 2. Começar com o Fim em Mente
+Começar com o fim em mente significa compreender os resultados pretendidos para a sua audiência antes de começar a comunicar com ela. Ser cuidadoso sobre o que quer que a sua audiência retenha pode ajudá-lo a criar uma história que ela consiga seguir. Começar com o fim em mente é apropriado tanto para comunicação unidirecional quanto bidirecional.
+
+Como começar com o fim em mente? Antes de comunicar os seus dados, escreva os principais pontos que quer transmitir. Depois, a cada passo enquanto prepara a história que quer contar com os seus dados, pergunte-se: "Como é que isto se integra na história que estou a contar?"
+
+Atenção – Embora começar com o fim em mente seja ideal, não deve comunicar apenas os dados que apoiam os seus pontos principais. Fazer isso é chamado de "Cherry-Picking" (seleção tendenciosa), que ocorre quando um comunicador apresenta apenas os dados que apoiam o ponto que está a tentar fazer, ignorando todos os outros dados.
+
+Se todos os dados que recolheu apoiam claramente os seus pontos principais, ótimo. Mas se houver dados que não os apoiam, ou até mesmo que sustentem um argumento contrário, deve comunicá-los também. Se isso acontecer, seja honesto com a sua audiência e explique porque está a manter a sua narrativa, mesmo que nem todos os dados a suportem.
+
+### 3. Abordar como uma História Real
+Uma história tradicional ocorre em 5 fases. Pode ter ouvido estas fases descritas como Exposição, Ação Crescente, Clímax, Ação Decrescente e Desfecho. Ou, de forma mais simples, Contexto, Conflito, Clímax, Encerramento e Conclusão. Ao comunicar os seus dados e a sua história, pode adotar uma abordagem semelhante.
+
+Pode começar com o contexto, definindo o cenário e garantindo que a sua audiência está na mesma página. Depois, introduza o conflito. Porque precisou de recolher estes dados? Que problemas estava a tentar resolver? A seguir, o clímax. Quais são os dados? O que significam? Que soluções os dados indicam? Depois, chega ao encerramento, onde pode reiterar o problema e as soluções propostas. Por fim, a conclusão, onde pode resumir os principais pontos e os próximos passos recomendados.
+
+### 4. Usar Palavras e Frases Significativas
+Se estivéssemos a trabalhar juntos num produto e eu dissesse: "Os nossos utilizadores demoram muito tempo a registar-se na nossa plataforma," quanto tempo estimaria que "muito tempo" significa? Uma hora? Uma semana? É difícil saber. E se eu dissesse isso a uma audiência inteira? Cada pessoa poderia ter uma ideia diferente de quanto tempo os utilizadores demoram a registar-se.
+
+Agora, e se eu dissesse: "Os nossos utilizadores demoram, em média, 3 minutos a registar-se e a começar a usar a nossa plataforma."
+
+Essa mensagem é mais clara. Ao comunicar dados, pode ser fácil pensar que todos na sua audiência estão a pensar como você. Mas isso nem sempre é o caso. Garantir clareza em relação aos seus dados e ao que significam é uma das suas responsabilidades como comunicador. Se os dados ou a sua história não forem claros, a sua audiência terá dificuldade em acompanhar e será menos provável que compreenda os seus principais pontos.
+
+Pode comunicar dados de forma mais clara ao usar palavras e frases significativas, em vez de vagas. Abaixo estão alguns exemplos:
+
+ - Tivemos um ano *impressionante*!
+ - Uma pessoa pode pensar que "impressionante" significa um aumento de 2% - 3% na receita, enquanto outra pode pensar que significa 50% - 60%.
+ - As taxas de sucesso dos nossos utilizadores aumentaram *drasticamente*.
+ - Quão grande é um aumento "drástico"?
+ - Este projeto exigirá um esforço *significativo*.
+ - Quanto esforço é "significativo"?
+
+Usar palavras vagas pode ser útil como introdução a mais dados que virão ou como resumo da história que acabou de contar. Mas considere garantir que cada parte da sua apresentação seja clara para a sua audiência.
+
+### 5. Usar Emoção
+A emoção é fundamental na narrativa. É ainda mais importante quando está a contar uma história com dados. Ao comunicar dados, tudo se concentra nos pontos principais que quer que a sua audiência retenha. Evocar uma emoção na audiência ajuda-a a empatizar e torna-a mais propensa a agir. A emoção também aumenta a probabilidade de a audiência se lembrar da sua mensagem.
+
+Provavelmente já experienciou isso com anúncios de televisão. Alguns anúncios são muito sombrios e usam uma emoção triste para se conectar com a audiência e destacar os dados que estão a apresentar. Outros anúncios são muito animados e felizes, fazendo com que associe os dados a um sentimento positivo.
+
+Como usar emoção ao comunicar dados? Abaixo estão algumas formas:
+
+ - Use Testemunhos e Histórias Pessoais
+ - Ao recolher dados, tente obter tanto dados quantitativos quanto qualitativos e integre ambos os tipos ao comunicar. Se os seus dados forem principalmente quantitativos, procure histórias individuais para aprender mais sobre as experiências relacionadas com os seus dados.
+ - Use Imagens
+ - As imagens ajudam a audiência a visualizar-se numa situação. Quando usa imagens, pode direcionar a audiência para a emoção que acha que ela deve sentir em relação aos seus dados.
+ - Use Cores
+ - Cores diferentes evocam emoções diferentes. Algumas cores populares e as emoções que evocam são:
+ - Azul geralmente transmite paz e confiança
+ - Verde está frequentemente relacionado com a natureza e o ambiente
+ - Vermelho geralmente representa paixão e entusiasmo
+ - Amarelo geralmente transmite otimismo e felicidade
+
+# Estudo de Caso de Comunicação
+Emerson é gestor de produto de uma aplicação móvel. Emerson notou que os clientes submetem 42% mais reclamações e relatórios de erros aos fins de semana. Emerson também percebeu que os clientes que submetem uma reclamação que não é respondida em 48 horas têm 32% mais probabilidade de dar à aplicação uma classificação de 1 ou 2 na loja de aplicações.
+
+Após realizar uma pesquisa, Emerson tem algumas soluções para resolver o problema. Emerson marca uma reunião de 30 minutos com os 3 líderes da empresa para comunicar os dados e as soluções propostas.
+
+Durante esta reunião, o objetivo de Emerson é que os líderes da empresa compreendam que as 2 soluções abaixo podem melhorar a classificação da aplicação, o que provavelmente se traduzirá em maior receita.
+
+**Solução 1.** Contratar representantes de atendimento ao cliente para trabalhar aos fins de semana
+
+**Solução 2.** Adquirir um novo sistema de gestão de tickets de atendimento ao cliente, onde os representantes possam identificar facilmente quais as reclamações que estão na fila há mais tempo – para que saibam quais devem ser tratadas com maior urgência.
+Na reunião, Emerson passa 5 minutos a explicar por que ter uma classificação baixa na loja de aplicações é prejudicial, 10 minutos a detalhar o processo de pesquisa e como as tendências foram identificadas, 10 minutos a analisar algumas das reclamações recentes dos clientes e os últimos 5 minutos a abordar superficialmente as 2 soluções potenciais.
+
+Foi esta uma forma eficaz de Emerson comunicar durante esta reunião?
+
+Durante a reunião, um dos líderes da empresa fixou-se nos 10 minutos de reclamações dos clientes que Emerson apresentou. Após a reunião, estas reclamações foram a única coisa que este líder de equipa se lembrou. Outro líder da empresa concentrou-se principalmente na descrição do processo de pesquisa feita por Emerson. O terceiro líder da empresa lembrou-se das soluções propostas por Emerson, mas não tinha certeza de como essas soluções poderiam ser implementadas.
+
+Na situação acima, pode-se ver que houve uma lacuna significativa entre o que Emerson queria que os líderes de equipa retivessem e o que eles realmente retiveram da reunião. Abaixo está outra abordagem que Emerson poderia considerar.
+
+Como poderia Emerson melhorar esta abordagem?
+Contexto, Conflito, Clímax, Fecho, Conclusão
+**Contexto** - Emerson poderia gastar os primeiros 5 minutos a introduzir toda a situação e garantir que os líderes de equipa compreendem como os problemas afetam métricas críticas para a empresa, como a receita.
+
+Poderia ser apresentado desta forma: "Atualmente, a classificação da nossa aplicação na loja de aplicações é de 2.5. As classificações na loja de aplicações são críticas para a Otimização da Loja de Aplicações, que impacta quantos utilizadores veem a nossa aplicação nas pesquisas e como a nossa aplicação é percecionada por potenciais utilizadores. E claro, o número de utilizadores que temos está diretamente ligado à receita."
+
+**Conflito** Emerson poderia então dedicar os próximos 5 minutos a falar sobre o conflito.
+
+Poderia ser apresentado desta forma: “Os utilizadores submetem 42% mais reclamações e relatórios de erros aos fins de semana. Os clientes que submetem uma reclamação que não é respondida após 48 horas têm 32% menos probabilidade de dar à nossa aplicação uma classificação superior a 2 na loja de aplicações. Melhorar a classificação da nossa aplicação na loja de aplicações para 4 aumentaria a nossa visibilidade em 20-30%, o que eu projeto que aumentaria a receita em 10%." Claro, Emerson deveria estar preparado para justificar estes números.
+
+**Clímax** Depois de estabelecer as bases, Emerson poderia então passar para o Clímax durante cerca de 5 minutos.
+
+Emerson poderia apresentar as soluções propostas, explicar como essas soluções irão abordar os problemas identificados, como essas soluções poderiam ser implementadas nos fluxos de trabalho existentes, quanto custam as soluções, qual seria o ROI das soluções e talvez até mostrar algumas capturas de ecrã ou wireframes de como as soluções ficariam se implementadas. Emerson também poderia partilhar testemunhos de utilizadores que esperaram mais de 48 horas para ter a sua reclamação resolvida e até um testemunho de um representante atual do serviço ao cliente dentro da empresa que tem comentários sobre o sistema de tickets atual.
+
+**Fecho** Agora Emerson pode gastar 5 minutos a reiterar os problemas enfrentados pela empresa, revisitar as soluções propostas e rever por que essas soluções são as mais adequadas.
+
+**Conclusão** Como esta é uma reunião com alguns stakeholders onde será utilizada comunicação bidirecional, Emerson poderia então planear deixar 10 minutos para perguntas, para garantir que qualquer coisa que tenha sido confusa para os líderes de equipa possa ser esclarecida antes do fim da reunião.
+
+Se Emerson adotasse a abordagem #2, é muito mais provável que os líderes de equipa retirassem da reunião exatamente o que Emerson pretendia que retirassem – que a forma como as reclamações e os erros são tratados poderia ser melhorada e que existem 2 soluções que poderiam ser implementadas para que essa melhoria aconteça. Esta abordagem seria muito mais eficaz para comunicar os dados e a história que Emerson quer transmitir.
+
+# Conclusão
+### Resumo dos pontos principais
+- Comunicar é transmitir ou trocar informações.
+- Ao comunicar dados, o objetivo não deve ser simplesmente passar números para o público. O objetivo deve ser comunicar uma história informada pelos dados.
+- Existem 2 tipos de comunicação: Comunicação Unidirecional (informação é comunicada sem intenção de resposta) e Comunicação Bidirecional (informação é comunicada de forma recíproca).
+- Existem muitas estratégias que podem ser usadas para contar uma história com os seus dados. As 5 estratégias que abordámos são:
+ - Compreender o Público, o Meio e o Método de Comunicação
+ - Começar com o Fim em Mente
+ - Abordar como uma História Real
+ - Usar Palavras e Frases Significativas
+ - Usar Emoção
+
+### Recursos Recomendados para Autoestudo
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Revise o que acabou de aprender com o questionário pós-aula acima!
+
+## Tarefa
+
+[Market Research](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/pt/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..9ab8dacf
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,24 @@
+
+# Conte uma história
+
+## Instruções
+
+A Ciência de Dados trata de contar histórias. Escolha qualquer conjunto de dados e escreva um pequeno artigo sobre uma história que poderia contar com ele. O que espera que o seu conjunto de dados revele? O que fará se as suas revelações forem problemáticas? E se os seus dados não revelarem facilmente os seus segredos? Pense nos cenários que o seu conjunto de dados pode apresentar e escreva-os.
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | -- |
+
+Um ensaio de uma página é apresentado em formato .doc com o conjunto de dados explicado, documentado, creditado, e uma história coerente é apresentada sobre ele com exemplos detalhados dos dados.| Um ensaio mais curto é apresentado em formato menos detalhado | O ensaio apresenta falhas em um dos detalhes acima.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/4-Data-Science-Lifecycle/README.md b/translations/pt/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..42acfb5b
--- /dev/null
+++ b/translations/pt/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,28 @@
+
+# O Ciclo de Vida da Ciência de Dados
+
+
+> Foto por Headway no Unsplash
+
+Nestes conteúdos, vais explorar alguns dos aspetos do ciclo de vida da Ciência de Dados, incluindo análise e comunicação de dados.
+
+### Tópicos
+
+1. [Introdução](14-Introduction/README.md)
+2. [Análise](15-analyzing/README.md)
+3. [Comunicação](16-communication/README.md)
+
+### Créditos
+
+Estas lições foram escritas com ❤️ por [Jalen McGee](https://twitter.com/JalenMCG) e [Jasmine Greenaway](https://twitter.com/paladique)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos pela precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/pt/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..c26b851d
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,111 @@
+
+# Introdução à Ciência de Dados na Cloud
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Ciência de Dados na Cloud: Introdução - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Nesta lição, vais aprender os princípios fundamentais da Cloud, perceber porque pode ser interessante utilizares serviços de Cloud para executar os teus projetos de ciência de dados e analisar alguns exemplos de projetos de ciência de dados realizados na Cloud.
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## O que é a Cloud?
+
+A Cloud, ou Computação na Cloud, refere-se à disponibilização de uma ampla gama de serviços de computação, pagos conforme o uso, hospedados numa infraestrutura através da internet. Os serviços incluem soluções como armazenamento, bases de dados, redes, software, análises e serviços inteligentes.
+
+Normalmente, distinguimos entre Cloud Pública, Privada e Híbrida da seguinte forma:
+
+* Cloud pública: uma cloud pública é propriedade e operada por um fornecedor de serviços de cloud de terceiros, que disponibiliza os seus recursos de computação ao público através da Internet.
+* Cloud privada: refere-se a recursos de computação na cloud utilizados exclusivamente por uma única empresa ou organização, com serviços e infraestrutura mantidos numa rede privada.
+* Cloud híbrida: a cloud híbrida é um sistema que combina clouds públicas e privadas. Os utilizadores optam por um datacenter local, permitindo que dados e aplicações sejam executados em uma ou mais clouds públicas.
+
+A maioria dos serviços de computação na cloud enquadra-se em três categorias: Infraestrutura como Serviço (IaaS), Plataforma como Serviço (PaaS) e Software como Serviço (SaaS).
+
+* Infraestrutura como Serviço (IaaS): os utilizadores alugam uma infraestrutura de TI, como servidores e máquinas virtuais (VMs), armazenamento, redes e sistemas operativos.
+* Plataforma como Serviço (PaaS): os utilizadores alugam um ambiente para desenvolver, testar, entregar e gerir aplicações de software. Não precisam de se preocupar em configurar ou gerir a infraestrutura subjacente de servidores, armazenamento, redes e bases de dados necessárias para o desenvolvimento.
+* Software como Serviço (SaaS): os utilizadores têm acesso a aplicações de software através da Internet, sob demanda e, geralmente, com base em subscrição. Não precisam de se preocupar com a hospedagem e gestão da aplicação de software, da infraestrutura subjacente ou da manutenção, como atualizações de software e correções de segurança.
+
+Alguns dos maiores fornecedores de Cloud são Amazon Web Services, Google Cloud Platform e Microsoft Azure.
+
+## Por que escolher a Cloud para Ciência de Dados?
+
+Desenvolvedores e profissionais de TI escolhem trabalhar com a Cloud por várias razões, incluindo as seguintes:
+
+* Inovação: podes potenciar as tuas aplicações integrando serviços inovadores criados pelos fornecedores de Cloud diretamente nas tuas apps.
+* Flexibilidade: pagas apenas pelos serviços de que precisas e podes escolher entre uma ampla gama de serviços. Normalmente, pagas conforme o uso e adaptas os serviços às tuas necessidades em evolução.
+* Orçamento: não precisas de fazer investimentos iniciais para comprar hardware e software, configurar e operar datacenters locais; pagas apenas pelo que utilizas.
+* Escalabilidade: os teus recursos podem ser escalados de acordo com as necessidades do teu projeto, o que significa que as tuas apps podem usar mais ou menos poder de computação, armazenamento e largura de banda, adaptando-se a fatores externos a qualquer momento.
+* Produtividade: podes focar-te no teu negócio em vez de perder tempo com tarefas que podem ser geridas por terceiros, como a gestão de datacenters.
+* Confiabilidade: a Computação na Cloud oferece várias formas de fazer backups contínuos dos teus dados e podes configurar planos de recuperação de desastres para manter o teu negócio e serviços em funcionamento, mesmo em tempos de crise.
+* Segurança: podes beneficiar de políticas, tecnologias e controlos que reforçam a segurança do teu projeto.
+
+Estas são algumas das razões mais comuns pelas quais as pessoas escolhem usar serviços de Cloud. Agora que temos uma melhor compreensão do que é a Cloud e dos seus principais benefícios, vamos analisar mais especificamente o trabalho de cientistas de dados e desenvolvedores que trabalham com dados, e como a Cloud pode ajudá-los a enfrentar vários desafios:
+
+* Armazenar grandes volumes de dados: em vez de comprar, gerir e proteger grandes servidores, podes armazenar os teus dados diretamente na cloud, com soluções como Azure Cosmos DB, Azure SQL Database e Azure Data Lake Storage.
+* Realizar integração de dados: a integração de dados é uma parte essencial da Ciência de Dados, permitindo a transição da recolha de dados para a tomada de ações. Com serviços de integração de dados oferecidos na cloud, podes recolher, transformar e integrar dados de várias fontes num único data warehouse, com o Data Factory.
+* Processar dados: processar grandes volumes de dados requer muito poder de computação, e nem todos têm acesso a máquinas suficientemente potentes para isso, razão pela qual muitas pessoas optam por aproveitar diretamente o enorme poder de computação da cloud para executar e implementar as suas soluções.
+* Utilizar serviços de análise de dados: serviços de cloud como Azure Synapse Analytics, Azure Stream Analytics e Azure Databricks ajudam-te a transformar os teus dados em insights acionáveis.
+* Utilizar serviços de Machine Learning e inteligência de dados: em vez de começar do zero, podes usar algoritmos de machine learning oferecidos pelo fornecedor de cloud, com serviços como AzureML. Também podes usar serviços cognitivos, como conversão de fala para texto, texto para fala, visão computacional e muito mais.
+
+## Exemplos de Ciência de Dados na Cloud
+
+Vamos tornar isto mais tangível analisando alguns cenários.
+
+### Análise de sentimento em redes sociais em tempo real
+Começaremos com um cenário frequentemente estudado por quem inicia em machine learning: análise de sentimento em redes sociais em tempo real.
+
+Imagina que geres um site de notícias e queres aproveitar dados em tempo real para entender que tipo de conteúdo pode interessar aos teus leitores. Para saber mais sobre isso, podes criar um programa que realiza análise de sentimento em tempo real de dados provenientes de publicações no Twitter, sobre tópicos relevantes para os teus leitores.
+
+Os indicadores-chave que vais analisar são o volume de tweets sobre tópicos específicos (hashtags) e o sentimento, que é determinado usando ferramentas de análise que realizam análise de sentimento em torno dos tópicos especificados.
+
+Os passos necessários para criar este projeto são os seguintes:
+
+* Criar um hub de eventos para entrada de streaming, que irá recolher dados do Twitter.
+* Configurar e iniciar uma aplicação cliente do Twitter, que irá chamar as APIs de Streaming do Twitter.
+* Criar um trabalho de Stream Analytics.
+* Especificar a entrada e a consulta do trabalho.
+* Criar um destino de saída e especificar a saída do trabalho.
+* Iniciar o trabalho.
+
+Para ver o processo completo, consulta a [documentação](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Análise de artigos científicos
+Vamos analisar outro exemplo de um projeto criado por [Dmitry Soshnikov](http://soshnikov.com), um dos autores deste currículo.
+
+Dmitry criou uma ferramenta que analisa artigos sobre COVID. Ao rever este projeto, vais perceber como podes criar uma ferramenta que extrai conhecimento de artigos científicos, obtém insights e ajuda investigadores a navegar por grandes coleções de artigos de forma eficiente.
+
+Vamos ver os diferentes passos utilizados para isto:
+* Extrair e pré-processar informações com [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Utilizar [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) para paralelizar o processamento.
+* Armazenar e consultar informações com [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Criar um painel interativo para exploração e visualização de dados usando Power BI.
+
+Para ver o processo completo, visita o [blog do Dmitry](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Como podes ver, podemos aproveitar os serviços de Cloud de várias formas para realizar Ciência de Dados.
+
+## Nota de Rodapé
+
+Fontes:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Questionário Pós-Aula
+
+[Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Tarefa
+
+[Pesquisa de Mercado](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/pt/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..c0f3e03b
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,23 @@
+
+# Pesquisa de Mercado
+
+## Instruções
+
+Nesta lição, aprendeste que existem vários fornecedores importantes de serviços na nuvem. Faz uma pesquisa de mercado para descobrir o que cada um pode oferecer ao Cientista de Dados. As ofertas são comparáveis? Escreve um artigo a descrever as ofertas de três ou mais destes fornecedores de serviços na nuvem.
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | -- |
+Um artigo de uma página descreve as ofertas de ciência de dados de três fornecedores de serviços na nuvem e diferencia entre elas. | Um artigo mais curto é apresentado. | Um artigo é apresentado sem completar a análise.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/pt/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..c141a58d
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,351 @@
+
+# Ciência de Dados na Cloud: O caminho "Low code/No code"
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Ciência de Dados na Cloud: Low Code - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Índice:
+
+- [Ciência de Dados na Cloud: O caminho "Low code/No code"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Questionário Pré-Aula](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Introdução](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 O que é o Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 O Projeto de Previsão de Insuficiência Cardíaca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 O Conjunto de Dados de Insuficiência Cardíaca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Treinamento Low code/No code de um modelo no Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Criar um espaço de trabalho no Azure ML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Recursos de Computação](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Escolhendo as opções certas para os seus recursos de computação](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Criando um cluster de computação](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Carregando o Conjunto de Dados](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Treinamento Low code/No code com AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Implantação do modelo Low code/No code e consumo de endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Implantação do modelo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Consumo de endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Desafio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Questionário Pós-Aula](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Revisão e Autoestudo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Tarefa](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+
+## 1. Introdução
+
+### 1.1 O que é o Azure Machine Learning?
+
+A plataforma cloud Azure oferece mais de 200 produtos e serviços cloud projetados para ajudar a dar vida a novas soluções. Cientistas de dados gastam muito esforço explorando e pré-processando dados, além de testar vários tipos de algoritmos de treinamento de modelos para produzir modelos precisos. Essas tarefas consomem tempo e frequentemente utilizam de forma ineficiente hardware de computação caro.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) é uma plataforma baseada na cloud para construir e operar soluções de machine learning no Azure. Inclui uma ampla gama de recursos e capacidades que ajudam cientistas de dados a preparar dados, treinar modelos, publicar serviços preditivos e monitorar seu uso. Mais importante, aumenta a eficiência ao automatizar muitas das tarefas demoradas associadas ao treinamento de modelos; e permite o uso de recursos de computação baseados na cloud que escalam de forma eficaz para lidar com grandes volumes de dados, incorrendo em custos apenas quando realmente utilizados.
+
+O Azure ML fornece todas as ferramentas que desenvolvedores e cientistas de dados precisam para seus fluxos de trabalho de machine learning. Estas incluem:
+
+- **Azure Machine Learning Studio**: um portal web no Azure Machine Learning para opções low-code e no-code para treinamento de modelos, implantação, automação, rastreamento e gerenciamento de ativos. O estúdio integra-se ao Azure Machine Learning SDK para uma experiência contínua.
+- **Jupyter Notebooks**: para prototipar e testar rapidamente modelos de ML.
+- **Azure Machine Learning Designer**: permite arrastar e soltar módulos para construir experimentos e, em seguida, implantar pipelines em um ambiente low-code.
+- **Interface de AutoML (Automated Machine Learning)**: automatiza tarefas iterativas de desenvolvimento de modelos de machine learning, permitindo construir modelos de ML com alta escala, eficiência e produtividade, mantendo a qualidade do modelo.
+- **Rotulagem de Dados**: uma ferramenta assistida de ML para rotular dados automaticamente.
+- **Extensão de machine learning para o Visual Studio Code**: fornece um ambiente de desenvolvimento completo para construir e gerenciar projetos de ML.
+- **CLI de machine learning**: fornece comandos para gerenciar recursos do Azure ML a partir da linha de comando.
+- **Integração com frameworks open-source** como PyTorch, TensorFlow, Scikit-learn e muitos outros para treinar, implantar e gerenciar o processo de machine learning de ponta a ponta.
+- **MLflow**: uma biblioteca open-source para gerenciar o ciclo de vida dos seus experimentos de machine learning. **MLFlow Tracking** é um componente do MLflow que registra e rastreia métricas de execução de treinamento e artefatos de modelo, independentemente do ambiente do experimento.
+
+### 1.2 O Projeto de Previsão de Insuficiência Cardíaca:
+
+Não há dúvida de que criar e desenvolver projetos é a melhor forma de testar suas habilidades e conhecimentos. Nesta lição, vamos explorar duas maneiras diferentes de construir um projeto de ciência de dados para prever ataques de insuficiência cardíaca no Azure ML Studio, através de Low code/No code e do Azure ML SDK, conforme mostrado no esquema a seguir:
+
+
+
+Cada abordagem tem seus próprios prós e contras. O método Low code/No code é mais fácil para começar, pois envolve interagir com uma interface gráfica (GUI), sem necessidade de conhecimento prévio de código. Este método permite testar rapidamente a viabilidade do projeto e criar um POC (Prova de Conceito). No entanto, à medida que o projeto cresce e precisa estar pronto para produção, não é viável criar recursos através da GUI. É necessário automatizar programaticamente tudo, desde a criação de recursos até a implantação de um modelo. É aqui que o conhecimento do Azure ML SDK se torna essencial.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Conhecimento de código | Não necessário | Necessário |
+| Tempo de desenvolvimento | Rápido e fácil | Depende da experiência com código |
+| Pronto para produção | Não | Sim |
+
+### 1.3 O Conjunto de Dados de Insuficiência Cardíaca:
+
+As doenças cardiovasculares (DCVs) são a principal causa de morte no mundo, representando 31% de todas as mortes globalmente. Fatores de risco ambientais e comportamentais, como uso de tabaco, dieta não saudável e obesidade, inatividade física e consumo nocivo de álcool, podem ser usados como características para modelos de estimativa. Ser capaz de estimar a probabilidade de desenvolvimento de uma DCV pode ser muito útil para prevenir ataques em pessoas de alto risco.
+
+O Kaggle disponibilizou publicamente um [conjunto de dados de insuficiência cardíaca](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data), que usaremos neste projeto. Pode fazer o download do conjunto de dados agora. Este é um conjunto de dados tabular com 13 colunas (12 características e 1 variável alvo) e 299 linhas.
+
+| | Nome da variável | Tipo | Descrição | Exemplo |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numérico | Idade do paciente | 25 |
+| 2 | anaemia | booleano | Diminuição de glóbulos vermelhos ou hemoglobina | 0 ou 1 |
+| 3 | creatinine_phosphokinase | numérico | Nível da enzima CPK no sangue | 542 |
+| 4 | diabetes | booleano | Se o paciente tem diabetes | 0 ou 1 |
+| 5 | ejection_fraction | numérico | Percentagem de sangue que sai do coração a cada contração | 45 |
+| 6 | high_blood_pressure | booleano | Se o paciente tem hipertensão | 0 ou 1 |
+| 7 | platelets | numérico | Plaquetas no sangue | 149000 |
+| 8 | serum_creatinine | numérico | Nível de creatinina sérica no sangue | 0.5 |
+| 9 | serum_sodium | numérico | Nível de sódio sérico no sangue | jun |
+| 10 | sex | booleano | Mulher ou homem | 0 ou 1 |
+| 11 | smoking | booleano | Se o paciente fuma | 0 ou 1 |
+| 12 | time | numérico | Período de acompanhamento (dias) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Alvo] | booleano | Se o paciente morre durante o período de acompanhamento | 0 ou 1 |
+
+Depois de obter o conjunto de dados, podemos começar o projeto no Azure.
+
+## 2. Treinamento Low code/No code de um modelo no Azure ML Studio
+
+### 2.1 Criar um espaço de trabalho no Azure ML
+
+Para treinar um modelo no Azure ML, primeiro é necessário criar um espaço de trabalho no Azure ML. O espaço de trabalho é o recurso de nível superior para o Azure Machine Learning, fornecendo um local centralizado para trabalhar com todos os artefatos criados ao usar o Azure Machine Learning. O espaço de trabalho mantém um histórico de todas as execuções de treinamento, incluindo logs, métricas, saídas e um instantâneo dos seus scripts. Você usa essas informações para determinar qual execução de treinamento produz o melhor modelo. [Saiba mais](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Recomenda-se usar o navegador mais atualizado compatível com o seu sistema operacional. Os seguintes navegadores são suportados:
+
+- Microsoft Edge (A nova versão do Microsoft Edge, mais recente. Não o Microsoft Edge legado)
+- Safari (versão mais recente, apenas para Mac)
+- Chrome (versão mais recente)
+- Firefox (versão mais recente)
+
+Para usar o Azure Machine Learning, crie um espaço de trabalho na sua subscrição do Azure. Você pode então usar este espaço de trabalho para gerenciar dados, recursos de computação, código, modelos e outros artefatos relacionados às suas cargas de trabalho de machine learning.
+
+> **_NOTA:_** Sua subscrição do Azure será cobrada uma pequena quantia pelo armazenamento de dados enquanto o espaço de trabalho do Azure Machine Learning existir na sua subscrição, por isso recomendamos que exclua o espaço de trabalho do Azure Machine Learning quando não estiver mais a utilizá-lo.
+
+1. Inicie sessão no [portal do Azure](https://ms.portal.azure.com/) usando as credenciais Microsoft associadas à sua subscrição do Azure.
+2. Selecione **+Criar um recurso**
+
+ 
+
+ Pesquise por Machine Learning e selecione o tile Machine Learning.
+
+ 
+
+ Clique no botão criar.
+
+ 
+
+ Preencha as configurações da seguinte forma:
+ - Subscrição: Sua subscrição do Azure
+ - Grupo de recursos: Crie ou selecione um grupo de recursos
+ - Nome do espaço de trabalho: Insira um nome único para o seu espaço de trabalho
+ - Região: Selecione a região geográfica mais próxima de si
+ - Conta de armazenamento: Note a nova conta de armazenamento padrão que será criada para o seu espaço de trabalho
+ - Cofre de chaves: Note o novo cofre de chaves padrão que será criado para o seu espaço de trabalho
+ - Insights de aplicação: Note o novo recurso de insights de aplicação padrão que será criado para o seu espaço de trabalho
+ - Registro de contêiner: Nenhum (um será criado automaticamente na primeira vez que implantar um modelo em um contêiner)
+
+ 
+
+ - Clique em criar + rever e, em seguida, no botão criar.
+3. Aguarde até que o seu espaço de trabalho seja criado (isso pode levar alguns minutos). Depois, aceda a ele no portal. Pode encontrá-lo através do serviço Azure Machine Learning.
+4. Na página de visão geral do seu espaço de trabalho, inicie o Azure Machine Learning Studio (ou abra uma nova aba do navegador e navegue para https://ml.azure.com), e inicie sessão no Azure Machine Learning Studio usando a sua conta Microsoft. Se solicitado, selecione o seu diretório e subscrição do Azure, e o seu espaço de trabalho do Azure Machine Learning.
+
+
+
+5. No Azure Machine Learning Studio, alterne o ícone ☰ no canto superior esquerdo para visualizar as várias páginas da interface. Pode usar essas páginas para gerenciar os recursos no seu espaço de trabalho.
+
+
+
+Pode gerenciar o seu espaço de trabalho usando o portal do Azure, mas para cientistas de dados e engenheiros de operações de Machine Learning, o Azure Machine Learning Studio fornece uma interface de utilizador mais focada para gerenciar os recursos do espaço de trabalho.
+
+### 2.2 Recursos de Computação
+
+Os Recursos de Computação são recursos baseados na cloud nos quais pode executar processos de treinamento de modelos e exploração de dados. Existem quatro tipos de recursos de computação que pode criar:
+
+- **Instâncias de Computação**: Estações de trabalho de desenvolvimento que cientistas de dados podem usar para trabalhar com dados e modelos. Isso envolve a criação de uma Máquina Virtual (VM) e o lançamento de uma instância de notebook. Pode então treinar um modelo chamando um cluster de computação a partir do notebook.
+- **Clusters de Computação**: Clusters escaláveis de VMs para processamento sob demanda de código de experimentos. Será necessário ao treinar um modelo. Clusters de computação também podem empregar recursos especializados de GPU ou CPU.
+- **Clusters de Inferência**: Alvos de implantação para serviços preditivos que usam os seus modelos treinados.
+- **Attached Compute**: Ligações a recursos de computação existentes no Azure, como Máquinas Virtuais ou clusters do Azure Databricks.
+
+#### 2.2.1 Escolher as opções certas para os seus recursos de computação
+
+Alguns fatores importantes devem ser considerados ao criar um recurso de computação, e essas escolhas podem ser decisões críticas.
+
+**Precisa de CPU ou GPU?**
+
+Uma CPU (Unidade Central de Processamento) é o circuito eletrônico que executa instruções de um programa de computador. Uma GPU (Unidade de Processamento Gráfico) é um circuito eletrônico especializado que pode executar código relacionado a gráficos a uma taxa muito alta.
+
+A principal diferença entre a arquitetura de CPU e GPU é que uma CPU é projetada para lidar com uma ampla gama de tarefas rapidamente (medida pela velocidade do clock da CPU), mas é limitada na simultaneidade das tarefas que podem estar em execução. As GPUs são projetadas para computação paralela e, portanto, são muito melhores em tarefas de aprendizagem profunda.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Menos dispendiosa | Mais dispendiosa |
+| Nível mais baixo de simultaneidade | Nível mais alto de simultaneidade |
+| Mais lenta no treino de modelos de aprendizagem profunda | Ótima para aprendizagem profunda |
+
+**Tamanho do Cluster**
+
+Clusters maiores são mais dispendiosos, mas resultam em melhor capacidade de resposta. Portanto, se tiver tempo, mas não muito dinheiro, deve começar com um cluster pequeno. Por outro lado, se tiver dinheiro, mas pouco tempo, deve começar com um cluster maior.
+
+**Tamanho da VM**
+
+Dependendo das suas restrições de tempo e orçamento, pode variar o tamanho da RAM, disco, número de núcleos e velocidade do clock. Aumentar todos esses parâmetros será mais caro, mas resultará em melhor desempenho.
+
+**Instâncias Dedicadas ou de Baixa Prioridade?**
+
+Uma instância de baixa prioridade significa que é interrompível: essencialmente, a Microsoft Azure pode retirar esses recursos e atribuí-los a outra tarefa, interrompendo assim um trabalho. Uma instância dedicada, ou não interrompível, significa que o trabalho nunca será terminado sem a sua permissão.
+Esta é outra consideração entre tempo e dinheiro, já que instâncias interrompíveis são menos dispendiosas do que instâncias dedicadas.
+
+#### 2.2.2 Criar um cluster de computação
+
+No [espaço de trabalho Azure ML](https://ml.azure.com/) que criámos anteriormente, vá para computação e poderá ver os diferentes recursos de computação que acabámos de discutir (ou seja, instâncias de computação, clusters de computação, clusters de inferência e computação ligada). Para este projeto, vamos precisar de um cluster de computação para treino de modelo. No Studio, clique no menu "Compute", depois no separador "Compute cluster" e clique no botão "+ New" para criar um cluster de computação.
+
+
+
+1. Escolha as suas opções: Dedicado vs Baixa prioridade, CPU ou GPU, tamanho da VM e número de núcleos (pode manter as configurações padrão para este projeto).
+2. Clique no botão Next.
+
+
+
+3. Dê ao cluster um nome de computação.
+4. Escolha as suas opções: Número mínimo/máximo de nós, segundos de inatividade antes de reduzir, acesso SSH. Note que, se o número mínimo de nós for 0, poupará dinheiro quando o cluster estiver inativo. Note que quanto maior o número de nós máximos, mais curto será o treino. O número máximo de nós recomendado é 3.
+5. Clique no botão "Create". Este passo pode demorar alguns minutos.
+
+
+
+Fantástico! Agora que temos um cluster de computação, precisamos de carregar os dados para o Azure ML Studio.
+
+### 2.3 Carregar o Conjunto de Dados
+
+1. No [espaço de trabalho Azure ML](https://ml.azure.com/) que criámos anteriormente, clique em "Datasets" no menu à esquerda e clique no botão "+ Create dataset" para criar um conjunto de dados. Escolha a opção "From local files" e selecione o conjunto de dados do Kaggle que descarregámos anteriormente.
+
+ 
+
+2. Dê ao seu conjunto de dados um nome, um tipo e uma descrição. Clique em Next. Carregue os dados a partir dos ficheiros. Clique em Next.
+
+ 
+
+3. No esquema, altere o tipo de dados para Boolean para as seguintes características: anaemia, diabetes, high blood pressure, sex, smoking e DEATH_EVENT. Clique em Next e clique em Create.
+
+ 
+
+Ótimo! Agora que o conjunto de dados está no lugar e o cluster de computação foi criado, podemos começar o treino do modelo!
+
+### 2.4 Treino com pouco ou nenhum código usando AutoML
+
+O desenvolvimento tradicional de modelos de aprendizagem automática é intensivo em recursos, requer conhecimento significativo do domínio e tempo para produzir e comparar dezenas de modelos.
+A aprendizagem automática automatizada (AutoML) é o processo de automatizar as tarefas iterativas e demoradas do desenvolvimento de modelos de aprendizagem automática. Permite que cientistas de dados, analistas e programadores construam modelos de ML com alta escala, eficiência e produtividade, mantendo a qualidade do modelo. Reduz o tempo necessário para obter modelos de ML prontos para produção, com grande facilidade e eficiência. [Saiba mais](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. No [espaço de trabalho Azure ML](https://ml.azure.com/) que criámos anteriormente, clique em "Automated ML" no menu à esquerda e selecione o conjunto de dados que acabou de carregar. Clique em Next.
+
+ 
+
+2. Insira um novo nome de experimento, a coluna alvo (DEATH_EVENT) e o cluster de computação que criámos. Clique em Next.
+
+ 
+
+3. Escolha "Classification" e clique em Finish. Este passo pode demorar entre 30 minutos a 1 hora, dependendo do tamanho do cluster de computação.
+
+ 
+
+4. Quando a execução estiver concluída, clique no separador "Automated ML", clique na sua execução e clique no algoritmo no cartão "Best model summary".
+
+ 
+
+Aqui pode ver uma descrição detalhada do melhor modelo que o AutoML gerou. Também pode explorar outros modelos gerados no separador Models. Dedique alguns minutos a explorar os modelos na opção Explanations (preview). Depois de escolher o modelo que deseja usar (aqui vamos escolher o melhor modelo selecionado pelo AutoML), veremos como podemos implantá-lo.
+
+## 3. Implantação de modelo com pouco ou nenhum código e consumo de endpoint
+### 3.1 Implantação do modelo
+
+A interface de aprendizagem automática automatizada permite implantar o melhor modelo como um serviço web em alguns passos. A implantação é a integração do modelo para que possa fazer previsões com base em novos dados e identificar áreas potenciais de oportunidade. Para este projeto, a implantação como um serviço web significa que aplicações médicas poderão consumir o modelo para fazer previsões em tempo real sobre o risco de ataque cardíaco dos seus pacientes.
+
+Na descrição do melhor modelo, clique no botão "Deploy".
+
+
+
+15. Dê-lhe um nome, uma descrição, tipo de computação (Azure Container Instance), ative a autenticação e clique em Deploy. Este passo pode demorar cerca de 20 minutos para ser concluído. O processo de implantação inclui várias etapas, como registar o modelo, gerar recursos e configurá-los para o serviço web. Uma mensagem de estado aparece em Deploy status. Selecione Refresh periodicamente para verificar o estado da implantação. Está implantado e em execução quando o estado é "Healthy".
+
+
+
+16. Depois de implantado, clique no separador Endpoint e clique no endpoint que acabou de implantar. Aqui pode encontrar todos os detalhes que precisa de saber sobre o endpoint.
+
+
+
+Incrível! Agora que temos um modelo implantado, podemos começar o consumo do endpoint.
+
+### 3.2 Consumo do endpoint
+
+Clique no separador "Consume". Aqui pode encontrar o endpoint REST e um script Python na opção de consumo. Dedique algum tempo a ler o código Python.
+
+Este script pode ser executado diretamente a partir da sua máquina local e consumirá o seu endpoint.
+
+
+
+Dedique um momento a verificar estas 2 linhas de código:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+A variável `url` é o endpoint REST encontrado no separador de consumo e a variável `api_key` é a chave primária também encontrada no separador de consumo (apenas no caso de ter ativado a autenticação). É assim que o script pode consumir o endpoint.
+
+18. Ao executar o script, deverá ver o seguinte resultado:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Isto significa que a previsão de insuficiência cardíaca para os dados fornecidos é verdadeira. Isto faz sentido porque, se olhar mais de perto para os dados gerados automaticamente no script, tudo está a 0 e falso por padrão. Pode alterar os dados com a seguinte amostra de entrada:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+O script deverá retornar:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Parabéns! Acabou de consumir o modelo implantado e treinado no Azure ML!
+
+> **_NOTA:_** Quando terminar o projeto, não se esqueça de eliminar todos os recursos.
+## 🚀 Desafio
+
+Olhe atentamente para as explicações e detalhes do modelo que o AutoML gerou para os melhores modelos. Tente entender por que o melhor modelo é melhor do que os outros. Que algoritmos foram comparados? Quais são as diferenças entre eles? Por que o melhor está a ter um desempenho superior neste caso?
+
+## [Questionário Pós-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Revisão e Estudo Individual
+
+Nesta lição, aprendeu como treinar, implantar e consumir um modelo para prever o risco de insuficiência cardíaca de forma simples, sem ou com pouco código, na nuvem. Se ainda não o fez, aprofunde-se nas explicações do modelo que o AutoML gerou para os melhores modelos e tente entender por que o melhor modelo é superior aos outros.
+
+Pode aprofundar-se na aprendizagem automática automatizada com pouco ou nenhum código lendo esta [documentação](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Tarefa
+
+[Projeto de Ciência de Dados com pouco ou nenhum código no Azure ML](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/pt/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..03d47d90
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,23 @@
+
+# Projeto de Ciência de Dados Low code/No code no Azure ML
+
+## Instruções
+
+Vimos como usar a plataforma Azure ML para treinar, implementar e consumir um modelo de forma Low code/No code. Agora procure alguns dados que possa usar para treinar outro modelo, implementá-lo e consumi-lo. Pode procurar conjuntos de dados no [Kaggle](https://kaggle.com) e nos [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Rubrica
+
+| Exemplar | Adequado | Precisa de Melhorias |
+|----------|----------|----------------------|
+|Ao carregar os dados, teve o cuidado de alterar o tipo das variáveis, se necessário. Também limpou os dados, caso fosse preciso. Realizou um treino num conjunto de dados através do AutoML e verificou as explicações do modelo. Implementou o melhor modelo e conseguiu consumi-lo. | Ao carregar os dados, teve o cuidado de alterar o tipo das variáveis, se necessário. Realizou um treino num conjunto de dados através do AutoML, implementou o melhor modelo e conseguiu consumi-lo. | Implementou o melhor modelo treinado pelo AutoML e conseguiu consumi-lo. |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/pt/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..4eaff9dc
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,310 @@
+
+# Ciência de Dados na Cloud: O caminho do "Azure ML SDK"
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Ciência de Dados na Cloud: Azure ML SDK - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Índice:
+
+- [Ciência de Dados na Cloud: O caminho do "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Questionário Pré-Aula](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Introdução](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 O que é o Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Introdução ao projeto de previsão de insuficiência cardíaca e ao conjunto de dados](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Treinando um modelo com o Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Criar um workspace do Azure ML](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Criar uma instância de computação](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Carregar o conjunto de dados](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Criar Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Treinar um modelo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Configurar Workspace, experimento, cluster de computação e conjunto de dados](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 Configuração e treino com AutoML](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Implementação do modelo e consumo do endpoint com o Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Guardar o melhor modelo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Implementação do modelo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Consumo do endpoint](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Desafio](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Questionário Pós-Aula](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Revisão e Autoestudo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Tarefa](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Questionário Pré-Aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Introdução
+
+### 1.1 O que é o Azure ML SDK?
+
+Cientistas de dados e desenvolvedores de IA utilizam o Azure Machine Learning SDK para criar e executar fluxos de trabalho de machine learning com o serviço Azure Machine Learning. Pode-se interagir com o serviço em qualquer ambiente Python, incluindo Jupyter Notebooks, Visual Studio Code ou o seu IDE Python favorito.
+
+Áreas principais do SDK incluem:
+
+- Explorar, preparar e gerir o ciclo de vida dos seus conjuntos de dados usados em experimentos de machine learning.
+- Gerir recursos na cloud para monitorização, registo e organização dos seus experimentos de machine learning.
+- Treinar modelos localmente ou utilizando recursos na cloud, incluindo treino acelerado por GPU.
+- Usar machine learning automatizado, que aceita parâmetros de configuração e dados de treino. Ele itera automaticamente por algoritmos e configurações de hiperparâmetros para encontrar o melhor modelo para previsões.
+- Implementar serviços web para converter os seus modelos treinados em serviços RESTful que podem ser consumidos em qualquer aplicação.
+
+[Saiba mais sobre o Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Na [lição anterior](../18-Low-Code/README.md), vimos como treinar, implementar e consumir um modelo de forma Low code/No code. Usámos o conjunto de dados de insuficiência cardíaca para gerar um modelo de previsão de insuficiência cardíaca. Nesta lição, faremos exatamente o mesmo, mas utilizando o Azure Machine Learning SDK.
+
+
+
+### 1.2 Introdução ao projeto de previsão de insuficiência cardíaca e ao conjunto de dados
+
+Consulte [aqui](../18-Low-Code/README.md) a introdução ao projeto de previsão de insuficiência cardíaca e ao conjunto de dados.
+
+## 2. Treinando um modelo com o Azure ML SDK
+### 2.1 Criar um workspace do Azure ML
+
+Para simplificar, vamos trabalhar num jupyter notebook. Isto implica que já tem um Workspace e uma instância de computação. Se já tiver um Workspace, pode saltar diretamente para a secção 2.3 Criação de Notebooks.
+
+Caso contrário, siga as instruções na secção **2.1 Criar um workspace do Azure ML** na [lição anterior](../18-Low-Code/README.md) para criar um workspace.
+
+### 2.2 Criar uma instância de computação
+
+No [workspace do Azure ML](https://ml.azure.com/) que criámos anteriormente, vá ao menu de computação e verá os diferentes recursos de computação disponíveis.
+
+
+
+Vamos criar uma instância de computação para provisionar um jupyter notebook.
+1. Clique no botão + Novo.
+2. Dê um nome à sua instância de computação.
+3. Escolha as suas opções: CPU ou GPU, tamanho da VM e número de núcleos.
+4. Clique no botão Criar.
+
+Parabéns, acabou de criar uma instância de computação! Usaremos esta instância de computação para criar um Notebook na [secção Criação de Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Carregar o conjunto de dados
+Consulte a [lição anterior](../18-Low-Code/README.md) na secção **2.3 Carregar o conjunto de dados** se ainda não tiver carregado o conjunto de dados.
+
+### 2.4 Criar Notebooks
+
+> **_NOTA:_** Para o próximo passo, pode criar um novo notebook do zero ou carregar o [notebook que criámos](../../../../5-Data-Science-In-Cloud/19-Azure/notebook.ipynb) no seu Azure ML Studio. Para carregá-lo, basta clicar no menu "Notebook" e carregar o notebook.
+
+Os notebooks são uma parte muito importante do processo de ciência de dados. Eles podem ser usados para realizar Análise Exploratória de Dados (EDA), chamar um cluster de computação para treinar um modelo ou chamar um cluster de inferência para implementar um endpoint.
+
+Para criar um Notebook, precisamos de um nó de computação que esteja a servir a instância do jupyter notebook. Volte ao [workspace do Azure ML](https://ml.azure.com/) e clique em Instâncias de computação. Na lista de instâncias de computação, deverá ver a [instância de computação que criámos anteriormente](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. Na secção Aplicações, clique na opção Jupyter.
+2. Marque a caixa "Sim, compreendo" e clique no botão Continuar.
+
+3. Isto abrirá uma nova aba no navegador com a sua instância do jupyter notebook. Clique no botão "Novo" para criar um notebook.
+
+
+
+Agora que temos um Notebook, podemos começar a treinar o modelo com o Azure ML SDK.
+
+### 2.5 Treinar um modelo
+
+Antes de mais, se tiver alguma dúvida, consulte a [documentação do Azure ML SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Ela contém todas as informações necessárias para entender os módulos que veremos nesta lição.
+
+#### 2.5.1 Configurar Workspace, experimento, cluster de computação e conjunto de dados
+
+Precisa de carregar o `workspace` a partir do ficheiro de configuração utilizando o seguinte código:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Isto retorna um objeto do tipo `Workspace` que representa o workspace. Depois, precisa de criar um `experimento` utilizando o seguinte código:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Para obter ou criar um experimento a partir de um workspace, solicita-se o experimento utilizando o nome do experimento. O nome do experimento deve ter entre 3 e 36 caracteres, começar com uma letra ou número e pode conter apenas letras, números, sublinhados e traços. Se o experimento não for encontrado no workspace, um novo experimento será criado.
+
+Agora precisa de criar um cluster de computação para o treino utilizando o seguinte código. Note que este passo pode demorar alguns minutos.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Pode obter o conjunto de dados do workspace utilizando o nome do conjunto de dados da seguinte forma:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 Configuração e treino com AutoML
+
+Para configurar o AutoML, utilize a [classe AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Conforme descrito na documentação, existem muitos parâmetros com os quais pode experimentar. Para este projeto, utilizaremos os seguintes parâmetros:
+
+- `experiment_timeout_minutes`: O tempo máximo (em minutos) que o experimento pode ser executado antes de ser automaticamente interrompido e os resultados disponibilizados.
+- `max_concurrent_iterations`: O número máximo de iterações de treino simultâneas permitidas para o experimento.
+- `primary_metric`: A métrica principal usada para determinar o estado do experimento.
+- `compute_target`: O alvo de computação do Azure Machine Learning para executar o experimento de Machine Learning Automatizado.
+- `task`: O tipo de tarefa a ser executada. Os valores podem ser 'classification', 'regression' ou 'forecasting', dependendo do tipo de problema de ML automatizado a ser resolvido.
+- `training_data`: Os dados de treino a serem usados no experimento. Deve conter tanto as características de treino quanto uma coluna de rótulo (opcionalmente uma coluna de pesos de amostra).
+- `label_column_name`: O nome da coluna de rótulo.
+- `path`: O caminho completo para a pasta do projeto Azure Machine Learning.
+- `enable_early_stopping`: Indica se a interrupção antecipada deve ser ativada caso a pontuação não melhore a curto prazo.
+- `featurization`: Indicador para determinar se a etapa de featurização deve ser feita automaticamente ou não, ou se uma featurização personalizada deve ser usada.
+- `debug_log`: O ficheiro de registo para gravar informações de depuração.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Agora que a configuração está definida, pode treinar o modelo utilizando o seguinte código. Este passo pode demorar até uma hora, dependendo do tamanho do cluster.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Pode executar o widget RunDetails para mostrar os diferentes experimentos.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Implementação do modelo e consumo do endpoint com o Azure ML SDK
+
+### 3.1 Guardar o melhor modelo
+
+O `remote_run` é um objeto do tipo [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Este objeto contém o método `get_output()` que retorna a melhor execução e o modelo ajustado correspondente.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Pode ver os parâmetros usados para o melhor modelo simplesmente imprimindo o `fitted_model` e verificar as propriedades do melhor modelo utilizando o método [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Agora registe o modelo com o método [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Implementação do modelo
+
+Depois de guardar o melhor modelo, podemos implementá-lo com a classe [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). A InferenceConfig representa as configurações de ambiente personalizadas usadas para a implementação. A classe [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) representa um modelo de machine learning implementado como um endpoint de serviço web em Azure Container Instances. Um serviço implementado é criado a partir de um modelo, script e ficheiros associados. O serviço web resultante é um endpoint HTTP balanceado com uma API REST. Pode enviar dados para esta API e receber a previsão retornada pelo modelo.
+
+O modelo é implementado utilizando o método [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Este passo deve demorar alguns minutos.
+
+### 3.3 Consumo do endpoint
+
+Pode consumir o seu endpoint criando uma entrada de exemplo:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+E depois pode enviar esta entrada para o seu modelo para obter uma previsão:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Isto deverá gerar `'{"result": [false]}'`. Isto significa que os dados do paciente que enviámos para o endpoint geraram a previsão `false`, o que indica que esta pessoa não tem probabilidade de sofrer um ataque cardíaco.
+
+Parabéns! Acabaste de consumir o modelo implementado e treinado no Azure ML com o Azure ML SDK!
+
+> **_NOTE:_** Quando terminares o projeto, não te esqueças de eliminar todos os recursos.
+
+## 🚀 Desafio
+
+Há muitas outras coisas que podes fazer através do SDK, mas infelizmente não conseguimos abordar todas nesta lição. Mas há boas notícias: aprender a navegar pela documentação do SDK pode levar-te muito longe por conta própria. Dá uma vista de olhos na documentação do Azure ML SDK e encontra a classe `Pipeline`, que te permite criar pipelines. Um Pipeline é uma coleção de passos que podem ser executados como um fluxo de trabalho.
+
+**DICA:** Vai à [documentação do SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) e escreve palavras-chave na barra de pesquisa, como "Pipeline". Deverás encontrar a classe `azureml.pipeline.core.Pipeline` nos resultados da pesquisa.
+
+## [Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Revisão e Estudo Autónomo
+
+Nesta lição, aprendeste a treinar, implementar e consumir um modelo para prever o risco de insuficiência cardíaca com o Azure ML SDK na cloud. Consulta esta [documentação](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) para mais informações sobre o Azure ML SDK. Tenta criar o teu próprio modelo com o Azure ML SDK.
+
+## Tarefa
+
+[Projeto de Ciência de Dados usando o Azure ML SDK](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/pt/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..64c8c7ac
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,23 @@
+
+# Projeto de Ciência de Dados usando Azure ML SDK
+
+## Instruções
+
+Vimos como utilizar a plataforma Azure ML para treinar, implementar e consumir um modelo com o Azure ML SDK. Agora procure alguns dados que possa usar para treinar outro modelo, implementá-lo e consumi-lo. Pode procurar conjuntos de dados no [Kaggle](https://kaggle.com) e nos [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Rubrica
+
+| Exemplar | Adequado | Necessita Melhorias |
+|----------|----------|---------------------|
+|Ao configurar o AutoML, consultou a documentação do SDK para verificar quais parâmetros poderia usar. Realizou um treino num conjunto de dados através do AutoML usando o Azure ML SDK e verificou as explicações do modelo. Implementou o melhor modelo e conseguiu consumi-lo através do Azure ML SDK. | Realizou um treino num conjunto de dados através do AutoML usando o Azure ML SDK e verificou as explicações do modelo. Implementou o melhor modelo e conseguiu consumi-lo através do Azure ML SDK. | Realizou um treino num conjunto de dados através do AutoML usando o Azure ML SDK. Implementou o melhor modelo e conseguiu consumi-lo através do Azure ML SDK. |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/5-Data-Science-In-Cloud/README.md b/translations/pt/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..09d6fb13
--- /dev/null
+++ b/translations/pt/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,32 @@
+
+# Ciência de Dados na Cloud
+
+
+
+> Foto de [Jelleke Vanooteghem](https://unsplash.com/@ilumire) no [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Quando se trata de fazer ciência de dados com big data, a cloud pode ser um divisor de águas. Nas próximas três lições, vamos explorar o que é a cloud e por que ela pode ser tão útil. Também vamos analisar um conjunto de dados sobre insuficiência cardíaca e construir um modelo para ajudar a avaliar a probabilidade de alguém sofrer de insuficiência cardíaca. Utilizaremos o poder da cloud para treinar, implementar e consumir um modelo de duas formas diferentes. Uma forma será utilizando apenas a interface de utilizador, num estilo de "Low code/No code", e a outra será através do Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Tópicos
+
+1. [Por que usar a Cloud para Ciência de Dados?](17-Introduction/README.md)
+2. [Ciência de Dados na Cloud: O método "Low code/No code"](18-Low-Code/README.md)
+3. [Ciência de Dados na Cloud: O método "Azure ML SDK"](19-Azure/README.md)
+
+### Créditos
+Estas lições foram escritas com ☁️ e 💕 por [Maud Levy](https://twitter.com/maudstweets) e [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Os dados para o projeto de Previsão de Insuficiência Cardíaca foram obtidos de [Larxel](https://www.kaggle.com/andrewmvd) no [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Estão licenciados sob a [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/).
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/pt/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..081c17a6
--- /dev/null
+++ b/translations/pt/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,153 @@
+
+# Ciência de Dados no Mundo Real
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Ciência de Dados no Mundo Real - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Estamos quase no fim desta jornada de aprendizagem!
+
+Começámos com as definições de ciência de dados e ética, explorámos várias ferramentas e técnicas para análise e visualização de dados, revisámos o ciclo de vida da ciência de dados e analisámos como escalar e automatizar fluxos de trabalho de ciência de dados com serviços de computação na nuvem. Então, provavelmente estás a perguntar-te: _"Como exatamente posso aplicar tudo o que aprendi em contextos do mundo real?"_
+
+Nesta lição, vamos explorar aplicações reais da ciência de dados em diferentes indústrias e mergulhar em exemplos específicos nos contextos de investigação, humanidades digitais e sustentabilidade. Vamos também analisar oportunidades de projetos para estudantes e concluir com recursos úteis para continuar a tua jornada de aprendizagem!
+
+## Questionário Pré-Aula
+
+[Questionário pré-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Ciência de Dados + Indústria
+
+Graças à democratização da IA, os desenvolvedores estão a encontrar formas mais fáceis de projetar e integrar decisões baseadas em IA e insights orientados por dados em experiências de utilizadores e fluxos de trabalho de desenvolvimento. Aqui estão alguns exemplos de como a ciência de dados é "aplicada" em contextos reais na indústria:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) utilizou ciência de dados para correlacionar termos de pesquisa com tendências de gripe. Embora a abordagem tenha tido falhas, destacou as possibilidades (e desafios) das previsões de saúde baseadas em dados.
+
+ * [Previsões de Rotas da UPS](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - explica como a UPS utiliza ciência de dados e aprendizagem automática para prever rotas ótimas de entrega, considerando condições meteorológicas, padrões de trânsito, prazos de entrega e mais.
+
+ * [Visualização de Rotas de Táxis em NYC](http://chriswhong.github.io/nyctaxi/) - dados obtidos através das [Leis de Liberdade de Informação](https://chriswhong.com/open-data/foil_nyc_taxi/) ajudaram a visualizar um dia na vida dos táxis de NYC, permitindo compreender como navegam pela cidade movimentada, o dinheiro que geram e a duração das viagens ao longo de um período de 24 horas.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - utiliza dados (sobre locais de recolha e entrega, duração das viagens, rotas preferidas, etc.) recolhidos de milhões de viagens diárias para criar uma ferramenta de análise de dados que ajuda em decisões de preços, segurança, deteção de fraudes e navegação.
+
+ * [Análise Desportiva](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - foca-se em _análise preditiva_ (análise de equipas e jogadores - pensa em [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - e gestão de fãs) e _visualização de dados_ (dashboards de equipas e fãs, jogos, etc.) com aplicações como recrutamento de talentos, apostas desportivas e gestão de inventário/locais.
+
+ * [Ciência de Dados na Banca](https://data-flair.training/blogs/data-science-in-banking/) - destaca o valor da ciência de dados na indústria financeira com aplicações que vão desde modelagem de risco e deteção de fraudes, até segmentação de clientes, previsão em tempo real e sistemas de recomendação. A análise preditiva também impulsiona medidas críticas como [pontuações de crédito](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Ciência de Dados na Saúde](https://data-flair.training/blogs/data-science-in-healthcare/) - destaca aplicações como imagiologia médica (e.g., ressonância magnética, raio-X, tomografia), genómica (sequenciamento de DNA), desenvolvimento de medicamentos (avaliação de risco, previsão de sucesso), análise preditiva (cuidados ao paciente e logística de fornecimento), rastreamento e prevenção de doenças, entre outros.
+
+ Crédito da Imagem: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+A figura mostra outros domínios e exemplos de aplicação de técnicas de ciência de dados. Queres explorar outras aplicações? Consulta a secção [Revisão e Autoestudo](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) abaixo.
+
+## Ciência de Dados + Investigação
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Ciência de Dados & Investigação - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Embora as aplicações do mundo real frequentemente se concentrem em casos de uso na indústria em larga escala, as aplicações e projetos de _investigação_ podem ser úteis de duas perspetivas:
+
+* _oportunidades de inovação_ - explorar protótipos rápidos de conceitos avançados e testar experiências de utilizadores para aplicações de próxima geração.
+* _desafios de implementação_ - investigar possíveis danos ou consequências não intencionais das tecnologias de ciência de dados em contextos reais.
+
+Para os estudantes, estes projetos de investigação podem proporcionar oportunidades de aprendizagem e colaboração que melhoram a compreensão do tema e ampliam a consciência e o envolvimento com pessoas ou equipas relevantes que trabalham em áreas de interesse. Então, como são os projetos de investigação e como podem ter impacto?
+
+Vamos analisar um exemplo - o [MIT Gender Shades Study](http://gendershades.org/overview.html) de Joy Buolamwini (MIT Media Labs) com um [artigo de investigação de referência](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) coautorado com Timnit Gebru (então na Microsoft Research) que se focou em:
+
+ * **O quê:** O objetivo do projeto de investigação era _avaliar o viés presente em algoritmos e conjuntos de dados de análise facial automatizada_ com base no género e tipo de pele.
+ * **Porquê:** A análise facial é usada em áreas como aplicação da lei, segurança em aeroportos, sistemas de contratação e mais - contextos onde classificações imprecisas (e.g., devido a viés) podem causar danos económicos e sociais a indivíduos ou grupos afetados. Compreender (e eliminar ou mitigar) os vieses é essencial para a equidade no uso.
+ * **Como:** Os investigadores reconheceram que os benchmarks existentes utilizavam predominantemente sujeitos de pele mais clara e criaram um novo conjunto de dados (1000+ imagens) que era _mais equilibrado_ em termos de género e tipo de pele. O conjunto de dados foi usado para avaliar a precisão de três produtos de classificação de género (da Microsoft, IBM e Face++).
+
+Os resultados mostraram que, embora a precisão geral da classificação fosse boa, havia uma diferença notável nas taxas de erro entre vários subgrupos - com **erros de classificação de género** sendo mais elevados para mulheres ou pessoas com pele mais escura, indicando viés.
+
+**Principais Resultados:** Destacou a necessidade de conjuntos de dados mais _representativos_ (subgrupos equilibrados) e equipas mais _inclusivas_ (com diferentes origens) para reconhecer e eliminar ou mitigar esses vieses mais cedo nas soluções de IA. Esforços de investigação como este também são fundamentais para muitas organizações definirem princípios e práticas para _IA responsável_ para melhorar a equidade nos seus produtos e processos de IA.
+
+**Queres saber mais sobre esforços de investigação relevantes na Microsoft?**
+
+* Consulta [Projetos de Investigação da Microsoft](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) em Inteligência Artificial.
+* Explora projetos de estudantes da [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Consulta o projeto [Fairlearn](https://fairlearn.org/) e as iniciativas de [IA Responsável](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6).
+
+## Ciência de Dados + Humanidades
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Ciência de Dados & Humanidades Digitais - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+Humanidades Digitais [são definidas](https://digitalhumanities.stanford.edu/about-dh-stanford) como "uma coleção de práticas e abordagens que combinam métodos computacionais com investigação humanística". Projetos da [Stanford](https://digitalhumanities.stanford.edu/projects) como _"rebooting history"_ e _"poetic thinking"_ ilustram a ligação entre [Humanidades Digitais e Ciência de Dados](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - enfatizando técnicas como análise de redes, visualização de informação, análise espacial e textual que podem ajudar-nos a revisitar conjuntos de dados históricos e literários para obter novos insights e perspetivas.
+
+*Queres explorar e expandir um projeto nesta área?*
+
+Consulta ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - um excelente exemplo de [Jen Looper](https://twitter.com/jenlooper) que questiona como podemos usar ciência de dados para revisitar poesia familiar e reavaliar o seu significado e as contribuições do autor em novos contextos. Por exemplo, _podemos prever a estação em que um poema foi escrito analisando o seu tom ou sentimento_ - e o que isso nos diz sobre o estado de espírito do autor durante o período relevante?
+
+Para responder a essa pergunta, seguimos os passos do ciclo de vida da ciência de dados:
+ * [`Aquisição de Dados`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - para recolher um conjunto de dados relevante para análise. As opções incluem usar uma API (e.g., [Poetry DB API](https://poetrydb.org/index.html)) ou fazer scraping de páginas web (e.g., [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) usando ferramentas como [Scrapy](https://scrapy.org/).
+ * [`Limpeza de Dados`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - explica como o texto pode ser formatado, sanitizado e simplificado usando ferramentas básicas como Visual Studio Code e Microsoft Excel.
+ * [`Análise de Dados`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - explica como podemos importar o conjunto de dados para "Notebooks" para análise usando pacotes Python (como pandas, numpy e matplotlib) para organizar e visualizar os dados.
+ * [`Análise de Sentimento`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - explica como podemos integrar serviços na nuvem como Text Analytics, usando ferramentas de baixo código como [Power Automate](https://flow.microsoft.com/en-us/) para fluxos de trabalho automatizados de processamento de dados.
+
+Usando este fluxo de trabalho, podemos explorar os impactos sazonais no sentimento dos poemas e ajudar-nos a formar as nossas próprias perspetivas sobre o autor. Experimenta - depois expande o notebook para fazer outras perguntas ou visualizar os dados de novas formas!
+
+> Podes usar algumas das ferramentas no [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) para seguir estas linhas de investigação.
+
+## Ciência de Dados + Sustentabilidade
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Ciência de Dados & Sustentabilidade - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+A [Agenda 2030 para o Desenvolvimento Sustentável](https://sdgs.un.org/2030agenda) - adotada por todos os membros das Nações Unidas em 2015 - identifica 17 objetivos, incluindo aqueles que se concentram em **Proteger o Planeta** da degradação e do impacto das mudanças climáticas. A iniciativa [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) apoia esses objetivos ao explorar formas de como as soluções tecnológicas podem ajudar a construir futuros mais sustentáveis com um [foco em 4 metas](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - ser carbono negativo, positivo em água, zero desperdício e biodiverso até 2030.
+
+Enfrentar esses desafios de forma escalável e oportuna requer pensamento em escala na nuvem - e dados em grande escala. A iniciativa [Planetary Computer](https://planetarycomputer.microsoft.com/) fornece 4 componentes para ajudar cientistas de dados e desenvolvedores neste esforço:
+
+ * [Catálogo de Dados](https://planetarycomputer.microsoft.com/catalog) - com petabytes de dados de sistemas terrestres (gratuitos e hospedados no Azure).
+ * [API Planetária](https://planetarycomputer.microsoft.com/docs/reference/stac/) - para ajudar os utilizadores a pesquisar dados relevantes no espaço e no tempo.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - ambiente gerido para cientistas processarem conjuntos de dados geoespaciais massivos.
+ * [Aplicações](https://planetarycomputer.microsoft.com/applications) - mostram casos de uso e ferramentas para insights de sustentabilidade.
+**O Projeto Planetary Computer está atualmente em pré-visualização (a partir de setembro de 2021)** - veja como pode começar a contribuir para soluções de sustentabilidade usando ciência de dados.
+
+* [Solicite acesso](https://planetarycomputer.microsoft.com/account/request) para iniciar a exploração e conectar-se com outros utilizadores.
+* [Explore a documentação](https://planetarycomputer.microsoft.com/docs/overview/about) para compreender os conjuntos de dados e APIs suportados.
+* Explore aplicações como [Monitorização de Ecossistemas](https://analytics-lab.org/ecosystemmonitoring/) para se inspirar em ideias de aplicações.
+
+Pense em como pode usar a visualização de dados para expor ou amplificar insights relevantes em áreas como as alterações climáticas e o desmatamento. Ou reflita sobre como esses insights podem ser usados para criar novas experiências de utilizador que motivem mudanças comportamentais para um estilo de vida mais sustentável.
+
+## Ciência de Dados + Estudantes
+
+Falámos sobre aplicações do mundo real na indústria e na investigação, e explorámos exemplos de aplicações de ciência de dados nas humanidades digitais e na sustentabilidade. Então, como pode desenvolver as suas competências e partilhar a sua experiência como principiante em ciência de dados?
+
+Aqui estão alguns exemplos de projetos de estudantes em ciência de dados para o inspirar.
+
+ * [Escola de Verão de Ciência de Dados da MSR](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) com [projetos](https://github.com/msr-ds3) no GitHub que exploram tópicos como:
+ - [Viés Racial no Uso da Força pela Polícia](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Confiabilidade do Sistema de Metro de Nova Iorque](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+ * [Digitalização da Cultura Material: Explorando distribuições socioeconómicas em Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - de [Ornella Altunyan](https://twitter.com/ornelladotcom) e equipa em Claremont, usando [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Desafio
+
+Procure artigos que recomendem projetos de ciência de dados para principiantes - como [estas 50 áreas temáticas](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/), [estas 21 ideias de projetos](https://www.intellspot.com/data-science-project-ideas) ou [estes 16 projetos com código-fonte](https://data-flair.training/blogs/data-science-project-ideas/) que pode desconstruir e remixar. E não se esqueça de escrever no seu blog sobre as suas jornadas de aprendizagem e partilhar os seus insights connosco.
+
+## Questionário Pós-Aula
+
+[Questionário pós-aula](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Revisão e Autoestudo
+
+Quer explorar mais casos de uso? Aqui estão alguns artigos relevantes:
+ * [17 Aplicações e Exemplos de Ciência de Dados](https://builtin.com/data-science/data-science-applications-examples) - julho de 2021
+ * [11 Aplicações de Ciência de Dados Impressionantes no Mundo Real](https://myblindbird.com/data-science-applications-real-world/) - maio de 2021
+ * [Ciência de Dados no Mundo Real](https://towardsdatascience.com/data-science-in-the-real-world/home) - Coleção de Artigos
+ * Ciência de Dados em: [Educação](https://data-flair.training/blogs/data-science-in-education/), [Agricultura](https://data-flair.training/blogs/data-science-in-agriculture/), [Finanças](https://data-flair.training/blogs/data-science-in-finance/), [Filmes](https://data-flair.training/blogs/data-science-at-movies/) e mais.
+
+## Tarefa
+
+[Explore um Conjunto de Dados do Planetary Computer](assignment.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/pt/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..fa5a7cc6
--- /dev/null
+++ b/translations/pt/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,48 @@
+
+# Explorar um Conjunto de Dados do Planetary Computer
+
+## Instruções
+
+Nesta lição, falámos sobre vários domínios de aplicação da ciência de dados - com análises aprofundadas de exemplos relacionados com investigação, sustentabilidade e humanidades digitais. Nesta tarefa, vais explorar um destes exemplos com mais detalhe e aplicar alguns dos teus conhecimentos sobre visualizações e análises de dados para obter insights sobre dados de sustentabilidade.
+
+O projeto [Planetary Computer](https://planetarycomputer.microsoft.com/) tem conjuntos de dados e APIs que podem ser acedidos com uma conta - solicita uma para ter acesso caso queiras experimentar o passo extra da tarefa. O site também oferece uma funcionalidade chamada [Explorer](https://planetarycomputer.microsoft.com/explore), que podes usar sem criar uma conta.
+
+`Passos:`
+A interface do Explorer (mostrada na imagem abaixo) permite-te selecionar um conjunto de dados (a partir das opções fornecidas), uma consulta predefinida (para filtrar os dados) e uma opção de renderização (para criar uma visualização relevante). Nesta tarefa, o teu objetivo é:
+
+ 1. Ler a [documentação do Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - compreender as opções disponíveis.
+ 2. Explorar o [Catálogo](https://planetarycomputer.microsoft.com/catalog) de conjuntos de dados - aprender o propósito de cada um.
+ 3. Usar o Explorer - escolher um conjunto de dados do teu interesse, selecionar uma consulta relevante e uma opção de renderização.
+
+
+
+`A Tua Tarefa:`
+Agora analisa a visualização que foi gerada no navegador e responde às seguintes questões:
+ * Quais são as _características_ do conjunto de dados?
+ * Que _insights_ ou resultados a visualização fornece?
+ * Quais são as _implicações_ desses insights para os objetivos de sustentabilidade do projeto?
+ * Quais são as _limitações_ da visualização (ou seja, que insights não conseguiste obter)?
+ * Se pudesses aceder aos dados brutos, que _visualizações alternativas_ criarias e porquê?
+
+`Pontos Bónus:`
+Solicita uma conta - e faz login quando for aceite.
+ * Usa a opção _Launch Hub_ para abrir os dados brutos num Notebook.
+ * Explora os dados de forma interativa e implementa as visualizações alternativas que pensaste.
+ * Agora analisa as tuas visualizações personalizadas - conseguiste obter os insights que te faltavam anteriormente?
+
+## Rubrica
+
+Exemplar | Adequado | Necessita de Melhorias
+--- | --- | --- |
+Todas as cinco questões principais foram respondidas. O aluno identificou claramente como as visualizações atuais e alternativas poderiam fornecer insights sobre os objetivos ou resultados de sustentabilidade. | O aluno respondeu pelo menos às 3 primeiras questões com grande detalhe, mostrando que teve experiência prática com o Explorer. | O aluno não respondeu a várias questões ou forneceu detalhes insuficientes - indicando que não foi feita uma tentativa significativa para realizar o projeto. |
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/6-Data-Science-In-Wild/README.md b/translations/pt/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..523df3bd
--- /dev/null
+++ b/translations/pt/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,23 @@
+
+# Ciência de Dados na Prática
+
+Aplicações reais de ciência de dados em diferentes indústrias.
+
+### Tópicos
+
+1. [Ciência de Dados no Mundo Real](20-Real-World-Examples/README.md)
+
+### Créditos
+
+Escrito com ❤️ por [Nitya Narasimhan](https://twitter.com/nitya)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se a tradução profissional humana. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/CODE_OF_CONDUCT.md b/translations/pt/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..3873e9e6
--- /dev/null
+++ b/translations/pt/CODE_OF_CONDUCT.md
@@ -0,0 +1,21 @@
+
+# Código de Conduta de Código Aberto da Microsoft
+
+Este projeto adotou o [Código de Conduta de Código Aberto da Microsoft](https://opensource.microsoft.com/codeofconduct/).
+
+Recursos:
+
+- [Código de Conduta de Código Aberto da Microsoft](https://opensource.microsoft.com/codeofconduct/)
+- [FAQ do Código de Conduta da Microsoft](https://opensource.microsoft.com/codeofconduct/faq/)
+- Contacte [opencode@microsoft.com](mailto:opencode@microsoft.com) para questões ou preocupações
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se a tradução profissional humana. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/CONTRIBUTING.md b/translations/pt/CONTRIBUTING.md
new file mode 100644
index 00000000..bca122e7
--- /dev/null
+++ b/translations/pt/CONTRIBUTING.md
@@ -0,0 +1,21 @@
+
+# Contribuir
+
+Este projeto aceita contribuições e sugestões. A maioria das contribuições requer que concorde com um Acordo de Licença de Contribuidor (CLA), declarando que tem o direito de, e realmente concede-nos, os direitos para usar a sua contribuição. Para mais detalhes, visite https://cla.microsoft.com.
+
+Quando submeter um pull request, um CLA-bot determinará automaticamente se precisa de fornecer um CLA e marcará o PR de forma apropriada (por exemplo, etiqueta, comentário). Basta seguir as instruções fornecidas pelo bot. Só precisará de fazer isto uma vez em todos os repositórios que utilizam o nosso CLA.
+
+Este projeto adotou o [Código de Conduta de Código Aberto da Microsoft](https://opensource.microsoft.com/codeofconduct/).
+Para mais informações, consulte as [Perguntas Frequentes sobre o Código de Conduta](https://opensource.microsoft.com/codeofconduct/faq/)
+ou contacte [opencode@microsoft.com](mailto:opencode@microsoft.com) para quaisquer questões ou comentários adicionais.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/README.md b/translations/pt/README.md
new file mode 100644
index 00000000..2d14bc7a
--- /dev/null
+++ b/translations/pt/README.md
@@ -0,0 +1,161 @@
+
+# Ciência de Dados para Iniciantes - Um Currículo
+
+Azure Cloud Advocates na Microsoft têm o prazer de oferecer um currículo de 10 semanas e 20 lições sobre Ciência de Dados. Cada lição inclui questionários antes e depois da aula, instruções escritas para completar a lição, uma solução e uma tarefa. Nossa abordagem baseada em projetos permite que você aprenda enquanto constrói, uma maneira comprovada de fixar novas habilidades.
+
+**Agradecimentos especiais aos nossos autores:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Agradecimentos especiais 🙏 aos nossos [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) autores, revisores e colaboradores de conteúdo,** incluindo Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Ciência de Dados para Iniciantes - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+## Anúncio - Novo Currículo sobre IA Generativa foi lançado!
+
+Acabamos de lançar um currículo de 12 lições sobre IA generativa. Venha aprender tópicos como:
+
+- criação de prompts e engenharia de prompts
+- geração de aplicativos de texto e imagem
+- aplicativos de pesquisa
+
+Como de costume, há uma lição, tarefas para completar, verificações de conhecimento e desafios.
+
+Confira:
+
+> https://aka.ms/genai-beginners
+
+# És estudante?
+
+Começa com os seguintes recursos:
+
+- [Página do Hub de Estudantes](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Nesta página, encontrarás recursos para iniciantes, pacotes para estudantes e até formas de obter um voucher gratuito para certificação. Esta é uma página que deves marcar e verificar de tempos em tempos, pois atualizamos o conteúdo pelo menos mensalmente.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Junta-te a uma comunidade global de embaixadores estudantis, esta pode ser a tua porta de entrada para a Microsoft.
+
+# Começando
+
+> **Professores**: incluímos [algumas sugestões](for-teachers.md) sobre como usar este currículo. Adoraríamos receber o vosso feedback [no nosso fórum de discussão](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Estudantes](https://aka.ms/student-page)**: para usar este currículo por conta própria, faz um fork do repositório inteiro e completa os exercícios por conta própria, começando com um questionário pré-aula. Depois, lê a aula e completa o restante das atividades. Tenta criar os projetos compreendendo as lições em vez de copiar o código da solução; no entanto, esse código está disponível nas pastas /solutions em cada lição orientada a projetos. Outra ideia seria formar um grupo de estudo com amigos e passar pelo conteúdo juntos. Para estudo adicional, recomendamos [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Conheça a Equipa
+
+[](https://youtu.be/8mzavjQSMM4 "Vídeo promocional")
+
+**Gif por** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Clica na imagem acima para ver um vídeo sobre o projeto e as pessoas que o criaram!
+
+## Pedagogia
+
+Escolhemos dois princípios pedagógicos ao construir este currículo: garantir que seja baseado em projetos e que inclua questionários frequentes. Ao final desta série, os estudantes terão aprendido os princípios básicos da ciência de dados, incluindo conceitos éticos, preparação de dados, diferentes formas de trabalhar com dados, visualização de dados, análise de dados, casos de uso reais de ciência de dados e muito mais.
+
+Além disso, um questionário de baixo risco antes da aula define a intenção do estudante em aprender um tópico, enquanto um segundo questionário após a aula garante maior retenção. Este currículo foi projetado para ser flexível e divertido e pode ser realizado na íntegra ou em partes. Os projetos começam pequenos e tornam-se progressivamente mais complexos ao final do ciclo de 10 semanas.
+
+> Encontra o nosso [Código de Conduta](CODE_OF_CONDUCT.md), [Contribuições](CONTRIBUTING.md), [Diretrizes de Tradução](TRANSLATIONS.md). Agradecemos o vosso feedback construtivo!
+
+## Cada lição inclui:
+
+- Sketchnote opcional
+- Vídeo suplementar opcional
+- Questionário de aquecimento antes da aula
+- Lição escrita
+- Para lições baseadas em projetos, guias passo a passo sobre como construir o projeto
+- Verificações de conhecimento
+- Um desafio
+- Leitura suplementar
+- Tarefa
+- Questionário pós-aula
+
+> **Uma nota sobre os questionários**: Todos os questionários estão contidos na pasta Quiz-App, totalizando 40 questionários de três perguntas cada. Eles estão vinculados dentro das lições, mas a aplicação de questionários pode ser executada localmente ou implantada no Azure; segue as instruções na pasta `quiz-app`. Eles estão sendo gradualmente localizados.
+
+## Lições
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Ciência de Dados para Iniciantes: Roteiro - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
+
+| Número da Lição | Tópico | Agrupamento de Lições | Objetivos de Aprendizagem | Lição Vinculada | Autor |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definindo Ciência de Dados | [Introdução](1-Introduction/README.md) | Aprende os conceitos básicos por trás da ciência de dados e como ela está relacionada à inteligência artificial, aprendizado de máquina e big data. | [lição](1-Introduction/01-defining-data-science/README.md) [vídeo](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Ética na Ciência de Dados | [Introdução](1-Introduction/README.md) | Conceitos, desafios e frameworks de ética em dados. | [lição](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definindo Dados | [Introdução](1-Introduction/README.md) | Como os dados são classificados e suas fontes comuns. | [lição](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introdução à Estatística e Probabilidade | [Introdução](1-Introduction/README.md) | As técnicas matemáticas de probabilidade e estatística para entender dados. | [lição](1-Introduction/04-stats-and-probability/README.md) [vídeo](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Trabalhando com Dados Relacionais | [Trabalhando com Dados](2-Working-With-Data/README.md) | Introdução aos dados relacionais e os fundamentos de exploração e análise de dados relacionais com a Structured Query Language, também conhecida como SQL (pronunciado “sequel”). | [lição](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Trabalhando com Dados NoSQL | [Trabalhando com Dados](2-Working-With-Data/README.md) | Introdução aos dados não relacionais, seus vários tipos e os fundamentos de exploração e análise de bases de dados de documentos. | [lição](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Trabalhando com Python | [Trabalhando com Dados](2-Working-With-Data/README.md) | Fundamentos de uso do Python para exploração de dados com bibliotecas como Pandas. Recomenda-se uma compreensão básica de programação em Python. | [lição](2-Working-With-Data/07-python/README.md) [vídeo](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Preparação de Dados | [Trabalhar com Dados](2-Working-With-Data/README.md) | Tópicos sobre técnicas de dados para limpar e transformar os dados, lidando com desafios como dados ausentes, imprecisos ou incompletos. | [lição](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualizar Quantidades | [Visualização de Dados](3-Data-Visualization/README.md) | Aprenda a usar o Matplotlib para visualizar dados de aves 🦆 | [lição](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualizar Distribuições de Dados | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizar observações e tendências dentro de um intervalo. | [lição](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualizar Proporções | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizar percentagens discretas e agrupadas. | [lição](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualizar Relações | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizar conexões e correlações entre conjuntos de dados e suas variáveis. | [lição](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Visualizações Significativas | [Visualização de Dados](3-Data-Visualization/README.md) | Técnicas e orientações para tornar as suas visualizações valiosas para resolver problemas de forma eficaz e obter insights. | [lição](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introdução ao Ciclo de Vida da Ciência de Dados | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Introdução ao ciclo de vida da ciência de dados e ao seu primeiro passo: adquirir e extrair dados. | [lição](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Análise | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase do ciclo de vida da ciência de dados foca-se em técnicas para analisar dados. | [lição](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Comunicação | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase do ciclo de vida da ciência de dados foca-se em apresentar os insights dos dados de forma a facilitar a compreensão pelos decisores. | [lição](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Esta série de lições introduz a ciência de dados na nuvem e os seus benefícios. | [lição](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 18 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Treinar modelos usando ferramentas de baixo código. | [lição](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 19 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Implementar modelos com o Azure Machine Learning Studio. | [lição](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 20 | Ciência de Dados no Mundo Real | [No Mundo Real](6-Data-Science-In-Wild/README.md) | Projetos orientados por ciência de dados no mundo real. | [lição](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Siga estes passos para abrir este exemplo num Codespace:
+1. Clique no menu suspenso Code e selecione a opção Open with Codespaces.
+2. Selecione + New codespace na parte inferior do painel.
+Para mais informações, consulte a [documentação do GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Siga estes passos para abrir este repositório num contentor usando a sua máquina local e o VSCode com a extensão VS Code Remote - Containers:
+
+1. Se for a sua primeira vez a usar um contentor de desenvolvimento, certifique-se de que o seu sistema cumpre os pré-requisitos (por exemplo, ter o Docker instalado) na [documentação de introdução](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+Para usar este repositório, pode abri-lo num volume Docker isolado:
+
+**Nota**: Internamente, isto usará o comando Remote-Containers: **Clone Repository in Container Volume...** para clonar o código-fonte num volume Docker em vez do sistema de ficheiros local. [Volumes](https://docs.docker.com/storage/volumes/) são o mecanismo preferido para persistir dados de contentores.
+
+Ou abra uma versão clonada ou descarregada localmente do repositório:
+
+- Clone este repositório para o seu sistema de ficheiros local.
+- Pressione F1 e selecione o comando **Remote-Containers: Open Folder in Container...**.
+- Selecione a cópia clonada desta pasta, aguarde o arranque do contentor e experimente.
+
+## Acesso Offline
+
+Pode executar esta documentação offline usando o [Docsify](https://docsify.js.org/#/). Faça um fork deste repositório, [instale o Docsify](https://docsify.js.org/#/quickstart) na sua máquina local, e depois, na pasta raiz deste repositório, escreva `docsify serve`. O site será servido na porta 3000 no seu localhost: `localhost:3000`.
+
+> Nota: os notebooks não serão renderizados via Docsify, por isso, quando precisar de executar um notebook, faça-o separadamente no VS Code com um kernel Python.
+
+## Ajuda Necessária!
+
+Se gostaria de traduzir todo ou parte do currículo, siga o nosso guia de [Traduções](TRANSLATIONS.md).
+
+## Outros Currículos
+
+A nossa equipa produz outros currículos! Veja:
+
+- [IA Generativa para Iniciantes](https://aka.ms/genai-beginners)
+- [IA Generativa para Iniciantes .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [IA Generativa com JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [IA Generativa com Java](https://aka.ms/genaijava)
+- [IA para Iniciantes](https://aka.ms/ai-beginners)
+- [Ciência de Dados para Iniciantes](https://aka.ms/datascience-beginners)
+- [ML para Iniciantes](https://aka.ms/ml-beginners)
+- [Cibersegurança para Iniciantes](https://github.com/microsoft/Security-101)
+- [Desenvolvimento Web para Iniciantes](https://aka.ms/webdev-beginners)
+- [IoT para Iniciantes](https://aka.ms/iot-beginners)
+- [Desenvolvimento XR para Iniciantes](https://github.com/microsoft/xr-development-for-beginners)
+- [Dominar o GitHub Copilot para Programação em Par](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Dominar o GitHub Copilot para Programadores C#/.NET](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Escolha a Sua Própria Aventura com o Copilot](https://github.com/microsoft/CopilotAdventures)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/SECURITY.md b/translations/pt/SECURITY.md
new file mode 100644
index 00000000..62b8e9b0
--- /dev/null
+++ b/translations/pt/SECURITY.md
@@ -0,0 +1,49 @@
+
+## Segurança
+
+A Microsoft leva a segurança dos seus produtos e serviços de software muito a sério, incluindo todos os repositórios de código-fonte geridos através das nossas organizações no GitHub, que incluem [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) e [as nossas organizações no GitHub](https://opensource.microsoft.com/).
+
+Se acredita ter encontrado uma vulnerabilidade de segurança em qualquer repositório pertencente à Microsoft que se enquadre na [definição de vulnerabilidade de segurança da Microsoft](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), por favor, reporte-a conforme descrito abaixo.
+
+## Relatar Problemas de Segurança
+
+**Por favor, não reporte vulnerabilidades de segurança através de issues públicas no GitHub.**
+
+Em vez disso, reporte-as ao Microsoft Security Response Center (MSRC) em [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Se preferir submeter sem iniciar sessão, envie um email para [secure@microsoft.com](mailto:secure@microsoft.com). Se possível, encripte a sua mensagem com a nossa chave PGP; pode descarregá-la na [página da Chave PGP do Microsoft Security Response Center](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Deverá receber uma resposta no prazo de 24 horas. Se, por algum motivo, não receber, por favor envie um email de seguimento para garantir que recebemos a sua mensagem original. Informações adicionais podem ser encontradas em [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Inclua as informações solicitadas abaixo (na medida do possível) para nos ajudar a compreender melhor a natureza e o alcance do possível problema:
+
+ * Tipo de problema (por exemplo, buffer overflow, SQL injection, cross-site scripting, etc.)
+ * Caminhos completos dos ficheiros de código-fonte relacionados com a manifestação do problema
+ * A localização do código-fonte afetado (tag/branch/commit ou URL direto)
+ * Qualquer configuração especial necessária para reproduzir o problema
+ * Instruções passo a passo para reproduzir o problema
+ * Código de prova de conceito ou de exploração (se possível)
+ * Impacto do problema, incluindo como um atacante poderia explorar o problema
+
+Estas informações ajudarão a priorizar o seu relatório mais rapidamente.
+
+Se estiver a reportar para um programa de recompensas por bugs, relatórios mais completos podem contribuir para uma recompensa maior. Por favor, visite a nossa página do [Programa de Recompensas por Bugs da Microsoft](https://microsoft.com/msrc/bounty) para mais detalhes sobre os nossos programas ativos.
+
+## Idiomas Preferidos
+
+Preferimos que todas as comunicações sejam feitas em inglês.
+
+## Política
+
+A Microsoft segue o princípio de [Divulgação Coordenada de Vulnerabilidades](https://www.microsoft.com/en-us/msrc/cvd).
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/SUPPORT.md b/translations/pt/SUPPORT.md
new file mode 100644
index 00000000..142a8fea
--- /dev/null
+++ b/translations/pt/SUPPORT.md
@@ -0,0 +1,22 @@
+
+# Suporte
+## Como reportar problemas e obter ajuda
+
+Este projeto utiliza o GitHub Issues para rastrear erros e pedidos de funcionalidades. Por favor, pesquise os problemas existentes antes de reportar novos problemas para evitar duplicados. Para novos problemas, reporte o seu erro ou pedido de funcionalidade como um novo Issue.
+
+Para obter ajuda e esclarecer dúvidas sobre a utilização deste projeto, crie um Issue.
+
+## Política de Suporte da Microsoft
+
+O suporte para este repositório está limitado aos recursos listados acima.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/docs/_sidebar.md b/translations/pt/docs/_sidebar.md
new file mode 100644
index 00000000..26b89b10
--- /dev/null
+++ b/translations/pt/docs/_sidebar.md
@@ -0,0 +1,38 @@
+
+- Introdução
+ - [Definir Ciência de Dados](../1-Introduction/01-defining-data-science/README.md)
+ - [Ética na Ciência de Dados](../1-Introduction/02-ethics/README.md)
+ - [Definir Dados](../1-Introduction/03-defining-data/README.md)
+ - [Probabilidade e Estatística](../1-Introduction/04-stats-and-probability/README.md)
+- Trabalhar com Dados
+ - [Bases de Dados Relacionais](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Bases de Dados Não Relacionais](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Preparação de Dados](../2-Working-With-Data/08-data-preparation/README.md)
+- Visualização de Dados
+ - [Visualizar Quantidades](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualizar Distribuições](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualizar Proporções](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualizar Relações](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Visualizações Significativas](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Ciclo de Vida da Ciência de Dados
+ - [Introdução](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Análise](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Comunicação](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Ciência de Dados na Nuvem
+ - [Introdução](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Ciência de Dados na Prática
+ - [Ciência de Dados na Prática](../6-Data-Science-In-Wild/README.md)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/for-teachers.md b/translations/pt/for-teachers.md
new file mode 100644
index 00000000..a6f0b47e
--- /dev/null
+++ b/translations/pt/for-teachers.md
@@ -0,0 +1,76 @@
+
+## Para Educadores
+
+Gostaria de utilizar este currículo na sua sala de aula? Fique à vontade!
+
+Na verdade, pode utilizá-lo diretamente no GitHub, através do GitHub Classroom.
+
+Para isso, faça um fork deste repositório. Será necessário criar um repositório para cada aula, extraindo cada pasta para um repositório separado. Dessa forma, [GitHub Classroom](https://classroom.github.com/classrooms) poderá identificar cada aula individualmente.
+
+Estas [instruções completas](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) irão ajudá-lo a configurar a sua sala de aula.
+
+## Utilizar o repositório como está
+
+Se preferir utilizar este repositório no formato atual, sem recorrer ao GitHub Classroom, também é possível. Nesse caso, será necessário comunicar aos seus alunos qual aula devem trabalhar em conjunto.
+
+Num formato online (Zoom, Teams ou outro), pode criar salas de grupo para os questionários e orientar os alunos para que estejam prontos para aprender. Depois, convide os alunos a realizar os questionários e submeter as respostas como 'issues' num horário específico. Pode fazer o mesmo com os trabalhos, caso deseje que os alunos colaborem abertamente.
+
+Se preferir um formato mais privado, peça aos seus alunos para fazerem fork do currículo, aula por aula, para os seus próprios repositórios GitHub como repositórios privados, e conceder-lhe acesso. Assim, poderão completar os questionários e trabalhos de forma privada e submetê-los através de issues no repositório da sua sala de aula.
+
+Existem várias formas de adaptar este currículo para um formato de sala de aula online. Por favor, informe-nos sobre o que funciona melhor para si!
+
+## Incluído neste currículo:
+
+20 aulas, 40 questionários e 20 trabalhos. Sketchnotes acompanham as aulas para os alunos que aprendem melhor visualmente. Muitas aulas estão disponíveis em Python e R e podem ser realizadas utilizando Jupyter notebooks no VS Code. Saiba mais sobre como configurar a sua sala de aula para utilizar esta stack tecnológica: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Todos os sketchnotes, incluindo um poster em formato grande, estão disponíveis [nesta pasta](../../sketchnotes).
+
+O currículo completo está disponível [em formato PDF](../../pdf/readme.pdf).
+
+Também pode executar este currículo como um site independente e acessível offline utilizando [Docsify](https://docsify.js.org/#/). [Instale o Docsify](https://docsify.js.org/#/quickstart) na sua máquina local e, na pasta raiz da cópia local deste repositório, digite `docsify serve`. O site será servido na porta 3000 do seu localhost: `localhost:3000`.
+
+Uma versão acessível offline do currículo será aberta como uma página web independente: https://localhost:3000
+
+As aulas estão organizadas em 6 partes:
+
+- 1: Introdução
+ - 1: Definição de Ciência de Dados
+ - 2: Ética
+ - 3: Definição de Dados
+ - 4: Visão Geral de Probabilidade e Estatística
+- 2: Trabalhar com Dados
+ - 5: Bases de Dados Relacionais
+ - 6: Bases de Dados Não Relacionais
+ - 7: Python
+ - 8: Preparação de Dados
+- 3: Visualização de Dados
+ - 9: Visualização de Quantidades
+ - 10: Visualização de Distribuições
+ - 11: Visualização de Proporções
+ - 12: Visualização de Relações
+ - 13: Visualizações Significativas
+- 4: Ciclo de Vida da Ciência de Dados
+ - 14: Introdução
+ - 15: Análise
+ - 16: Comunicação
+- 5: Ciência de Dados na Nuvem
+ - 17: Introdução
+ - 18: Opções de Baixo Código
+ - 19: Azure
+- 6: Ciência de Dados no Mundo Real
+ - 20: Visão Geral
+
+## Por favor, partilhe as suas opiniões!
+
+Queremos que este currículo funcione para si e para os seus alunos. Por favor, envie-nos o seu feedback nos fóruns de discussão! Sinta-se à vontade para criar uma área de sala de aula nos fóruns de discussão para os seus alunos.
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/pt/quiz-app/README.md b/translations/pt/quiz-app/README.md
new file mode 100644
index 00000000..e619dd90
--- /dev/null
+++ b/translations/pt/quiz-app/README.md
@@ -0,0 +1,137 @@
+
+# Questionários
+
+Estes questionários são os questionários pré e pós-aula para o currículo de ciência de dados em https://aka.ms/datascience-beginners
+
+## Adicionar um conjunto de questionários traduzidos
+
+Adicione uma tradução de questionário criando estruturas de questionários correspondentes nas pastas `assets/translations`. Os questionários originais estão em `assets/translations/en`. Os questionários estão divididos em vários grupos. Certifique-se de alinhar a numeração com a secção correta do questionário. Existem 40 questionários no total neste currículo, começando a contagem em 0.
+
+Depois de editar as traduções, edite o ficheiro index.js na pasta de tradução para importar todos os ficheiros seguindo as convenções em `en`.
+
+Edite o ficheiro `index.js` em `assets/translations` para importar os novos ficheiros traduzidos.
+
+Depois, edite o menu suspenso em `App.vue` nesta aplicação para adicionar o seu idioma. Combine a abreviatura localizada com o nome da pasta do seu idioma.
+
+Por fim, edite todos os links dos questionários nas lições traduzidas, se existirem, para incluir esta localização como um parâmetro de consulta: `?loc=fr`, por exemplo.
+
+## Configuração do projeto
+
+```
+npm install
+```
+
+### Compilar e recarregar automaticamente para desenvolvimento
+
+```
+npm run serve
+```
+
+### Compilar e minimizar para produção
+
+```
+npm run build
+```
+
+### Verificar e corrigir ficheiros
+
+```
+npm run lint
+```
+
+### Personalizar configuração
+
+Consulte [Referência de Configuração](https://cli.vuejs.org/config/).
+
+Créditos: Agradecimentos à versão original desta aplicação de questionários: https://github.com/arpan45/simple-quiz-vue
+
+## Implementar no Azure
+
+Aqui está um guia passo a passo para o ajudar a começar:
+
+1. Faça um fork do repositório GitHub
+Certifique-se de que o código da sua aplicação web estático está no seu repositório GitHub. Faça um fork deste repositório.
+
+2. Crie uma Aplicação Web Estática no Azure
+- Crie uma [conta Azure](http://azure.microsoft.com)
+- Aceda ao [portal do Azure](https://portal.azure.com)
+- Clique em “Criar um recurso” e procure por “Aplicação Web Estática”.
+- Clique em “Criar”.
+
+3. Configure a Aplicação Web Estática
+- Básico:
+ - Subscrição: Selecione a sua subscrição Azure.
+ - Grupo de Recursos: Crie um novo grupo de recursos ou utilize um existente.
+ - Nome: Forneça um nome para a sua aplicação web estática.
+ - Região: Escolha a região mais próxima dos seus utilizadores.
+
+- #### Detalhes de Implementação:
+ - Fonte: Selecione “GitHub”.
+ - Conta GitHub: Autorize o Azure a aceder à sua conta GitHub.
+ - Organização: Selecione a sua organização GitHub.
+ - Repositório: Escolha o repositório que contém a sua aplicação web estática.
+ - Ramo: Selecione o ramo a partir do qual deseja implementar.
+
+- #### Detalhes de Construção:
+ - Predefinições de Construção: Escolha o framework com o qual a sua aplicação foi construída (por exemplo, React, Angular, Vue, etc.).
+ - Localização da Aplicação: Especifique a pasta que contém o código da sua aplicação (por exemplo, / se estiver na raiz).
+ - Localização da API: Se tiver uma API, especifique a sua localização (opcional).
+ - Localização de Saída: Especifique a pasta onde a saída da construção é gerada (por exemplo, build ou dist).
+
+4. Rever e Criar
+Revise as suas definições e clique em “Criar”. O Azure configurará os recursos necessários e criará um ficheiro de workflow do GitHub Actions no seu repositório.
+
+5. Workflow do GitHub Actions
+O Azure criará automaticamente um ficheiro de workflow do GitHub Actions no seu repositório (.github/workflows/azure-static-web-apps-.yml). Este workflow irá gerir o processo de construção e implementação.
+
+6. Monitorizar a Implementação
+Aceda ao separador “Actions” no seu repositório GitHub.
+Deverá ver um workflow em execução. Este workflow irá construir e implementar a sua aplicação web estática no Azure.
+Assim que o workflow for concluído, a sua aplicação estará ativa no URL fornecido pelo Azure.
+
+### Exemplo de Ficheiro de Workflow
+
+Aqui está um exemplo de como pode ser o ficheiro de workflow do GitHub Actions:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Recursos Adicionais
+- [Documentação de Aplicações Web Estáticas do Azure](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [Documentação do GitHub Actions](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, tenha em atenção que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.
\ No newline at end of file
diff --git a/translations/pt/sketchnotes/README.md b/translations/pt/sketchnotes/README.md
new file mode 100644
index 00000000..97259238
--- /dev/null
+++ b/translations/pt/sketchnotes/README.md
@@ -0,0 +1,19 @@
+
+Encontre todas as sketchnotes aqui!
+
+## Créditos
+
+Nitya Narasimhan, artista
+
+
+
+**Aviso Legal**:
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original no seu idioma nativo deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.
\ No newline at end of file