diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.da.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.da.png
new file mode 100644
index 00000000..61bdcae9
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.da.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.el.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.el.png
new file mode 100644
index 00000000..281a1f10
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.el.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.fi.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.fi.png
new file mode 100644
index 00000000..281a1f10
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.fi.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.no.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.no.png
new file mode 100644
index 00000000..47243ba2
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.no.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.sv.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.sv.png
new file mode 100644
index 00000000..187d23c0
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.sv.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.th.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.th.png
new file mode 100644
index 00000000..fbd28175
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.th.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.da.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.da.png
new file mode 100644
index 00000000..7fe77949
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.da.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.el.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.el.png
new file mode 100644
index 00000000..0cdfb6a2
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.el.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.fi.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.fi.png
new file mode 100644
index 00000000..b8132c5d
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.fi.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.no.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.no.png
new file mode 100644
index 00000000..27bf3de0
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.no.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.sv.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.sv.png
new file mode 100644
index 00000000..3cc00c88
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.sv.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.th.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.th.png
new file mode 100644
index 00000000..b3822eea
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.th.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.da.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.da.png
new file mode 100644
index 00000000..e2fc2718
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.da.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.el.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.el.png
new file mode 100644
index 00000000..e21ccc7a
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.el.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.fi.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.fi.png
new file mode 100644
index 00000000..8b85025a
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.fi.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.no.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.no.png
new file mode 100644
index 00000000..7a2aa484
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.no.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.sv.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.sv.png
new file mode 100644
index 00000000..7ba36b36
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.sv.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.th.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.th.png
new file mode 100644
index 00000000..8a902dbb
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.th.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.da.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.da.png
new file mode 100644
index 00000000..47b04359
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.da.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.el.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.el.png
new file mode 100644
index 00000000..68e46c3f
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.el.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.fi.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.fi.png
new file mode 100644
index 00000000..61c3a7fb
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.fi.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.no.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.no.png
new file mode 100644
index 00000000..ab7f5476
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.no.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.sv.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.sv.png
new file mode 100644
index 00000000..e2e300aa
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.sv.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.th.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.th.png
new file mode 100644
index 00000000..ffd0afc6
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.th.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.da.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.da.png
new file mode 100644
index 00000000..a6b07b05
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.da.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.el.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.el.png
new file mode 100644
index 00000000..5ab7bcf5
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.el.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.fi.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.fi.png
new file mode 100644
index 00000000..81caa2f7
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.fi.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.no.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.no.png
new file mode 100644
index 00000000..e37b24b1
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.no.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.sv.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.sv.png
new file mode 100644
index 00000000..b0ccdc8a
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.sv.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.th.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.th.png
new file mode 100644
index 00000000..ac27fe5d
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.th.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.da.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.da.png
new file mode 100644
index 00000000..89fafecf
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.da.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.el.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.el.png
new file mode 100644
index 00000000..c5714aaf
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.el.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.fi.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.fi.png
new file mode 100644
index 00000000..4af9ec83
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.fi.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.no.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.no.png
new file mode 100644
index 00000000..6e91f452
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.no.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.sv.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.sv.png
new file mode 100644
index 00000000..8ee1503d
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.sv.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.th.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.th.png
new file mode 100644
index 00000000..1e0cb608
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.th.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.da.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.da.png
new file mode 100644
index 00000000..a049df8a
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.da.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.el.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.el.png
new file mode 100644
index 00000000..bd08fcf3
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.el.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.fi.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.fi.png
new file mode 100644
index 00000000..579939b2
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.fi.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.no.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.no.png
new file mode 100644
index 00000000..ccee3581
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.no.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.sv.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.sv.png
new file mode 100644
index 00000000..2919824c
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.sv.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.th.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.th.png
new file mode 100644
index 00000000..9d744f35
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.th.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.da.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.da.png
new file mode 100644
index 00000000..26cfcd4c
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.da.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.el.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.el.png
new file mode 100644
index 00000000..90f279b0
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.el.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.fi.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.fi.png
new file mode 100644
index 00000000..05b62fd8
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.fi.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.no.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.no.png
new file mode 100644
index 00000000..11f36564
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.no.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.sv.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.sv.png
new file mode 100644
index 00000000..f2938ed8
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.sv.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.th.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.th.png
new file mode 100644
index 00000000..2b96ca55
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.th.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.da.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.da.png
new file mode 100644
index 00000000..da07a1d6
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.da.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.el.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.el.png
new file mode 100644
index 00000000..2b164913
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.el.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.fi.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.fi.png
new file mode 100644
index 00000000..e7df3ffe
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.fi.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.no.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.no.png
new file mode 100644
index 00000000..fe7c56b4
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.no.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.sv.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.sv.png
new file mode 100644
index 00000000..e36a76c6
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.sv.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.th.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.th.png
new file mode 100644
index 00000000..3616eb41
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.th.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.da.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.da.png
new file mode 100644
index 00000000..e267436e
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.da.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.el.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.el.png
new file mode 100644
index 00000000..c1caf6d0
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.el.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.fi.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.fi.png
new file mode 100644
index 00000000..2608a2c3
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.fi.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.no.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.no.png
new file mode 100644
index 00000000..d0680bf8
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.no.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.sv.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.sv.png
new file mode 100644
index 00000000..34fb418b
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.sv.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.th.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.th.png
new file mode 100644
index 00000000..d7fc48d2
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.th.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.da.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.da.png
new file mode 100644
index 00000000..02fe361d
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.da.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.el.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.el.png
new file mode 100644
index 00000000..9337d29e
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.el.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.fi.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.fi.png
new file mode 100644
index 00000000..0fe64233
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.fi.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.no.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.no.png
new file mode 100644
index 00000000..20db4473
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.no.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.sv.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.sv.png
new file mode 100644
index 00000000..bfc479b0
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.sv.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.th.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.th.png
new file mode 100644
index 00000000..5c8b1d92
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.th.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.da.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.da.png
new file mode 100644
index 00000000..f7863142
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.da.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.el.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.el.png
new file mode 100644
index 00000000..f593feec
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.el.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.fi.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.fi.png
new file mode 100644
index 00000000..86ee08be
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.fi.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.no.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.no.png
new file mode 100644
index 00000000..8a4f062f
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.no.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.sv.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.sv.png
new file mode 100644
index 00000000..246bb5d6
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.sv.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.th.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.th.png
new file mode 100644
index 00000000..dcc72e19
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.th.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.da.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.da.png
new file mode 100644
index 00000000..4728a1d2
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.da.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.el.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.el.png
new file mode 100644
index 00000000..9944f1fd
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.el.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.fi.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.fi.png
new file mode 100644
index 00000000..e3271c8d
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.fi.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.no.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.no.png
new file mode 100644
index 00000000..b07c1274
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.no.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.sv.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.sv.png
new file mode 100644
index 00000000..caf3a64d
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.sv.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.th.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.th.png
new file mode 100644
index 00000000..55ce019f
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.th.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.da.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.da.png
new file mode 100644
index 00000000..7c8906e7
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.da.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.el.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.el.png
new file mode 100644
index 00000000..22aa368d
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.el.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.fi.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.fi.png
new file mode 100644
index 00000000..577e22ec
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.fi.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.no.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.no.png
new file mode 100644
index 00000000..e6da3570
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.no.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.sv.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.sv.png
new file mode 100644
index 00000000..13152a1e
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.sv.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.th.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.th.png
new file mode 100644
index 00000000..c2391621
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.th.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.da.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.da.png
new file mode 100644
index 00000000..574a576d
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.da.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.el.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.el.png
new file mode 100644
index 00000000..769b302a
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.el.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.fi.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.fi.png
new file mode 100644
index 00000000..50826033
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.fi.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.no.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.no.png
new file mode 100644
index 00000000..69cd6ebe
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.no.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.sv.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.sv.png
new file mode 100644
index 00000000..362d346c
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.sv.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.th.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.th.png
new file mode 100644
index 00000000..0a243588
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.th.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.da.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.da.png
new file mode 100644
index 00000000..f6a7ac88
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.da.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.el.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.el.png
new file mode 100644
index 00000000..27059947
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.el.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.fi.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.fi.png
new file mode 100644
index 00000000..49b135bc
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.fi.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.no.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.no.png
new file mode 100644
index 00000000..94373f50
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.no.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.sv.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.sv.png
new file mode 100644
index 00000000..aa5f9675
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.sv.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.th.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.th.png
new file mode 100644
index 00000000..660d2743
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.th.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.da.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.da.png
new file mode 100644
index 00000000..01160e86
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.da.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.el.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.el.png
new file mode 100644
index 00000000..44fa762c
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.el.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.fi.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.fi.png
new file mode 100644
index 00000000..a4198b82
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.fi.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.no.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.no.png
new file mode 100644
index 00000000..7cf51c6e
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.no.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.sv.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.sv.png
new file mode 100644
index 00000000..09d86da0
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.sv.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.th.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.th.png
new file mode 100644
index 00000000..1a97a760
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.th.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.da.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.da.png
new file mode 100644
index 00000000..15011638
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.da.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.el.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.el.png
new file mode 100644
index 00000000..e5f4a7b1
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.el.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.fi.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.fi.png
new file mode 100644
index 00000000..e484988d
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.fi.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.no.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.no.png
new file mode 100644
index 00000000..92a785b8
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.no.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.sv.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.sv.png
new file mode 100644
index 00000000..f0aa0b4a
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.sv.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.th.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.th.png
new file mode 100644
index 00000000..7ad83ea0
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.th.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.da.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.da.png
new file mode 100644
index 00000000..1a6738b3
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.da.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.el.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.el.png
new file mode 100644
index 00000000..28f7c792
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.el.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.fi.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.fi.png
new file mode 100644
index 00000000..f55b4f9f
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.fi.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.no.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.no.png
new file mode 100644
index 00000000..65c47f2c
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.no.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.sv.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.sv.png
new file mode 100644
index 00000000..98bda93f
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.sv.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.th.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.th.png
new file mode 100644
index 00000000..7096c34a
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.th.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.da.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.da.png
new file mode 100644
index 00000000..791c7933
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.da.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.el.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.el.png
new file mode 100644
index 00000000..dac0f5dc
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.el.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.fi.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.fi.png
new file mode 100644
index 00000000..c0ddebee
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.fi.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.no.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.no.png
new file mode 100644
index 00000000..10c21524
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.no.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.sv.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.sv.png
new file mode 100644
index 00000000..4c9b1752
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.sv.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.th.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.th.png
new file mode 100644
index 00000000..d0913fd9
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.th.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.da.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.da.png
new file mode 100644
index 00000000..c5d0a2df
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.da.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.el.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.el.png
new file mode 100644
index 00000000..9ff576b0
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.el.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.fi.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.fi.png
new file mode 100644
index 00000000..7b6d3adc
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.fi.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.no.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.no.png
new file mode 100644
index 00000000..c68716b5
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.no.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.sv.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.sv.png
new file mode 100644
index 00000000..2faa0012
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.sv.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.th.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.th.png
new file mode 100644
index 00000000..b82d14c9
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.th.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.da.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.da.png
new file mode 100644
index 00000000..19021b42
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.da.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.el.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.el.png
new file mode 100644
index 00000000..629dbfbf
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.el.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.fi.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.fi.png
new file mode 100644
index 00000000..9d0cb5eb
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.fi.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.no.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.no.png
new file mode 100644
index 00000000..eec07463
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.no.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.sv.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.sv.png
new file mode 100644
index 00000000..509e560c
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.sv.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.th.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.th.png
new file mode 100644
index 00000000..be438886
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.th.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.da.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.da.png
new file mode 100644
index 00000000..b288ca6b
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.da.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.el.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.el.png
new file mode 100644
index 00000000..76186e91
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.el.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.fi.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.fi.png
new file mode 100644
index 00000000..d8c2aa3c
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.fi.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.no.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.no.png
new file mode 100644
index 00000000..47fd2477
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.no.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.sv.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.sv.png
new file mode 100644
index 00000000..f57e948b
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.sv.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.th.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.th.png
new file mode 100644
index 00000000..a9a77321
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.th.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.da.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.da.png
new file mode 100644
index 00000000..9cb8ab60
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.da.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.el.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.el.png
new file mode 100644
index 00000000..3842f78b
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.el.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.fi.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.fi.png
new file mode 100644
index 00000000..46c8b7b0
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.fi.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.no.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.no.png
new file mode 100644
index 00000000..9e59cc73
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.no.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.sv.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.sv.png
new file mode 100644
index 00000000..de991a7f
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.sv.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.th.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.th.png
new file mode 100644
index 00000000..01bf4b7a
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.th.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.da.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.da.png
new file mode 100644
index 00000000..10e06a22
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.da.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.el.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.el.png
new file mode 100644
index 00000000..be2745a7
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.el.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.fi.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.fi.png
new file mode 100644
index 00000000..ddda7a00
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.fi.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.no.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.no.png
new file mode 100644
index 00000000..800446d0
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.no.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.sv.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.sv.png
new file mode 100644
index 00000000..fb4bfc72
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.sv.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.th.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.th.png
new file mode 100644
index 00000000..714a408e
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.th.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.da.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.da.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.da.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.el.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.el.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.el.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.fi.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.fi.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.fi.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.no.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.no.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.no.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.sv.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.sv.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.sv.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.th.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.th.png
new file mode 100644
index 00000000..d95a9212
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.th.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.da.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.da.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.da.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.el.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.el.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.el.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.fi.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.fi.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.fi.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.no.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.no.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.no.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.sv.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.sv.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.sv.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.th.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.th.png
new file mode 100644
index 00000000..606eb88e
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.th.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.da.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.da.png
new file mode 100644
index 00000000..e002d69e
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.da.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.el.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.el.png
new file mode 100644
index 00000000..18108a24
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.el.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.fi.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.fi.png
new file mode 100644
index 00000000..c3970c42
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.fi.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.no.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.no.png
new file mode 100644
index 00000000..e3506ca8
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.no.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.sv.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.sv.png
new file mode 100644
index 00000000..b60ff9d4
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.sv.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.th.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.th.png
new file mode 100644
index 00000000..2a49d96b
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.th.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.da.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.da.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.da.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.el.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.el.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.el.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.fi.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.fi.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.fi.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.no.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.no.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.no.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.sv.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.sv.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.sv.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.th.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.th.png
new file mode 100644
index 00000000..de10b798
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.th.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.da.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.da.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.da.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.el.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.el.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.el.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.fi.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.fi.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.fi.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.no.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.no.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.no.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.sv.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.sv.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.sv.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.th.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.th.png
new file mode 100644
index 00000000..de10b798
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.th.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.da.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.da.png
new file mode 100644
index 00000000..78642c60
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.da.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.el.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.el.png
new file mode 100644
index 00000000..e089e431
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.el.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.fi.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.fi.png
new file mode 100644
index 00000000..6b19e355
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.fi.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.no.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.no.png
new file mode 100644
index 00000000..c0ceba96
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.no.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.sv.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.sv.png
new file mode 100644
index 00000000..ab5a68b7
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.sv.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.th.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.th.png
new file mode 100644
index 00000000..477c4827
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.th.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.da.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.da.png
new file mode 100644
index 00000000..83c9d51f
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.da.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.el.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.el.png
new file mode 100644
index 00000000..88a9e343
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.el.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.fi.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.fi.png
new file mode 100644
index 00000000..fa8e094f
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.fi.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.no.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.no.png
new file mode 100644
index 00000000..dc03f2ff
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.no.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.sv.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.sv.png
new file mode 100644
index 00000000..fd116504
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.sv.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.th.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.th.png
new file mode 100644
index 00000000..df725d65
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.th.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.da.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.da.png
new file mode 100644
index 00000000..c62b9eef
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.da.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.el.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.el.png
new file mode 100644
index 00000000..8f08f1f5
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.el.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.fi.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.fi.png
new file mode 100644
index 00000000..7f39829e
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.fi.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.no.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.no.png
new file mode 100644
index 00000000..56716ae7
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.no.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.sv.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.sv.png
new file mode 100644
index 00000000..80ea70a2
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.sv.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.th.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.th.png
new file mode 100644
index 00000000..5a2b1e53
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.th.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.da.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.da.png
new file mode 100644
index 00000000..d8771398
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.da.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.el.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.el.png
new file mode 100644
index 00000000..7397597a
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.el.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.fi.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.fi.png
new file mode 100644
index 00000000..300d37e8
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.fi.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.no.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.no.png
new file mode 100644
index 00000000..fc24612f
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.no.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.sv.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.sv.png
new file mode 100644
index 00000000..534feb12
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.sv.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.th.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.th.png
new file mode 100644
index 00000000..8e2358fb
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.th.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.da.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.da.png
new file mode 100644
index 00000000..ec3b8dac
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.da.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.el.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.el.png
new file mode 100644
index 00000000..9c739ccd
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.el.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.fi.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.fi.png
new file mode 100644
index 00000000..47fda5c1
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.fi.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.no.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.no.png
new file mode 100644
index 00000000..c88f6947
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.no.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.sv.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.sv.png
new file mode 100644
index 00000000..dc9f8173
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.sv.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.th.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.th.png
new file mode 100644
index 00000000..fa720f44
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.th.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.da.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.da.png
new file mode 100644
index 00000000..3a350ca0
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.da.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.el.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.el.png
new file mode 100644
index 00000000..4c6426dc
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.el.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.fi.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.fi.png
new file mode 100644
index 00000000..dc72f71c
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.fi.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.no.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.no.png
new file mode 100644
index 00000000..d9add99c
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.no.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.sv.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.sv.png
new file mode 100644
index 00000000..0dec5d58
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.sv.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.th.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.th.png
new file mode 100644
index 00000000..fc93f571
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.th.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.da.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.da.png
new file mode 100644
index 00000000..4d2d6b68
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.da.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.el.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.el.png
new file mode 100644
index 00000000..8dd064cb
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.el.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.fi.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.fi.png
new file mode 100644
index 00000000..90255ff9
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.fi.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.no.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.no.png
new file mode 100644
index 00000000..1bea1de9
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.no.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.sv.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.sv.png
new file mode 100644
index 00000000..77a1127d
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.sv.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.th.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.th.png
new file mode 100644
index 00000000..406f3d7d
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.th.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.da.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.da.png
new file mode 100644
index 00000000..eb42dfb2
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.da.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.el.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.el.png
new file mode 100644
index 00000000..c544065a
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.el.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.fi.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.fi.png
new file mode 100644
index 00000000..a986dd2f
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.fi.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.no.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.no.png
new file mode 100644
index 00000000..cee7e74c
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.no.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.sv.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.sv.png
new file mode 100644
index 00000000..25f4d920
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.sv.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.th.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.th.png
new file mode 100644
index 00000000..3e419b1e
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.th.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.da.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.da.png
new file mode 100644
index 00000000..c137ad43
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.da.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.el.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.el.png
new file mode 100644
index 00000000..a15adc02
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.el.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.fi.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.fi.png
new file mode 100644
index 00000000..0d21df83
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.fi.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.no.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.no.png
new file mode 100644
index 00000000..ce1ed7d2
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.no.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.sv.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.sv.png
new file mode 100644
index 00000000..b6b68c42
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.sv.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.th.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.th.png
new file mode 100644
index 00000000..ee3e45bb
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.th.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.da.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.da.png
new file mode 100644
index 00000000..ee5dc796
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.da.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.el.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.el.png
new file mode 100644
index 00000000..9974eb53
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.el.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.fi.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.fi.png
new file mode 100644
index 00000000..b975dd25
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.fi.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.no.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.no.png
new file mode 100644
index 00000000..ee817d44
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.no.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.sv.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.sv.png
new file mode 100644
index 00000000..4284285c
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.sv.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.th.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.th.png
new file mode 100644
index 00000000..93a646a3
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.th.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.da.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.da.png
new file mode 100644
index 00000000..4bc1ce9e
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.da.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.el.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.el.png
new file mode 100644
index 00000000..9974eb53
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.el.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.fi.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.fi.png
new file mode 100644
index 00000000..b975dd25
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.fi.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.no.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.no.png
new file mode 100644
index 00000000..2c8abc90
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.no.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.sv.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.sv.png
new file mode 100644
index 00000000..724480a3
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.sv.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.th.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.th.png
new file mode 100644
index 00000000..7352c637
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.th.png differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.da.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.da.jpg
new file mode 100644
index 00000000..2c062f1f
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.da.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.el.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.el.jpg
new file mode 100644
index 00000000..cb4be9d1
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.el.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.fi.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.fi.jpg
new file mode 100644
index 00000000..09f0e901
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.fi.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.no.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.no.jpg
new file mode 100644
index 00000000..861ffc3e
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.no.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.sv.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.sv.jpg
new file mode 100644
index 00000000..744a1cca
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.sv.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.th.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.th.jpg
new file mode 100644
index 00000000..95687b7e
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.th.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.da.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.da.jpg
new file mode 100644
index 00000000..9a9e75b7
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.da.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.el.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.el.jpg
new file mode 100644
index 00000000..9d18202f
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.el.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.fi.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.fi.jpg
new file mode 100644
index 00000000..72c71510
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.fi.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.no.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.no.jpg
new file mode 100644
index 00000000..b125d78c
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.no.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.sv.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.sv.jpg
new file mode 100644
index 00000000..744a1cca
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.sv.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.th.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.th.jpg
new file mode 100644
index 00000000..95687b7e
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.th.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.da.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.da.jpg
new file mode 100644
index 00000000..d2ba8157
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.da.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.el.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.el.jpg
new file mode 100644
index 00000000..b31dbab0
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.el.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.fi.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.fi.jpg
new file mode 100644
index 00000000..a1c82830
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.fi.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.no.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.no.jpg
new file mode 100644
index 00000000..fa36d06b
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.no.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.sv.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.sv.jpg
new file mode 100644
index 00000000..18b6941a
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.sv.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.th.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.th.jpg
new file mode 100644
index 00000000..9ccfbdaf
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.th.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.da.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.da.jpg
new file mode 100644
index 00000000..d2ba8157
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.da.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.el.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.el.jpg
new file mode 100644
index 00000000..bf5e4ca5
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.el.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.fi.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.fi.jpg
new file mode 100644
index 00000000..1d4b178f
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.fi.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.no.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.no.jpg
new file mode 100644
index 00000000..fa36d06b
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.no.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.sv.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.sv.jpg
new file mode 100644
index 00000000..f18bc6a3
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.sv.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.th.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.th.jpg
new file mode 100644
index 00000000..29a46ea9
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.th.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.da.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.da.jpg
new file mode 100644
index 00000000..b0735758
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.da.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.el.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.el.jpg
new file mode 100644
index 00000000..bbad4d27
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.el.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.fi.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.fi.jpg
new file mode 100644
index 00000000..684efe4e
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.fi.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.no.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.no.jpg
new file mode 100644
index 00000000..64783c02
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.no.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.sv.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.sv.jpg
new file mode 100644
index 00000000..28be9f97
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.sv.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.th.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.th.jpg
new file mode 100644
index 00000000..f699fb15
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.th.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.da.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.da.jpg
new file mode 100644
index 00000000..da795a8f
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.da.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.el.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.el.jpg
new file mode 100644
index 00000000..7086cb1a
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.el.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.fi.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.fi.jpg
new file mode 100644
index 00000000..777ae779
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.fi.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.no.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.no.jpg
new file mode 100644
index 00000000..64783c02
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.no.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.sv.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.sv.jpg
new file mode 100644
index 00000000..28be9f97
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.sv.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.th.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.th.jpg
new file mode 100644
index 00000000..6e664915
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.th.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.da.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.da.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.da.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.el.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.el.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.el.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.fi.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.fi.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.fi.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.no.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.no.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.no.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.sv.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.sv.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.sv.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.th.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.th.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.th.jpg differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.da.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.da.png
new file mode 100644
index 00000000..fa0197b1
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.da.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.el.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.el.png
new file mode 100644
index 00000000..dc0aaf8b
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.el.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.fi.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.fi.png
new file mode 100644
index 00000000..e7ba0143
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.fi.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.no.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.no.png
new file mode 100644
index 00000000..a745eb93
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.no.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.sv.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.sv.png
new file mode 100644
index 00000000..30e81a64
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.sv.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.th.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.th.png
new file mode 100644
index 00000000..888844e8
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.th.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.da.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.da.png
new file mode 100644
index 00000000..d7e69955
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.da.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.el.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.el.png
new file mode 100644
index 00000000..ac4e98d6
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.el.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.fi.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.fi.png
new file mode 100644
index 00000000..8923d0b5
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.fi.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.no.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.no.png
new file mode 100644
index 00000000..4994b502
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.no.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.sv.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.sv.png
new file mode 100644
index 00000000..0c0b9026
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.sv.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.th.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.th.png
new file mode 100644
index 00000000..81a0e1c3
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.th.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.da.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.da.png
new file mode 100644
index 00000000..a799bb85
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.da.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.el.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.el.png
new file mode 100644
index 00000000..26117bb9
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.el.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.fi.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.fi.png
new file mode 100644
index 00000000..820ba6a6
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.fi.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.no.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.no.png
new file mode 100644
index 00000000..83f998e7
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.no.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.sv.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.sv.png
new file mode 100644
index 00000000..52114eb6
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.sv.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.th.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.th.png
new file mode 100644
index 00000000..fb3e5e9e
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.th.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.da.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.da.png
new file mode 100644
index 00000000..b50dc3e5
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.da.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.el.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.el.png
new file mode 100644
index 00000000..c6f1c9bb
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.el.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.fi.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.fi.png
new file mode 100644
index 00000000..8389d2b0
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.fi.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.no.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.no.png
new file mode 100644
index 00000000..9dc4f4f5
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.no.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.sv.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.sv.png
new file mode 100644
index 00000000..5ac9f9e7
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.sv.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.th.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.th.png
new file mode 100644
index 00000000..017b353e
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.th.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.da.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.da.png
new file mode 100644
index 00000000..58771cb4
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.da.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.el.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.el.png
new file mode 100644
index 00000000..6a214d2e
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.el.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.fi.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.fi.png
new file mode 100644
index 00000000..9ffeb4f5
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.fi.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.no.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.no.png
new file mode 100644
index 00000000..7fbd3d02
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.no.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.sv.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.sv.png
new file mode 100644
index 00000000..8228a966
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.sv.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.th.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.th.png
new file mode 100644
index 00000000..a5b64310
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.th.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.da.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.da.png
new file mode 100644
index 00000000..58771cb4
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.da.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.el.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.el.png
new file mode 100644
index 00000000..6a214d2e
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.el.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.fi.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.fi.png
new file mode 100644
index 00000000..e5dd2faa
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.fi.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.no.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.no.png
new file mode 100644
index 00000000..8ef8f201
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.no.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.sv.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.sv.png
new file mode 100644
index 00000000..8228a966
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.sv.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.th.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.th.png
new file mode 100644
index 00000000..a5b64310
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.th.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.da.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.da.png
new file mode 100644
index 00000000..ac6ce0b8
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.da.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.el.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.el.png
new file mode 100644
index 00000000..87bfdd4d
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.el.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.fi.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.fi.png
new file mode 100644
index 00000000..a263bb2b
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.fi.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.no.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.no.png
new file mode 100644
index 00000000..b177245c
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.no.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.sv.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.sv.png
new file mode 100644
index 00000000..f1f2f552
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.sv.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.th.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.th.png
new file mode 100644
index 00000000..66abbf21
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.th.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.da.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.da.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.da.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.el.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.el.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.el.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.fi.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.fi.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.fi.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.no.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.no.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.no.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.sv.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.sv.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.sv.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.th.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.th.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.th.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.da.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.da.png
new file mode 100644
index 00000000..5ed6d363
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.da.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.el.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.el.png
new file mode 100644
index 00000000..4fe28c51
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.el.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.fi.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.fi.png
new file mode 100644
index 00000000..03556168
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.fi.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.no.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.no.png
new file mode 100644
index 00000000..316ed9c8
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.no.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.sv.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.sv.png
new file mode 100644
index 00000000..a974e9b5
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.sv.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.th.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.th.png
new file mode 100644
index 00000000..1de5f032
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.th.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.da.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.da.png
new file mode 100644
index 00000000..acc2342b
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.da.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.el.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.el.png
new file mode 100644
index 00000000..d5d692d8
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.el.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.fi.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.fi.png
new file mode 100644
index 00000000..e022d3a8
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.fi.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.no.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.no.png
new file mode 100644
index 00000000..e5ccd235
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.no.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.sv.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.sv.png
new file mode 100644
index 00000000..847a5bb4
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.sv.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.th.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.th.png
new file mode 100644
index 00000000..3959b669
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.th.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.da.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.da.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.da.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.el.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.el.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.el.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.fi.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.fi.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.fi.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.no.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.no.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.no.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.sv.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.sv.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.sv.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.th.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.th.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.th.png differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.da.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.da.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.da.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.el.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.el.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.el.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.fi.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.fi.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.fi.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.no.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.no.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.no.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.sv.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.sv.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.sv.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.th.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.th.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.th.jpg differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.da.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.da.png
new file mode 100644
index 00000000..10a54166
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.da.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.el.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.el.png
new file mode 100644
index 00000000..568fe4a0
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.el.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.fi.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.fi.png
new file mode 100644
index 00000000..819f31a0
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.fi.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.no.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.no.png
new file mode 100644
index 00000000..c7a06bfa
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.no.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.sv.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.sv.png
new file mode 100644
index 00000000..ed69baa0
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.sv.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.th.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.th.png
new file mode 100644
index 00000000..84e086ca
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.th.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.da.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.da.png
new file mode 100644
index 00000000..9315de5d
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.da.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.el.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.el.png
new file mode 100644
index 00000000..70a620b8
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.el.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.fi.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.fi.png
new file mode 100644
index 00000000..1d371c33
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.fi.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.no.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.no.png
new file mode 100644
index 00000000..333666fd
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.no.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.sv.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.sv.png
new file mode 100644
index 00000000..1d09a3e8
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.sv.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.th.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.th.png
new file mode 100644
index 00000000..8fb9e44b
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.th.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.da.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.da.png
new file mode 100644
index 00000000..b9e7fb9a
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.da.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.el.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.el.png
new file mode 100644
index 00000000..c768f1ce
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.el.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.fi.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.fi.png
new file mode 100644
index 00000000..895f2e34
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.fi.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.no.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.no.png
new file mode 100644
index 00000000..4201371b
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.no.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.sv.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.sv.png
new file mode 100644
index 00000000..13b9fcd6
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.sv.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.th.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.th.png
new file mode 100644
index 00000000..0ec1b7ec
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.th.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.da.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.da.png
new file mode 100644
index 00000000..f0b9939b
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.da.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.el.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.el.png
new file mode 100644
index 00000000..4314b7e7
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.el.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.fi.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.fi.png
new file mode 100644
index 00000000..e8d8396e
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.fi.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.no.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.no.png
new file mode 100644
index 00000000..b1d2c964
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.no.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.sv.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.sv.png
new file mode 100644
index 00000000..3e054c54
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.sv.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.th.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.th.png
new file mode 100644
index 00000000..c03a22b0
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.th.png differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.da.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.da.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.da.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.el.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.el.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.el.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.fi.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.fi.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.fi.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.no.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.no.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.no.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.sv.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.sv.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.sv.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.th.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.th.jpg
new file mode 100644
index 00000000..23ef3a27
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.th.jpg differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.da.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.da.png
new file mode 100644
index 00000000..56178137
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.da.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.el.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.el.png
new file mode 100644
index 00000000..82bcea5f
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.el.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.fi.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.fi.png
new file mode 100644
index 00000000..0d0b063f
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.fi.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.no.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.no.png
new file mode 100644
index 00000000..7505eda4
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.no.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.sv.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.sv.png
new file mode 100644
index 00000000..fd906d58
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.sv.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.th.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.th.png
new file mode 100644
index 00000000..d7df9774
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.th.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.da.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.da.png
new file mode 100644
index 00000000..5728382e
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.da.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.el.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.el.png
new file mode 100644
index 00000000..991e556a
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.el.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.fi.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.fi.png
new file mode 100644
index 00000000..bc283fe7
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.fi.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.no.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.no.png
new file mode 100644
index 00000000..de855d2c
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.no.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.sv.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.sv.png
new file mode 100644
index 00000000..137a1bdc
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.sv.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.th.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.th.png
new file mode 100644
index 00000000..d6811007
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.th.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.da.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.da.png
new file mode 100644
index 00000000..297a42f6
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.da.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.el.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.el.png
new file mode 100644
index 00000000..8e0ea8c1
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.el.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.fi.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.fi.png
new file mode 100644
index 00000000..2e7955a7
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.fi.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.no.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.no.png
new file mode 100644
index 00000000..96d51435
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.no.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.sv.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.sv.png
new file mode 100644
index 00000000..dcf15202
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.sv.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.th.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.th.png
new file mode 100644
index 00000000..15d5b583
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.th.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.da.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.da.png
new file mode 100644
index 00000000..856e0e0e
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.da.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.el.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.el.png
new file mode 100644
index 00000000..c3365aca
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.el.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.fi.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.fi.png
new file mode 100644
index 00000000..3c893877
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.fi.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.no.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.no.png
new file mode 100644
index 00000000..f714763c
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.no.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.sv.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.sv.png
new file mode 100644
index 00000000..9dbfd89c
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.sv.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.th.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.th.png
new file mode 100644
index 00000000..54fa7cee
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.th.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.da.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.da.png
new file mode 100644
index 00000000..1c95574a
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.da.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.el.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.el.png
new file mode 100644
index 00000000..fbc2f1e6
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.el.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.fi.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.fi.png
new file mode 100644
index 00000000..0f1d0e93
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.fi.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.no.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.no.png
new file mode 100644
index 00000000..0dc774d6
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.no.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.sv.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.sv.png
new file mode 100644
index 00000000..7774d58c
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.sv.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.th.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.th.png
new file mode 100644
index 00000000..928ab457
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.th.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.da.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.da.png
new file mode 100644
index 00000000..f31b3f05
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.da.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.el.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.el.png
new file mode 100644
index 00000000..cde00c63
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.el.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.fi.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.fi.png
new file mode 100644
index 00000000..44c674b4
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.fi.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.no.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.no.png
new file mode 100644
index 00000000..e2617340
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.no.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.sv.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.sv.png
new file mode 100644
index 00000000..bd2b38c9
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.sv.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.th.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.th.png
new file mode 100644
index 00000000..00d343ed
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.th.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.da.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.da.png
new file mode 100644
index 00000000..851e25ad
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.da.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.el.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.el.png
new file mode 100644
index 00000000..6c5de0ed
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.el.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.fi.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.fi.png
new file mode 100644
index 00000000..38e41406
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.fi.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.no.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.no.png
new file mode 100644
index 00000000..851e25ad
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.no.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.sv.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.sv.png
new file mode 100644
index 00000000..851e25ad
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.sv.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.th.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.th.png
new file mode 100644
index 00000000..db9e9cff
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.th.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.da.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.da.png
new file mode 100644
index 00000000..2740b3a3
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.da.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.el.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.el.png
new file mode 100644
index 00000000..47baa590
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.el.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.fi.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.fi.png
new file mode 100644
index 00000000..1727729c
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.fi.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.no.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.no.png
new file mode 100644
index 00000000..3d4ce4ae
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.no.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.sv.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.sv.png
new file mode 100644
index 00000000..662b7909
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.sv.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.th.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.th.png
new file mode 100644
index 00000000..d70873bc
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.th.png differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.da.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.da.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.da.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.el.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.el.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.el.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.fi.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.fi.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.fi.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.no.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.no.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.no.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.sv.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.sv.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.sv.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.th.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.th.jpg
new file mode 100644
index 00000000..45a9514c
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.th.jpg differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.da.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.da.png
new file mode 100644
index 00000000..b435d1e1
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.da.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.el.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.el.png
new file mode 100644
index 00000000..560003ea
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.el.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.fi.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.fi.png
new file mode 100644
index 00000000..385b7650
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.fi.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.no.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.no.png
new file mode 100644
index 00000000..101449bc
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.no.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.sv.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.sv.png
new file mode 100644
index 00000000..cc5a34f8
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.sv.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.th.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.th.png
new file mode 100644
index 00000000..74504756
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.th.png differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.da.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.da.jpg
new file mode 100644
index 00000000..ae7bc77b
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.da.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.el.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.el.jpg
new file mode 100644
index 00000000..358a3204
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.el.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.fi.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.fi.jpg
new file mode 100644
index 00000000..76eda06e
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.fi.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.no.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.no.jpg
new file mode 100644
index 00000000..9a6a7201
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.no.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.sv.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.sv.jpg
new file mode 100644
index 00000000..53ccaa6a
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.sv.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.th.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.th.jpg
new file mode 100644
index 00000000..0198eff1
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.th.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.da.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.da.jpg
new file mode 100644
index 00000000..81abf616
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.da.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.el.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.el.jpg
new file mode 100644
index 00000000..88db4a96
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.el.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.fi.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.fi.jpg
new file mode 100644
index 00000000..4e3723b1
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.fi.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.no.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.no.jpg
new file mode 100644
index 00000000..8cb64ab8
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.no.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.sv.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.sv.jpg
new file mode 100644
index 00000000..5cb59e80
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.sv.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.th.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.th.jpg
new file mode 100644
index 00000000..411e0d5d
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.th.jpg differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.da.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.da.png
new file mode 100644
index 00000000..b670ded0
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.da.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.el.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.el.png
new file mode 100644
index 00000000..a6c21c07
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.el.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.fi.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.fi.png
new file mode 100644
index 00000000..5b3d2f6c
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.fi.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.no.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.no.png
new file mode 100644
index 00000000..8c6c0a22
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.no.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.sv.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.sv.png
new file mode 100644
index 00000000..0a95dae7
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.sv.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.th.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.th.png
new file mode 100644
index 00000000..39283162
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.th.png differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.da.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.da.jpg
new file mode 100644
index 00000000..bcebda39
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.da.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.el.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.el.jpg
new file mode 100644
index 00000000..6be6c122
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.el.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.fi.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.fi.jpg
new file mode 100644
index 00000000..190d82b1
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.fi.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.no.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.no.jpg
new file mode 100644
index 00000000..4468dfbd
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.no.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.sv.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.sv.jpg
new file mode 100644
index 00000000..c36df4a4
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.sv.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.th.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.th.jpg
new file mode 100644
index 00000000..61346851
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.th.jpg differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.da.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.da.png
new file mode 100644
index 00000000..60ac2397
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.da.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.el.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.el.png
new file mode 100644
index 00000000..07902a1d
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.el.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.fi.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.fi.png
new file mode 100644
index 00000000..e40eeacc
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.fi.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.no.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.no.png
new file mode 100644
index 00000000..177289ae
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.no.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.sv.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.sv.png
new file mode 100644
index 00000000..955f0b81
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.sv.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.th.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.th.png
new file mode 100644
index 00000000..60b41ba5
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.th.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.da.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.da.png
new file mode 100644
index 00000000..218c24c5
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.da.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.el.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.el.png
new file mode 100644
index 00000000..2e61cf5c
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.el.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.fi.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.fi.png
new file mode 100644
index 00000000..18630f74
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.fi.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.no.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.no.png
new file mode 100644
index 00000000..61ea8d1c
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.no.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.sv.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.sv.png
new file mode 100644
index 00000000..c9d89997
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.sv.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.th.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.th.png
new file mode 100644
index 00000000..a25404bc
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.th.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.da.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.da.png
new file mode 100644
index 00000000..65383126
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.da.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.el.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.el.png
new file mode 100644
index 00000000..b2fcc430
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.el.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.fi.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.fi.png
new file mode 100644
index 00000000..427cec26
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.fi.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.no.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.no.png
new file mode 100644
index 00000000..b6b90cbe
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.no.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.sv.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.sv.png
new file mode 100644
index 00000000..44444906
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.sv.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.th.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.th.png
new file mode 100644
index 00000000..9a5ea186
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.th.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.da.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.da.png
new file mode 100644
index 00000000..032fbd94
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.da.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.el.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.el.png
new file mode 100644
index 00000000..081ea5f2
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.el.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.fi.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.fi.png
new file mode 100644
index 00000000..75b321e5
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.fi.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.no.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.no.png
new file mode 100644
index 00000000..5d97f280
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.no.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.sv.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.sv.png
new file mode 100644
index 00000000..54da260a
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.sv.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.th.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.th.png
new file mode 100644
index 00000000..defc0367
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.th.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.da.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.da.png
new file mode 100644
index 00000000..491d9c3e
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.da.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.el.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.el.png
new file mode 100644
index 00000000..d5036de0
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.el.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.fi.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.fi.png
new file mode 100644
index 00000000..668b1594
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.fi.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.no.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.no.png
new file mode 100644
index 00000000..0c3c14a6
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.no.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.sv.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.sv.png
new file mode 100644
index 00000000..9eba7367
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.sv.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.th.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.th.png
new file mode 100644
index 00000000..ee1e9ab0
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.th.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.da.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.da.png
new file mode 100644
index 00000000..a8dab969
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.da.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.el.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.el.png
new file mode 100644
index 00000000..2325ee74
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.el.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.fi.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.fi.png
new file mode 100644
index 00000000..96ac4a19
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.fi.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.no.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.no.png
new file mode 100644
index 00000000..a185e7b3
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.no.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.sv.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.sv.png
new file mode 100644
index 00000000..46d27b13
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.sv.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.th.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.th.png
new file mode 100644
index 00000000..eb087dad
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.th.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.da.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.da.png
new file mode 100644
index 00000000..4155942d
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.da.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.el.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.el.png
new file mode 100644
index 00000000..afacda8d
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.el.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.fi.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.fi.png
new file mode 100644
index 00000000..d5ccd11f
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.fi.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.no.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.no.png
new file mode 100644
index 00000000..2b04d2e6
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.no.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.sv.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.sv.png
new file mode 100644
index 00000000..10d911d9
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.sv.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.th.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.th.png
new file mode 100644
index 00000000..04d89037
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.th.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.da.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.da.png
new file mode 100644
index 00000000..b17c112b
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.da.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.el.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.el.png
new file mode 100644
index 00000000..c9e40765
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.el.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.fi.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.fi.png
new file mode 100644
index 00000000..71e6bf0b
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.fi.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.no.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.no.png
new file mode 100644
index 00000000..4da68c3f
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.no.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.sv.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.sv.png
new file mode 100644
index 00000000..4a810c18
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.sv.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.th.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.th.png
new file mode 100644
index 00000000..f759590f
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.th.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.da.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.da.png
new file mode 100644
index 00000000..2addf430
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.da.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.el.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.el.png
new file mode 100644
index 00000000..f8e7a2fa
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.el.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.fi.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.fi.png
new file mode 100644
index 00000000..a0190a48
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.fi.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.no.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.no.png
new file mode 100644
index 00000000..e3efc5f1
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.no.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.sv.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.sv.png
new file mode 100644
index 00000000..88f1161c
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.sv.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.th.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.th.png
new file mode 100644
index 00000000..4c9df551
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.th.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.da.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.da.png
new file mode 100644
index 00000000..b5d3a370
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.da.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.el.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.el.png
new file mode 100644
index 00000000..cc9acf4f
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.el.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.fi.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.fi.png
new file mode 100644
index 00000000..46dcfc58
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.fi.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.no.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.no.png
new file mode 100644
index 00000000..86cde1c9
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.no.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.sv.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.sv.png
new file mode 100644
index 00000000..1398f112
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.sv.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.th.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.th.png
new file mode 100644
index 00000000..7de4d287
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.th.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.da.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.da.png
new file mode 100644
index 00000000..5b9848e6
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.da.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.el.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.el.png
new file mode 100644
index 00000000..a24e4e3e
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.el.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.fi.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.fi.png
new file mode 100644
index 00000000..2f6a431e
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.fi.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.no.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.no.png
new file mode 100644
index 00000000..19fc2d6d
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.no.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.sv.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.sv.png
new file mode 100644
index 00000000..5da6736a
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.sv.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.th.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.th.png
new file mode 100644
index 00000000..1ee20694
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.th.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.da.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.da.png
new file mode 100644
index 00000000..d490c297
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.da.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.el.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.el.png
new file mode 100644
index 00000000..12468e40
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.el.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.fi.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.fi.png
new file mode 100644
index 00000000..a9ee2fd3
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.fi.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.no.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.no.png
new file mode 100644
index 00000000..d490c297
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.no.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.sv.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.sv.png
new file mode 100644
index 00000000..d490c297
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.sv.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.th.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.th.png
new file mode 100644
index 00000000..819b7622
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.th.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.da.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.da.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.da.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.el.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.el.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.el.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.fi.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.fi.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.fi.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.no.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.no.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.no.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.sv.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.sv.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.sv.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.th.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.th.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.th.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.da.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.da.png
new file mode 100644
index 00000000..1cb8387b
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.da.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.el.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.el.png
new file mode 100644
index 00000000..9c324edd
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.el.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.fi.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.fi.png
new file mode 100644
index 00000000..e469b301
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.fi.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.no.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.no.png
new file mode 100644
index 00000000..1cb8387b
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.no.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.sv.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.sv.png
new file mode 100644
index 00000000..1cb8387b
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.sv.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.th.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.th.png
new file mode 100644
index 00000000..d17e606a
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.th.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.da.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.da.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.da.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.el.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.el.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.el.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.fi.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.fi.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.fi.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.no.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.no.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.no.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.sv.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.sv.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.sv.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.th.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.th.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.th.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.da.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.da.png
new file mode 100644
index 00000000..58530d81
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.da.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.el.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.el.png
new file mode 100644
index 00000000..d9a55252
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.el.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.fi.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.fi.png
new file mode 100644
index 00000000..336ee122
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.fi.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.no.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.no.png
new file mode 100644
index 00000000..58530d81
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.no.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.sv.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.sv.png
new file mode 100644
index 00000000..58530d81
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.sv.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.th.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.th.png
new file mode 100644
index 00000000..9e6b0198
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.th.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.da.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.da.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.da.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.el.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.el.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.el.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.fi.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.fi.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.fi.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.no.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.no.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.no.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.sv.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.sv.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.sv.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.th.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.th.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.th.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.da.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.da.png
new file mode 100644
index 00000000..4ab88287
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.da.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.el.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.el.png
new file mode 100644
index 00000000..84653933
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.el.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.fi.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.fi.png
new file mode 100644
index 00000000..958ffdf9
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.fi.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.no.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.no.png
new file mode 100644
index 00000000..0842a7ce
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.no.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.sv.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.sv.png
new file mode 100644
index 00000000..ea58685a
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.sv.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.th.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.th.png
new file mode 100644
index 00000000..903cea5d
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.th.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.da.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.da.png
new file mode 100644
index 00000000..503440b6
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.da.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.el.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.el.png
new file mode 100644
index 00000000..9c83a432
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.el.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.fi.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.fi.png
new file mode 100644
index 00000000..2cdb86b3
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.fi.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.no.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.no.png
new file mode 100644
index 00000000..2b07a301
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.no.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.sv.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.sv.png
new file mode 100644
index 00000000..3c14ac2b
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.sv.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.th.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.th.png
new file mode 100644
index 00000000..041667ec
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.th.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.da.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.da.png
new file mode 100644
index 00000000..29f2b9c9
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.da.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.el.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.el.png
new file mode 100644
index 00000000..6387db18
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.el.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.fi.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.fi.png
new file mode 100644
index 00000000..bb4fcf75
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.fi.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.no.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.no.png
new file mode 100644
index 00000000..7a049b22
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.no.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.sv.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.sv.png
new file mode 100644
index 00000000..a2e96cad
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.sv.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.th.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.th.png
new file mode 100644
index 00000000..3176178a
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.th.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.da.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.da.png
new file mode 100644
index 00000000..b0f26e3b
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.da.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.el.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.el.png
new file mode 100644
index 00000000..93ec53b0
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.el.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.fi.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.fi.png
new file mode 100644
index 00000000..9ef15f70
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.fi.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.no.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.no.png
new file mode 100644
index 00000000..dde0b781
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.no.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.sv.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.sv.png
new file mode 100644
index 00000000..8d4c4501
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.sv.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.th.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.th.png
new file mode 100644
index 00000000..f53c2017
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.th.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.da.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.da.png
new file mode 100644
index 00000000..9065ea13
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.da.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.el.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.el.png
new file mode 100644
index 00000000..18842577
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.el.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.fi.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.fi.png
new file mode 100644
index 00000000..d1d39e77
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.fi.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.no.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.no.png
new file mode 100644
index 00000000..eed5e30d
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.no.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.sv.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.sv.png
new file mode 100644
index 00000000..37a3a413
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.sv.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.th.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.th.png
new file mode 100644
index 00000000..36f60d29
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.th.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.da.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.da.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.da.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.el.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.el.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.el.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.fi.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.fi.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.fi.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.no.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.no.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.no.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.sv.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.sv.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.sv.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.th.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.th.png
new file mode 100644
index 00000000..68d59953
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.th.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.da.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.da.png
new file mode 100644
index 00000000..ebd97d74
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.da.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.el.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.el.png
new file mode 100644
index 00000000..bff2e754
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.el.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.fi.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.fi.png
new file mode 100644
index 00000000..14960a3d
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.fi.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.no.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.no.png
new file mode 100644
index 00000000..f3d9b300
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.no.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.sv.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.sv.png
new file mode 100644
index 00000000..d71c345c
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.sv.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.th.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.th.png
new file mode 100644
index 00000000..e28b085f
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.th.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.da.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.da.png
new file mode 100644
index 00000000..c140f9b4
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.da.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.el.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.el.png
new file mode 100644
index 00000000..aff9328d
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.el.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.fi.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.fi.png
new file mode 100644
index 00000000..920c7eca
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.fi.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.no.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.no.png
new file mode 100644
index 00000000..40e6623e
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.no.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.sv.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.sv.png
new file mode 100644
index 00000000..181ecf78
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.sv.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.th.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.th.png
new file mode 100644
index 00000000..f522b6bc
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.th.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.da.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.da.png
new file mode 100644
index 00000000..68f940d9
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.da.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.el.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.el.png
new file mode 100644
index 00000000..ab46e1a3
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.el.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.fi.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.fi.png
new file mode 100644
index 00000000..6c3359af
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.fi.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.no.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.no.png
new file mode 100644
index 00000000..552fa1cc
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.no.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.sv.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.sv.png
new file mode 100644
index 00000000..363f359c
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.sv.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.th.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.th.png
new file mode 100644
index 00000000..b254bfa4
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.th.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.da.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.da.png
new file mode 100644
index 00000000..ddf61a82
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.da.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.el.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.el.png
new file mode 100644
index 00000000..6054a440
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.el.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.fi.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.fi.png
new file mode 100644
index 00000000..414e2e68
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.fi.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.no.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.no.png
new file mode 100644
index 00000000..53e626bd
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.no.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.sv.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.sv.png
new file mode 100644
index 00000000..34a17921
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.sv.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.th.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.th.png
new file mode 100644
index 00000000..2240c4b5
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.th.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.da.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.da.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.da.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.el.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.el.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.el.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.fi.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.fi.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.fi.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.no.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.no.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.no.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.sv.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.sv.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.sv.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.th.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.th.png
new file mode 100644
index 00000000..491abab1
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.th.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.da.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.da.png
new file mode 100644
index 00000000..10ac84d2
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.da.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.el.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.el.png
new file mode 100644
index 00000000..2293407b
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.el.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.fi.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.fi.png
new file mode 100644
index 00000000..fe293724
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.fi.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.no.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.no.png
new file mode 100644
index 00000000..07f41485
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.no.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.sv.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.sv.png
new file mode 100644
index 00000000..1cce11fd
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.sv.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.th.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.th.png
new file mode 100644
index 00000000..e7113301
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.th.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.da.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.da.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.da.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.el.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.el.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.el.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.fi.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.fi.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.fi.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.no.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.no.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.no.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.sv.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.sv.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.sv.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.th.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.th.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.th.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.da.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.da.png
new file mode 100644
index 00000000..c1c87fca
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.da.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.el.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.el.png
new file mode 100644
index 00000000..8c4b50dd
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.el.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.fi.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.fi.png
new file mode 100644
index 00000000..952f5385
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.fi.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.no.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.no.png
new file mode 100644
index 00000000..c6a847fc
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.no.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.sv.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.sv.png
new file mode 100644
index 00000000..919707b7
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.sv.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.th.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.th.png
new file mode 100644
index 00000000..a73d77cf
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.th.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.da.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.da.png
new file mode 100644
index 00000000..35af2870
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.da.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.el.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.el.png
new file mode 100644
index 00000000..a55b8466
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.el.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.fi.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.fi.png
new file mode 100644
index 00000000..ff19cfee
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.fi.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.no.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.no.png
new file mode 100644
index 00000000..18b2371c
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.no.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.sv.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.sv.png
new file mode 100644
index 00000000..eeb7f37e
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.sv.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.th.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.th.png
new file mode 100644
index 00000000..066e2726
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.th.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.da.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.da.png
new file mode 100644
index 00000000..85a430a0
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.da.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.el.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.el.png
new file mode 100644
index 00000000..65d46ce2
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.el.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.fi.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.fi.png
new file mode 100644
index 00000000..87200437
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.fi.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.no.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.no.png
new file mode 100644
index 00000000..e6b068da
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.no.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.sv.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.sv.png
new file mode 100644
index 00000000..95e45f56
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.sv.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.th.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.th.png
new file mode 100644
index 00000000..8862279f
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.th.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.da.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.da.png
new file mode 100644
index 00000000..63f3bb28
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.da.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.el.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.el.png
new file mode 100644
index 00000000..ecc0caf6
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.el.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.fi.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.fi.png
new file mode 100644
index 00000000..03fc800e
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.fi.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.no.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.no.png
new file mode 100644
index 00000000..72ce87cc
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.no.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.sv.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.sv.png
new file mode 100644
index 00000000..aadf8794
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.sv.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.th.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.th.png
new file mode 100644
index 00000000..a35c34a6
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.th.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.da.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.da.png
new file mode 100644
index 00000000..38760b40
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.da.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.el.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.el.png
new file mode 100644
index 00000000..6205bc46
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.el.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.fi.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.fi.png
new file mode 100644
index 00000000..de9f404a
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.fi.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.no.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.no.png
new file mode 100644
index 00000000..1034a8ad
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.no.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.sv.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.sv.png
new file mode 100644
index 00000000..9f177c8c
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.sv.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.th.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.th.png
new file mode 100644
index 00000000..186725fb
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.th.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.da.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.da.png
new file mode 100644
index 00000000..1d40c108
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.da.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.el.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.el.png
new file mode 100644
index 00000000..1a294f79
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.el.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.fi.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.fi.png
new file mode 100644
index 00000000..57f3bc34
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.fi.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.no.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.no.png
new file mode 100644
index 00000000..fbb971c5
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.no.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.sv.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.sv.png
new file mode 100644
index 00000000..381712b6
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.sv.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.th.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.th.png
new file mode 100644
index 00000000..e8cc327b
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.th.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.da.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.da.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.da.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.el.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.el.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.el.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.fi.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.fi.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.fi.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.no.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.no.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.no.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.sv.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.sv.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.sv.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.th.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.th.png
new file mode 100644
index 00000000..ac12b5f8
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.th.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.da.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.da.png
new file mode 100644
index 00000000..57dc615d
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.da.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.el.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.el.png
new file mode 100644
index 00000000..6fb2b261
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.el.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.fi.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.fi.png
new file mode 100644
index 00000000..d4c16c62
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.fi.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.no.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.no.png
new file mode 100644
index 00000000..7a686f36
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.no.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.sv.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.sv.png
new file mode 100644
index 00000000..27b7cecd
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.sv.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.th.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.th.png
new file mode 100644
index 00000000..8d79eab6
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.th.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.da.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.da.png
new file mode 100644
index 00000000..ac22aefe
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.da.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.el.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.el.png
new file mode 100644
index 00000000..09092da1
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.el.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.fi.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.fi.png
new file mode 100644
index 00000000..ccde6efe
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.fi.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.no.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.no.png
new file mode 100644
index 00000000..e4f4960e
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.no.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.sv.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.sv.png
new file mode 100644
index 00000000..475351b9
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.sv.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.th.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.th.png
new file mode 100644
index 00000000..625e4102
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.th.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.da.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.da.png
new file mode 100644
index 00000000..ce6a30d3
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.da.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.el.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.el.png
new file mode 100644
index 00000000..ff1e6cfa
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.el.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.fi.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.fi.png
new file mode 100644
index 00000000..0add9749
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.fi.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.no.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.no.png
new file mode 100644
index 00000000..b769f198
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.no.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.sv.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.sv.png
new file mode 100644
index 00000000..1f7f7937
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.sv.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.th.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.th.png
new file mode 100644
index 00000000..cbcedb94
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.th.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.da.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.da.png
new file mode 100644
index 00000000..092233ac
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.da.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.el.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.el.png
new file mode 100644
index 00000000..07be40ff
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.el.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.fi.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.fi.png
new file mode 100644
index 00000000..314896e9
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.fi.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.no.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.no.png
new file mode 100644
index 00000000..43be1aa3
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.no.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.sv.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.sv.png
new file mode 100644
index 00000000..7fdf08d4
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.sv.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.th.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.th.png
new file mode 100644
index 00000000..728bb73c
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.th.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.da.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.da.png
new file mode 100644
index 00000000..b4222f3e
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.da.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.el.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.el.png
new file mode 100644
index 00000000..c503f335
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.el.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.fi.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.fi.png
new file mode 100644
index 00000000..3b143463
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.fi.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.no.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.no.png
new file mode 100644
index 00000000..640d3ca5
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.no.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.sv.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.sv.png
new file mode 100644
index 00000000..277a0bc0
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.sv.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.th.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.th.png
new file mode 100644
index 00000000..e98c3a27
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.th.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.da.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.da.png
new file mode 100644
index 00000000..93c35e98
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.da.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.el.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.el.png
new file mode 100644
index 00000000..85a7ff73
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.el.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.fi.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.fi.png
new file mode 100644
index 00000000..e1417cfa
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.fi.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.no.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.no.png
new file mode 100644
index 00000000..7bfaf407
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.no.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.sv.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.sv.png
new file mode 100644
index 00000000..520e71d6
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.sv.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.th.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.th.png
new file mode 100644
index 00000000..95557933
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.th.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.da.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.da.png
new file mode 100644
index 00000000..8b38afe1
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.da.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.el.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.el.png
new file mode 100644
index 00000000..8c65872a
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.el.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.fi.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.fi.png
new file mode 100644
index 00000000..bdbf1dcc
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.fi.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.no.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.no.png
new file mode 100644
index 00000000..be992f1e
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.no.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.sv.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.sv.png
new file mode 100644
index 00000000..0c8c4a14
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.sv.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.th.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.th.png
new file mode 100644
index 00000000..2a0d3edc
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.th.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.da.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.da.png
new file mode 100644
index 00000000..8b38afe1
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.da.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.el.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.el.png
new file mode 100644
index 00000000..8c65872a
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.el.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.fi.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.fi.png
new file mode 100644
index 00000000..bdbf1dcc
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.fi.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.no.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.no.png
new file mode 100644
index 00000000..be992f1e
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.no.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.sv.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.sv.png
new file mode 100644
index 00000000..a3bd118a
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.sv.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.th.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.th.png
new file mode 100644
index 00000000..1a60bd7a
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.th.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.da.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.da.png
new file mode 100644
index 00000000..7e0f890e
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.da.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.el.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.el.png
new file mode 100644
index 00000000..0d41a009
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.el.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.fi.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.fi.png
new file mode 100644
index 00000000..129ec19e
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.fi.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.no.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.no.png
new file mode 100644
index 00000000..3a53f14e
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.no.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.sv.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.sv.png
new file mode 100644
index 00000000..2938a032
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.sv.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.th.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.th.png
new file mode 100644
index 00000000..910fb49f
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.th.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.da.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.da.png
new file mode 100644
index 00000000..fb577975
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.da.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.el.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.el.png
new file mode 100644
index 00000000..3bda7e6e
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.el.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.fi.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.fi.png
new file mode 100644
index 00000000..0ccc4044
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.fi.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.no.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.no.png
new file mode 100644
index 00000000..2f4fa141
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.no.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.sv.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.sv.png
new file mode 100644
index 00000000..2f4fa141
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.sv.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.th.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.th.png
new file mode 100644
index 00000000..b74b23d3
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.th.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.da.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.da.png
new file mode 100644
index 00000000..78ea88a7
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.da.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.el.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.el.png
new file mode 100644
index 00000000..0a70f10b
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.el.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.fi.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.fi.png
new file mode 100644
index 00000000..f81e227f
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.fi.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.no.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.no.png
new file mode 100644
index 00000000..78ea88a7
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.no.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.sv.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.sv.png
new file mode 100644
index 00000000..78ea88a7
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.sv.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.th.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.th.png
new file mode 100644
index 00000000..9fcd2b02
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.th.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.da.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.da.png
new file mode 100644
index 00000000..02a2ba7b
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.da.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.el.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.el.png
new file mode 100644
index 00000000..d5cafb43
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.el.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.fi.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.fi.png
new file mode 100644
index 00000000..0238e929
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.fi.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.no.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.no.png
new file mode 100644
index 00000000..02a2ba7b
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.no.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.sv.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.sv.png
new file mode 100644
index 00000000..02a2ba7b
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.sv.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.th.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.th.png
new file mode 100644
index 00000000..8be8b5ef
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.th.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.da.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.da.png
new file mode 100644
index 00000000..01f9c673
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.da.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.el.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.el.png
new file mode 100644
index 00000000..8bb11ea5
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.el.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.fi.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.fi.png
new file mode 100644
index 00000000..7bec9bd3
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.fi.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.no.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.no.png
new file mode 100644
index 00000000..a1dab8c4
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.no.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.sv.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.sv.png
new file mode 100644
index 00000000..8cce5384
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.sv.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.th.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.th.png
new file mode 100644
index 00000000..0bea9dfc
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.th.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.da.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.da.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.da.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.el.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.el.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.el.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.fi.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.fi.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.fi.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.no.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.no.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.no.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.sv.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.sv.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.sv.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.th.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.th.png
new file mode 100644
index 00000000..2bf8fa88
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.th.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.da.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.da.png
new file mode 100644
index 00000000..81a04319
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.da.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.el.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.el.png
new file mode 100644
index 00000000..a4fdddce
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.el.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.fi.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.fi.png
new file mode 100644
index 00000000..644e6ae0
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.fi.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.no.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.no.png
new file mode 100644
index 00000000..016b41f9
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.no.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.sv.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.sv.png
new file mode 100644
index 00000000..2b8f1e5a
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.sv.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.th.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.th.png
new file mode 100644
index 00000000..f18af19b
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.th.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.da.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.da.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.da.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.el.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.el.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.el.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.fi.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.fi.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.fi.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.no.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.no.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.no.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.sv.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.sv.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.sv.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.th.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.th.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.th.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.da.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.da.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.da.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.el.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.el.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.el.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.fi.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.fi.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.fi.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.no.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.no.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.no.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.sv.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.sv.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.sv.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.th.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.th.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.th.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.da.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.da.png
new file mode 100644
index 00000000..f3d326a8
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.da.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.el.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.el.png
new file mode 100644
index 00000000..9cce8e09
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.el.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.fi.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.fi.png
new file mode 100644
index 00000000..6a91788a
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.fi.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.no.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.no.png
new file mode 100644
index 00000000..ce3b7843
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.no.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.sv.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.sv.png
new file mode 100644
index 00000000..3298d648
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.sv.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.th.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.th.png
new file mode 100644
index 00000000..49a03317
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.th.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.da.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.da.png
new file mode 100644
index 00000000..c3c40caa
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.da.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.el.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.el.png
new file mode 100644
index 00000000..70fe58de
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.el.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.fi.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.fi.png
new file mode 100644
index 00000000..3359983d
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.fi.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.no.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.no.png
new file mode 100644
index 00000000..7e9bd7b3
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.no.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.sv.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.sv.png
new file mode 100644
index 00000000..03988664
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.sv.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.th.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.th.png
new file mode 100644
index 00000000..c69836a6
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.th.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.da.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.da.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.da.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.el.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.el.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.el.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.fi.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.fi.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.fi.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.no.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.no.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.no.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.sv.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.sv.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.sv.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.th.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.th.png
new file mode 100644
index 00000000..a1258e18
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.th.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.da.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.da.png
new file mode 100644
index 00000000..f70efb1e
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.da.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.el.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.el.png
new file mode 100644
index 00000000..05ae4906
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.el.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.fi.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.fi.png
new file mode 100644
index 00000000..45983326
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.fi.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.no.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.no.png
new file mode 100644
index 00000000..16a1fa9a
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.no.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.sv.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.sv.png
new file mode 100644
index 00000000..8c288e7b
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.sv.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.th.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.th.png
new file mode 100644
index 00000000..50a96fda
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.th.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.da.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.da.png
new file mode 100644
index 00000000..04d5a89f
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.da.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.el.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.el.png
new file mode 100644
index 00000000..8e58cd53
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.el.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.fi.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.fi.png
new file mode 100644
index 00000000..1632e7a0
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.fi.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.no.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.no.png
new file mode 100644
index 00000000..ef04def7
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.no.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.sv.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.sv.png
new file mode 100644
index 00000000..aeced48c
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.sv.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.th.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.th.png
new file mode 100644
index 00000000..3d69be2e
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.th.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.da.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.da.png
new file mode 100644
index 00000000..d656c30c
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.da.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.el.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.el.png
new file mode 100644
index 00000000..12e68a50
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.el.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.fi.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.fi.png
new file mode 100644
index 00000000..00145d0b
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.fi.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.no.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.no.png
new file mode 100644
index 00000000..d656c30c
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.no.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.sv.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.sv.png
new file mode 100644
index 00000000..1137d6b8
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.sv.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.th.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.th.png
new file mode 100644
index 00000000..c28c2d86
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.th.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.da.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.da.png
new file mode 100644
index 00000000..ba37e422
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.da.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.el.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.el.png
new file mode 100644
index 00000000..8ea07847
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.el.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.fi.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.fi.png
new file mode 100644
index 00000000..f92dab15
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.fi.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.no.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.no.png
new file mode 100644
index 00000000..ba37e422
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.no.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.sv.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.sv.png
new file mode 100644
index 00000000..bd9ccb5a
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.sv.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.th.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.th.png
new file mode 100644
index 00000000..f2858d1e
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.th.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.da.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.da.png
new file mode 100644
index 00000000..3a937fce
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.da.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.el.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.el.png
new file mode 100644
index 00000000..f9bc40c9
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.el.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.fi.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.fi.png
new file mode 100644
index 00000000..b4c904c4
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.fi.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.no.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.no.png
new file mode 100644
index 00000000..3a937fce
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.no.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.sv.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.sv.png
new file mode 100644
index 00000000..1d3fc192
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.sv.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.th.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.th.png
new file mode 100644
index 00000000..0d960a58
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.th.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.da.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.da.png
new file mode 100644
index 00000000..c505125d
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.da.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.el.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.el.png
new file mode 100644
index 00000000..e6ee7696
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.el.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.fi.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.fi.png
new file mode 100644
index 00000000..974b6c5b
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.fi.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.no.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.no.png
new file mode 100644
index 00000000..c505125d
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.no.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.sv.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.sv.png
new file mode 100644
index 00000000..685da913
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.sv.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.th.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.th.png
new file mode 100644
index 00000000..0b30de29
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.th.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.da.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.da.png
new file mode 100644
index 00000000..ca068985
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.da.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.el.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.el.png
new file mode 100644
index 00000000..c23426c8
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.el.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.fi.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.fi.png
new file mode 100644
index 00000000..77b4f800
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.fi.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.no.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.no.png
new file mode 100644
index 00000000..f6d435d3
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.no.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.sv.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.sv.png
new file mode 100644
index 00000000..c302a833
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.sv.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.th.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.th.png
new file mode 100644
index 00000000..3a869873
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.th.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.da.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.da.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.da.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.el.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.el.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.el.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.fi.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.fi.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.fi.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.no.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.no.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.no.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.sv.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.sv.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.sv.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.th.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.th.png
new file mode 100644
index 00000000..1b863797
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.th.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.da.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.da.png
new file mode 100644
index 00000000..f168f4db
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.da.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.el.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.el.png
new file mode 100644
index 00000000..279063d4
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.el.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.fi.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.fi.png
new file mode 100644
index 00000000..a1c35b11
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.fi.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.no.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.no.png
new file mode 100644
index 00000000..d105d082
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.no.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.sv.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.sv.png
new file mode 100644
index 00000000..6c2cd188
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.sv.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.th.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.th.png
new file mode 100644
index 00000000..24debe26
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.th.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.da.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.da.png
new file mode 100644
index 00000000..e170734a
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.da.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.el.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.el.png
new file mode 100644
index 00000000..7b78ef02
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.el.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.fi.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.fi.png
new file mode 100644
index 00000000..a1c35b11
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.fi.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.no.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.no.png
new file mode 100644
index 00000000..d105d082
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.no.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.sv.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.sv.png
new file mode 100644
index 00000000..b24c312e
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.sv.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.th.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.th.png
new file mode 100644
index 00000000..24debe26
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.th.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.da.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.da.png
new file mode 100644
index 00000000..ca493e35
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.da.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.el.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.el.png
new file mode 100644
index 00000000..6aefd7d5
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.el.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.fi.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.fi.png
new file mode 100644
index 00000000..7ca7af5d
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.fi.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.no.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.no.png
new file mode 100644
index 00000000..463b0453
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.no.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.sv.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.sv.png
new file mode 100644
index 00000000..542f25f1
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.sv.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.th.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.th.png
new file mode 100644
index 00000000..7e899dd8
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.th.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.da.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.da.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.da.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.el.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.el.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.el.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.fi.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.fi.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.fi.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.no.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.no.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.no.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.sv.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.sv.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.sv.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.th.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.th.png
new file mode 100644
index 00000000..5a0486e5
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.th.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.da.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.da.png
new file mode 100644
index 00000000..029cdace
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.da.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.el.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.el.png
new file mode 100644
index 00000000..ff1c6219
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.el.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.fi.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.fi.png
new file mode 100644
index 00000000..161de00d
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.fi.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.no.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.no.png
new file mode 100644
index 00000000..2b886e6a
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.no.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.sv.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.sv.png
new file mode 100644
index 00000000..da6a578b
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.sv.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.th.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.th.png
new file mode 100644
index 00000000..2b886e6a
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.th.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.da.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.da.png
new file mode 100644
index 00000000..5fd4090f
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.da.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.el.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.el.png
new file mode 100644
index 00000000..72b0dadf
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.el.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.fi.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.fi.png
new file mode 100644
index 00000000..90ab7972
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.fi.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.no.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.no.png
new file mode 100644
index 00000000..419ca50d
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.no.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.sv.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.sv.png
new file mode 100644
index 00000000..419ca50d
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.sv.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.th.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.th.png
new file mode 100644
index 00000000..4244d071
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.th.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.da.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.da.png
new file mode 100644
index 00000000..f49d1b07
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.da.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.el.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.el.png
new file mode 100644
index 00000000..8d70e136
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.el.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.fi.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.fi.png
new file mode 100644
index 00000000..e78e9fe0
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.fi.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.no.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.no.png
new file mode 100644
index 00000000..a8bc3b10
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.no.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.sv.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.sv.png
new file mode 100644
index 00000000..8ab6f7ce
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.sv.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.th.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.th.png
new file mode 100644
index 00000000..a8bc3b10
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.th.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.da.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.da.png
new file mode 100644
index 00000000..d511bad8
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.da.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.el.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.el.png
new file mode 100644
index 00000000..fa2434f9
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.el.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.fi.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.fi.png
new file mode 100644
index 00000000..36bfd640
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.fi.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.no.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.no.png
new file mode 100644
index 00000000..dbc8eb5a
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.no.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.sv.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.sv.png
new file mode 100644
index 00000000..5171b421
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.sv.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.th.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.th.png
new file mode 100644
index 00000000..dbc8eb5a
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.th.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.da.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.da.png
new file mode 100644
index 00000000..eb86e1f3
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.da.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.el.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.el.png
new file mode 100644
index 00000000..eb86e1f3
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.el.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.fi.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.fi.png
new file mode 100644
index 00000000..f90a46ab
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.fi.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.no.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.no.png
new file mode 100644
index 00000000..eb86e1f3
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.no.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.sv.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.sv.png
new file mode 100644
index 00000000..6fc0381b
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.sv.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.th.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.th.png
new file mode 100644
index 00000000..eb86e1f3
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.th.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.da.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.da.png
new file mode 100644
index 00000000..4da59dc2
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.da.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.el.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.el.png
new file mode 100644
index 00000000..361b06b8
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.el.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.fi.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.fi.png
new file mode 100644
index 00000000..7ec6b8bf
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.fi.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.no.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.no.png
new file mode 100644
index 00000000..4da59dc2
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.no.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.sv.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.sv.png
new file mode 100644
index 00000000..830d7df1
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.sv.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.th.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.th.png
new file mode 100644
index 00000000..c308db1c
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.th.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.da.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.da.png
new file mode 100644
index 00000000..2ba13687
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.da.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.el.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.el.png
new file mode 100644
index 00000000..3a5dbc7a
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.el.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.fi.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.fi.png
new file mode 100644
index 00000000..b9185e86
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.fi.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.no.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.no.png
new file mode 100644
index 00000000..2d5d8582
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.no.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.sv.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.sv.png
new file mode 100644
index 00000000..65a618b9
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.sv.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.th.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.th.png
new file mode 100644
index 00000000..c143923d
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.th.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.da.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.da.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.da.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.el.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.el.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.el.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.fi.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.fi.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.fi.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.no.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.no.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.no.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.sv.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.sv.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.sv.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.th.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.th.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.th.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.da.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.da.png
new file mode 100644
index 00000000..bcfc904b
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.da.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.el.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.el.png
new file mode 100644
index 00000000..7d7177f7
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.el.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.fi.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.fi.png
new file mode 100644
index 00000000..9432125d
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.fi.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.no.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.no.png
new file mode 100644
index 00000000..f1a6bb14
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.no.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.sv.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.sv.png
new file mode 100644
index 00000000..35bc4c77
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.sv.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.th.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.th.png
new file mode 100644
index 00000000..2f677a5b
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.th.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.da.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.da.png
new file mode 100644
index 00000000..7ceb0a13
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.da.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.el.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.el.png
new file mode 100644
index 00000000..b813331f
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.el.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.fi.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.fi.png
new file mode 100644
index 00000000..685fbc39
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.fi.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.no.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.no.png
new file mode 100644
index 00000000..f3083ba7
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.no.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.sv.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.sv.png
new file mode 100644
index 00000000..bd1a3f35
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.sv.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.th.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.th.png
new file mode 100644
index 00000000..4f58e562
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.th.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.da.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.da.png
new file mode 100644
index 00000000..7083c8be
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.da.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.el.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.el.png
new file mode 100644
index 00000000..097f5a0f
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.el.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.fi.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.fi.png
new file mode 100644
index 00000000..a779c6f9
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.fi.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.no.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.no.png
new file mode 100644
index 00000000..19e1665f
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.no.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.sv.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.sv.png
new file mode 100644
index 00000000..5d3d5406
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.sv.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.th.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.th.png
new file mode 100644
index 00000000..7f2ccc7c
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.th.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.da.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.da.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.da.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.el.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.el.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.el.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.fi.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.fi.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.fi.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.no.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.no.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.no.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.sv.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.sv.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.sv.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.th.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.th.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.th.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.da.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.da.png
new file mode 100644
index 00000000..a08eb087
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.da.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.el.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.el.png
new file mode 100644
index 00000000..59403faa
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.el.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.fi.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.fi.png
new file mode 100644
index 00000000..9f0acc4c
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.fi.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.no.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.no.png
new file mode 100644
index 00000000..262d8274
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.no.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.sv.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.sv.png
new file mode 100644
index 00000000..85aefe50
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.sv.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.th.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.th.png
new file mode 100644
index 00000000..f3a93ec2
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.th.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.da.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.da.png
new file mode 100644
index 00000000..64b0d8c0
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.da.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.el.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.el.png
new file mode 100644
index 00000000..3aee6ae3
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.el.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.fi.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.fi.png
new file mode 100644
index 00000000..ad098b5e
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.fi.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.no.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.no.png
new file mode 100644
index 00000000..cba29889
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.no.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.sv.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.sv.png
new file mode 100644
index 00000000..64b0d8c0
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.sv.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.th.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.th.png
new file mode 100644
index 00000000..36a2a6d0
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.th.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.da.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.da.png
new file mode 100644
index 00000000..01d3f3bb
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.da.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.el.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.el.png
new file mode 100644
index 00000000..547f4d37
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.el.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.fi.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.fi.png
new file mode 100644
index 00000000..5221bfab
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.fi.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.no.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.no.png
new file mode 100644
index 00000000..abb193c4
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.no.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.sv.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.sv.png
new file mode 100644
index 00000000..01d3f3bb
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.sv.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.th.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.th.png
new file mode 100644
index 00000000..10101d55
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.th.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.da.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.da.png
new file mode 100644
index 00000000..175d8348
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.da.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.el.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.el.png
new file mode 100644
index 00000000..f7c91af3
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.el.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.fi.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.fi.png
new file mode 100644
index 00000000..35068516
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.fi.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.no.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.no.png
new file mode 100644
index 00000000..82dfc9b5
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.no.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.sv.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.sv.png
new file mode 100644
index 00000000..175d8348
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.sv.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.th.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.th.png
new file mode 100644
index 00000000..abc24e36
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.th.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.da.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.da.png
new file mode 100644
index 00000000..d3a2183b
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.da.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.el.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.el.png
new file mode 100644
index 00000000..a408bccf
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.el.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.fi.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.fi.png
new file mode 100644
index 00000000..7104eb4f
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.fi.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.no.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.no.png
new file mode 100644
index 00000000..f937ea5d
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.no.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.sv.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.sv.png
new file mode 100644
index 00000000..6e04007f
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.sv.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.th.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.th.png
new file mode 100644
index 00000000..292bdb5d
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.th.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.da.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.da.png
new file mode 100644
index 00000000..d3a2183b
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.da.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.el.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.el.png
new file mode 100644
index 00000000..03e797b8
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.el.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.fi.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.fi.png
new file mode 100644
index 00000000..7104eb4f
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.fi.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.no.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.no.png
new file mode 100644
index 00000000..f937ea5d
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.no.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.sv.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.sv.png
new file mode 100644
index 00000000..645757ee
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.sv.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.th.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.th.png
new file mode 100644
index 00000000..8ac0d52e
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.th.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.da.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.da.png
new file mode 100644
index 00000000..54b5a90c
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.da.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.el.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.el.png
new file mode 100644
index 00000000..eb7086ed
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.el.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.fi.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.fi.png
new file mode 100644
index 00000000..e800aa31
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.fi.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.no.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.no.png
new file mode 100644
index 00000000..2a01305c
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.no.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.sv.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.sv.png
new file mode 100644
index 00000000..fe27e96a
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.sv.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.th.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.th.png
new file mode 100644
index 00000000..74da9185
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.th.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.da.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.da.png
new file mode 100644
index 00000000..72a4b724
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.da.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.el.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.el.png
new file mode 100644
index 00000000..34cf28f1
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.el.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.fi.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.fi.png
new file mode 100644
index 00000000..fc8eae6f
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.fi.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.no.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.no.png
new file mode 100644
index 00000000..05120866
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.no.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.sv.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.sv.png
new file mode 100644
index 00000000..3e367ccb
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.sv.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.th.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.th.png
new file mode 100644
index 00000000..09da6b07
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.th.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.da.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.da.png
new file mode 100644
index 00000000..1a789908
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.da.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.el.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.el.png
new file mode 100644
index 00000000..93c1d05c
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.el.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.fi.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.fi.png
new file mode 100644
index 00000000..bfd82476
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.fi.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.no.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.no.png
new file mode 100644
index 00000000..fa88fcf4
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.no.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.sv.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.sv.png
new file mode 100644
index 00000000..fa0ce63a
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.sv.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.th.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.th.png
new file mode 100644
index 00000000..d06b1d3c
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.th.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.da.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.da.png
new file mode 100644
index 00000000..3c4ed79d
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.da.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.el.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.el.png
new file mode 100644
index 00000000..f659e174
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.el.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.fi.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.fi.png
new file mode 100644
index 00000000..7e9f23c5
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.fi.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.no.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.no.png
new file mode 100644
index 00000000..72c16e51
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.no.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.sv.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.sv.png
new file mode 100644
index 00000000..4b7ab3d7
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.sv.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.th.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.th.png
new file mode 100644
index 00000000..53a686ed
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.th.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.da.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.da.png
new file mode 100644
index 00000000..af8668eb
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.da.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.el.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.el.png
new file mode 100644
index 00000000..3cdbd07d
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.el.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.fi.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.fi.png
new file mode 100644
index 00000000..aadd0b00
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.fi.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.no.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.no.png
new file mode 100644
index 00000000..a357b6ef
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.no.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.sv.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.sv.png
new file mode 100644
index 00000000..58b329de
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.sv.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.th.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.th.png
new file mode 100644
index 00000000..1a8c1c0d
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.th.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.da.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.da.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.da.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.el.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.el.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.el.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.fi.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.fi.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.fi.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.no.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.no.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.no.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.sv.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.sv.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.sv.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.th.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.th.png
new file mode 100644
index 00000000..a9479d89
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.th.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.da.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.da.png
new file mode 100644
index 00000000..73cf6220
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.da.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.el.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.el.png
new file mode 100644
index 00000000..292c4b81
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.el.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.fi.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.fi.png
new file mode 100644
index 00000000..07ca2c58
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.fi.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.no.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.no.png
new file mode 100644
index 00000000..03ee5f2b
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.no.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.sv.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.sv.png
new file mode 100644
index 00000000..61073e85
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.sv.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.th.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.th.png
new file mode 100644
index 00000000..6b432ed0
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.th.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.da.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.da.png
new file mode 100644
index 00000000..ef23ce89
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.da.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.el.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.el.png
new file mode 100644
index 00000000..04fbd6f1
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.el.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.fi.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.fi.png
new file mode 100644
index 00000000..ca89e37e
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.fi.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.no.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.no.png
new file mode 100644
index 00000000..e6343693
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.no.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.sv.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.sv.png
new file mode 100644
index 00000000..46d8daf9
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.sv.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.th.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.th.png
new file mode 100644
index 00000000..13c5ae97
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.th.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.da.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.da.png
new file mode 100644
index 00000000..54dbd852
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.da.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.el.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.el.png
new file mode 100644
index 00000000..e1c05723
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.el.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.fi.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.fi.png
new file mode 100644
index 00000000..b6829324
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.fi.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.no.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.no.png
new file mode 100644
index 00000000..aae3f173
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.no.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.sv.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.sv.png
new file mode 100644
index 00000000..b8e71272
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.sv.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.th.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.th.png
new file mode 100644
index 00000000..be0c8515
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.th.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.da.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.da.png
new file mode 100644
index 00000000..f5d972d0
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.da.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.el.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.el.png
new file mode 100644
index 00000000..5e305325
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.el.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.fi.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.fi.png
new file mode 100644
index 00000000..7e41dba4
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.fi.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.no.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.no.png
new file mode 100644
index 00000000..67f20f17
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.no.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.sv.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.sv.png
new file mode 100644
index 00000000..f1ddfb44
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.sv.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.th.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.th.png
new file mode 100644
index 00000000..653be5c7
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.th.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.da.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.da.png
new file mode 100644
index 00000000..5a8d2ef3
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.da.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.el.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.el.png
new file mode 100644
index 00000000..611b702c
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.el.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.fi.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.fi.png
new file mode 100644
index 00000000..251ec0b1
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.fi.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.no.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.no.png
new file mode 100644
index 00000000..3cdb3d84
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.no.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.sv.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.sv.png
new file mode 100644
index 00000000..800a9078
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.sv.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.th.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.th.png
new file mode 100644
index 00000000..b966fd11
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.th.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.da.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.da.png
new file mode 100644
index 00000000..973d07e0
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.da.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.el.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.el.png
new file mode 100644
index 00000000..63a35fd2
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.el.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.fi.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.fi.png
new file mode 100644
index 00000000..14e693bb
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.fi.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.no.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.no.png
new file mode 100644
index 00000000..978c8796
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.no.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.sv.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.sv.png
new file mode 100644
index 00000000..db153ee5
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.sv.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.th.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.th.png
new file mode 100644
index 00000000..b95dc6bc
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.th.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.da.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.da.png
new file mode 100644
index 00000000..eae9d1d2
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.da.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.el.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.el.png
new file mode 100644
index 00000000..c23482a9
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.el.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.fi.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.fi.png
new file mode 100644
index 00000000..25e2e987
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.fi.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.no.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.no.png
new file mode 100644
index 00000000..f62f9e8d
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.no.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.sv.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.sv.png
new file mode 100644
index 00000000..81300ec6
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.sv.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.th.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.th.png
new file mode 100644
index 00000000..c554afe6
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.th.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.da.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.da.png
new file mode 100644
index 00000000..505f8300
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.da.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.el.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.el.png
new file mode 100644
index 00000000..f406adfe
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.el.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.fi.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.fi.png
new file mode 100644
index 00000000..cd4ee09d
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.fi.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.no.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.no.png
new file mode 100644
index 00000000..539afeff
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.no.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.sv.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.sv.png
new file mode 100644
index 00000000..a9cb03cd
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.sv.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.th.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.th.png
new file mode 100644
index 00000000..5d0e9540
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.th.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.da.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.da.png
new file mode 100644
index 00000000..de698768
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.da.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.el.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.el.png
new file mode 100644
index 00000000..f7a1b11c
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.el.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.fi.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.fi.png
new file mode 100644
index 00000000..616a0792
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.fi.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.no.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.no.png
new file mode 100644
index 00000000..ce90e61c
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.no.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.sv.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.sv.png
new file mode 100644
index 00000000..2515d4a9
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.sv.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.th.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.th.png
new file mode 100644
index 00000000..a41a4f0d
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.th.png differ
diff --git a/translations/da/1-Introduction/01-defining-data-science/README.md b/translations/da/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..db346adb
--- /dev/null
+++ b/translations/da/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,80 @@
+
+## Typer af Data
+
+Som vi allerede har nævnt, er data overalt. Vi skal bare indfange det på den rigtige måde! Det er nyttigt at skelne mellem **struktureret** og **ustruktureret** data. Førstnævnte er typisk repræsenteret i en velstruktureret form, ofte som en tabel eller flere tabeller, mens sidstnævnte blot er en samling af filer. Nogle gange kan vi også tale om **semistruktureret** data, som har en form for struktur, der kan variere meget.
+
+| Struktureret | Semistruktureret | Ustruktureret |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | --------------------------------------- |
+| Liste over personer med deres telefonnumre | Wikipedia-sider med links | Teksten fra Encyclopedia Britannica |
+| Temperatur i alle rum i en bygning hvert minut de sidste 20 år | Samling af videnskabelige artikler i JSON-format med forfattere, udgivelsesdato og abstrakt | Fildeling med virksomheds-dokumenter |
+| Data om alder og køn på alle personer, der går ind i bygningen | Internetsider | Rå videofeed fra overvågningskamera |
+
+## Hvor kan man få Data
+
+Der er mange mulige kilder til data, og det vil være umuligt at nævne dem alle! Men lad os nævne nogle af de typiske steder, hvor du kan få data:
+
+* **Struktureret**
+ - **Internet of Things** (IoT), herunder data fra forskellige sensorer som temperatur- eller tryksensorer, leverer en masse nyttige data. For eksempel, hvis en kontorbygning er udstyret med IoT-sensorer, kan vi automatisk styre opvarmning og belysning for at minimere omkostningerne.
+ - **Spørgeskemaer**, som vi beder brugere udfylde efter et køb eller efter at have besøgt en hjemmeside.
+ - **Adfærdsanalyse** kan for eksempel hjælpe os med at forstå, hvor dybt en bruger går ind på en hjemmeside, og hvad der typisk får dem til at forlade siden.
+* **Ustruktureret**
+ - **Tekster** kan være en rig kilde til indsigt, såsom en overordnet **stemningsscore** eller udtrækning af nøgleord og semantisk betydning.
+ - **Billeder** eller **Videoer**. En video fra et overvågningskamera kan bruges til at estimere trafik på vejen og informere folk om potentielle trafikpropper.
+ - Webserver-**logfiler** kan bruges til at forstå, hvilke sider på vores hjemmeside der oftest besøges, og hvor længe.
+* **Semistruktureret**
+ - **Sociale netværks**grafer kan være fremragende kilder til data om brugeres personligheder og deres potentielle effektivitet i at sprede information.
+ - Når vi har en samling fotografier fra en fest, kan vi forsøge at udtrække data om **gruppedynamik** ved at bygge en graf over personer, der tager billeder sammen.
+
+Ved at kende til forskellige mulige datakilder kan du overveje forskellige scenarier, hvor data science-teknikker kan anvendes til at forstå situationen bedre og forbedre forretningsprocesser.
+
+## Hvad kan du gøre med Data
+
+Inden for Data Science fokuserer vi på følgende trin i datarejsen:
+
+Selvfølgelig, afhængigt af de faktiske data, kan nogle trin mangle (f.eks. når vi allerede har data i databasen, eller når vi ikke har brug for modeltræning), eller nogle trin kan gentages flere gange (såsom databehandling).
+
+## Digitalisering og Digital Transformation
+
+I det sidste årti er mange virksomheder begyndt at forstå vigtigheden af data, når de træffer forretningsbeslutninger. For at anvende data science-principper på en virksomhed skal man først indsamle nogle data, dvs. oversætte forretningsprocesser til digital form. Dette kaldes **digitalisering**. Anvendelse af data science-teknikker på disse data til at vejlede beslutninger kan føre til betydelige produktivitetsforøgelser (eller endda en forretningsdrejning), hvilket kaldes **digital transformation**.
+
+Lad os tage et eksempel. Antag, at vi har et data science-kursus (som dette), som vi leverer online til studerende, og vi ønsker at bruge data science til at forbedre det. Hvordan kan vi gøre det?
+
+Vi kan starte med at spørge: "Hvad kan digitaliseres?" Den enkleste måde ville være at måle, hvor lang tid det tager hver studerende at gennemføre hvert modul, og måle den opnåede viden ved at give en multiple-choice-test i slutningen af hvert modul. Ved at gennemsnitliggøre gennemførelsestiden på tværs af alle studerende kan vi finde ud af, hvilke moduler der giver de studerende flest udfordringer, og arbejde på at forenkle dem.
+> Du kan måske argumentere for, at denne tilgang ikke er ideel, fordi moduler kan have forskellige længder. Det er sandsynligvis mere retfærdigt at opdele tiden med modulets længde (i antal tegn) og sammenligne disse værdier i stedet.
+Når vi begynder at analysere resultaterne af multiple-choice tests, kan vi forsøge at identificere, hvilke begreber eleverne har svært ved at forstå, og bruge den information til at forbedre indholdet. For at gøre dette skal vi designe tests på en måde, hvor hvert spørgsmål knyttes til et bestemt begreb eller en vidensdel.
+
+Hvis vi vil gøre det endnu mere komplekst, kan vi plotte den tid, der bruges på hvert modul, mod elevernes alderskategori. Vi kan finde ud af, at det for nogle alderskategorier tager uforholdsmæssigt lang tid at gennemføre modulet, eller at eleverne dropper ud, før de fuldfører det. Dette kan hjælpe os med at give aldersanbefalinger for modulet og minimere folks utilfredshed på grund af forkerte forventninger.
+
+## 🚀 Udfordring
+
+I denne udfordring vil vi forsøge at finde begreber, der er relevante for området Data Science, ved at kigge på tekster. Vi vil tage en Wikipedia-artikel om Data Science, downloade og behandle teksten og derefter bygge en ordsky som denne:
+
+
+
+Besøg [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') for at gennemgå koden. Du kan også køre koden og se, hvordan den udfører alle datatransformationer i realtid.
+
+> Hvis du ikke ved, hvordan man kører kode i en Jupyter Notebook, kan du læse [denne artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Quiz efter forelæsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Opgaver
+
+* **Opgave 1**: Modificer koden ovenfor for at finde relaterede begreber for områderne **Big Data** og **Machine Learning**
+* **Opgave 2**: [Tænk over Data Science-scenarier](assignment.md)
+
+## Kreditering
+
+Denne lektion er skrevet med ♥️ af [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/01-defining-data-science/assignment.md b/translations/da/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..72201115
--- /dev/null
+++ b/translations/da/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Opgave: Data Science Scenarier
+
+I denne første opgave beder vi dig om at tænke over nogle virkelige processer eller problemer inden for forskellige problemområder, og hvordan du kan forbedre dem ved hjælp af Data Science-processen. Tænk over følgende:
+
+1. Hvilke data kan du indsamle?
+1. Hvordan ville du indsamle dem?
+1. Hvordan ville du opbevare dataene? Hvor store dataene sandsynligvis vil være?
+1. Hvilke indsigter kunne du få fra disse data? Hvilke beslutninger ville vi kunne træffe baseret på dataene?
+
+Prøv at tænke på 3 forskellige problemer/processer og beskriv hver af punkterne ovenfor for hvert problemområde.
+
+Her er nogle problemområder og problemer, der kan hjælpe dig med at komme i gang med at tænke:
+
+1. Hvordan kan du bruge data til at forbedre uddannelsesprocessen for børn i skoler?
+1. Hvordan kan du bruge data til at kontrollere vaccination under pandemien?
+1. Hvordan kan du bruge data til at sikre, at du er produktiv på arbejdet?
+
+## Instruktioner
+
+Udfyld følgende tabel (erstat de foreslåede problemområder med dine egne, hvis nødvendigt):
+
+| Problemområde | Problem | Hvilke data skal indsamles | Hvordan opbevare dataene | Hvilke indsigter/beslutninger kan vi træffe |
+|---------------|---------|---------------------------|--------------------------|--------------------------------------------|
+| Uddannelse | | | | |
+| Vaccination | | | | |
+| Produktivitet | | | | |
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+Man kunne identificere rimelige datakilder, måder at opbevare data på og mulige beslutninger/indsigter for alle problemområder | Nogle aspekter af løsningen er ikke detaljerede, dataopbevaring er ikke diskuteret, mindst 2 problemområder er beskrevet | Kun dele af dataløsningen er beskrevet, kun ét problemområde er overvejet.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/da/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..8dfa3ffd
--- /dev/null
+++ b/translations/da/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Opgave: Data Science Scenarier
+
+I denne første opgave beder vi dig om at tænke på nogle virkelige processer eller problemer inden for forskellige problemområder, og hvordan du kan forbedre dem ved hjælp af Data Science-processen. Tænk over følgende:
+
+1. Hvilke data kan du indsamle?
+1. Hvordan ville du indsamle dem?
+1. Hvordan ville du opbevare dataene? Hvor store er dataene sandsynligvis?
+1. Hvilke indsigter kan du få fra disse data? Hvilke beslutninger ville vi kunne tage baseret på dataene?
+
+Prøv at tænke på 3 forskellige problemer/processer og beskriv hvert af punkterne ovenfor for hvert problemområde.
+
+Her er nogle problemområder og problemer, der kan hjælpe dig med at komme i gang med at tænke:
+
+1. Hvordan kan du bruge data til at forbedre uddannelsesprocessen for børn i skoler?
+1. Hvordan kan du bruge data til at kontrollere vaccination under pandemien?
+1. Hvordan kan du bruge data til at sikre, at du er produktiv på arbejdet?
+
+## Instruktioner
+
+Udfyld følgende tabel (erstat de foreslåede problemområder med dine egne, hvis nødvendigt):
+
+| Problemområde | Problem | Hvilke data skal indsamles | Hvordan opbevare dataene | Hvilke indsigter/beslutninger kan vi tage |
+|---------------|---------|---------------------------|--------------------------|------------------------------------------|
+| Uddannelse | På universitetet har vi typisk lav fremmøde til forelæsninger, og vi har hypotesen, at studerende, der deltager i forelæsninger, i gennemsnit klarer sig bedre til eksamener. Vi vil stimulere fremmøde og teste hypotesen. | Vi kan spore fremmøde gennem billeder taget af sikkerhedskameraet i klassen eller ved at spore bluetooth/wifi-adresser på studerendes mobiltelefoner i klassen. Eksamensdata er allerede tilgængelige i universitetets database. | Hvis vi sporer sikkerhedskamera-billeder, skal vi opbevare nogle få (5-10) fotografier under klassen (ustrukturerede data) og derefter bruge AI til at identificere ansigter på studerende (konvertere data til struktureret form). | Vi kan beregne gennemsnitligt fremmødedata for hver studerende og se, om der er nogen korrelation med eksamenskarakterer. Vi vil tale mere om korrelation i [sandsynlighed og statistik](../../04-stats-and-probability/README.md)-sektionen. For at stimulere studerendes fremmøde kan vi offentliggøre den ugentlige fremmøderangering på skolens portal og udlodde præmier blandt dem med højest fremmøde. |
+| Vaccination | | | | |
+| Produktivitet | | | | |
+
+> *Vi giver kun ét svar som eksempel, så du kan få en idé om, hvad der forventes i denne opgave.*
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+Man var i stand til at identificere rimelige datakilder, måder at opbevare data og mulige beslutninger/indsigter for alle problemområder | Nogle aspekter af løsningen er ikke detaljerede, dataopbevaring er ikke diskuteret, mindst 2 problemområder er beskrevet | Kun dele af dataløsningen er beskrevet, kun ét problemområde er overvejet.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/02-ethics/README.md b/translations/da/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..aad844da
--- /dev/null
+++ b/translations/da/1-Introduction/02-ethics/README.md
@@ -0,0 +1,267 @@
+
+# Introduktion til Dataetik
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Data Science Ethics - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Vi er alle databorger i en verden præget af data.
+
+Markedsanalyser viser, at i 2022 vil 1 ud af 3 store organisationer købe og sælge deres data via online [markedspladser og børser](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Som **appudviklere** vil vi opleve, at det bliver lettere og billigere at integrere datadrevne indsigter og algoritmestyret automatisering i daglige brugeroplevelser. Men efterhånden som AI bliver allestedsnærværende, skal vi også forstå de potentielle skader, der kan opstå ved [våbenisering](https://www.youtube.com/watch?v=TQHs8SA1qpk) af sådanne algoritmer i stor skala.
+
+Tendenser viser også, at vi vil skabe og forbruge over [180 zettabytes](https://www.statista.com/statistics/871513/worldwide-data-created/) data inden 2025. Som **dataspecialister** giver dette os en hidtil uset adgang til personlige data. Det betyder, at vi kan opbygge adfærdsprofiler af brugere og påvirke beslutningstagning på måder, der skaber en [illusion af frit valg](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), mens vi potentielt skubber brugere mod resultater, vi foretrækker. Det rejser også bredere spørgsmål om databeskyttelse og brugerrettigheder.
+
+Dataetik er nu _nødvendige retningslinjer_ for datavidenskab og -teknik, der hjælper os med at minimere potentielle skader og utilsigtede konsekvenser af vores datadrevne handlinger. [Gartner Hype Cycle for AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identificerer relevante tendenser inden for digital etik, ansvarlig AI og AI-styring som nøglefaktorer for større megatrends omkring _demokratisering_ og _industrialisering_ af AI.
+
+
+
+I denne lektion vil vi udforske det fascinerende område dataetik - fra kernekoncepter og udfordringer til casestudier og anvendte AI-koncepter som styring - der hjælper med at etablere en etik-kultur i teams og organisationer, der arbejder med data og AI.
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Grundlæggende Definitioner
+
+Lad os starte med at forstå den grundlæggende terminologi.
+
+Ordet "etik" stammer fra det [græske ord "ethikos"](https://en.wikipedia.org/wiki/Ethics) (og dets rod "ethos"), der betyder _karakter eller moralsk natur_.
+
+**Etik** handler om de fælles værdier og moralske principper, der styrer vores adfærd i samfundet. Etik er ikke baseret på love, men på bredt accepterede normer for, hvad der er "rigtigt vs. forkert". Dog kan etiske overvejelser påvirke virksomhedsledelse og regeringsreguleringer, der skaber flere incitamenter til overholdelse.
+
+**Dataetik** er en [ny gren af etik](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), der "undersøger og evaluerer moralske problemer relateret til _data, algoritmer og tilsvarende praksis_". Her fokuserer **"data"** på handlinger relateret til generering, registrering, kuratering, behandling, formidling, deling og brug, **"algoritmer"** på AI, agenter, maskinlæring og robotter, og **"praksis"** på emner som ansvarlig innovation, programmering, hacking og etiske kodekser.
+
+**Anvendt etik** er den [praktiske anvendelse af moralske overvejelser](https://en.wikipedia.org/wiki/Applied_ethics). Det er processen med aktivt at undersøge etiske spørgsmål i konteksten af _virkelige handlinger, produkter og processer_ og tage korrigerende foranstaltninger for at sikre, at disse forbliver i overensstemmelse med vores definerede etiske værdier.
+
+**Etik-kultur** handler om [_at operationalisere_ anvendt etik](https://hbr.org/2019/05/how-to-design-an-ethical-organization) for at sikre, at vores etiske principper og praksisser bliver vedtaget på en konsekvent og skalerbar måde i hele organisationen. Succesfulde etik-kulturer definerer organisationens etiske principper, giver meningsfulde incitamenter til overholdelse og forstærker etiske normer ved at opmuntre og fremhæve ønsket adfærd på alle niveauer i organisationen.
+
+## Etiske Koncepter
+
+I denne sektion vil vi diskutere koncepter som **fælles værdier** (principper) og **etiske udfordringer** (problemer) for dataetik - og udforske **casestudier**, der hjælper dig med at forstå disse koncepter i virkelige kontekster.
+
+### 1. Etiske Principper
+
+Enhver dataetikstrategi begynder med at definere _etiske principper_ - de "fælles værdier", der beskriver acceptabel adfærd og guider overholdelse i vores data- og AI-projekter. Du kan definere disse på individuelt eller teamniveau. Dog skitserer de fleste store organisationer disse i en _etisk AI_-missionserklæring eller ramme, der er defineret på virksomhedsniveau og konsekvent håndhævet på tværs af alle teams.
+
+**Eksempel:** Microsofts [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai)-missionserklæring lyder: _"Vi er forpligtet til at fremme AI drevet af etiske principper, der sætter mennesker først"_ - og identificerer 6 etiske principper i nedenstående ramme:
+
+
+
+Lad os kort udforske disse principper. _Gennemsigtighed_ og _ansvarlighed_ er grundlæggende værdier, som de andre principper bygger på - så lad os starte der:
+
+* [**Ansvarlighed**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) gør praktikere _ansvarlige_ for deres data- og AI-operationer og overholdelse af disse etiske principper.
+* [**Gennemsigtighed**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) sikrer, at data- og AI-handlinger er _forståelige_ (fortolkelige) for brugere og forklarer hvad og hvorfor bag beslutninger.
+* [**Retfærdighed**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) fokuserer på at sikre, at AI behandler _alle mennesker_ retfærdigt og adresserer eventuelle systemiske eller implicitte socio-tekniske skævheder i data og systemer.
+* [**Pålidelighed & Sikkerhed**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) sikrer, at AI opfører sig _konsekvent_ med definerede værdier og minimerer potentielle skader eller utilsigtede konsekvenser.
+* [**Privatliv & Sikkerhed**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) handler om at forstå dataens oprindelse og give _databeskyttelse og relaterede rettigheder_ til brugere.
+* [**Inklusion**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) handler om at designe AI-løsninger med intention og tilpasse dem til at imødekomme et _bredt spektrum af menneskelige behov_ og evner.
+
+> 🚨 Overvej, hvad din dataetik-missionserklæring kunne være. Udforsk etiske AI-rammer fra andre organisationer - her er eksempler fra [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) og [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Hvilke fælles værdier har de? Hvordan relaterer disse principper sig til de AI-produkter eller industrier, de opererer i?
+
+### 2. Etiske Udfordringer
+
+Når vi har defineret etiske principper, er næste skridt at evaluere vores data- og AI-handlinger for at se, om de stemmer overens med disse fælles værdier. Tænk på dine handlinger i to kategorier: _datainnsamling_ og _algoritmedesign_.
+
+Ved datainnsamling vil handlinger sandsynligvis involvere **personlige data** eller personligt identificerbare oplysninger (PII) for identificerbare levende individer. Dette inkluderer [forskellige typer ikke-personlige data](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), der _samlet set_ kan identificere en person. Etiske udfordringer kan relateres til _databeskyttelse_, _dataejerskab_ og relaterede emner som _informeret samtykke_ og _intellektuelle ejendomsrettigheder_ for brugere.
+
+Ved algoritmedesign vil handlinger involvere indsamling og kuratering af **datasæt**, som derefter bruges til at træne og implementere **datamodeller**, der forudsiger resultater eller automatiserer beslutninger i virkelige kontekster. Etiske udfordringer kan opstå fra _datasæt-skævhed_, _datakvalitetsproblemer_, _uretfærdighed_ og _fejlrepræsentation_ i algoritmer - inklusive nogle problemer, der er systemiske af natur.
+
+I begge tilfælde fremhæver etiske udfordringer områder, hvor vores handlinger kan komme i konflikt med vores fælles værdier. For at opdage, afbøde, minimere eller eliminere disse bekymringer skal vi stille moralske "ja/nej"-spørgsmål relateret til vores handlinger og derefter tage korrigerende handlinger efter behov. Lad os se på nogle etiske udfordringer og de moralske spørgsmål, de rejser:
+
+#### 2.1 Dataejerskab
+
+Datainnsamling involverer ofte personlige data, der kan identificere datasubjekterne. [Dataejerskab](https://permission.io/blog/data-ownership) handler om _kontrol_ og [_brugernes rettigheder_](https://permission.io/blog/data-ownership) i forhold til oprettelse, behandling og formidling af data.
+
+De moralske spørgsmål, vi skal stille, er:
+ * Hvem ejer dataene? (brugeren eller organisationen)
+ * Hvilke rettigheder har datasubjekterne? (fx adgang, sletning, portabilitet)
+ * Hvilke rettigheder har organisationer? (fx rette ondsindede brugeranmeldelser)
+
+#### 2.2 Informeret Samtykke
+
+[Informeret samtykke](https://legaldictionary.net/informed-consent/) definerer handlingen, hvor brugere accepterer en handling (som datainnsamling) med en _fuld forståelse_ af relevante fakta, herunder formål, potentielle risici og alternativer.
+
+Spørgsmål at udforske her er:
+ * Gav brugeren (datasubjektet) tilladelse til dataindsamling og brug?
+ * Forstod brugeren formålet med, at dataene blev indsamlet?
+ * Forstod brugeren de potentielle risici ved deres deltagelse?
+
+#### 2.3 Intellektuel Ejendomsret
+
+[Intellektuel ejendomsret](https://en.wikipedia.org/wiki/Intellectual_property) refererer til immaterielle skabelser, der kan _have økonomisk værdi_ for individer eller virksomheder.
+
+Spørgsmål at udforske her er:
+ * Havde de indsamlede data økonomisk værdi for en bruger eller virksomhed?
+ * Har **brugeren** intellektuel ejendomsret her?
+ * Har **organisationen** intellektuel ejendomsret her?
+ * Hvis disse rettigheder eksisterer, hvordan beskytter vi dem?
+
+#### 2.4 Databeskyttelse
+
+[Databeskyttelse](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) eller informationsbeskyttelse refererer til bevarelse af brugerens privatliv og beskyttelse af brugerens identitet i forhold til personligt identificerbare oplysninger.
+
+Spørgsmål at udforske her er:
+ * Er brugernes (personlige) data sikret mod hacking og lækager?
+ * Er brugernes data kun tilgængelige for autoriserede brugere og kontekster?
+ * Bevares brugernes anonymitet, når data deles eller formidles?
+ * Kan en bruger blive de-identificeret fra anonymiserede datasæt?
+
+#### 2.5 Retten til at Blive Glemt
+
+[Retten til at blive glemt](https://en.wikipedia.org/wiki/Right_to_be_forgotten) eller [retten til sletning](https://www.gdpreu.org/right-to-be-forgotten/) giver yderligere beskyttelse af personlige data til brugere. Specifikt giver det brugere ret til at anmode om sletning eller fjernelse af personlige data fra internetsøgninger og andre steder, _under specifikke omstændigheder_ - hvilket giver dem en ny start online uden tidligere handlinger, der holdes imod dem.
+
+Spørgsmål at udforske her er:
+ * Tillader systemet datasubjekter at anmode om sletning?
+ * Skal tilbagetrækning af brugerens samtykke udløse automatisk sletning?
+ * Blev data indsamlet uden samtykke eller på ulovlig vis?
+ * Overholder vi regeringsregler for databeskyttelse?
+
+#### 2.6 Datasæt-skævhed
+
+Datasæt- eller [indsamlingsskævhed](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) handler om at vælge et _ikke-repræsentativt_ datasæt til algoritmeudvikling, hvilket skaber potentiel uretfærdighed i resultatet for forskellige grupper. Typer af skævhed inkluderer udvælgelses- eller stikprøveskævhed, frivillighedsskævhed og instrumentel skævhed.
+
+Spørgsmål at udforske her er:
+ * Rekrutterede vi et repræsentativt sæt datasubjekter?
+ * Testede vi vores indsamlede eller kuraterede datasæt for forskellige skævheder?
+ * Kan vi afbøde eller fjerne eventuelle opdagede skævheder?
+
+#### 2.7 Datakvalitet
+
+[Datakvalitet](https://lakefs.io/data-quality-testing/) ser på gyldigheden af det kuraterede datasæt, der bruges til at udvikle vores algoritmer, og kontrollerer, om funktioner og poster opfylder kravene til det niveau af nøjagtighed og konsistens, der er nødvendigt for vores AI-formål.
+
+Spørgsmål at udforske her er:
+ * Indfangede vi gyldige _funktioner_ til vores brugssag?
+ * Blev data indsamlet _konsekvent_ på tværs af forskellige datakilder?
+ * Er datasættet _komplet_ for forskellige forhold eller scenarier?
+ * Er information indfanget _nøjagtigt_ i forhold til virkeligheden?
+
+#### 2.8 Algoritme-retfærdighed
+[Algorithmisk retfærdighed](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) undersøger, om algoritmedesign systematisk diskriminerer specifikke undergrupper af datasubjekter, hvilket kan føre til [potentielle skader](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) inden for _fordeling_ (hvor ressourcer nægtes eller tilbageholdes fra den gruppe) og _kvaliteten af service_ (hvor AI ikke er lige så præcis for nogle undergrupper som for andre).
+
+Spørgsmål, der kan udforskes her, er:
+ * Evaluerede vi modelpræcision for forskellige undergrupper og forhold?
+ * Undersøgte vi systemet for potentielle skader (f.eks. stereotyper)?
+ * Kan vi revidere data eller genoptræne modeller for at afhjælpe identificerede skader?
+
+Udforsk ressourcer som [AI Fairness-tjeklister](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) for at lære mere.
+
+#### 2.9 Fejlrepræsentation
+
+[Datafejlrepræsentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) handler om at spørge, om vi kommunikerer indsigt fra ærligt rapporterede data på en vildledende måde for at understøtte en ønsket fortælling.
+
+Spørgsmål, der kan udforskes her, er:
+ * Rapporterer vi ufuldstændige eller unøjagtige data?
+ * Visualiserer vi data på en måde, der fører til vildledende konklusioner?
+ * Bruger vi selektive statistiske teknikker til at manipulere resultater?
+ * Er der alternative forklaringer, der kan give en anden konklusion?
+
+#### 2.10 Fri vilje
+[Illusionen af fri vilje](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) opstår, når systemets "valgarkitekturer" bruger beslutningsalgoritmer til at skubbe folk mod at tage et foretrukket resultat, mens det ser ud som om, de har valgmuligheder og kontrol. Disse [mørke mønstre](https://www.darkpatterns.org/) kan forårsage sociale og økonomiske skader for brugere. Fordi brugerbeslutninger påvirker adfærdsprofiler, kan disse handlinger potentielt drive fremtidige valg, der kan forstærke eller udvide virkningen af disse skader.
+
+Spørgsmål, der kan udforskes her, er:
+ * Forstod brugeren konsekvenserne af at træffe det valg?
+ * Var brugeren opmærksom på (alternative) valg og fordele & ulemper ved hver?
+ * Kan brugeren senere fortryde et automatiseret eller påvirket valg?
+
+### 3. Case-studier
+
+For at sætte disse etiske udfordringer i virkelige kontekster hjælper det at se på case-studier, der fremhæver de potentielle skader og konsekvenser for individer og samfund, når sådanne etiske overtrædelser overses.
+
+Her er nogle eksempler:
+
+| Etisk udfordring | Case-studie |
+|--- |--- |
+| **Informeret samtykke** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afroamerikanske mænd, der deltog i undersøgelsen, blev lovet gratis lægehjælp _men blev bedraget_ af forskere, der undlod at informere dem om deres diagnose eller om tilgængelig behandling. Mange døde, og partnere eller børn blev påvirket; undersøgelsen varede i 40 år. |
+| **Databeskyttelse** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) gav forskere _10M anonymiserede filmvurderinger fra 50K kunder_ for at hjælpe med at forbedre anbefalingsalgoritmer. Forskere kunne dog korrelere anonymiserede data med personligt identificerbare data i _eksterne datasæt_ (f.eks. IMDb-kommentarer) - effektivt "de-anonymiserende" nogle Netflix-abonnenter.|
+| **Indsamlingsbias** | 2013 - Boston City [udviklede Street Bump](https://www.boston.gov/transportation/street-bump), en app, der lod borgere rapportere huller i vejen, hvilket gav byen bedre data til at finde og løse problemer. Dog havde [folk i lavindkomstgrupper mindre adgang til biler og telefoner](https://hbr.org/2013/04/the-hidden-biases-in-big-data), hvilket gjorde deres vejproblemer usynlige i denne app. Udviklere arbejdede med akademikere for at løse _lighed i adgang og digitale skel_ for retfærdighed. |
+| **Algoritmisk retfærdighed** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) evaluerede nøjagtigheden af AI-produkter til kønsidentifikation og afslørede mangler i nøjagtighed for kvinder og farvede personer. Et [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) syntes at tilbyde mindre kredit til kvinder end mænd. Begge illustrerede problemer med algoritmisk bias, der førte til socioøkonomiske skader.|
+| **Datafejlrepræsentation** | 2020 - [Georgia Department of Public Health udgav COVID-19-diagrammer](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), der syntes at vildlede borgere om tendenser i bekræftede tilfælde med ikke-kronologisk rækkefølge på x-aksen. Dette illustrerer fejlrepræsentation gennem visualiseringstricks. |
+| **Illusionen af fri vilje** | 2020 - Læringsappen [ABCmouse betalte $10M for at løse en FTC-klage](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), hvor forældre blev fanget i at betale for abonnementer, de ikke kunne annullere. Dette illustrerer mørke mønstre i valgarkitekturer, hvor brugere blev skubbet mod potentielt skadelige valg. |
+| **Databeskyttelse & brugerrettigheder** | 2021 - Facebook [Data Breach](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) afslørede data fra 530M brugere, hvilket resulterede i en $5B forlig med FTC. Det nægtede dog at informere brugere om bruddet og overtrådte brugerrettigheder omkring datatransparens og adgang. |
+
+Vil du udforske flere case-studier? Tjek disse ressourcer:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - etiske dilemmaer på tværs af forskellige industrier.
+* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - landmark case-studier udforsket.
+* [Where things have gone wrong](https://deon.drivendata.org/examples/) - deon-tjekliste med eksempler.
+
+> 🚨 Tænk over de case-studier, du har set - har du oplevet eller været påvirket af en lignende etisk udfordring i dit liv? Kan du tænke på mindst én anden case-studie, der illustrerer en af de etiske udfordringer, vi har diskuteret i dette afsnit?
+
+## Anvendt etik
+
+Vi har talt om etiske begreber, udfordringer og case-studier i virkelige kontekster. Men hvordan kommer vi i gang med at _anvende_ etiske principper og praksisser i vores projekter? Og hvordan _operationaliserer_ vi disse praksisser for bedre styring? Lad os udforske nogle løsninger fra den virkelige verden:
+
+### 1. Professionelle kodekser
+
+Professionelle kodekser tilbyder en mulighed for organisationer til at "incitamentere" medlemmer til at støtte deres etiske principper og mission. Kodekser er _moralske retningslinjer_ for professionel adfærd, der hjælper medarbejdere eller medlemmer med at træffe beslutninger, der stemmer overens med organisationens principper. De er kun så gode som den frivillige overholdelse fra medlemmer; dog tilbyder mange organisationer yderligere belønninger og sanktioner for at motivere overholdelse.
+
+Eksempler inkluderer:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (oprettet 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (siden 1993)
+
+> 🚨 Tilhører du en professionel ingeniør- eller data science-organisation? Udforsk deres hjemmeside for at se, om de definerer en professionel etisk kodeks. Hvad siger dette om deres etiske principper? Hvordan "incitamenterer" de medlemmer til at følge kodeksen?
+
+### 2. Etiske tjeklister
+
+Mens professionelle kodekser definerer krævet _etisk adfærd_ fra praktikere, har de [kendte begrænsninger](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) i håndhævelse, især i storskala projekter. I stedet anbefaler mange data science-eksperter [tjeklister](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), der kan **forbinde principper med praksis** på mere deterministiske og handlingsorienterede måder.
+
+Tjeklister konverterer spørgsmål til "ja/nej"-opgaver, der kan operationaliseres, hvilket gør det muligt at spore dem som en del af standard produktudgivelsesarbejdsgange.
+
+Eksempler inkluderer:
+ * [Deon](https://deon.drivendata.org/) - en generel dataetisk tjekliste oprettet fra [brancheanbefalinger](https://deon.drivendata.org/#checklist-citations) med et kommandolinjeværktøj for nem integration.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - giver generel vejledning til informationshåndteringspraksis fra juridiske og sociale eksponeringsperspektiver.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - oprettet af AI-praktikere for at støtte adoption og integration af fairness-tjek i AI-udviklingscyklusser.
+ * [22 spørgsmål om etik i data og AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - en mere åben ramme, struktureret til indledende udforskning af etiske spørgsmål i design, implementering og organisatoriske kontekster.
+
+### 3. Etiske reguleringer
+
+Etik handler om at definere fælles værdier og gøre det rigtige _frivilligt_. **Overholdelse** handler om _at følge loven_, hvis og hvor den er defineret. **Styring** dækker bredt alle de måder, hvorpå organisationer opererer for at håndhæve etiske principper og overholde etablerede love.
+
+I dag tager styring to former inden for organisationer. For det første handler det om at definere **etiske AI**-principper og etablere praksisser for at operationalisere adoption på tværs af alle AI-relaterede projekter i organisationen. For det andet handler det om at overholde alle regeringsmandaterede **databeskyttelsesreguleringer** for de regioner, den opererer i.
+
+Eksempler på databeskyttelses- og privatlivsreguleringer:
+
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - regulerer _føderal regeringens_ indsamling, brug og offentliggørelse af personlige oplysninger.
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - beskytter personlige sundhedsdata.
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - beskytter dataprivacy for børn under 13.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - giver brugerrettigheder, databeskyttelse og privatliv.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) giver forbrugere flere _rettigheder_ over deres (personlige) data.
+ * `2021`, Kinas [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) blev netop vedtaget og skaber en af de stærkeste online databeskyttelsesreguleringer i verden.
+
+> 🚨 Den Europæiske Union definerede GDPR (General Data Protection Regulation) forbliver en af de mest indflydelsesrige databeskyttelsesreguleringer i dag. Vidste du, at den også definerer [8 brugerrettigheder](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) for at beskytte borgernes digitale privatliv og personlige data? Lær om, hvad disse er, og hvorfor de betyder noget.
+
+### 4. Etisk kultur
+
+Bemærk, at der stadig er en uhåndgribelig kløft mellem _overholdelse_ (at gøre nok for at opfylde "lovens bogstav") og adressering af [systemiske problemer](https://www.coursera.org/learn/data-science-ethics/home/week/4) (som stivhed, informationsasymmetri og fordelingsmæssig uretfærdighed), der kan fremskynde våbeniseringen af AI.
+
+Sidstnævnte kræver [samarbejdsmetoder til at definere etiske kulturer](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), der bygger følelsesmæssige forbindelser og konsistente fælles værdier _på tværs af organisationer_ i branchen. Dette kalder på mere [formaliserede dataetiske kulturer](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) i organisationer - hvilket giver _enhver_ mulighed for at [trække Andon-snoren](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (for at rejse etiske bekymringer tidligt i processen) og gøre _etiske vurderinger_ (f.eks. ved ansættelse) til et kernekriterium for teamdannelse i AI-projekter.
+
+---
+## [Quiz efter forelæsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Gennemgang & Selvstudie
+
+Kurser og bøger hjælper med at forstå kerneetikbegreber og udfordringer, mens case-studier og værktøjer hjælper med anvendte etiske praksisser i virkelige kontekster. Her er nogle ressourcer at starte med.
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - lektion om retfærdighed, fra Microsoft.
+* [Principper for ansvarlig AI](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - gratis læringsforløb fra Microsoft Learn.
+* [Etik og Data Science](https://resources.oreilly.com/examples/0636920203964) - O'Reilly EBook (M. Loukides, H. Mason m.fl.)
+* [Data Science Etik](https://www.coursera.org/learn/data-science-ethics#syllabus) - online kursus fra University of Michigan.
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - casestudier fra University of Texas.
+
+# Opgave
+
+[Skriv en case study om dataetik](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/02-ethics/assignment.md b/translations/da/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..7f7af8c4
--- /dev/null
+++ b/translations/da/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Skriv en Case Study om Dataetik
+
+## Instruktioner
+
+Du har lært om forskellige [Udfordringer inden for Dataetik](README.md#2-ethics-challenges) og set nogle eksempler på [Case Studies](README.md#3-case-studies), der afspejler udfordringer inden for dataetik i virkelige kontekster.
+
+I denne opgave skal du skrive din egen case study, der afspejler en udfordring inden for dataetik fra din egen erfaring eller fra en relevant virkelighedskontekst, som du er bekendt med. Følg blot disse trin:
+
+1. `Vælg en Udfordring inden for Dataetik`. Kig på [lektionens eksempler](README.md#2-ethics-challenges) eller udforsk online eksempler som [Deon Checklist](https://deon.drivendata.org/examples/) for at få inspiration.
+
+2. `Beskriv et Virkeligt Eksempel`. Tænk på en situation, du har hørt om (nyhedsoverskrifter, forskningsstudie osv.) eller oplevet (lokalsamfund), hvor denne specifikke udfordring opstod. Overvej de dataetiske spørgsmål, der er relateret til udfordringen – og diskuter de potentielle skader eller utilsigtede konsekvenser, der opstår på grund af dette problem. Bonuspoint: Overvej potentielle løsninger eller processer, der kan anvendes her for at hjælpe med at eliminere eller mindske den negative påvirkning af denne udfordring.
+
+3. `Tilføj en Liste over Relaterede Ressourcer`. Del en eller flere ressourcer (links til en artikel, et personligt blogindlæg eller billede, en online forskningsartikel osv.) for at bevise, at dette var en virkelig hændelse. Bonuspoint: Del ressourcer, der også viser de potentielle skader og konsekvenser fra hændelsen, eller fremhæver positive skridt, der er taget for at forhindre, at det sker igen.
+
+
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver Forbedring
+--- | --- | -- |
+En eller flere udfordringer inden for dataetik er identificeret.
Case study beskriver tydeligt en virkelig hændelse, der afspejler denne udfordring, og fremhæver de uønskede konsekvenser eller skader, den forårsagede.
Der er mindst én linket ressource, der beviser, at dette fandt sted. | En udfordring inden for dataetik er identificeret.
Mindst én relevant skade eller konsekvens diskuteres kort.
Dog er diskussionen begrænset eller mangler bevis for, at det er en virkelig hændelse. | En udfordring inden for dataetik er identificeret.
Dog afspejler beskrivelsen eller ressourcerne ikke tilstrækkeligt udfordringen eller beviser, at det er en virkelig hændelse. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/03-defining-data/README.md b/translations/da/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..f4e45666
--- /dev/null
+++ b/translations/da/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,85 @@
+
+# Definere Data
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definere Data - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Data er fakta, information, observationer og målinger, der bruges til at gøre opdagelser og understøtte informerede beslutninger. Et datapunkt er en enkelt enhed af data inden for et datasæt, som er en samling af datapunkter. Datasæt kan komme i forskellige formater og strukturer og vil normalt være baseret på deres kilde, eller hvor dataene kommer fra. For eksempel kan en virksomheds månedlige indtjening være i et regneark, mens timedata om puls fra et smartwatch kan være i [JSON](https://stackoverflow.com/a/383699)-format. Det er almindeligt, at dataspecialister arbejder med forskellige typer data inden for et datasæt.
+
+Denne lektion fokuserer på at identificere og klassificere data ud fra deres egenskaber og kilder.
+
+## [Quiz før lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+
+## Hvordan Data Beskrives
+
+### Rådata
+Rådata er data, der kommer fra sin kilde i sin oprindelige tilstand og ikke er blevet analyseret eller organiseret. For at forstå, hvad der sker med et datasæt, skal det organiseres i et format, der kan forstås af mennesker såvel som den teknologi, de bruger til at analysere det yderligere. Strukturen af et datasæt beskriver, hvordan det er organiseret og kan klassificeres som struktureret, ustruktureret og semi-struktureret. Disse typer strukturer vil variere afhængigt af kilden, men vil i sidste ende passe ind i disse tre kategorier.
+
+### Kvantitative Data
+Kvantitative data er numeriske observationer inden for et datasæt og kan typisk analyseres, måles og bruges matematisk. Nogle eksempler på kvantitative data er: et lands befolkning, en persons højde eller en virksomheds kvartalsvise indtjening. Med yderligere analyse kan kvantitative data bruges til at opdage sæsonmæssige tendenser i luftkvalitetsindekset (AQI) eller estimere sandsynligheden for myldretidstrafik på en typisk arbejdsdag.
+
+### Kvalitative Data
+Kvalitative data, også kendt som kategoriske data, er data, der ikke kan måles objektivt som observationer af kvantitative data. Det er generelt forskellige formater af subjektive data, der fanger kvaliteten af noget, såsom et produkt eller en proces. Nogle gange er kvalitative data numeriske, men bruges typisk ikke matematisk, som telefonnumre eller tidsstempler. Nogle eksempler på kvalitative data er: videokommentarer, mærke og model på en bil eller din nærmeste vens yndlingsfarve. Kvalitative data kan bruges til at forstå, hvilke produkter forbrugerne bedst kan lide, eller til at identificere populære nøgleord i jobansøgninger.
+
+### Strukturerede Data
+Strukturerede data er data, der er organiseret i rækker og kolonner, hvor hver række har det samme sæt kolonner. Kolonner repræsenterer en værdi af en bestemt type og vil blive identificeret med et navn, der beskriver, hvad værdien repræsenterer, mens rækker indeholder de faktiske værdier. Kolonner vil ofte have et specifikt sæt regler eller begrænsninger for værdierne for at sikre, at værdierne nøjagtigt repræsenterer kolonnen. For eksempel forestil dig et regneark med kunder, hvor hver række skal have et telefonnummer, og telefonnumrene aldrig indeholder alfabetiske tegn. Der kan være regler anvendt på telefonnummerkolonnen for at sikre, at den aldrig er tom og kun indeholder tal.
+
+En fordel ved strukturerede data er, at de kan organiseres på en måde, der kan relateres til andre strukturerede data. Men fordi dataene er designet til at være organiseret på en specifik måde, kan det kræve en stor indsats at ændre deres overordnede struktur. For eksempel betyder det at tilføje en e-mail-kolonne til kunderegnearket, der ikke kan være tom, at du skal finde ud af, hvordan du tilføjer disse værdier til de eksisterende rækker af kunder i datasættet.
+
+Eksempler på strukturerede data: regneark, relationelle databaser, telefonnumre, kontoudtog.
+
+### Ustrukturerede Data
+Ustrukturerede data kan typisk ikke kategoriseres i rækker eller kolonner og indeholder ikke et format eller et sæt regler, der skal følges. Fordi ustrukturerede data har færre begrænsninger på deres struktur, er det lettere at tilføje ny information sammenlignet med et struktureret datasæt. Hvis en sensor, der registrerer data om barometertryk hvert andet minut, har modtaget en opdatering, der nu gør det muligt at måle og registrere temperatur, kræver det ikke ændring af de eksisterende data, hvis de er ustrukturerede. Dette kan dog gøre det mere tidskrævende at analysere eller undersøge denne type data. For eksempel kan en forsker, der ønsker at finde gennemsnitstemperaturen for den foregående måned fra sensorens data, opdage, at sensoren har registreret et "e" i nogle af sine data for at angive, at den var i stykker, i stedet for et typisk tal, hvilket betyder, at dataene er ufuldstændige.
+
+Eksempler på ustrukturerede data: tekstfiler, tekstbeskeder, videofiler.
+
+### Semi-strukturerede Data
+Semi-strukturerede data har funktioner, der gør dem til en kombination af strukturerede og ustrukturerede data. De følger typisk ikke et format med rækker og kolonner, men er organiseret på en måde, der anses for struktureret og kan følge et fast format eller et sæt regler. Strukturen vil variere mellem kilder, såsom en veldefineret hierarki til noget mere fleksibelt, der tillader nem integration af ny information. Metadata er indikatorer, der hjælper med at beslutte, hvordan dataene er organiseret og gemt, og vil have forskellige navne baseret på typen af data. Nogle almindelige navne for metadata er tags, elementer, enheder og attributter. For eksempel vil en typisk e-mailbesked have et emne, en tekst og et sæt modtagere og kan organiseres efter, hvem eller hvornår den blev sendt.
+
+Eksempler på semi-strukturerede data: HTML, CSV-filer, JavaScript Object Notation (JSON).
+
+## Datakilder
+
+En datakilde er det oprindelige sted, hvor dataene blev genereret, eller hvor de "bor", og vil variere afhængigt af hvordan og hvornår de blev indsamlet. Data genereret af dens bruger(e) kaldes primære data, mens sekundære data kommer fra en kilde, der har indsamlet data til generel brug. For eksempel vil en gruppe forskere, der indsamler observationer i en regnskov, blive betragtet som primære, og hvis de beslutter at dele det med andre forskere, vil det blive betragtet som sekundære for dem, der bruger det.
+
+Databaser er en almindelig kilde og er afhængige af et databasehåndteringssystem til at hoste og vedligeholde dataene, hvor brugere bruger kommandoer kaldet forespørgsler til at udforske dataene. Filer som datakilder kan være lyd-, billed- og videofiler samt regneark som Excel. Internettet er en almindelig placering for hosting af data, hvor databaser såvel som filer kan findes. Application programming interfaces, også kendt som API'er, giver programmører mulighed for at skabe måder at dele data med eksterne brugere via internettet, mens processen med web scraping udtrækker data fra en webside. [Lektionerne i Arbejde med Data](../../../../../../../../../2-Working-With-Data) fokuserer på, hvordan man bruger forskellige datakilder.
+
+## Konklusion
+
+I denne lektion har vi lært:
+
+- Hvad data er
+- Hvordan data beskrives
+- Hvordan data klassificeres og kategoriseres
+- Hvor data kan findes
+
+## 🚀 Udfordring
+
+Kaggle er en fremragende kilde til åbne datasæt. Brug [værktøjet til datasøgningsværktøj](https://www.kaggle.com/datasets) til at finde nogle interessante datasæt og klassificer 3-5 datasæt med følgende kriterier:
+
+- Er dataene kvantitative eller kvalitative?
+- Er dataene strukturerede, ustrukturerede eller semi-strukturerede?
+
+## [Quiz efter lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Gennemgang & Selvstudie
+
+- Denne Microsoft Learn-enhed, med titlen [Klassificer dine Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), har en detaljeret oversigt over strukturerede, semi-strukturerede og ustrukturerede data.
+
+## Opgave
+
+[Klassificering af Datasæt](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/03-defining-data/assignment.md b/translations/da/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..f40fb941
--- /dev/null
+++ b/translations/da/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Klassificering af datasæt
+
+## Instruktioner
+
+Følg anvisningerne i denne opgave for at identificere og klassificere data med én af hver af følgende datatyper:
+
+**Strukturtyper**: Struktureret, Semi-struktureret eller Ustruktureret
+
+**Værdityper**: Kvalitativ eller Kvantitativ
+
+**Kildetyper**: Primær eller Sekundær
+
+1. En virksomhed er blevet opkøbt og har nu et moderselskab. Dataforskerne har modtaget et regneark med kundernes telefonnumre fra moderselskabet.
+
+Strukturtype:
+
+Værditype:
+
+Kildetype:
+
+---
+
+2. Et smartwatch har indsamlet pulsdata fra sin bruger, og rådataene er i JSON-format.
+
+Strukturtype:
+
+Værditype:
+
+Kildetype:
+
+---
+
+3. En arbejdspladsundersøgelse af medarbejdernes moral, som er gemt i en CSV-fil.
+
+Strukturtype:
+
+Værditype:
+
+Kildetype:
+
+---
+
+4. Astrofysikere har adgang til en database over galakser, som er blevet indsamlet af en rumsonde. Dataene indeholder antallet af planeter i hver galakse.
+
+Strukturtype:
+
+Værditype:
+
+Kildetype:
+
+---
+
+5. En personlig økonomi-app bruger API'er til at forbinde til en brugers finansielle konti for at beregne deres nettoformue. Brugeren kan se alle deres transaktioner i et format med rækker og kolonner, som ligner et regneark.
+
+Strukturtype:
+
+Værditype:
+
+Kildetype:
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Skal forbedres
+--- | --- | -- |
+Identificerer korrekt alle struktur-, værdi- og kildetyper | Identificerer korrekt 3 struktur-, værdi- og kildetyper | Identificerer korrekt 2 eller færre struktur-, værdi- og kildetyper |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/04-stats-and-probability/README.md b/translations/da/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..9bec4fc3
--- /dev/null
+++ b/translations/da/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# En Kort Introduktion til Statistik og Sandsynlighed
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Statistik og Sandsynlighed - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Statistik og Sandsynlighedsteori er to nært beslægtede områder inden for matematik, som er meget relevante for datavidenskab. Det er muligt at arbejde med data uden dyb matematisk viden, men det er stadig en fordel at kende nogle grundlæggende begreber. Her præsenterer vi en kort introduktion, der kan hjælpe dig i gang.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Sandsynlighed og Tilfældige Variable
+
+**Sandsynlighed** er et tal mellem 0 og 1, der angiver, hvor sandsynligt en **begivenhed** er. Det defineres som antallet af positive udfald (der fører til begivenheden) divideret med det samlede antal udfald, forudsat at alle udfald er lige sandsynlige. For eksempel, når vi kaster en terning, er sandsynligheden for at få et lige tal 3/6 = 0,5.
+
+Når vi taler om begivenheder, bruger vi **tilfældige variable**. For eksempel vil den tilfældige variabel, der repræsenterer et tal opnået ved at kaste en terning, tage værdier fra 1 til 6. Sættet af tal fra 1 til 6 kaldes **udfaldsrummet**. Vi kan tale om sandsynligheden for, at en tilfældig variabel tager en bestemt værdi, for eksempel P(X=3)=1/6.
+
+Den tilfældige variabel i det tidligere eksempel kaldes **diskret**, fordi den har et tælleligt udfaldsrum, dvs. der er separate værdier, der kan opregnes. Der er tilfælde, hvor udfaldsrummet er et interval af reelle tal eller hele mængden af reelle tal. Sådanne variable kaldes **kontinuerlige**. Et godt eksempel er tidspunktet, hvor bussen ankommer.
+
+## Sandsynlighedsfordeling
+
+For diskrete tilfældige variable er det nemt at beskrive sandsynligheden for hver begivenhed med en funktion P(X). For hver værdi *s* fra udfaldsrummet *S* vil den give et tal mellem 0 og 1, sådan at summen af alle værdier af P(X=s) for alle begivenheder vil være 1.
+
+Den mest kendte diskrete fordeling er **uniform fordeling**, hvor der er et udfaldsrum med N elementer, med lige sandsynlighed på 1/N for hver af dem.
+
+Det er mere udfordrende at beskrive sandsynlighedsfordelingen for en kontinuerlig variabel med værdier trukket fra et interval [a,b] eller hele mængden af reelle tal ℝ. Overvej tilfældet med busankomsttidspunktet. Faktisk er sandsynligheden for, at en bus ankommer præcis på et bestemt tidspunkt *t*, 0!
+
+> Nu ved du, at begivenheder med sandsynlighed 0 sker, og det sker ofte! I det mindste hver gang bussen ankommer!
+
+Vi kan kun tale om sandsynligheden for, at en variabel falder inden for et givet interval af værdier, fx P(t1≤X2). I dette tilfælde beskrives sandsynlighedsfordelingen af en **sandsynlighedstæthedsfunktion** p(x), sådan at
+
+![P(t_1\le X1, x2, ..., xn. Vi kan definere **middelværdi** (eller **aritmetisk gennemsnit**) af sekvensen på traditionel vis som (x1+x2+xn)/n. Når vi øger størrelsen af prøven (dvs. tager grænsen med n→∞), vil vi opnå middelværdien (også kaldet **forventning**) af fordelingen. Vi vil betegne forventningen med **E**(x).
+
+> Det kan vises, at for enhver diskret fordeling med værdier {x1, x2, ..., xN} og tilsvarende sandsynligheder p1, p2, ..., pN, vil forventningen være E(X)=x1p1+x2p2+...+xNpN.
+
+For at identificere, hvor spredte værdierne er, kan vi beregne variansen σ2 = ∑(xi - μ)2/n, hvor μ er middelværdien af sekvensen. Værdien σ kaldes **standardafvigelse**, og σ2 kaldes **varians**.
+
+## Typetal, Median og Kvartiler
+
+Nogle gange repræsenterer middelværdien ikke tilstrækkeligt den "typiske" værdi for data. For eksempel, når der er nogle ekstreme værdier, der er helt uden for rækkevidde, kan de påvirke middelværdien. En anden god indikator er **medianen**, en værdi sådan, at halvdelen af datapunkterne er lavere end den, og den anden halvdel - højere.
+
+For at hjælpe os med at forstå datafordelingen er det nyttigt at tale om **kvartiler**:
+
+* Første kvartil, eller Q1, er en værdi, sådan at 25% af dataene ligger under den
+* Tredje kvartil, eller Q3, er en værdi, sådan at 75% af dataene ligger under den
+
+Grafisk kan vi repræsentere forholdet mellem median og kvartiler i et diagram kaldet **box plot**:
+
+
+
+Her beregner vi også **interkvartilområdet** IQR=Q3-Q1 og såkaldte **outliers** - værdier, der ligger uden for grænserne [Q1-1.5*IQR,Q3+1.5*IQR].
+
+For en endelig fordeling, der indeholder et lille antal mulige værdier, er en god "typisk" værdi den, der forekommer hyppigst, hvilket kaldes **typetal**. Det anvendes ofte på kategoriske data, såsom farver. Overvej en situation, hvor vi har to grupper af mennesker - nogle, der stærkt foretrækker rød, og andre, der foretrækker blå. Hvis vi koder farver med tal, vil middelværdien for en favoritfarve være et sted i det orange-grønne spektrum, hvilket ikke angiver den faktiske præference for nogen af grupperne. Typetallet vil dog være enten en af farverne eller begge farver, hvis antallet af mennesker, der stemmer for dem, er lige (i dette tilfælde kalder vi prøven **multimodal**).
+
+## Data fra Virkeligheden
+
+Når vi analyserer data fra virkeligheden, er de ofte ikke tilfældige variable i den forstand, at vi ikke udfører eksperimenter med ukendt resultat. For eksempel, overvej et hold af baseballspillere og deres kropsdata, såsom højde, vægt og alder. Disse tal er ikke præcis tilfældige, men vi kan stadig anvende de samme matematiske begreber. For eksempel kan en sekvens af folks vægte betragtes som en sekvens af værdier trukket fra en tilfældig variabel. Nedenfor er sekvensen af vægte for faktiske baseballspillere fra [Major League Baseball](http://mlb.mlb.com/index.jsp), taget fra [dette datasæt](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (for din bekvemmelighed vises kun de første 20 værdier):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Note**: For at se et eksempel på arbejde med dette datasæt, kig på den [tilhørende notebook](notebook.ipynb). Der er også en række udfordringer gennem denne lektion, og du kan fuldføre dem ved at tilføje noget kode til den notebook. Hvis du ikke er sikker på, hvordan man arbejder med data, skal du ikke bekymre dig - vi vender tilbage til at arbejde med data ved hjælp af Python senere. Hvis du ikke ved, hvordan man kører kode i Jupyter Notebook, kan du kigge på [denne artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Her er box plottet, der viser middelværdi, median og kvartiler for vores data:
+
+
+
+Da vores data indeholder information om forskellige spiller **roller**, kan vi også lave box plottet efter rolle - det vil give os en idé om, hvordan parameterværdierne varierer på tværs af roller. Denne gang vil vi overveje højde:
+
+
+
+Dette diagram antyder, at gennemsnitligt er højden af første basemen højere end højden af anden basemen. Senere i denne lektion vil vi lære, hvordan vi kan teste denne hypotese mere formelt, og hvordan vi kan demonstrere, at vores data er statistisk signifikante for at vise dette.
+
+> Når vi arbejder med data fra virkeligheden, antager vi, at alle datapunkter er prøver trukket fra en sandsynlighedsfordeling. Denne antagelse giver os mulighed for at anvende maskinlæringsteknikker og bygge fungerende forudsigelsesmodeller.
+
+For at se, hvordan fordelingen af vores data er, kan vi plotte en graf kaldet et **histogram**. X-aksen vil indeholde et antal forskellige vægtintervaller (såkaldte **bins**), og den lodrette akse vil vise antallet af gange, vores tilfældige variabelprøve var inden for et givet interval.
+
+
+
+Fra dette histogram kan du se, at alle værdier er centreret omkring en bestemt gennemsnitsvægt, og jo længere vi bevæger os fra den vægt - jo færre vægte af den værdi støder vi på. Dvs., det er meget usandsynligt, at vægten af en baseballspiller vil være meget forskellig fra gennemsnitsvægten. Variansen af vægtene viser, i hvilket omfang vægtene sandsynligvis vil afvige fra gennemsnittet.
+
+> Hvis vi tager vægtene af andre mennesker, ikke fra baseballligaen, vil fordelingen sandsynligvis være anderledes. Dog vil formen af fordelingen være den samme, men middelværdien og variansen vil ændre sig. Så hvis vi træner vores model på baseballspillere, vil den sandsynligvis give forkerte resultater, når den anvendes på studerende på et universitet, fordi den underliggende fordeling er anderledes.
+
+## Normalfordeling
+
+Fordelingen af vægte, som vi har set ovenfor, er meget typisk, og mange målinger fra virkeligheden følger samme type fordeling, men med forskellige middelværdier og varians. Denne fordeling kaldes **normalfordeling**, og den spiller en meget vigtig rolle i statistik.
+
+At bruge normalfordeling er en korrekt måde at generere tilfældige vægte af potentielle baseballspillere. Når vi kender gennemsnitsvægten `mean` og standardafvigelsen `std`, kan vi generere 1000 vægtprøver på følgende måde:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Hvis vi plotter histogrammet for de genererede prøver, vil vi se et billede, der ligner det, der er vist ovenfor. Og hvis vi øger antallet af prøver og antallet af bins, kan vi generere et billede af en normalfordeling, der er tættere på det ideelle:
+
+
+
+*Normalfordeling med mean=0 og std.dev=1*
+
+## Konfidensintervaller
+
+Når vi taler om vægtene af baseballspillere, antager vi, at der er en bestemt **tilfældig variabel W**, der svarer til den ideelle sandsynlighedsfordeling af vægtene for alle baseballspillere (den såkaldte **population**). Vores sekvens af vægte svarer til et udsnit af alle baseballspillere, som vi kalder **prøve**. Et interessant spørgsmål er, om vi kan kende parametrene for fordelingen af W, dvs. middelværdien og variansen af populationen?
+
+Det nemmeste svar ville være at beregne middelværdien og variansen af vores prøve. Dog kunne det ske, at vores tilfældige prøve ikke nøjagtigt repræsenterer den komplette population. Derfor giver det mening at tale om **konfidensintervaller**.
+> **Konfidensinterval** er en estimering af den sande middelværdi for populationen baseret på vores stikprøve, som er nøjagtig med en vis sandsynlighed (eller **konfidensniveau**).
+Antag, at vi har en stikprøve X1, ..., Xn fra vores fordeling. Hver gang vi trækker en stikprøve fra vores fordeling, vil vi ende med en forskellig middelværdi μ. Derfor kan μ betragtes som en stokastisk variabel. Et **konfidensinterval** med konfidens p er et par værdier (Lp,Rp), sådan at **P**(Lp≤μ≤Rp) = p, dvs. sandsynligheden for, at den målte middelværdi falder inden for intervallet, er lig med p.
+
+Det går ud over vores korte introduktion at diskutere i detaljer, hvordan disse konfidensintervaller beregnes. Flere detaljer kan findes [på Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). Kort sagt definerer vi fordelingen af den beregnede stikprøvemiddelværdi i forhold til den sande middelværdi af populationen, hvilket kaldes **studentfordeling**.
+
+> **Interessant fakta**: Studentfordelingen er opkaldt efter matematikeren William Sealy Gosset, som udgav sin artikel under pseudonymet "Student". Han arbejdede på Guinness-bryggeriet, og ifølge en af versionerne ønskede hans arbejdsgiver ikke, at offentligheden skulle vide, at de brugte statistiske tests til at bestemme kvaliteten af råmaterialer.
+
+Hvis vi ønsker at estimere middelværdien μ af vores population med konfidens p, skal vi tage *(1-p)/2-percentilen* af en Studentfordeling A, som enten kan tages fra tabeller eller beregnes ved hjælp af indbyggede funktioner i statistisk software (fx Python, R osv.). Derefter vil intervallet for μ være givet ved X±A*D/√n, hvor X er den opnåede middelværdi af stikprøven, og D er standardafvigelsen.
+
+> **Bemærk**: Vi udelader også diskussionen om et vigtigt begreb, [frihedsgrader](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), som er vigtigt i relation til Studentfordelingen. Du kan henvise til mere komplette bøger om statistik for at forstå dette begreb dybere.
+
+Et eksempel på beregning af konfidensinterval for vægt og højde findes i de [tilhørende notebooks](notebook.ipynb).
+
+| p | Vægtmiddelværdi |
+|------|-----------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Bemærk, at jo højere konfidenssandsynligheden er, desto bredere er konfidensintervallet.
+
+## Hypotesetestning
+
+I vores dataset med baseballspillere er der forskellige spillerroller, som kan opsummeres nedenfor (se den [tilhørende notebook](notebook.ipynb) for at se, hvordan denne tabel kan beregnes):
+
+| Rolle | Højde | Vægt | Antal |
+|--------------------|------------|------------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Vi kan bemærke, at middelhøjden for first basemen er højere end for second basemen. Derfor kan vi være fristet til at konkludere, at **first basemen er højere end second basemen**.
+
+> Denne erklæring kaldes **en hypotese**, fordi vi ikke ved, om det faktisk er sandt eller ej.
+
+Det er dog ikke altid indlysende, om vi kan drage denne konklusion. Fra diskussionen ovenfor ved vi, at hver middelværdi har et tilhørende konfidensinterval, og derfor kan denne forskel blot være en statistisk fejl. Vi har brug for en mere formel metode til at teste vores hypotese.
+
+Lad os beregne konfidensintervaller separat for højderne af first og second basemen:
+
+| Konfidens | First Basemen | Second Basemen |
+|-----------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Vi kan se, at under ingen konfidens overlapper intervallerne. Det beviser vores hypotese om, at first basemen er højere end second basemen.
+
+Mere formelt er problemet, vi løser, at undersøge, om **to sandsynlighedsfordelinger er ens**, eller i det mindste har de samme parametre. Afhængigt af fordelingen skal vi bruge forskellige tests til det. Hvis vi ved, at vores fordelinger er normale, kan vi anvende **[Student t-test](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+I Student t-test beregner vi den såkaldte **t-værdi**, som angiver forskellen mellem middelværdierne under hensyntagen til variansen. Det er påvist, at t-værdien følger **studentfordelingen**, hvilket giver os mulighed for at finde tærskelværdien for et givet konfidensniveau **p** (dette kan beregnes eller findes i numeriske tabeller). Vi sammenligner derefter t-værdien med denne tærskel for at godkende eller afvise hypotesen.
+
+I Python kan vi bruge **SciPy**-pakken, som inkluderer funktionen `ttest_ind` (ud over mange andre nyttige statistiske funktioner!). Den beregner t-værdien for os og udfører også den omvendte opslagning af konfidens p-værdien, så vi blot kan se på konfidensen for at drage konklusionen.
+
+For eksempel giver vores sammenligning mellem højderne af first og second basemen os følgende resultater:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+I vores tilfælde er p-værdien meget lav, hvilket betyder, at der er stærke beviser for, at first basemen er højere.
+
+Der er også forskellige andre typer hypoteser, som vi måske ønsker at teste, for eksempel:
+* At bevise, at en given stikprøve følger en bestemt fordeling. I vores tilfælde har vi antaget, at højderne er normalt fordelt, men det kræver formel statistisk verifikation.
+* At bevise, at middelværdien af en stikprøve svarer til en foruddefineret værdi.
+* At sammenligne middelværdierne af flere stikprøver (fx hvad er forskellen i lykkefølelse blandt forskellige aldersgrupper).
+
+## Lov om store tal og central grænseværdisætning
+
+En af grundene til, at normalfordelingen er så vigtig, er den såkaldte **central grænseværdisætning**. Antag, at vi har en stor stikprøve af uafhængige N værdier X1, ..., XN, udtaget fra en hvilken som helst fordeling med middelværdi μ og varians σ2. Så, for tilstrækkeligt store N (med andre ord, når N→∞), vil middelværdien ΣiXi være normalt fordelt med middelværdi μ og varians σ2/N.
+
+> En anden måde at fortolke den centrale grænseværdisætning på er at sige, at uanset fordelingen, når du beregner middelværdien af summen af vilkårlige stokastiske variabelværdier, ender du med en normalfordeling.
+
+Fra den centrale grænseværdisætning følger det også, at når N→∞, bliver sandsynligheden for, at stikprøvemiddelværdien er lig med μ, 1. Dette er kendt som **loven om store tal**.
+
+## Kovarians og korrelation
+
+En af de ting, Data Science gør, er at finde relationer mellem data. Vi siger, at to sekvenser **korrelerer**, når de udviser lignende adfærd på samme tid, dvs. de enten stiger/falder samtidig, eller én sekvens stiger, når en anden falder og omvendt. Med andre ord ser der ud til at være en relation mellem to sekvenser.
+
+> Korrelation indikerer ikke nødvendigvis en årsagssammenhæng mellem to sekvenser; nogle gange kan begge variabler afhænge af en ekstern årsag, eller det kan være rent tilfældigt, at de to sekvenser korrelerer. Dog er stærk matematisk korrelation en god indikation på, at to variabler på en eller anden måde er forbundet.
+
+Matematisk er det primære begreb, der viser relationen mellem to stokastiske variabler, **kovarians**, som beregnes sådan: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Vi beregner afvigelsen af begge variabler fra deres middelværdier og derefter produktet af disse afvigelser. Hvis begge variabler afviger sammen, vil produktet altid være en positiv værdi, der vil summere til positiv kovarians. Hvis begge variabler afviger ude af sync (dvs. én falder under gennemsnittet, når en anden stiger over gennemsnittet), vil vi altid få negative tal, der vil summere til negativ kovarians. Hvis afvigelserne ikke er afhængige, vil de summere til cirka nul.
+
+Den absolutte værdi af kovarians fortæller os ikke meget om, hvor stor korrelationen er, fordi den afhænger af størrelsen af de faktiske værdier. For at normalisere den kan vi dividere kovarians med standardafvigelsen af begge variabler for at få **korrelation**. Det gode ved korrelation er, at den altid ligger i intervallet [-1,1], hvor 1 indikerer stærk positiv korrelation mellem værdier, -1 - stærk negativ korrelation, og 0 - ingen korrelation overhovedet (variablerne er uafhængige).
+
+**Eksempel**: Vi kan beregne korrelationen mellem vægt og højde for baseballspillere fra det nævnte dataset:
+```python
+print(np.corrcoef(weights,heights))
+```
+Som resultat får vi **korrelationsmatrix** som denne:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Korrelationsmatrix C kan beregnes for et vilkårligt antal inputsekvenser S1, ..., Sn. Værdien af Cij er korrelationen mellem Si og Sj, og diagonalelementerne er altid 1 (hvilket også er selvkorrelationen af Si).
+
+I vores tilfælde indikerer værdien 0.53, at der er en vis korrelation mellem en persons vægt og højde. Vi kan også lave et scatterplot af én værdi mod den anden for at se relationen visuelt:
+
+
+
+> Flere eksempler på korrelation og kovarians kan findes i [den tilhørende notebook](notebook.ipynb).
+
+## Konklusion
+
+I denne sektion har vi lært:
+
+* grundlæggende statistiske egenskaber ved data, såsom middelværdi, varians, typetal og kvartiler
+* forskellige fordelinger af stokastiske variabler, herunder normalfordeling
+* hvordan man finder korrelation mellem forskellige egenskaber
+* hvordan man bruger matematiske og statistiske metoder til at bevise hypoteser
+* hvordan man beregner konfidensintervaller for stokastiske variabler givet en stikprøve
+
+Selvom dette bestemt ikke er en udtømmende liste over emner inden for sandsynlighed og statistik, bør det være nok til at give dig en god start på dette kursus.
+
+## 🚀 Udfordring
+
+Brug eksempelkoden i notebooken til at teste andre hypoteser:
+1. First basemen er ældre end second basemen
+2. First basemen er højere end third basemen
+3. Shortstops er højere end second basemen
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Gennemgang & Selvstudie
+
+Sandsynlighed og statistik er et så bredt emne, at det fortjener sit eget kursus. Hvis du er interesseret i at gå dybere ind i teorien, kan du overveje at læse nogle af følgende bøger:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) fra New York University har fremragende noter [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (tilgængelig online)
+1. [Peter og Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[eksempelkode i R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[eksempelkode i R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Opgave
+
+[Small Diabetes Study](assignment.md)
+
+## Credits
+
+Denne lektion er skrevet med ♥️ af [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/04-stats-and-probability/assignment.md b/translations/da/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..332619fb
--- /dev/null
+++ b/translations/da/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Lille Diabetesundersøgelse
+
+I denne opgave skal vi arbejde med et lille datasæt af diabetespatienter taget fra [her](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | ALDER | KØN | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-------|-----|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## Instruktioner
+
+* Åbn [opgavenotebooken](assignment.ipynb) i et jupyter notebook-miljø
+* Fuldfør alle opgaver, der er angivet i notebooken, nemlig:
+ * [ ] Beregn gennemsnitsværdier og varians for alle værdier
+ * [ ] Lav boksdiagrammer for BMI, BP og Y afhængigt af køn
+ * [ ] Hvad er fordelingen af variablerne Alder, Køn, BMI og Y?
+ * [ ] Test korrelationen mellem forskellige variabler og sygdomsprogression (Y)
+ * [ ] Test hypotesen om, at graden af diabetesprogression er forskellig mellem mænd og kvinder
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+Alle påkrævede opgaver er fuldført, grafisk illustreret og forklaret | De fleste opgaver er fuldført, forklaringer eller konklusioner fra grafer og/eller opnåede værdier mangler | Kun grundlæggende opgaver som beregning af gennemsnit/varians og grundlæggende diagrammer er fuldført, ingen konklusioner er lavet ud fra data
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/1-Introduction/README.md b/translations/da/1-Introduction/README.md
new file mode 100644
index 00000000..2626ad1d
--- /dev/null
+++ b/translations/da/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Introduktion til Data Science
+
+
+> Foto af Stephen Dawson på Unsplash
+
+I disse lektioner vil du opdage, hvordan Data Science defineres, og lære om de etiske overvejelser, som en dataforsker skal tage højde for. Du vil også lære, hvordan data defineres, og få en introduktion til statistik og sandsynlighed, de centrale akademiske områder inden for Data Science.
+
+### Emner
+
+1. [Definition af Data Science](01-defining-data-science/README.md)
+2. [Etik inden for Data Science](02-ethics/README.md)
+3. [Definition af Data](03-defining-data/README.md)
+4. [Introduktion til Statistik og Sandsynlighed](04-stats-and-probability/README.md)
+
+### Kreditering
+
+Disse lektioner er skrevet med ❤️ af [Nitya Narasimhan](https://twitter.com/nitya) og [Dmitry Soshnikov](https://twitter.com/shwars).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/05-relational-databases/README.md b/translations/da/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..9a097d1e
--- /dev/null
+++ b/translations/da/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Arbejde med data: Relationelle databaser
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Arbejde med data: Relationelle databaser - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Du har sandsynligvis brugt et regneark før til at gemme information. Du havde et sæt rækker og kolonner, hvor rækkerne indeholdt informationen (eller dataene), og kolonnerne beskrev informationen (nogle gange kaldet metadata). En relationel database er bygget på dette grundprincip med kolonner og rækker i tabeller, hvilket giver dig mulighed for at have information spredt over flere tabeller. Dette gør det muligt at arbejde med mere komplekse data, undgå duplikering og have fleksibilitet i måden, du udforsker dataene på. Lad os udforske begreberne i en relationel database.
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Det hele starter med tabeller
+
+En relationel database har tabeller som sin kerne. Ligesom med et regneark er en tabel en samling af kolonner og rækker. Rækkerne indeholder de data eller den information, vi ønsker at arbejde med, såsom navnet på en by eller mængden af nedbør. Kolonnerne beskriver de data, de gemmer.
+
+Lad os begynde vores udforskning ved at oprette en tabel til at gemme information om byer. Vi kunne starte med deres navn og land. Dette kunne gemmes i en tabel som følger:
+
+| By | Land |
+| -------- | ------------- |
+| Tokyo | Japan |
+| Atlanta | USA |
+| Auckland | New Zealand |
+
+Bemærk, at kolonnenavnene **by**, **land** og **befolkning** beskriver de data, der gemmes, og hver række har information om én by.
+
+## Begrænsninger ved en enkelt tabel
+
+Sandsynligvis virker tabellen ovenfor ret velkendt for dig. Lad os begynde at tilføje nogle yderligere data til vores voksende database - årlig nedbør (i millimeter). Vi fokuserer på årene 2018, 2019 og 2020. Hvis vi skulle tilføje det for Tokyo, kunne det se sådan ud:
+
+| By | Land | År | Mængde |
+| ----- | ----- | ---- | ------ |
+| Tokyo | Japan | 2020 | 1690 |
+| Tokyo | Japan | 2019 | 1874 |
+| Tokyo | Japan | 2018 | 1445 |
+
+Hvad bemærker du ved vores tabel? Du bemærker måske, at vi gentager byens navn og land igen og igen. Det kunne optage en hel del lagerplads og er stort set unødvendigt at have flere kopier af. Når alt kommer til alt, har Tokyo kun ét navn, vi er interesseret i.
+
+OK, lad os prøve noget andet. Lad os tilføje nye kolonner for hvert år:
+
+| By | Land | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokyo | Japan | 1445 | 1874 | 1690 |
+| Atlanta | USA | 1779 | 1111 | 1683 |
+| Auckland | New Zealand | 1386 | 942 | 1176 |
+
+Selvom dette undgår rækkeduplikering, tilføjer det et par andre udfordringer. Vi ville skulle ændre strukturen af vores tabel hver gang, der kommer et nyt år. Derudover vil det, efterhånden som vores data vokser, gøre det mere besværligt at hente og beregne værdier, hvis årene er kolonner.
+
+Dette er grunden til, at vi har brug for flere tabeller og relationer. Ved at opdele vores data kan vi undgå duplikering og få mere fleksibilitet i, hvordan vi arbejder med dataene.
+
+## Begrebet relationer
+
+Lad os vende tilbage til vores data og bestemme, hvordan vi vil opdele dem. Vi ved, at vi vil gemme navn og land for vores byer, så dette vil sandsynligvis fungere bedst i én tabel.
+
+| By | Land |
+| -------- | ------------- |
+| Tokyo | Japan |
+| Atlanta | USA |
+| Auckland | New Zealand |
+
+Men før vi opretter den næste tabel, skal vi finde ud af, hvordan vi refererer til hver by. Vi har brug for en form for identifikator, ID eller (i tekniske databasetermer) en primær nøgle. En primær nøgle er en værdi, der bruges til at identificere en specifik række i en tabel. Selvom dette kunne baseres på en værdi i sig selv (vi kunne for eksempel bruge byens navn), bør det næsten altid være et nummer eller en anden identifikator. Vi ønsker ikke, at ID'et nogensinde ændrer sig, da det ville bryde relationen. I de fleste tilfælde vil den primære nøgle eller ID være et automatisk genereret nummer.
+
+> ✅ Primær nøgle forkortes ofte som PK
+
+### byer
+
+| by_id | By | Land |
+| ----- | -------- | ------------- |
+| 1 | Tokyo | Japan |
+| 2 | Atlanta | USA |
+| 3 | Auckland | New Zealand |
+
+> ✅ Du vil bemærke, at vi bruger termerne "id" og "primær nøgle" i flæng under denne lektion. Begreberne her gælder også for DataFrames, som du vil udforske senere. DataFrames bruger ikke terminologien "primær nøgle", men du vil bemærke, at de opfører sig på samme måde.
+
+Med vores byer-tabel oprettet, lad os gemme nedbøren. I stedet for at duplikere de fulde oplysninger om byen, kan vi bruge ID'et. Vi bør også sikre, at den nyoprettede tabel har en *id*-kolonne, da alle tabeller bør have et ID eller en primær nøgle.
+
+### nedbør
+
+| nedbør_id | by_id | År | Mængde |
+| --------- | ----- | ---- | ------ |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Bemærk kolonnen **by_id** i den nyoprettede **nedbør**-tabel. Denne kolonne indeholder værdier, der refererer til ID'erne i **byer**-tabellen. I tekniske relationelle datatermer kaldes dette en **fremmed nøgle**; det er en primær nøgle fra en anden tabel. Du kan bare tænke på det som en reference eller en pegepind. **by_id** 1 refererer til Tokyo.
+
+> [!NOTE] Fremmed nøgle forkortes ofte som FK
+
+## Hentning af data
+
+Med vores data opdelt i to tabeller undrer du dig måske over, hvordan vi henter dem. Hvis vi bruger en relationel database som MySQL, SQL Server eller Oracle, kan vi bruge et sprog kaldet Structured Query Language eller SQL. SQL (nogle gange udtalt "sequel") er et standardiseret sprog, der bruges til at hente og ændre data i en relationel database.
+
+For at hente data bruger du kommandoen `SELECT`. Grundlæggende **vælger** du de kolonner, du vil se, **fra** den tabel, de er indeholdt i. Hvis du kun ville vise navnene på byerne, kunne du bruge følgende:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` er, hvor du angiver kolonnerne, og `FROM` er, hvor du angiver tabellerne.
+
+> [NOTE] SQL-syntaks er ikke skelnen mellem store og små bogstaver, hvilket betyder, at `select` og `SELECT` betyder det samme. Dog kan kolonner og tabeller være skelnen mellem store og små bogstaver afhængigt af typen af database, du bruger. Derfor er det en god praksis altid at behandle alt i programmering, som om det er skelnen mellem store og små bogstaver. Når du skriver SQL-forespørgsler, er det almindelig konvention at skrive nøgleordene med store bogstaver.
+
+Forespørgslen ovenfor vil vise alle byer. Lad os forestille os, at vi kun ville vise byer i New Zealand. Vi har brug for en form for filter. SQL-nøgleordet for dette er `WHERE`, eller "hvor noget er sandt".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Sammenkædning af data
+
+Indtil nu har vi hentet data fra en enkelt tabel. Nu vil vi samle dataene fra både **byer** og **nedbør**. Dette gøres ved at *sammenkæde* dem. Du vil i bund og grund skabe en forbindelse mellem de to tabeller og matche værdierne fra en kolonne i hver tabel.
+
+I vores eksempel vil vi matche kolonnen **by_id** i **nedbør** med kolonnen **by_id** i **byer**. Dette vil matche nedbørsværdien med dens respektive by. Den type sammenkædning, vi vil udføre, kaldes en *indre* sammenkædning, hvilket betyder, at hvis nogen rækker ikke matcher noget fra den anden tabel, vil de ikke blive vist. I vores tilfælde har hver by nedbør, så alt vil blive vist.
+
+Lad os hente nedbøren for 2019 for alle vores byer.
+
+Vi gør dette i trin. Det første trin er at sammenkæde dataene ved at angive kolonnerne for forbindelsen - **by_id**, som fremhævet før.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Vi har fremhævet de to kolonner, vi ønsker, og det faktum, at vi vil sammenkæde tabellerne ved hjælp af **by_id**. Nu kan vi tilføje `WHERE`-sætningen for kun at filtrere år 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Opsummering
+
+Relationelle databaser er centreret omkring at opdele information mellem flere tabeller, som derefter samles igen til visning og analyse. Dette giver en høj grad af fleksibilitet til at udføre beregninger og på anden måde manipulere data. Du har set de grundlæggende begreber i en relationel database, og hvordan man udfører en sammenkædning mellem to tabeller.
+
+## 🚀 Udfordring
+
+Der findes adskillige relationelle databaser på internettet. Du kan udforske dataene ved at bruge de færdigheder, du har lært ovenfor.
+
+## Quiz efter lektionen
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Gennemgang & Selvstudie
+
+Der er flere ressourcer tilgængelige på [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum), som du kan bruge til at fortsætte din udforskning af SQL og relationelle databasebegreber.
+
+- [Beskriv begreberne i relationelle data](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Kom i gang med forespørgsler i Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL er en version af SQL)
+- [SQL-indhold på Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Opgave
+
+[Opgavetitel](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/05-relational-databases/assignment.md b/translations/da/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..670246c4
--- /dev/null
+++ b/translations/da/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Vise lufthavnsdata
+
+Du har fået en [database](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) bygget på [SQLite](https://sqlite.org/index.html), som indeholder information om lufthavne. Skemaet vises nedenfor. Du vil bruge [SQLite-udvidelsen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) i [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) til at vise information om forskellige byers lufthavne.
+
+## Instruktioner
+
+For at komme i gang med opgaven skal du udføre et par trin. Du skal installere nogle værktøjer og downloade eksempeldatabasen.
+
+### Opsæt dit system
+
+Du kan bruge Visual Studio Code og SQLite-udvidelsen til at interagere med databasen.
+
+1. Gå til [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) og følg instruktionerne for at installere Visual Studio Code
+1. Installer [SQLite-udvidelsen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) som beskrevet på Marketplace-siden
+
+### Download og åbn databasen
+
+Dernæst skal du downloade og åbne databasen.
+
+1. Download [databasefilen fra GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) og gem den i en mappe
+1. Åbn Visual Studio Code
+1. Åbn databasen i SQLite-udvidelsen ved at vælge **Ctrl-Shift-P** (eller **Cmd-Shift-P** på en Mac) og skrive `SQLite: Open database`
+1. Vælg **Choose database from file** og åbn **airports.db**-filen, som du downloadede tidligere
+1. Efter at have åbnet databasen (du vil ikke se en opdatering på skærmen), opret et nyt forespørgselsvindue ved at vælge **Ctrl-Shift-P** (eller **Cmd-Shift-P** på en Mac) og skrive `SQLite: New query`
+
+Når det nye forespørgselsvindue er åbent, kan det bruges til at køre SQL-forespørgsler mod databasen. Du kan bruge kommandoen **Ctrl-Shift-Q** (eller **Cmd-Shift-Q** på en Mac) til at køre forespørgsler mod databasen.
+
+> [!NOTE] For mere information om SQLite-udvidelsen kan du konsultere [dokumentationen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Databaseskema
+
+En databases skema er dens tabeldesign og struktur. **airports**-databasen har to tabeller, `cities`, som indeholder en liste over byer i Storbritannien og Irland, og `airports`, som indeholder listen over alle lufthavne. Da nogle byer kan have flere lufthavne, blev der oprettet to tabeller til at gemme informationen. I denne øvelse vil du bruge joins til at vise information for forskellige byer.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK til id i **Cities**) |
+
+## Opgave
+
+Opret forespørgsler for at returnere følgende information:
+
+1. alle bynavne i `Cities`-tabellen
+1. alle byer i Irland i `Cities`-tabellen
+1. alle lufthavnsnavne med deres by og land
+1. alle lufthavne i London, Storbritannien
+
+## Bedømmelseskriterier
+
+| Fremragende | Tilstrækkelig | Kræver forbedring |
+| ----------- | ------------- | ----------------- |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/06-non-relational/README.md b/translations/da/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..5bca89e6
--- /dev/null
+++ b/translations/da/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Arbejde med data: Ikke-relationelle data
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Arbejde med NoSQL-data - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Data er ikke begrænset til relationelle databaser. Denne lektion fokuserer på ikke-relationelle data og vil dække grundlæggende om regneark og NoSQL.
+
+## Regneark
+
+Regneark er en populær måde at gemme og udforske data på, fordi det kræver mindre arbejde at opsætte og komme i gang. I denne lektion vil du lære de grundlæggende komponenter i et regneark, samt formler og funktioner. Eksemplerne vil blive illustreret med Microsoft Excel, men de fleste dele og emner vil have lignende navne og trin sammenlignet med andre regnearksprogrammer.
+
+
+
+Et regneark er en fil og vil være tilgængelig i filsystemet på en computer, enhed eller skybaseret filsystem. Selve softwaren kan være browserbaseret eller en applikation, der skal installeres på en computer eller downloades som en app. I Excel defineres disse filer også som **arbejdsbøger**, og denne terminologi vil blive brugt resten af lektionen.
+
+En arbejdsbog indeholder et eller flere **regneark**, hvor hvert regneark er mærket med faner. Inden for et regneark er der rektangler kaldet **celler**, som indeholder de faktiske data. En celle er skæringspunktet mellem en række og en kolonne, hvor kolonnerne er mærket med alfabetiske tegn og rækkerne numerisk. Nogle regneark vil indeholde overskrifter i de første par rækker for at beskrive dataene i en celle.
+
+Med disse grundlæggende elementer i en Excel-arbejdsbog vil vi bruge et eksempel fra [Microsoft Templates](https://templates.office.com/) med fokus på et lager for at gennemgå nogle yderligere dele af et regneark.
+
+### Håndtering af et lager
+
+Regnearksfilen kaldet "InventoryExample" er et formateret regneark med varer i et lager, der indeholder tre regneark, hvor fanerne er mærket "Inventory List", "Inventory Pick List" og "Bin Lookup". Række 4 i regnearket Inventory List er overskriften, som beskriver værdien af hver celle i overskriftskolonnen.
+
+
+
+Der er tilfælde, hvor en celle er afhængig af værdierne i andre celler for at generere sin værdi. Lagerlisten holder styr på omkostningerne for hver vare i lageret, men hvad hvis vi skal kende værdien af alt i lageret? [**Formler**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) udfører handlinger på celldata og bruges til at beregne lagerets værdi i dette eksempel. Dette regneark brugte en formel i kolonnen Inventory Value til at beregne værdien af hver vare ved at multiplicere mængden under overskriften QTY og dens omkostninger under overskriften COST. Dobbeltklik eller fremhæv en celle for at se formlen. Du vil bemærke, at formler starter med et lighedstegn, efterfulgt af beregningen eller operationen.
+
+
+
+Vi kan bruge en anden formel til at lægge alle værdierne i Inventory Value sammen for at få den samlede værdi. Dette kunne beregnes ved at tilføje hver celle for at generere summen, men det kan være en tidskrævende opgave. Excel har [**funktioner**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), eller foruddefinerede formler til at udføre beregninger på celldata. Funktioner kræver argumenter, som er de nødvendige værdier, der bruges til at udføre disse beregninger. Når funktioner kræver mere end ét argument, skal de angives i en bestemt rækkefølge, ellers beregner funktionen muligvis ikke den korrekte værdi. Dette eksempel bruger SUM-funktionen og bruger værdierne i Inventory Value som argumentet for at generere summen, der er angivet under række 3, kolonne B (også kaldet B3).
+
+## NoSQL
+
+NoSQL er en paraplybetegnelse for de forskellige måder at gemme ikke-relationelle data på og kan tolkes som "non-SQL", "non-relationel" eller "not only SQL". Disse typer databasesystemer kan kategoriseres i 4 typer.
+
+
+> Kilde fra [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[Nøgle-værdi](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) databaser parrer unikke nøgler, som er en unik identifikator knyttet til en værdi. Disse par gemmes ved hjælp af en [hash-tabel](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) med en passende hash-funktion.
+
+
+> Kilde fra [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[Graf](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) databaser beskriver relationer i data og er repræsenteret som en samling af noder og kanter. En node repræsenterer en enhed, noget der eksisterer i den virkelige verden, såsom en studerende eller en bankudskrift. Kanter repræsenterer relationen mellem to enheder. Hver node og kant har egenskaber, der giver yderligere information om hver node og kant.
+
+
+
+[Kolonnær](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) datastores organiserer data i kolonner og rækker som en relationel datastruktur, men hver kolonne er opdelt i grupper kaldet en kolonnefamilie, hvor alle data under én kolonne er relaterede og kan hentes og ændres som en enhed.
+
+### Dokumentdatastores med Azure Cosmos DB
+
+[Dokument](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) datastores bygger på konceptet med en nøgle-værdi-datastore og består af en række felter og objekter. Denne sektion vil udforske dokumentdatabaser med Cosmos DB-emulatoren.
+
+En Cosmos DB-database passer til definitionen af "Not Only SQL", hvor Cosmos DB's dokumentdatabase bruger SQL til at forespørge data. [Den tidligere lektion](../05-relational-databases/README.md) om SQL dækker grundlæggende om sproget, og vi vil kunne anvende nogle af de samme forespørgsler på en dokumentdatabase her. Vi vil bruge Cosmos DB Emulator, som giver os mulighed for at oprette og udforske en dokumentdatabase lokalt på en computer. Læs mere om Emulatoren [her](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Et dokument er en samling af felter og objektværdier, hvor felterne beskriver, hvad objektværdien repræsenterer. Nedenfor er et eksempel på et dokument.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+De interessante felter i dette dokument er: `firstname`, `id` og `age`. Resten af felterne med understregerne blev genereret af Cosmos DB.
+
+#### Udforskning af data med Cosmos DB Emulator
+
+Du kan downloade og installere emulatoren [til Windows her](https://aka.ms/cosmosdb-emulator). Se denne [dokumentation](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) for muligheder for at køre Emulatoren på macOS og Linux.
+
+Emulatoren åbner et browservindue, hvor Explorer-visningen giver dig mulighed for at udforske dokumenter.
+
+
+
+Hvis du følger med, skal du klikke på "Start with Sample" for at generere en prøvedatabase kaldet SampleDB. Hvis du udvider SampleDB ved at klikke på pilen, finder du en container kaldet `Persons`. En container indeholder en samling af elementer, som er dokumenterne inden for containeren. Du kan udforske de fire individuelle dokumenter under `Items`.
+
+
+
+#### Forespørgsel på dokumentdata med Cosmos DB Emulator
+
+Vi kan også forespørge prøvedataene ved at klikke på knappen "New SQL Query" (anden knap fra venstre).
+
+`SELECT * FROM c` returnerer alle dokumenterne i containeren. Lad os tilføje en where-sætning og finde alle under 40 år.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Forespørgslen returnerer to dokumenter. Bemærk, at alder-værdien for hvert dokument er mindre end 40.
+
+#### JSON og dokumenter
+
+Hvis du er bekendt med JavaScript Object Notation (JSON), vil du bemærke, at dokumenter ligner JSON. Der er en `PersonsData.json`-fil i denne mappe med flere data, som du kan uploade til containeren Persons i Emulatoren via knappen `Upload Item`.
+
+I de fleste tilfælde kan API'er, der returnerer JSON-data, direkte overføres og gemmes i dokumentdatabaser. Nedenfor er et andet dokument, der repræsenterer tweets fra Microsofts Twitter-konto, som blev hentet ved hjælp af Twitter API og derefter indsat i Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+De interessante felter i dette dokument er: `created_at`, `id` og `text`.
+
+## 🚀 Udfordring
+
+Der er en `TwitterData.json`-fil, som du kan uploade til SampleDB-databasen. Det anbefales, at du tilføjer den til en separat container. Dette kan gøres ved:
+
+1. Klikke på knappen "New Container" øverst til højre
+1. Vælge den eksisterende database (SampleDB) og oprette et container-id til containeren
+1. Indstille partitionsnøglen til `/id`
+1. Klikke på OK (du kan ignorere resten af informationen i denne visning, da dette er et lille datasæt, der kører lokalt på din maskine)
+1. Åbne din nye container og uploade Twitter Data-filen med knappen `Upload Item`
+
+Prøv at køre nogle SELECT-forespørgsler for at finde dokumenterne, der har Microsoft i tekstfeltet. Tip: prøv at bruge [LIKE nøgleordet](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Gennemgang & Selvstudie
+
+- Der er nogle yderligere formateringer og funktioner tilføjet til dette regneark, som denne lektion ikke dækker. Microsoft har et [stort bibliotek af dokumentation og videoer](https://support.microsoft.com/excel) om Excel, hvis du er interesseret i at lære mere.
+
+- Denne arkitekturdokumentation beskriver egenskaberne ved de forskellige typer ikke-relationelle data: [Ikke-relationelle data og NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Cosmos DB er en skybaseret ikke-relationel database, der også kan gemme de forskellige NoSQL-typer, der er nævnt i denne lektion. Lær mere om disse typer i dette [Cosmos DB Microsoft Learn Module](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Opgave
+
+[Soda Profits](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/06-non-relational/assignment.md b/translations/da/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..0688c126
--- /dev/null
+++ b/translations/da/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Sodavandsfortjenester
+
+## Instruktioner
+
+[Coca Cola Co-regnearket](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) mangler nogle beregninger. Din opgave er at:
+
+1. Beregne bruttofortjenesten for regnskabsårene '15, '16, '17 og '18
+ - Bruttofortjeneste = Netto driftsindtægter - Vareforbrug
+1. Beregne gennemsnittet af alle bruttofortjenester. Prøv at gøre dette med en funktion.
+ - Gennemsnit = Summen af bruttofortjenester divideret med antallet af regnskabsår (10)
+ - Dokumentation om [AVERAGE-funktionen](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Dette er en Excel-fil, men den bør kunne redigeres i enhver regnearksplatform
+
+[Datakilde kredit til Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/07-python/README.md b/translations/da/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..48bfa9bf
--- /dev/null
+++ b/translations/da/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Arbejde med Data: Python og Pandas-biblioteket
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Arbejde med Python - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Selvom databaser tilbyder meget effektive måder at gemme data og forespørge dem ved hjælp af forespørgselssprog, er den mest fleksible måde at bearbejde data på at skrive dit eget program til at manipulere data. I mange tilfælde vil en databaseforespørgsel være en mere effektiv løsning. Men i nogle tilfælde, hvor mere kompleks databehandling er nødvendig, kan det ikke nemt gøres med SQL.
+Databehandling kan programmeres i ethvert programmeringssprog, men der er visse sprog, der er mere avancerede med hensyn til arbejde med data. Dataforskere foretrækker typisk et af følgende sprog:
+
+* **[Python](https://www.python.org/)**, et generelt programmeringssprog, som ofte betragtes som en af de bedste muligheder for begyndere på grund af dets enkelhed. Python har mange ekstra biblioteker, der kan hjælpe dig med at løse praktiske problemer, såsom at udtrække data fra en ZIP-arkiv eller konvertere et billede til gråtoner. Ud over data science bruges Python også ofte til webudvikling.
+* **[R](https://www.r-project.org/)** er et traditionelt værktøj udviklet med statistisk databehandling i tankerne. Det indeholder også et stort bibliotek af pakker (CRAN), hvilket gør det til et godt valg til databehandling. Dog er R ikke et generelt programmeringssprog og bruges sjældent uden for data science-domænet.
+* **[Julia](https://julialang.org/)** er et andet sprog udviklet specifikt til data science. Det er designet til at give bedre ydeevne end Python, hvilket gør det til et fremragende værktøj til videnskabelige eksperimenter.
+
+I denne lektion vil vi fokusere på at bruge Python til simpel databehandling. Vi antager grundlæggende kendskab til sproget. Hvis du ønsker en dybere introduktion til Python, kan du henvise til en af følgende ressourcer:
+
+* [Lær Python på en sjov måde med Turtle Graphics og Fractals](https://github.com/shwars/pycourse) - GitHub-baseret hurtig introduktionskursus til Python-programmering
+* [Tag dine første skridt med Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Læringssti på [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Data kan komme i mange former. I denne lektion vil vi se på tre former for data - **tabulære data**, **tekst** og **billeder**.
+
+Vi vil fokusere på nogle få eksempler på databehandling i stedet for at give dig en fuld oversigt over alle relaterede biblioteker. Dette vil give dig en idé om, hvad der er muligt, og efterlade dig med en forståelse af, hvor du kan finde løsninger på dine problemer, når du har brug for dem.
+
+> **Det mest nyttige råd**. Når du skal udføre en bestemt operation på data, som du ikke ved, hvordan du gør, så prøv at søge efter det på internettet. [Stackoverflow](https://stackoverflow.com/) indeholder ofte mange nyttige kodeeksempler i Python til mange typiske opgaver.
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Tabulære Data og Dataframes
+
+Du har allerede stiftet bekendtskab med tabulære data, da vi talte om relationelle databaser. Når du har mange data, og de er indeholdt i mange forskellige sammenkædede tabeller, giver det bestemt mening at bruge SQL til at arbejde med dem. Men der er mange tilfælde, hvor vi har en tabel med data, og vi skal opnå en **forståelse** eller **indsigt** om disse data, såsom fordeling, korrelation mellem værdier osv. I data science er der mange tilfælde, hvor vi skal udføre nogle transformationer af de oprindelige data, efterfulgt af visualisering. Begge disse trin kan nemt udføres med Python.
+
+Der er to mest nyttige biblioteker i Python, der kan hjælpe dig med at arbejde med tabulære data:
+* **[Pandas](https://pandas.pydata.org/)** giver dig mulighed for at manipulere såkaldte **Dataframes**, som er analoge med relationelle tabeller. Du kan have navngivne kolonner og udføre forskellige operationer på rækker, kolonner og dataframes generelt.
+* **[Numpy](https://numpy.org/)** er et bibliotek til at arbejde med **tensore**, dvs. multidimensionelle **arrays**. Arrays har værdier af samme underliggende type og er enklere end dataframes, men de tilbyder flere matematiske operationer og skaber mindre overhead.
+
+Der er også et par andre biblioteker, du bør kende til:
+* **[Matplotlib](https://matplotlib.org/)** er et bibliotek, der bruges til datavisualisering og graftegning
+* **[SciPy](https://www.scipy.org/)** er et bibliotek med nogle ekstra videnskabelige funktioner. Vi er allerede stødt på dette bibliotek, da vi talte om sandsynlighed og statistik
+
+Her er et stykke kode, som du typisk vil bruge til at importere disse biblioteker i begyndelsen af dit Python-program:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas er centreret omkring nogle få grundlæggende begreber.
+
+### Series
+
+**Series** er en sekvens af værdier, der ligner en liste eller numpy-array. Den største forskel er, at en series også har en **indeks**, og når vi opererer på series (f.eks. lægger dem sammen), tages indekset i betragtning. Indekset kan være så simpelt som et heltal (det er standardindekset, når man opretter en series fra en liste eller et array), eller det kan have en kompleks struktur, såsom et datointerval.
+
+> **Bemærk**: Der er noget introducerende Pandas-kode i den medfølgende notebook [`notebook.ipynb`](notebook.ipynb). Vi skitserer kun nogle af eksemplerne her, og du er bestemt velkommen til at tjekke hele notebooken.
+
+Lad os tage et eksempel: vi vil analysere salget fra vores isbod. Lad os generere en series af salgsnumre (antal solgte varer hver dag) for en given tidsperiode:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Antag nu, at vi hver uge arrangerer en fest for venner, og vi tager yderligere 10 pakker is med til festen. Vi kan oprette en anden series, indekseret efter uge, for at demonstrere dette:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Når vi lægger to series sammen, får vi det samlede antal:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Bemærk** at vi ikke bruger den simple syntaks `total_items+additional_items`. Hvis vi gjorde det, ville vi få mange `NaN` (*Not a Number*) værdier i den resulterende series. Dette skyldes, at der mangler værdier for nogle af indeksene i `additional_items`-serien, og at lægge `NaN` til noget resulterer i `NaN`. Derfor skal vi angive parameteren `fill_value` under additionen.
+
+Med tidsserier kan vi også **resample** serien med forskellige tidsintervaller. For eksempel, hvis vi vil beregne gennemsnitligt salgsvolumen månedligt, kan vi bruge følgende kode:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+En DataFrame er i bund og grund en samling af series med samme indeks. Vi kan kombinere flere series sammen til en DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Dette vil skabe en horisontal tabel som denne:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Vi kan også bruge Series som kolonner og angive kolonnenavne ved hjælp af en ordbog:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Dette vil give os en tabel som denne:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Bemærk** at vi også kan få dette tabel-layout ved at transponere den tidligere tabel, f.eks. ved at skrive
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Her betyder `.T` operationen at transponere DataFrame, dvs. bytte rækker og kolonner, og `rename`-operationen giver os mulighed for at omdøbe kolonnerne, så de matcher det tidligere eksempel.
+
+Her er nogle af de vigtigste operationer, vi kan udføre på DataFrames:
+
+**Kolonnevalg**. Vi kan vælge individuelle kolonner ved at skrive `df['A']` - denne operation returnerer en Series. Vi kan også vælge et underudvalg af kolonner til en anden DataFrame ved at skrive `df[['B','A']]` - dette returnerer en ny DataFrame.
+
+**Filtrering** af kun visse rækker baseret på kriterier. For eksempel, for kun at beholde rækker, hvor kolonnen `A` er større end 5, kan vi skrive `df[df['A']>5]`.
+
+> **Bemærk**: Sådan fungerer filtrering. Udtrykket `df['A']<5` returnerer en boolsk series, der angiver, om udtrykket er `True` eller `False` for hvert element i den oprindelige series `df['A']`. Når en boolsk series bruges som indeks, returnerer det et underudvalg af rækker i DataFrame. Derfor er det ikke muligt at bruge vilkårlige Python-boolske udtryk, f.eks. at skrive `df[df['A']>5 and df['A']<7]` ville være forkert. I stedet skal du bruge den specielle `&`-operation på boolske series, ved at skrive `df[(df['A']>5) & (df['A']<7)]` (*parenteser er vigtige her*).
+
+**Oprettelse af nye beregnelige kolonner**. Vi kan nemt oprette nye beregnelige kolonner til vores DataFrame ved at bruge intuitive udtryk som dette:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Dette eksempel beregner afvigelsen af A fra dens gennemsnitsværdi. Hvad der faktisk sker her, er, at vi beregner en series og derefter tildeler denne series til venstre side, hvilket skaber en ny kolonne. Derfor kan vi ikke bruge operationer, der ikke er kompatible med series, f.eks. nedenstående kode, som er forkert:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Det sidste eksempel, selvom det er syntaktisk korrekt, giver os et forkert resultat, fordi det tildeler længden af serien `B` til alle værdier i kolonnen og ikke længden af de individuelle elementer, som vi havde tænkt os.
+
+Hvis vi har brug for at beregne komplekse udtryk som dette, kan vi bruge funktionen `apply`. Det sidste eksempel kan skrives som følger:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Efter ovenstående operationer ender vi med følgende DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Valg af rækker baseret på numre** kan gøres ved hjælp af `iloc`-konstruktionen. For eksempel, for at vælge de første 5 rækker fra DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Gruppering** bruges ofte til at opnå et resultat, der ligner *pivot-tabeller* i Excel. Antag, at vi vil beregne gennemsnitsværdien af kolonnen `A` for hver given værdi af `LenB`. Så kan vi gruppere vores DataFrame efter `LenB` og kalde `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Hvis vi har brug for at beregne gennemsnit og antallet af elementer i gruppen, kan vi bruge den mere komplekse `aggregate`-funktion:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Dette giver os følgende tabel:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Hentning af Data
+Vi har set, hvor nemt det er at oprette Series og DataFrames fra Python-objekter. Dog kommer data ofte i form af en tekstfil eller en Excel-tabel. Heldigvis tilbyder Pandas en enkel måde at indlæse data fra disk. For eksempel er det lige så nemt at læse en CSV-fil som dette:
+```python
+df = pd.read_csv('file.csv')
+```
+Vi vil se flere eksempler på, hvordan man indlæser data, herunder at hente det fra eksterne websteder, i afsnittet "Udfordring".
+
+### Udskrivning og Visualisering
+
+En Data Scientist skal ofte udforske data, og derfor er det vigtigt at kunne visualisere dem. Når en DataFrame er stor, vil vi ofte bare sikre os, at vi gør alt korrekt, ved at udskrive de første par rækker. Dette kan gøres ved at kalde `df.head()`. Hvis du kører det fra Jupyter Notebook, vil det udskrive DataFrame i en pæn tabelform.
+
+Vi har også set brugen af funktionen `plot` til at visualisere nogle kolonner. Selvom `plot` er meget nyttig til mange opgaver og understøtter mange forskellige graf-typer via parameteren `kind=`, kan du altid bruge det rå `matplotlib`-bibliotek til at lave noget mere komplekst. Vi vil dække datavisualisering i detaljer i separate kursuslektioner.
+
+Denne oversigt dækker de vigtigste koncepter i Pandas, men biblioteket er meget rigt, og der er ingen grænser for, hvad du kan gøre med det! Lad os nu anvende denne viden til at løse et specifikt problem.
+
+## 🚀 Udfordring 1: Analyse af COVID-spredning
+
+Det første problem, vi vil fokusere på, er modellering af den epidemiske spredning af COVID-19. For at gøre dette vil vi bruge data om antallet af smittede personer i forskellige lande, leveret af [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) ved [Johns Hopkins University](https://jhu.edu/). Datasættet er tilgængeligt i [dette GitHub-repository](https://github.com/CSSEGISandData/COVID-19).
+
+Da vi ønsker at demonstrere, hvordan man arbejder med data, inviterer vi dig til at åbne [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) og læse det fra top til bund. Du kan også udføre celler og løse nogle udfordringer, vi har efterladt til dig i slutningen.
+
+
+
+> Hvis du ikke ved, hvordan man kører kode i Jupyter Notebook, kan du se [denne artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Arbejde med Ustrukturerede Data
+
+Selvom data meget ofte kommer i tabelform, skal vi i nogle tilfælde arbejde med mindre strukturerede data, for eksempel tekst eller billeder. I dette tilfælde skal vi for at anvende de databehandlingsteknikker, vi har set ovenfor, på en eller anden måde **udtrække** strukturerede data. Her er nogle eksempler:
+
+* Udtrække nøgleord fra tekst og se, hvor ofte disse nøgleord optræder
+* Bruge neurale netværk til at udtrække information om objekter på et billede
+* Få information om folks følelser fra et videokamerafeed
+
+## 🚀 Udfordring 2: Analyse af COVID-artikler
+
+I denne udfordring fortsætter vi med emnet COVID-pandemien og fokuserer på behandling af videnskabelige artikler om emnet. Der findes [CORD-19-datasættet](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) med mere end 7000 (på tidspunktet for skrivning) artikler om COVID, tilgængeligt med metadata og abstracts (og for omkring halvdelen af dem er der også fuld tekst tilgængelig).
+
+Et fuldt eksempel på analyse af dette datasæt ved hjælp af [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) kognitive tjeneste er beskrevet [i dette blogindlæg](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Vi vil diskutere en forenklet version af denne analyse.
+
+> **NOTE**: Vi leverer ikke en kopi af datasættet som en del af dette repository. Du skal muligvis først downloade filen [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) fra [dette datasæt på Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Registrering hos Kaggle kan være påkrævet. Du kan også downloade datasættet uden registrering [herfra](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), men det vil inkludere alle fulde tekster ud over metadatafilen.
+
+Åbn [`notebook-papers.ipynb`](notebook-papers.ipynb) og læs det fra top til bund. Du kan også udføre celler og løse nogle udfordringer, vi har efterladt til dig i slutningen.
+
+
+
+## Behandling af Billeddata
+
+For nylig er der udviklet meget kraftfulde AI-modeller, der gør det muligt for os at forstå billeder. Der er mange opgaver, der kan løses ved hjælp af forudtrænede neurale netværk eller cloud-tjenester. Nogle eksempler inkluderer:
+
+* **Billedklassifikation**, som kan hjælpe dig med at kategorisere billedet i en af de foruddefinerede klasser. Du kan nemt træne dine egne billedklassifikatorer ved hjælp af tjenester som [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Objektdetektion** til at finde forskellige objekter på billedet. Tjenester som [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) kan finde en række almindelige objekter, og du kan træne en [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)-model til at finde specifikke objekter af interesse.
+* **Ansigtsgenkendelse**, herunder alder, køn og følelsesdetektion. Dette kan gøres via [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Alle disse cloud-tjenester kan kaldes ved hjælp af [Python SDK'er](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) og kan derfor nemt integreres i din dataudforskningsarbejdsgang.
+
+Her er nogle eksempler på at udforske data fra billedkilder:
+* I blogindlægget [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) udforsker vi Instagram-billeder og forsøger at forstå, hvad der får folk til at give flere likes til et billede. Vi udtrækker først så meget information som muligt fra billeder ved hjælp af [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) og bruger derefter [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) til at bygge en fortolkelig model.
+* I [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) bruger vi [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) til at udtrække følelser fra mennesker på fotografier fra begivenheder for at forsøge at forstå, hvad der gør folk glade.
+
+## Konklusion
+
+Uanset om du allerede har strukturerede eller ustrukturerede data, kan du med Python udføre alle trin relateret til databehandling og forståelse. Det er sandsynligvis den mest fleksible måde at behandle data på, og det er grunden til, at størstedelen af dataforskere bruger Python som deres primære værktøj. At lære Python i dybden er sandsynligvis en god idé, hvis du er seriøs omkring din rejse inden for data science!
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Gennemgang & Selvstudie
+
+**Bøger**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Online Ressourcer**
+* Officiel [10 minutter til Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) tutorial
+* [Dokumentation om Pandas-visualisering](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Lær Python**
+* [Lær Python på en sjov måde med Turtle Graphics og Fraktaler](https://github.com/shwars/pycourse)
+* [Tag dine første skridt med Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Læringssti på [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Opgave
+
+[Udfør en mere detaljeret dataundersøgelse for ovenstående udfordringer](assignment.md)
+
+## Kreditering
+
+Denne lektion er skrevet med ♥️ af [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/07-python/assignment.md b/translations/da/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..4eef0887
--- /dev/null
+++ b/translations/da/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Opgave i Databehandling med Python
+
+I denne opgave vil vi bede dig om at uddybe den kode, vi er begyndt at udvikle i vores udfordringer. Opgaven består af to dele:
+
+## COVID-19 Spredningsmodellering
+
+ - [ ] Plot *R* grafer for 5-6 forskellige lande på én graf til sammenligning, eller brug flere grafer side om side.
+ - [ ] Undersøg, hvordan antallet af dødsfald og helbredelser korrelerer med antallet af smittede tilfælde.
+ - [ ] Find ud af, hvor længe en typisk sygdom varer ved visuelt at korrelere smittehastighed og dødsrate og lede efter nogle afvigelser. Du kan være nødt til at kigge på forskellige lande for at finde ud af det.
+ - [ ] Beregn dødelighedsraten, og hvordan den ændrer sig over tid. *Du kan overveje at tage sygdommens varighed i dage med i betragtning for at forskyde én tidsserie, før du udfører beregningerne.*
+
+## Analyse af COVID-19 Artikler
+
+- [ ] Byg en co-occurrence matrix for forskellige medicinpræparater, og se hvilke medicinpræparater der ofte nævnes sammen (dvs. nævnt i samme abstrakt). Du kan tilpasse koden til at bygge en co-occurrence matrix for medicin og diagnoser.
+- [ ] Visualisér denne matrix ved hjælp af et heatmap.
+- [ ] Som en ekstra udfordring, visualisér co-occurrence af medicin ved hjælp af [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram). [Dette bibliotek](https://pypi.org/project/chord/) kan hjælpe dig med at tegne et chord diagram.
+- [ ] Som en anden ekstra udfordring, udtræk doseringer af forskellige medicinpræparater (såsom **400mg** i *tag 400mg chloroquine dagligt*) ved hjælp af regulære udtryk, og byg en dataframe, der viser forskellige doseringer for forskellige medicinpræparater. **Bemærk**: Overvej numeriske værdier, der er i tæt tekstnærhed til medicinnavnet.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver Forbedring
+--- | --- | -- |
+Alle opgaver er fuldført, grafisk illustreret og forklaret, inklusive mindst ét af de to ekstra mål | Mere end 5 opgaver er fuldført, ingen ekstra mål er forsøgt, eller resultaterne er ikke klare | Færre end 5 (men mere end 3) opgaver er fuldført, visualiseringer hjælper ikke med at demonstrere pointen
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/08-data-preparation/README.md b/translations/da/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..c05dfe29
--- /dev/null
+++ b/translations/da/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# Arbejde med data: Dataklargøring
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Dataklargøring - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før lektion](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Afhængigt af kilden kan rå data indeholde nogle uoverensstemmelser, der skaber udfordringer i analyse og modellering. Med andre ord kan disse data kategoriseres som "beskidte" og skal renses. Denne lektion fokuserer på teknikker til at rense og transformere data for at håndtere udfordringer med manglende, unøjagtige eller ufuldstændige data. Emnerne i denne lektion vil benytte Python og Pandas-biblioteket og vil blive [demonstreret i notebooken](notebook.ipynb) i denne mappe.
+
+## Vigtigheden af at rense data
+
+- **Lettere at bruge og genbruge**: Når data er korrekt organiseret og normaliseret, bliver det lettere at søge, bruge og dele med andre.
+
+- **Konsistens**: Data science kræver ofte arbejde med mere end ét datasæt, hvor datasæt fra forskellige kilder skal kombineres. At sikre, at hvert enkelt datasæt har fælles standardisering, sikrer, at dataene stadig er brugbare, når de samles i ét datasæt.
+
+- **Modelnøjagtighed**: Rensede data forbedrer nøjagtigheden af de modeller, der er afhængige af dem.
+
+## Almindelige mål og strategier for datarensning
+
+- **Udforskning af et datasæt**: Dataudforskning, som dækkes i en [senere lektion](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), kan hjælpe dig med at identificere data, der skal renses. Visuel observation af værdier i et datasæt kan give en forventning om, hvordan resten af det vil se ud, eller give en idé om problemer, der kan løses. Udforskning kan involvere grundlæggende forespørgsler, visualiseringer og sampling.
+
+- **Formatering**: Afhængigt af kilden kan data have uoverensstemmelser i, hvordan de præsenteres. Dette kan skabe problemer med at søge efter og repræsentere værdier, hvor de ses i datasættet, men ikke er korrekt repræsenteret i visualiseringer eller forespørgselsresultater. Almindelige formateringsproblemer involverer at løse mellemrum, datoer og datatyper. At løse formateringsproblemer er typisk op til dem, der bruger dataene. For eksempel kan standarder for, hvordan datoer og tal præsenteres, variere fra land til land.
+
+- **Duplikationer**: Data med mere end én forekomst kan give unøjagtige resultater og bør normalt fjernes. Dette kan ofte ske, når to eller flere datasæt kombineres. Dog kan der være tilfælde, hvor duplikationer i kombinerede datasæt indeholder oplysninger, der kan være nyttige og derfor skal bevares.
+
+- **Manglende data**: Manglende data kan føre til unøjagtigheder samt svage eller forudindtagede resultater. Nogle gange kan dette løses ved at "genindlæse" dataene, udfylde de manglende værdier med beregninger og kode som Python, eller blot fjerne værdien og de tilhørende data. Der er mange grunde til, at data kan mangle, og de handlinger, der tages for at løse disse manglende værdier, kan afhænge af, hvordan og hvorfor de blev manglende.
+
+## Udforskning af DataFrame-information
+> **Læringsmål:** Ved slutningen af dette afsnit bør du være komfortabel med at finde generel information om data, der er gemt i pandas DataFrames.
+
+Når du har indlæst dine data i pandas, vil de sandsynligvis være i en DataFrame (se den tidligere [lektion](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) for en detaljeret oversigt). Men hvis datasættet i din DataFrame har 60.000 rækker og 400 kolonner, hvordan begynder du så at få en fornemmelse af, hvad du arbejder med? Heldigvis giver [pandas](https://pandas.pydata.org/) nogle praktiske værktøjer til hurtigt at få et overblik over en DataFrame samt de første og sidste rækker.
+
+For at udforske denne funktionalitet vil vi importere Python scikit-learn biblioteket og bruge et ikonisk datasæt: **Iris datasættet**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal længde (cm)|sepal bredde (cm)|petal længde (cm)|petal bredde (cm)|
+|----------------------------------------|-----------------|-----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: For at starte bruges `info()`-metoden til at udskrive en oversigt over indholdet i en `DataFrame`. Lad os se på dette datasæt for at se, hvad vi har:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Ud fra dette ved vi, at *Iris* datasættet har 150 poster i fire kolonner uden null-værdier. Alle data er gemt som 64-bit floating-point tal.
+
+- **DataFrame.head()**: For at tjekke det faktiske indhold af `DataFrame` bruger vi `head()`-metoden. Lad os se, hvordan de første rækker af vores `iris_df` ser ud:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Omvendt, for at tjekke de sidste rækker af `DataFrame`, bruger vi `tail()`-metoden:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Konklusion:** Bare ved at kigge på metadata om informationen i en DataFrame eller de første og sidste værdier, kan du få en umiddelbar idé om størrelsen, formen og indholdet af de data, du arbejder med.
+
+## Håndtering af manglende data
+> **Læringsmål:** Ved slutningen af dette afsnit bør du vide, hvordan du erstatter eller fjerner null-værdier fra DataFrames.
+
+Ofte vil de datasæt, du ønsker at bruge (eller er nødt til at bruge), have manglende værdier. Hvordan manglende data håndteres indebærer subtile afvejninger, der kan påvirke din endelige analyse og virkelige resultater.
+
+Pandas håndterer manglende værdier på to måder. Den første har du set før i tidligere afsnit: `NaN`, eller Not a Number. Dette er faktisk en speciel værdi, der er en del af IEEE floating-point specifikationen og bruges kun til at indikere manglende floating-point værdier.
+
+For manglende værdier udover floats bruger pandas Python-objektet `None`. Selvom det kan virke forvirrende, at du vil støde på to forskellige typer værdier, der i bund og grund siger det samme, er der gode programmatiske grunde til dette designvalg, og i praksis giver det pandas mulighed for at levere et godt kompromis for de fleste tilfælde. Ikke desto mindre har både `None` og `NaN` begrænsninger, som du skal være opmærksom på med hensyn til, hvordan de kan bruges.
+
+Læs mere om `NaN` og `None` i [notebooken](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Detektering af null-værdier**: I `pandas` er `isnull()` og `notnull()` dine primære metoder til at detektere null-data. Begge returnerer Boolean-masker over dine data. Vi vil bruge `numpy` til `NaN`-værdier:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Se nøje på outputtet. Overrasker noget dig? Selvom `0` er en aritmetisk null, er det stadig et gyldigt heltal, og pandas behandler det som sådan. `''` er lidt mere subtil. Selvom vi brugte det i afsnit 1 til at repræsentere en tom strengværdi, er det stadig et strengobjekt og ikke en repræsentation af null ifølge pandas.
+
+Nu vender vi dette om og bruger disse metoder på en måde, der ligner, hvordan du vil bruge dem i praksis. Du kan bruge Boolean-masker direkte som en ``Series`` eller ``DataFrame``-indeks, hvilket kan være nyttigt, når du arbejder med isolerede manglende (eller tilstedeværende) værdier.
+
+> **Konklusion**: Både `isnull()` og `notnull()` producerer lignende resultater, når du bruger dem i `DataFrame`s: de viser resultaterne og indekset for disse resultater, hvilket vil hjælpe dig enormt, når du arbejder med dine data.
+
+- **Fjernelse af null-værdier**: Ud over at identificere manglende værdier giver pandas en praktisk måde at fjerne null-værdier fra `Series` og `DataFrame`s. (Især i store datasæt er det ofte mere tilrådeligt blot at fjerne manglende [NA] værdier fra din analyse end at håndtere dem på andre måder.) For at se dette i praksis vender vi tilbage til `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Bemærk, at dette bør ligne dit output fra `example3[example3.notnull()]`. Forskellen her er, at i stedet for blot at indeksere på de maskerede værdier, har `dropna` fjernet de manglende værdier fra `Series` `example1`.
+
+Fordi `DataFrame`s har to dimensioner, giver de flere muligheder for at fjerne data.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Har du bemærket, at pandas opgraderede to af kolonnerne til floats for at rumme `NaN`'erne?)
+
+Du kan ikke fjerne en enkelt værdi fra en `DataFrame`, så du skal fjerne hele rækker eller kolonner. Afhængigt af hvad du laver, vil du måske gøre det ene eller det andet, og derfor giver pandas dig muligheder for begge dele. Fordi kolonner generelt repræsenterer variabler og rækker repræsenterer observationer i data science, er det mere sandsynligt, at du fjerner rækker af data; standardindstillingen for `dropna()` er at fjerne alle rækker, der indeholder null-værdier:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Hvis nødvendigt kan du fjerne NA-værdier fra kolonner. Brug `axis=1` for at gøre dette:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Bemærk, at dette kan fjerne mange data, som du måske vil beholde, især i mindre datasæt. Hvad hvis du kun vil fjerne rækker eller kolonner, der indeholder flere eller endda alle null-værdier? Du angiver disse indstillinger i `dropna` med parametrene `how` og `thresh`.
+
+Som standard er `how='any'` (hvis du vil tjekke det selv eller se, hvilke andre parametre metoden har, kan du køre `example4.dropna?` i en kodecelle). Du kan alternativt angive `how='all'` for kun at fjerne rækker eller kolonner, der indeholder alle null-værdier. Lad os udvide vores eksempel `DataFrame` for at se dette i praksis.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+Parameteren `thresh` giver dig mere finjusteret kontrol: du angiver antallet af *ikke-null* værdier, som en række eller kolonne skal have for at blive bevaret:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Her er den første og sidste række blevet fjernet, fordi de kun indeholder to ikke-null værdier.
+
+- **Udfyldning af null-værdier**: Afhængigt af dit datasæt kan det nogle gange give mere mening at udfylde null-værdier med gyldige værdier i stedet for at fjerne dem. Du kunne bruge `isnull` til at gøre dette direkte, men det kan være besværligt, især hvis du har mange værdier at udfylde. Fordi dette er en så almindelig opgave i data science, giver pandas `fillna`, som returnerer en kopi af `Series` eller `DataFrame` med de manglende værdier erstattet med en af dine valg. Lad os oprette et andet eksempel `Series` for at se, hvordan dette fungerer i praksis.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Du kan udfylde alle null-poster med en enkelt værdi, såsom `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Du kan **forward-fill** null-værdier, hvilket betyder at bruge den sidste gyldige værdi til at udfylde en null:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Du kan også **back-fill** for at propagere den næste gyldige værdi bagud for at udfylde en null:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Som du måske gætter, fungerer dette på samme måde med `DataFrame`s, men du kan også angive en `axis`, langs hvilken du vil udfylde null-værdier. Brug igen det tidligere anvendte `example2`:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Bemærk, at når en tidligere værdi ikke er tilgængelig for forward-fill, forbliver null-værdien.
+> **Vigtig pointe:** Der er flere måder at håndtere manglende værdier i dine datasæt. Den specifikke strategi, du vælger (at fjerne dem, erstatte dem eller hvordan du erstatter dem), bør afhænge af de specifikke detaljer i dataene. Du vil få en bedre forståelse af, hvordan man håndterer manglende værdier, jo mere du arbejder med og interagerer med datasæt.
+
+## Fjernelse af duplikerede data
+
+> **Læringsmål:** Ved slutningen af denne del bør du være komfortabel med at identificere og fjerne duplikerede værdier fra DataFrames.
+
+Ud over manglende data vil du ofte støde på duplikerede data i virkelige datasæt. Heldigvis tilbyder `pandas` en nem metode til at opdage og fjerne duplikerede poster.
+
+- **Identificering af duplikater: `duplicated`**: Du kan nemt finde duplikerede værdier ved hjælp af metoden `duplicated` i pandas, som returnerer en Boolean-maske, der angiver, om en post i en `DataFrame` er en duplikat af en tidligere. Lad os oprette et andet eksempel på en `DataFrame` for at se dette i praksis.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |bogstaver|tal |
+|------|---------|------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Fjernelse af duplikater: `drop_duplicates`:** returnerer simpelthen en kopi af dataene, hvor alle `duplicated` værdier er `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Både `duplicated` og `drop_duplicates` undersøger som standard alle kolonner, men du kan specificere, at de kun skal undersøge et delmængde af kolonner i din `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Vigtig pointe:** Fjernelse af duplikerede data er en essentiel del af næsten hvert data science-projekt. Duplikerede data kan ændre resultaterne af dine analyser og give dig unøjagtige resultater!
+
+
+## 🚀 Udfordring
+
+Alt det diskuterede materiale er tilgængeligt som en [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Derudover er der øvelser efter hver sektion – prøv dem!
+
+## [Quiz efter forelæsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Gennemgang & Selvstudie
+
+Der findes mange måder at opdage og tilgå forberedelse af dine data til analyse og modellering, og rengøring af data er et vigtigt trin, der kræver praktisk erfaring. Prøv disse udfordringer fra Kaggle for at udforske teknikker, som denne lektion ikke dækkede.
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Opgave
+
+[Evaluering af data fra en formular](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/08-data-preparation/assignment.md b/translations/da/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..6cb712cb
--- /dev/null
+++ b/translations/da/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Evaluering af data fra en formular
+
+En kunde har testet en [lille formular](../../../../2-Working-With-Data/08-data-preparation/index.html) for at indsamle nogle grundlæggende oplysninger om deres kundebase. De har givet dig deres resultater for at validere de data, de har indsamlet. Du kan åbne `index.html`-siden i browseren for at se formularen.
+
+Du har fået udleveret et [datasæt med csv-poster](../../../../data/form.csv), der indeholder indtastninger fra formularen samt nogle grundlæggende visualiseringer. Kunden har påpeget, at nogle af visualiseringerne ser forkerte ud, men de er usikre på, hvordan de skal løse problemet. Du kan udforske det i [opgavenotebogen](assignment.ipynb).
+
+## Instruktioner
+
+Brug teknikkerne fra denne lektion til at komme med anbefalinger til, hvordan formularen kan tilpasses, så den indsamler præcise og konsistente oplysninger.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | ---
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/2-Working-With-Data/README.md b/translations/da/2-Working-With-Data/README.md
new file mode 100644
index 00000000..7817eed8
--- /dev/null
+++ b/translations/da/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Arbejde med data
+
+
+> Foto af Alexander Sinn på Unsplash
+
+I disse lektioner vil du lære nogle af de måder, data kan administreres, manipuleres og bruges i applikationer. Du vil lære om relationelle og ikke-relationelle databaser, og hvordan data kan gemmes i dem. Du vil lære grundlæggende om at arbejde med Python til at administrere data, og du vil opdage nogle af de mange måder, du kan arbejde med Python til at administrere og udvinde data.
+
+### Emner
+
+1. [Relationelle databaser](05-relational-databases/README.md)
+2. [Ikke-relationelle databaser](06-non-relational/README.md)
+3. [Arbejde med Python](07-python/README.md)
+4. [Forberedelse af data](08-data-preparation/README.md)
+
+### Kreditering
+
+Disse lektioner blev skrevet med ❤️ af [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) og [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/09-visualization-quantities/README.md b/translations/da/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..b56eded0
--- /dev/null
+++ b/translations/da/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Visualisering af mængder
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisering af mængder - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+I denne lektion vil du udforske, hvordan du kan bruge en af de mange tilgængelige Python-biblioteker til at lære at skabe interessante visualiseringer omkring begrebet mængde. Ved at bruge et renset datasæt om fuglene i Minnesota kan du lære mange interessante fakta om det lokale dyreliv.
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observer vingefang med Matplotlib
+
+Et fremragende bibliotek til at skabe både simple og avancerede grafer og diagrammer af forskellige slags er [Matplotlib](https://matplotlib.org/stable/index.html). Generelt indebærer processen med at plotte data ved hjælp af disse biblioteker at identificere de dele af din dataframe, du vil fokusere på, udføre nødvendige transformationer på dataene, tildele værdier til x- og y-aksen, beslutte hvilken type diagram der skal vises, og derefter vise diagrammet. Matplotlib tilbyder et stort udvalg af visualiseringer, men for denne lektion vil vi fokusere på dem, der er mest passende til at visualisere mængder: linjediagrammer, scatterplots og søjlediagrammer.
+
+> ✅ Brug det bedste diagram til at passe til din datas struktur og den historie, du vil fortælle.
+> - For at analysere trends over tid: linje
+> - For at sammenligne værdier: søjle, kolonne, cirkel, scatterplot
+> - For at vise, hvordan dele relaterer sig til helheden: cirkel
+> - For at vise datafordeling: scatterplot, søjle
+> - For at vise trends: linje, kolonne
+> - For at vise relationer mellem værdier: linje, scatterplot, boble
+
+Hvis du har et datasæt og skal finde ud af, hvor meget der er af en given genstand, vil en af de første opgaver være at inspicere dens værdier.
+
+✅ Der findes meget gode 'cheat sheets' til Matplotlib [her](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Byg et linjediagram over fuglenes vingefangsværdier
+
+Åbn filen `notebook.ipynb` i roden af denne lektionsmappe og tilføj en celle.
+
+> Bemærk: dataene er gemt i roden af dette repo i mappen `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Disse data er en blanding af tekst og tal:
+
+| | Navn | VidenskabeligtNavn | Kategori | Orden | Familie | Slægt | Bevaringsstatus | MinLængde | MaxLængde | MinKropsmasse | MaxKropsmasse | MinVingefang | MaxVingefang |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Sortbuget fløjlsand | Dendrocygna autumnalis | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Rødbrun fløjlsand | Dendrocygna bicolor | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snegås | Anser caerulescens | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Stor hvidkindet gås | Anser albifrons | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Lad os starte med at plotte nogle af de numeriske data ved hjælp af et grundlæggende linjediagram. Antag, at du vil have et overblik over det maksimale vingefang for disse interessante fugle.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Hvad bemærker du med det samme? Der ser ud til at være mindst én outlier - det er et ret imponerende vingefang! Et vingefang på 2300 centimeter svarer til 23 meter - er der Pterodactyler, der flyver rundt i Minnesota? Lad os undersøge det.
+
+Selvom du hurtigt kunne sortere i Excel for at finde disse outliers, som sandsynligvis er tastefejl, fortsæt visualiseringsprocessen ved at arbejde direkte fra diagrammet.
+
+Tilføj labels til x-aksen for at vise, hvilke fugle der er tale om:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Selv med rotation af labels sat til 45 grader er der for mange til at læse. Lad os prøve en anden strategi: label kun outliers og sæt labels inden for diagrammet. Du kan bruge et scatterplot for at skabe mere plads til labeling:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Hvad sker der her? Du brugte `tick_params` til at skjule de nederste labels og derefter oprettede en loop over dit fugledatasæt. Ved at plotte diagrammet med små runde blå prikker ved hjælp af `bo`, tjekkede du for enhver fugl med et maksimalt vingefang over 500 og viste deres label ved siden af prikken, hvis det var tilfældet. Du forskød labels lidt på y-aksen (`y * (1 - 0.05)`) og brugte fuglens navn som label.
+
+Hvad opdagede du?
+
+
+## Filtrer dine data
+
+Både Hvidhovedet Ørn og Præriefalken, selvom de sandsynligvis er meget store fugle, ser ud til at være fejlagtigt mærket med et ekstra `0` tilføjet til deres maksimale vingefang. Det er usandsynligt, at du vil møde en Hvidhovedet Ørn med et vingefang på 25 meter, men hvis det sker, så lad os det vide! Lad os oprette en ny dataframe uden disse to outliers:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Ved at filtrere outliers ud er dine data nu mere sammenhængende og forståelige.
+
+
+
+Nu hvor vi har et renere datasæt, i det mindste hvad angår vingefang, lad os opdage mere om disse fugle.
+
+Mens linje- og scatterplots kan vise information om dataværdier og deres fordeling, vil vi tænke over de værdier, der er iboende i dette datasæt. Du kunne skabe visualiseringer for at besvare følgende spørgsmål om mængder:
+
+> Hvor mange kategorier af fugle er der, og hvad er deres antal?
+> Hvor mange fugle er uddøde, truede, sjældne eller almindelige?
+> Hvor mange er der af de forskellige slægter og ordener i Linnés terminologi?
+## Udforsk søjlediagrammer
+
+Søjlediagrammer er praktiske, når du skal vise grupperinger af data. Lad os udforske kategorierne af fugle, der findes i dette datasæt, for at se, hvilken der er mest almindelig i antal.
+
+I notebook-filen skal du oprette et grundlæggende søjlediagram.
+
+✅ Bemærk, du kan enten filtrere de to outlier-fugle, vi identificerede i det foregående afsnit, rette tastefejlen i deres vingefang eller lade dem være med i disse øvelser, som ikke afhænger af vingefangsværdier.
+
+Hvis du vil oprette et søjlediagram, kan du vælge de data, du vil fokusere på. Søjlediagrammer kan oprettes fra rå data:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Dette søjlediagram er dog ulæseligt, fordi der er for meget ikke-grupperet data. Du skal vælge kun de data, du vil plotte, så lad os se på længden af fugle baseret på deres kategori.
+
+Filtrer dine data til kun at inkludere fuglens kategori.
+
+✅ Bemærk, at du bruger Pandas til at administrere dataene og derefter lader Matplotlib stå for diagrammeringen.
+
+Da der er mange kategorier, kan du vise dette diagram lodret og justere dets højde for at tage højde for alle dataene:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Dette søjlediagram giver et godt overblik over antallet af fugle i hver kategori. Med et øjebliks blik ser du, at det største antal fugle i denne region er i kategorien Ænder/Gæs/Vandfugle. Minnesota er 'landet med 10.000 søer', så det er ikke overraskende!
+
+✅ Prøv nogle andre optællinger på dette datasæt. Er der noget, der overrasker dig?
+
+## Sammenligning af data
+
+Du kan prøve forskellige sammenligninger af grupperede data ved at oprette nye akser. Prøv en sammenligning af MaxLængde for en fugl baseret på dens kategori:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Intet er overraskende her: kolibrier har den mindste MaxLængde sammenlignet med pelikaner eller gæs. Det er godt, når data giver logisk mening!
+
+Du kan skabe mere interessante visualiseringer af søjlediagrammer ved at overlejre data. Lad os overlejre Minimum og Maksimum Længde på en given fuglekategori:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+I dette diagram kan du se spændet pr. fuglekategori af Minimum Længde og Maksimum Længde. Du kan trygt sige, at jo større fuglen er, jo større er dens længdespænd. Fascinerende!
+
+
+
+## 🚀 Udfordring
+
+Dette fugledatasæt tilbyder en rigdom af information om forskellige typer fugle inden for et bestemt økosystem. Søg rundt på internettet og se, om du kan finde andre fugleorienterede datasæt. Øv dig i at bygge diagrammer og grafer omkring disse fugle for at opdage fakta, du ikke vidste.
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Gennemgang & Selvstudie
+
+Denne første lektion har givet dig noget information om, hvordan du bruger Matplotlib til at visualisere mængder. Undersøg andre måder at arbejde med datasæt til visualisering. [Plotly](https://github.com/plotly/plotly.py) er et, vi ikke vil dække i disse lektioner, så tag et kig på, hvad det kan tilbyde.
+## Opgave
+
+[Linjer, Scatterplots og Søjler](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/da/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..ebb89af5
--- /dev/null
+++ b/translations/da/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linjer, Spredningsdiagrammer og Søjler
+
+## Instruktioner
+
+I denne lektion arbejdede du med linjediagrammer, spredningsdiagrammer og søjlediagrammer for at vise interessante fakta om dette datasæt. I denne opgave skal du dykke dybere ned i datasættet for at opdage en fakta om en given type fugl. For eksempel kan du oprette en notebook, der visualiserer alle de interessante data, du kan finde om Snegæs. Brug de tre nævnte diagramtyper til at fortælle en historie i din notebook.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver Forbedring
+--- | --- | -- |
+En notebook præsenteres med gode kommentarer, solid historiefortælling og attraktive grafer | Notebooken mangler ét af disse elementer | Notebooken mangler to af disse elementer
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at opnå nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/10-visualization-distributions/README.md b/translations/da/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..0172a8f9
--- /dev/null
+++ b/translations/da/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,217 @@
+
+# Visualisering af fordelinger
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisering af fordelinger - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+I den forrige lektion lærte du nogle interessante fakta om et datasæt om fuglene i Minnesota. Du fandt nogle fejlagtige data ved at visualisere outliers og undersøgte forskellene mellem fuglekategorier baseret på deres maksimale længde.
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Udforsk fugledatasættet
+
+En anden måde at dykke ned i data på er ved at se på deres fordeling, eller hvordan dataene er organiseret langs en akse. Måske vil du for eksempel gerne lære om den generelle fordeling i dette datasæt af den maksimale vingefang eller den maksimale kropsmasse for fuglene i Minnesota.
+
+Lad os opdage nogle fakta om datafordelingerne i dette datasæt. I _notebook.ipynb_-filen i roden af denne lektionsmappe skal du importere Pandas, Matplotlib og dine data:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Navn | VidenskabeligtNavn | Kategori | Orden | Familie | Slægt | Bevaringsstatus | MinLængde | MaxLængde | MinKropsmasse | MaxKropsmasse | MinVingefang | MaxVingefang |
+| ---: | :-------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ------------: | ------------: | -----------: | -----------: |
+| 0 | Sortbuget fløjlsand | Dendrocygna autumnalis | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fløjlsand | Dendrocygna bicolor | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snegås | Anser caerulescens | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Stor hvidkindet gås | Anser albifrons | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Generelt kan du hurtigt få et overblik over, hvordan data er fordelt, ved at bruge et scatterplot, som vi gjorde i den forrige lektion:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Dette giver et overblik over den generelle fordeling af kropslængde pr. fugleorden, men det er ikke den optimale måde at vise egentlige fordelinger på. Denne opgave håndteres normalt ved at oprette et histogram.
+
+## Arbejde med histogrammer
+
+Matplotlib tilbyder meget gode måder at visualisere datafordeling ved hjælp af histogrammer. Denne type diagram minder om et søjlediagram, hvor fordelingen kan ses via stigninger og fald i søjlerne. For at oprette et histogram skal du bruge numeriske data. For at oprette et histogram kan du plotte et diagram og definere typen som 'hist' for histogram. Dette diagram viser fordelingen af MaxBodyMass for hele datasættets numeriske rækkevidde. Ved at opdele datasættet i mindre intervaller kan det vise fordelingen af værdierne:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Som du kan se, falder de fleste af de 400+ fugle i dette datasæt inden for området under 2000 for deres maksimale kropsmasse. Få mere indsigt i dataene ved at ændre `bins`-parameteren til et højere tal, for eksempel 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Dette diagram viser fordelingen på en lidt mere detaljeret måde. Et diagram, der er mindre skævt mod venstre, kunne oprettes ved kun at vælge data inden for et givet område:
+
+Filtrer dine data for kun at få de fugle, hvis kropsmasse er under 60, og vis 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Prøv nogle andre filtre og datapunkter. For at se den fulde fordeling af dataene skal du fjerne `['MaxBodyMass']`-filteret for at vise mærkede fordelinger.
+
+Histogrammet tilbyder også nogle flotte farve- og mærkningsmuligheder, som du kan prøve:
+
+Opret et 2D-histogram for at sammenligne forholdet mellem to fordelinger. Lad os sammenligne `MaxBodyMass` og `MaxLength`. Matplotlib tilbyder en indbygget måde at vise sammenfald ved hjælp af lysere farver:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Der ser ud til at være en forventet korrelation mellem disse to elementer langs en forventet akse, med et særligt stærkt sammenfaldspunkt:
+
+
+
+Histogrammer fungerer godt som standard for numeriske data. Hvad hvis du har brug for at se fordelinger i forhold til tekstdata?
+## Udforsk datasættet for fordelinger ved hjælp af tekstdata
+
+Dette datasæt indeholder også god information om fuglekategorien og dens slægt, art og familie samt dens bevaringsstatus. Lad os dykke ned i denne bevaringsinformation. Hvordan er fordelingen af fuglene i forhold til deres bevaringsstatus?
+
+> ✅ I datasættet bruges flere forkortelser til at beskrive bevaringsstatus. Disse forkortelser stammer fra [IUCN Red List Categories](https://www.iucnredlist.org/), en organisation, der katalogiserer arters status.
+>
+> - CR: Kritisk truet
+> - EN: Truet
+> - EX: Uddød
+> - LC: Mindst bekymring
+> - NT: Næsten truet
+> - VU: Sårbar
+
+Disse er tekstbaserede værdier, så du skal lave en transformation for at oprette et histogram. Brug filteredBirds-dataframen til at vise dens bevaringsstatus sammen med dens minimale vingefang. Hvad ser du?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Der ser ikke ud til at være en god korrelation mellem minimumsvingefang og bevaringsstatus. Test andre elementer i datasættet ved hjælp af denne metode. Du kan også prøve forskellige filtre. Finder du nogen korrelation?
+
+## Tæthedsdiagrammer
+
+Du har måske bemærket, at de histogrammer, vi har set på indtil videre, er 'trappede' og ikke flyder jævnt i en bue. For at vise et glattere tæthedsdiagram kan du prøve et tæthedsplot.
+
+For at arbejde med tæthedsdiagrammer skal du sætte dig ind i et nyt plotbibliotek, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Ved at indlæse Seaborn kan du prøve et grundlæggende tæthedsplot:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Du kan se, hvordan plottet afspejler det tidligere for Minimum Wingspan-data; det er bare lidt glattere. Ifølge Seaborns dokumentation "kan KDE producere et diagram, der er mindre rodet og mere fortolkeligt, især når man tegner flere fordelinger. Men det har potentiale til at introducere forvrængninger, hvis den underliggende fordeling er begrænset eller ikke glat. Ligesom et histogram afhænger kvaliteten af repræsentationen også af valget af gode udjævningsparametre." [kilde](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Med andre ord vil outliers som altid få dine diagrammer til at opføre sig dårligt.
+
+Hvis du ville genbesøge den hakkede MaxBodyMass-linje i det andet diagram, du byggede, kunne du udjævne den meget godt ved at genskabe den ved hjælp af denne metode:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Hvis du ønskede en glat, men ikke alt for glat linje, kan du redigere `bw_adjust`-parameteren:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Læs om de tilgængelige parametre for denne type plot og eksperimentér!
+
+Denne type diagram tilbyder smukt forklarende visualiseringer. Med få linjer kode kan du for eksempel vise den maksimale kropsmassefordeling pr. fugleorden:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Du kan også kortlægge tætheden af flere variabler i ét diagram. Test MaxLength og MinLength af en fugl i forhold til deres bevaringsstatus:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Måske er det værd at undersøge, om klyngen af 'Sårbare' fugle i forhold til deres længder er meningsfuld eller ej.
+
+## 🚀 Udfordring
+
+Histogrammer er en mere sofistikeret type diagram end grundlæggende scatterplots, søjlediagrammer eller linjediagrammer. Gå på jagt på internettet for at finde gode eksempler på brugen af histogrammer. Hvordan bruges de, hvad viser de, og inden for hvilke felter eller områder anvendes de typisk?
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Gennemgang & Selvstudie
+
+I denne lektion brugte du Matplotlib og begyndte at arbejde med Seaborn for at vise mere sofistikerede diagrammer. Lav noget research om `kdeplot` i Seaborn, en "kontinuerlig sandsynlighedstæthedskurve i en eller flere dimensioner". Læs [dokumentationen](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) for at forstå, hvordan det fungerer.
+
+## Opgave
+
+[Anvend dine færdigheder](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/da/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..0bdaf93a
--- /dev/null
+++ b/translations/da/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Anvend dine færdigheder
+
+## Instruktioner
+
+Indtil nu har du arbejdet med Minnesota-fugledatasættet for at opdage information om fuglemængder og befolkningstæthed. Øv dig i at anvende disse teknikker ved at prøve et andet datasæt, måske hentet fra [Kaggle](https://www.kaggle.com/). Byg en notebook, der fortæller en historie om dette datasæt, og sørg for at bruge histogrammer, når du diskuterer det.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver Forbedring
+--- | --- | -- |
+En notebook præsenteres med kommentarer om dette datasæt, inklusive dets kilde, og bruger mindst 5 histogrammer til at opdage fakta om dataene. | En notebook præsenteres med ufuldstændige kommentarer eller fejl. | En notebook præsenteres uden kommentarer og indeholder fejl.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/11-visualization-proportions/README.md b/translations/da/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..4b399b67
--- /dev/null
+++ b/translations/da/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,204 @@
+
+# Visualisering af Proportioner
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisering af Proportioner - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+I denne lektion vil du bruge et andet naturfokuseret datasæt til at visualisere proportioner, såsom hvor mange forskellige typer svampe der findes i et givet datasæt om svampe. Lad os udforske disse fascinerende svampe ved hjælp af et datasæt fra Audubon, der indeholder detaljer om 23 arter af lamelsvampe i Agaricus- og Lepiota-familierne. Du vil eksperimentere med lækre visualiseringer som:
+
+- Lagkagediagrammer 🥧
+- Donutdiagrammer 🍩
+- Vaffeldiagrammer 🧇
+
+> 💡 Et meget interessant projekt kaldet [Charticulator](https://charticulator.com) fra Microsoft Research tilbyder en gratis drag-and-drop-grænseflade til datavisualiseringer. I en af deres tutorials bruger de også dette svampedatasæt! Så du kan udforske dataene og lære biblioteket på samme tid: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Lær dine svampe at kende 🍄
+
+Svampe er meget interessante. Lad os importere et datasæt for at studere dem:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+En tabel bliver printet med nogle fantastiske data til analyse:
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Giftig | Konveks | Glat | Brun | Blå mærker | Stikkende | Fri | Tæt | Smal | Sort | Udvidende | Lige | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Sort | Spredt | By |
+| Spiselig | Konveks | Glat | Gul | Blå mærker | Mandel | Fri | Tæt | Bred | Sort | Udvidende | Kølle | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Brun | Talrig | Græsarealer |
+| Spiselig | Klokke | Glat | Hvid | Blå mærker | Anis | Fri | Tæt | Bred | Brun | Udvidende | Kølle | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Brun | Talrig | Enge |
+| Giftig | Konveks | Skællet | Hvid | Blå mærker | Stikkende | Fri | Tæt | Smal | Brun | Udvidende | Lige | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Sort | Spredt | By |
+
+Med det samme bemærker du, at alle data er tekstuelle. Du bliver nødt til at konvertere disse data for at kunne bruge dem i et diagram. Faktisk er de fleste af dataene repræsenteret som et objekt:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Outputtet er:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Tag disse data og konverter 'class'-kolonnen til en kategori:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Nu, hvis du printer svampedataene, kan du se, at de er blevet grupperet i kategorier baseret på klassen giftig/spiselig:
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Spiselig | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Giftig | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Hvis du følger rækkefølgen i denne tabel for at oprette dine klassekategorimærker, kan du lave et lagkagediagram:
+
+## Lagkage!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voila, et lagkagediagram, der viser proportionerne af disse data i henhold til de to svampeklasser. Det er ret vigtigt at få rækkefølgen af mærkerne korrekt, især her, så sørg for at verificere rækkefølgen, når du opbygger mærke-arrayet!
+
+
+
+## Donuts!
+
+Et lidt mere visuelt interessant lagkagediagram er et donutdiagram, som er et lagkagediagram med et hul i midten. Lad os se på vores data ved hjælp af denne metode.
+
+Se på de forskellige levesteder, hvor svampe vokser:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Her grupperer du dine data efter levested. Der er 7 listede, så brug dem som mærker til dit donutdiagram:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Denne kode tegner et diagram og en cirkel i midten og tilføjer derefter den midterste cirkel i diagrammet. Rediger bredden af den midterste cirkel ved at ændre `0.40` til en anden værdi.
+
+Donutdiagrammer kan justeres på flere måder for at ændre mærkerne. Mærkerne kan især fremhæves for bedre læsbarhed. Læs mere i [dokumentationen](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Nu hvor du ved, hvordan du grupperer dine data og derefter viser dem som lagkage eller donut, kan du udforske andre typer diagrammer. Prøv et vaffeldiagram, som blot er en anden måde at udforske mængder på.
+
+## Vafler!
+
+Et 'vaffel'-diagram er en anden måde at visualisere mængder som et 2D-array af firkanter. Prøv at visualisere de forskellige mængder af svampehatfarver i dette datasæt. For at gøre dette skal du installere et hjælpebibliotek kaldet [PyWaffle](https://pypi.org/project/pywaffle/) og bruge Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Vælg et segment af dine data til gruppering:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Opret et vaffeldiagram ved at oprette mærker og derefter gruppere dine data:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Ved hjælp af et vaffeldiagram kan du tydeligt se proportionerne af hatfarver i dette svampedatasæt. Interessant nok er der mange svampe med grønne hatte!
+
+
+
+✅ Pywaffle understøtter ikoner i diagrammer, der bruger ethvert ikon tilgængeligt i [Font Awesome](https://fontawesome.com/). Lav nogle eksperimenter for at skabe et endnu mere interessant vaffeldiagram ved at bruge ikoner i stedet for firkanter.
+
+I denne lektion lærte du tre måder at visualisere proportioner på. Først skal du gruppere dine data i kategorier og derefter beslutte, hvilken der er den bedste måde at vise dataene på - lagkage, donut eller vaffel. Alle er lækre og giver brugeren et øjeblikkeligt overblik over et datasæt.
+
+## 🚀 Udfordring
+
+Prøv at genskabe disse lækre diagrammer i [Charticulator](https://charticulator.com).
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Gennemgang & Selvstudie
+
+Nogle gange er det ikke indlysende, hvornår man skal bruge et lagkage-, donut- eller vaffeldiagram. Her er nogle artikler, du kan læse om dette emne:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Lav noget research for at finde mere information om denne vanskelige beslutning.
+
+## Opgave
+
+[Prøv det i Excel](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/da/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..2f1cdfd1
--- /dev/null
+++ b/translations/da/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Prøv det i Excel
+
+## Instruktioner
+
+Vidste du, at du kan lave donut-, cirkel- og vaffeldiagrammer i Excel? Brug et datasæt efter eget valg til at oprette disse tre diagrammer direkte i et Excel-regneark.
+
+## Bedømmelseskriterier
+
+| Eksemplarisk | Tilstrækkelig | Kræver Forbedring |
+| ------------------------------------------------------ | ------------------------------------------------- | ----------------------------------------------------- |
+| Et Excel-regneark præsenteres med alle tre diagrammer | Et Excel-regneark præsenteres med to diagrammer | Et Excel-regneark præsenteres med kun ét diagram |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/12-visualization-relationships/README.md b/translations/da/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..da3c8393
--- /dev/null
+++ b/translations/da/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# Visualisering af relationer: Alt om honning 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisering af relationer - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Vi fortsætter med naturfokus i vores forskning og udforsker interessante visualiseringer, der viser relationerne mellem forskellige typer honning, baseret på et datasæt fra [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Dette datasæt med omkring 600 poster viser honningproduktion i mange amerikanske stater. For eksempel kan du se på antallet af kolonier, udbytte pr. koloni, total produktion, lagre, pris pr. pund og værdien af den producerede honning i en given stat fra 1998-2012, med én række pr. år for hver stat.
+
+Det vil være interessant at visualisere relationen mellem en given stats produktion pr. år og f.eks. prisen på honning i den stat. Alternativt kunne du visualisere relationen mellem staters honningudbytte pr. koloni. Denne tidsperiode dækker den ødelæggende 'CCD' eller 'Colony Collapse Disorder', som først blev observeret i 2006 (http://npic.orst.edu/envir/ccd.html), hvilket gør det til et tankevækkende datasæt at studere. 🐝
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+I denne lektion kan du bruge Seaborn, som du har brugt før, som et godt bibliotek til at visualisere relationer mellem variabler. Særligt interessant er brugen af Seaborns `relplot`-funktion, der tillader scatterplots og linjediagrammer til hurtigt at visualisere '[statistiske relationer](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', hvilket giver dataforskeren en bedre forståelse af, hvordan variabler relaterer til hinanden.
+
+## Scatterplots
+
+Brug et scatterplot til at vise, hvordan prisen på honning har udviklet sig år for år pr. stat. Seaborn, ved brug af `relplot`, grupperer bekvemt data fra staterne og viser datapunkter for både kategoriske og numeriske data.
+
+Lad os starte med at importere data og Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Du bemærker, at honningdataene har flere interessante kolonner, herunder år og pris pr. pund. Lad os udforske disse data, grupperet efter amerikanske stater:
+
+| stat | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Lav et grundlæggende scatterplot for at vise relationen mellem prisen pr. pund honning og dens oprindelsesstat i USA. Gør `y`-aksen høj nok til at vise alle staterne:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Vis nu de samme data med et honningfarveskema for at vise, hvordan prisen udvikler sig over årene. Du kan gøre dette ved at tilføje en 'hue'-parameter for at vise ændringen år for år:
+
+> ✅ Lær mere om de [farvepaletter, du kan bruge i Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - prøv et smukt regnbuefarveskema!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Med denne farveskemaændring kan du tydeligt se en stærk progression over årene i forhold til honningprisen pr. pund. Hvis du ser på et eksempel i datasættet for at verificere (vælg f.eks. Arizona), kan du se et mønster med prisstigninger år for år, med få undtagelser:
+
+| stat | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+En anden måde at visualisere denne progression på er at bruge størrelse i stedet for farve. For farveblinde brugere kan dette være en bedre mulighed. Rediger din visualisering for at vise en prisstigning ved en stigning i prikomkreds:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Du kan se, at størrelsen på prikkerne gradvist øges.
+
+
+
+Er dette et simpelt tilfælde af udbud og efterspørgsel? På grund af faktorer som klimaforandringer og kolonikollaps er der mindre honning tilgængelig for køb år for år, og derfor stiger prisen?
+
+For at finde en korrelation mellem nogle af variablerne i dette datasæt, lad os udforske nogle linjediagrammer.
+
+## Linjediagrammer
+
+Spørgsmål: Er der en klar stigning i prisen på honning pr. pund år for år? Du kan nemmest opdage dette ved at lave et enkelt linjediagram:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Svar: Ja, med nogle undtagelser omkring året 2003:
+
+
+
+✅ Fordi Seaborn aggregerer data omkring én linje, viser den "de multiple målinger ved hver x-værdi ved at plotte gennemsnittet og 95% konfidensintervallet omkring gennemsnittet". [Kilde](https://seaborn.pydata.org/tutorial/relational.html). Denne tidskrævende adfærd kan deaktiveres ved at tilføje `ci=None`.
+
+Spørgsmål: Nå, i 2003 kan vi også se en stigning i honningforsyningen? Hvad hvis du ser på den totale produktion år for år?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Svar: Ikke rigtig. Hvis du ser på den totale produktion, ser det faktisk ud til at være steget i det pågældende år, selvom mængden af produceret honning generelt er faldende i disse år.
+
+Spørgsmål: I så fald, hvad kunne have forårsaget den stigning i prisen på honning omkring 2003?
+
+For at finde ud af dette kan du udforske et facet grid.
+
+## Facet grids
+
+Facet grids tager én facet af dit datasæt (i vores tilfælde kan du vælge 'år' for at undgå at få for mange facetter). Seaborn kan derefter lave et plot for hver af disse facetter af dine valgte x- og y-koordinater for lettere visuel sammenligning. Skiller 2003 sig ud i denne type sammenligning?
+
+Lav et facet grid ved at fortsætte med at bruge `relplot` som anbefalet af [Seaborns dokumentation](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+I denne visualisering kan du sammenligne udbytte pr. koloni og antal kolonier år for år, side om side med en wrap sat til 3 for kolonnerne:
+
+
+
+For dette datasæt skiller intet sig særligt ud med hensyn til antallet af kolonier og deres udbytte år for år og stat for stat. Er der en anden måde at finde en korrelation mellem disse to variabler?
+
+## Dual-line plots
+
+Prøv et multiline-plot ved at overlejre to linjediagrammer oven på hinanden, ved at bruge Seaborns 'despine' til at fjerne deres øverste og højre spines, og ved at bruge `ax.twinx` [afledt fra Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx tillader et diagram at dele x-aksen og vise to y-akser. Så vis udbytte pr. koloni og antal kolonier, overlejret:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Mens intet springer i øjnene omkring året 2003, giver det os mulighed for at afslutte denne lektion på en lidt gladere note: selvom der generelt er et faldende antal kolonier, stabiliserer antallet af kolonier sig, selvom deres udbytte pr. koloni falder.
+
+Kom så, bier, kom så!
+
+🐝❤️
+## 🚀 Udfordring
+
+I denne lektion lærte du lidt mere om andre anvendelser af scatterplots og line grids, inklusive facet grids. Udfordr dig selv til at lave et facet grid ved hjælp af et andet datasæt, måske et du brugte før disse lektioner. Bemærk, hvor lang tid de tager at lave, og hvordan du skal være forsigtig med, hvor mange grids du skal tegne ved hjælp af disse teknikker.
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Gennemgang & Selvstudie
+
+Linjediagrammer kan være simple eller ret komplekse. Læs lidt i [Seaborns dokumentation](https://seaborn.pydata.org/generated/seaborn.lineplot.html) om de forskellige måder, du kan bygge dem på. Prøv at forbedre de linjediagrammer, du byggede i denne lektion, med andre metoder, der er nævnt i dokumentationen.
+## Opgave
+
+[Dyk ned i bikuben](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/da/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..9ab3b20b
--- /dev/null
+++ b/translations/da/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Dyk ned i bikuben
+
+## Instruktioner
+
+I denne lektion begyndte du at undersøge et datasæt om bier og deres honningproduktion over en periode, hvor der generelt var tab i bi-koloniens population. Gå dybere ned i dette datasæt og opret en notebook, der kan fortælle historien om biernes sundhedstilstand, stat for stat og år for år. Finder du noget interessant i dette datasæt?
+
+## Bedømmelseskriterier
+
+| Fremragende | Tilstrækkelig | Kræver forbedring |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| En notebook præsenteres med en historie, der er annoteret med mindst tre forskellige diagrammer, som viser aspekter af datasættet, stat for stat og år for år | Notebooken mangler et af disse elementer | Notebooken mangler to af disse elementer |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at opnå nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/da/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..0c304812
--- /dev/null
+++ b/translations/da/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Skabe Meningsfulde Visualiseringer
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Meningsfulde Visualiseringer - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+> "Hvis du torturerer data længe nok, vil de tilstå hvad som helst" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+En af de grundlæggende færdigheder for en dataforsker er evnen til at skabe en meningsfuld datavisualisering, der hjælper med at besvare de spørgsmål, du måtte have. Før du visualiserer dine data, skal du sikre dig, at de er blevet renset og forberedt, som du gjorde i tidligere lektioner. Derefter kan du begynde at beslutte, hvordan du bedst præsenterer dataene.
+
+I denne lektion vil du gennemgå:
+
+1. Hvordan man vælger den rigtige diagramtype
+2. Hvordan man undgår vildledende diagrammer
+3. Hvordan man arbejder med farver
+4. Hvordan man styler sine diagrammer for læsbarhed
+5. Hvordan man bygger animerede eller 3D-diagramløsninger
+6. Hvordan man skaber en kreativ visualisering
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Vælg den rigtige diagramtype
+
+I tidligere lektioner eksperimenterede du med at bygge alle mulige interessante datavisualiseringer ved hjælp af Matplotlib og Seaborn til diagrammer. Generelt kan du vælge den [rigtige type diagram](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) til det spørgsmål, du stiller, ved hjælp af denne tabel:
+
+| Du skal: | Du bør bruge: |
+| -------------------------- | ------------------------------- |
+| Vise datatrends over tid | Linje |
+| Sammenligne kategorier | Søjle, Cirkel |
+| Sammenligne totaler | Cirkel, Stablet Søjle |
+| Vise relationer | Punkt, Linje, Facet, Dobbelt Linje |
+| Vise fordelinger | Punkt, Histogram, Boks |
+| Vise proportioner | Cirkel, Donut, Vaffel |
+
+> ✅ Afhængigt af sammensætningen af dine data kan det være nødvendigt at konvertere dem fra tekst til numerisk for at få et givet diagram til at understøtte dem.
+
+## Undgå vildledning
+
+Selv hvis en dataforsker er omhyggelig med at vælge det rigtige diagram til de rigtige data, er der mange måder, hvorpå data kan vises for at bevise et punkt, ofte på bekostning af at undergrave dataene selv. Der findes mange eksempler på vildledende diagrammer og infografikker!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klik på billedet ovenfor for at se en konferencepræsentation om vildledende diagrammer
+
+Dette diagram vender X-aksen om for at vise det modsatte af sandheden, baseret på dato:
+
+
+
+[Dette diagram](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) er endnu mere vildledende, da øjet drages mod højre for at konkludere, at COVID-tilfælde over tid er faldet i de forskellige amter. Faktisk, hvis du ser nøje på datoerne, opdager du, at de er blevet omarrangeret for at give den vildledende nedadgående tendens.
+
+
+
+Dette berygtede eksempel bruger farve OG en vendt Y-akse til at vildlede: i stedet for at konkludere, at våbendrab steg efter vedtagelsen af våbenvenlig lovgivning, bliver øjet narret til at tro, at det modsatte er sandt:
+
+
+
+Dette mærkelige diagram viser, hvordan proportioner kan manipuleres, til komisk effekt:
+
+
+
+At sammenligne det, der ikke kan sammenlignes, er endnu et skummelt trick. Der er en [vidunderlig hjemmeside](https://tylervigen.com/spurious-correlations) om 'spuriøse korrelationer', der viser 'fakta', der korrelerer ting som skilsmisseraten i Maine og forbruget af margarine. En Reddit-gruppe samler også [grimme eksempler](https://www.reddit.com/r/dataisugly/top/?t=all) på data.
+
+Det er vigtigt at forstå, hvor let øjet kan narres af vildledende diagrammer. Selv hvis dataforskerens intention er god, kan valget af en dårlig type diagram, såsom et cirkeldiagram med for mange kategorier, være vildledende.
+
+## Farver
+
+Du så i 'Florida våbenvold'-diagrammet ovenfor, hvordan farver kan give et ekstra lag af mening til diagrammer, især dem, der ikke er designet ved hjælp af biblioteker som Matplotlib og Seaborn, som kommer med forskellige gennemprøvede farvebiblioteker og paletter. Hvis du laver et diagram manuelt, kan det være en god idé at studere lidt om [farveteori](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Vær opmærksom på, når du designer diagrammer, at tilgængelighed er en vigtig del af visualisering. Nogle af dine brugere kan være farveblinde - vises dit diagram godt for brugere med synshandicap?
+
+Vær forsigtig, når du vælger farver til dit diagram, da farver kan formidle betydninger, du måske ikke havde til hensigt. De 'lyserøde damer' i 'højde'-diagrammet ovenfor giver en tydeligt 'feminin' tilskrevet betydning, der tilføjer til diagrammets mærkværdighed.
+
+Mens [farvebetydning](https://colormatters.com/color-symbolism/the-meanings-of-colors) kan variere i forskellige dele af verden og ændre sig afhængigt af deres nuance, inkluderer generelle farvebetydninger:
+
+| Farve | Betydning |
+| ------ | -------------------- |
+| rød | magt |
+| blå | tillid, loyalitet |
+| gul | glæde, forsigtighed |
+| grøn | økologi, held, misundelse |
+| lilla | glæde |
+| orange | livlighed |
+
+Hvis du bliver bedt om at bygge et diagram med brugerdefinerede farver, skal du sikre dig, at dine diagrammer både er tilgængelige og at farven, du vælger, stemmer overens med den betydning, du forsøger at formidle.
+
+## Styling af dine diagrammer for læsbarhed
+
+Diagrammer er ikke meningsfulde, hvis de ikke er læsbare! Tag et øjeblik til at overveje at style bredden og højden af dit diagram, så det passer godt til dine data. Hvis en variabel (såsom alle 50 stater) skal vises, skal du vise dem lodret på Y-aksen, hvis det er muligt, for at undgå et diagram, der skal rulles horisontalt.
+
+Mærk dine akser, tilføj en forklaring, hvis nødvendigt, og tilbyd værktøjstip for bedre forståelse af dataene.
+
+Hvis dine data er tekstuelle og detaljerede på X-aksen, kan du vinkle teksten for bedre læsbarhed. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) tilbyder 3D-plotning, hvis dine data understøtter det. Sofistikerede datavisualiseringer kan produceres ved hjælp af `mpl_toolkits.mplot3d`.
+
+
+
+## Animation og 3D-diagramvisning
+
+Nogle af de bedste datavisualiseringer i dag er animerede. Shirley Wu har fantastiske eksempler lavet med D3, såsom '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', hvor hver blomst er en visualisering af en film. Et andet eksempel for Guardian er 'bussed out', en interaktiv oplevelse, der kombinerer visualiseringer med Greensock og D3 plus en scrollytelling-artikelformat for at vise, hvordan NYC håndterer sit hjemløse problem ved at sende folk ud af byen.
+
+
+
+> "Bussed Out: How America Moves its Homeless" fra [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualiseringer af Nadieh Bremer & Shirley Wu
+
+Selvom denne lektion ikke går i dybden med at lære disse kraftfulde visualiseringsbiblioteker, kan du prøve D3 i en Vue.js-app ved hjælp af et bibliotek til at vise en visualisering af bogen "Dangerous Liaisons" som et animeret socialt netværk.
+
+> "Les Liaisons Dangereuses" er en epistolær roman, eller en roman præsenteret som en række breve. Skrevet i 1782 af Choderlos de Laclos, fortæller den historien om de onde, moralsk korrupte sociale manøvrer af to rivaliserende hovedpersoner fra det franske aristokrati i slutningen af det 18. århundrede, Vicomte de Valmont og Marquise de Merteuil. Begge møder deres undergang til sidst, men ikke uden at forårsage en stor social skade. Romanen udfolder sig som en række breve skrevet til forskellige personer i deres kredse, der planlægger hævn eller blot for at skabe problemer. Skab en visualisering af disse breve for at opdage de vigtigste aktører i fortællingen visuelt.
+
+Du vil fuldføre en webapp, der viser en animeret visning af dette sociale netværk. Den bruger et bibliotek, der er bygget til at skabe en [visualisering af et netværk](https://github.com/emiliorizzo/vue-d3-network) ved hjælp af Vue.js og D3. Når appen kører, kan du trække noderne rundt på skærmen for at omorganisere dataene.
+
+
+
+## Projekt: Byg et diagram til at vise et netværk ved hjælp af D3.js
+
+> Denne lektionsmappe inkluderer en `solution`-mappe, hvor du kan finde det færdige projekt som reference.
+
+1. Følg instruktionerne i README.md-filen i starter-mappens rod. Sørg for, at du har NPM og Node.js kørende på din maskine, før du installerer projektets afhængigheder.
+
+2. Åbn `starter/src`-mappen. Du vil finde en `assets`-mappe, hvor du kan finde en .json-fil med alle brevene fra romanen, nummererede, med en 'to' og 'from'-annotation.
+
+3. Fuldfør koden i `components/Nodes.vue` for at aktivere visualiseringen. Kig efter metoden kaldet `createLinks()` og tilføj følgende indlejrede loop.
+
+Loop gennem .json-objektet for at fange 'to' og 'from'-dataene for brevene og opbygge `links`-objektet, så visualiseringsbiblioteket kan bruge det:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Kør din app fra terminalen (npm run serve) og nyd visualiseringen!
+
+## 🚀 Udfordring
+
+Tag en tur på internettet for at opdage vildledende visualiseringer. Hvordan narrer forfatteren brugeren, og er det med vilje? Prøv at rette visualiseringerne for at vise, hvordan de burde se ud.
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Gennemgang & Selvstudie
+
+Her er nogle artikler om vildledende datavisualisering:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Tag et kig på disse interessante visualiseringer for historiske aktiver og artefakter:
+
+https://handbook.pubpub.org/
+
+Læs denne artikel om, hvordan animation kan forbedre dine visualiseringer:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Opgave
+
+[Byg din egen brugerdefinerede visualisering](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/da/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..cf31143c
--- /dev/null
+++ b/translations/da/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Byg din egen tilpassede vis
+
+## Instruktioner
+
+Brug kodeeksemplet i dette projekt til at skabe et socialt netværk og lav dine egne data om sociale interaktioner. Du kan kortlægge din brug af sociale medier eller lave et diagram over dine familiemedlemmer. Skab en interessant webapp, der viser en unik visualisering af et socialt netværk.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | --- |
+Et GitHub-repository præsenteres med kode, der fungerer korrekt (prøv at udrulle det som en statisk webapp) og har en annoteret README, der forklarer projektet | Repositoryet fungerer ikke korrekt eller er ikke godt dokumenteret | Repositoryet fungerer ikke korrekt og er ikke godt dokumenteret
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/da/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..849a3078
--- /dev/null
+++ b/translations/da/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons datavisualiseringsprojekt
+
+For at komme i gang skal du sikre dig, at du har NPM og Node installeret på din maskine. Installer afhængighederne (npm install), og kør derefter projektet lokalt (npm run serve):
+
+## Projektopsætning
+```
+npm install
+```
+
+### Kompilerer og genindlæser automatisk til udvikling
+```
+npm run serve
+```
+
+### Kompilerer og minimerer til produktion
+```
+npm run build
+```
+
+### Linter og retter filer
+```
+npm run lint
+```
+
+### Tilpas konfiguration
+Se [Konfigurationsreference](https://cli.vuejs.org/config/).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/da/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..138e30f9
--- /dev/null
+++ b/translations/da/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons data visualiseringsprojekt
+
+For at komme i gang skal du sikre dig, at du har NPM og Node kørende på din maskine. Installer afhængighederne (npm install) og kør derefter projektet lokalt (npm run serve):
+
+## Projektopsætning
+```
+npm install
+```
+
+### Kompilerer og genindlæser til udvikling
+```
+npm run serve
+```
+
+### Kompilerer og minimerer til produktion
+```
+npm run build
+```
+
+### Linter og retter filer
+```
+npm run lint
+```
+
+### Tilpas konfiguration
+Se [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/da/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..1da4854c
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,232 @@
+
+# Visualisering af mængder
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisering af mængder - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+I denne lektion vil du udforske, hvordan du kan bruge nogle af de mange tilgængelige R-pakker til at lære at skabe interessante visualiseringer omkring begrebet mængde. Ved at bruge et renset datasæt om fuglene i Minnesota kan du lære mange interessante fakta om det lokale dyreliv.
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observer vingefang med ggplot2
+Et fremragende bibliotek til at skabe både simple og avancerede diagrammer og grafer af forskellige slags er [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Generelt indebærer processen med at plotte data ved hjælp af disse biblioteker at identificere de dele af din dataframe, du vil fokusere på, udføre nødvendige transformationer på dataene, tildele værdier til x- og y-aksen, beslutte hvilken type diagram der skal vises, og derefter vise diagrammet.
+
+`ggplot2` er et system til deklarativt at skabe grafik baseret på "The Grammar of Graphics". [Grammar of Graphics](https://en.wikipedia.org/wiki/Ggplot2) er en generel tilgang til datavisualisering, der opdeler grafer i semantiske komponenter som skalaer og lag. Med andre ord gør enkeltheden i at skabe grafer og diagrammer for univariat eller multivariat data med lidt kode `ggplot2` til den mest populære pakke til visualiseringer i R. Brugeren fortæller `ggplot2`, hvordan variabler skal mappes til æstetik, hvilke grafiske elementer der skal bruges, og `ggplot2` tager sig af resten.
+
+> ✅ Diagram = Data + Æstetik + Geometri
+> - Data refererer til datasættet
+> - Æstetik angiver de variabler, der skal undersøges (x- og y-variabler)
+> - Geometri refererer til typen af diagram (linjediagram, søjlediagram osv.)
+
+Vælg den bedste geometri (diagramtype) i forhold til dine data og den historie, du vil fortælle gennem diagrammet.
+
+> - For at analysere tendenser: linje, søjle
+> - For at sammenligne værdier: søjle, cirkel, punktdiagram
+> - For at vise, hvordan dele relaterer sig til helheden: cirkeldiagram
+> - For at vise fordelingen af data: punktdiagram, søjle
+> - For at vise relationer mellem værdier: linje, punktdiagram, boblediagram
+
+✅ Du kan også tjekke dette beskrivende [cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) for ggplot2.
+
+## Byg et linjediagram over fuglenes vingefang
+
+Åbn R-konsollen og importer datasættet.
+> Bemærk: Datasættet er gemt i roden af dette repo i `/data`-mappen.
+
+Lad os importere datasættet og observere de første fem rækker af dataene.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+De første rækker af dataene indeholder en blanding af tekst og tal:
+
+| | Navn | VidenskabeligtNavn | Kategori | Orden | Familie | Slægt | Bevaringsstatus | MinLængde | MaxLængde | MinKropsvægt | MaxKropsvægt | MinVingefang | MaxVingefang |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Sortbuget fløjlsand | Dendrocygna autumnalis | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fløjlsand | Dendrocygna bicolor | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snegås | Anser caerulescens | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Stor hvidkindet gås | Anser albifrons | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Lad os starte med at plotte nogle af de numeriske data ved hjælp af et grundlæggende linjediagram. Antag, at du vil have et overblik over det maksimale vingefang for disse interessante fugle.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Her installerer du `ggplot2`-pakken og importerer den derefter til arbejdsområdet ved hjælp af kommandoen `library("ggplot2")`. For at plotte et diagram i ggplot bruges funktionen `ggplot()`, hvor du angiver datasættet samt x- og y-variabler som attributter. I dette tilfælde bruger vi funktionen `geom_line()`, da vi ønsker at plotte et linjediagram.
+
+
+
+Hvad bemærker du med det samme? Der ser ud til at være mindst én outlier – det er et ret stort vingefang! Et vingefang på over 2000 centimeter svarer til mere end 20 meter – er der pterodaktyler i Minnesota? Lad os undersøge det nærmere.
+
+Selvom du hurtigt kunne sortere i Excel for at finde disse outliers, som sandsynligvis er tastefejl, fortsæt visualiseringsprocessen ved at arbejde direkte fra diagrammet.
+
+Tilføj labels til x-aksen for at vise, hvilke fugle der er tale om:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Vi angiver vinklen i `theme` og specificerer labels for x- og y-aksen i henholdsvis `xlab()` og `ylab()`. `ggtitle()` giver diagrammet en titel.
+
+
+
+Selv med rotationen af labels sat til 45 grader er der for mange til at læse. Lad os prøve en anden strategi: kun at label outliers og placere labels inden for diagrammet. Du kan bruge et punktdiagram for at skabe mere plads til labeling:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Hvad sker der her? Du brugte funktionen `geom_point()` til at plotte punkter. Med dette tilføjede du labels for fugle med `MaxWingspan > 500` og skjulte også labels på x-aksen for at rydde op i diagrammet.
+
+Hvad opdager du?
+
+
+
+## Filtrer dine data
+
+Både den skaldede ørn og præriefalken, som sandsynligvis er meget store fugle, ser ud til at være fejlmærkede med et ekstra 0 tilføjet til deres maksimale vingefang. Det er usandsynligt, at du møder en skaldet ørn med et vingefang på 25 meter, men hvis du gør, så lad os det vide! Lad os oprette en ny dataframe uden disse to outliers:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Vi oprettede en ny dataframe `birds_filtered` og plottede derefter et punktdiagram. Ved at filtrere outliers ud er dine data nu mere sammenhængende og forståelige.
+
+
+
+Nu hvor vi har et renere datasæt, i det mindste hvad angår vingefang, lad os opdage mere om disse fugle.
+
+Mens linje- og punktdiagrammer kan vise information om dataværdier og deres fordeling, vil vi tænke over de værdier, der er iboende i dette datasæt. Du kunne skabe visualiseringer for at besvare følgende spørgsmål om mængde:
+
+> Hvor mange kategorier af fugle er der, og hvad er deres antal?
+> Hvor mange fugle er uddøde, truede, sjældne eller almindelige?
+> Hvor mange er der af de forskellige slægter og ordener i Linnaeus' terminologi?
+
+## Udforsk søjlediagrammer
+
+Søjlediagrammer er praktiske, når du skal vise grupperinger af data. Lad os udforske kategorierne af fugle, der findes i dette datasæt, for at se, hvilken der er mest almindelig i antal.
+Lad os oprette et søjlediagram baseret på de filtrerede data.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+I det følgende snippet installerer vi pakkerne [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) og [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) for at hjælpe med at manipulere og gruppere data for at plotte et stablet søjlediagram. Først grupperer du dataene efter fuglenes `Category` og opsummerer kolonnerne `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Derefter plottes søjlediagrammet ved hjælp af `ggplot2`-pakken, hvor du specificerer farverne for de forskellige kategorier og labels.
+
+
+
+Dette søjlediagram er dog ulæseligt, fordi der er for mange ikke-grupperede data. Du skal vælge kun de data, du vil plotte, så lad os se på længden af fugle baseret på deres kategori.
+
+Filtrer dine data til kun at inkludere fuglenes kategori.
+
+Da der er mange kategorier, kan du vise dette diagram lodret og justere højden for at tage højde for alle dataene:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Du tæller først unikke værdier i kolonnen `Category` og sorterer dem derefter i en ny dataframe `birds_count`. Disse sorterede data faktoreres derefter på samme niveau, så de plottes i den sorterede rækkefølge. Ved hjælp af `ggplot2` plottes dataene derefter i et søjlediagram. `coord_flip()` plottes som vandrette søjler.
+
+
+
+Dette søjlediagram giver et godt overblik over antallet af fugle i hver kategori. Med et øjeblik ser du, at det største antal fugle i denne region tilhører kategorien Ænder/Gæs/Vandfugle. Minnesota er trods alt "de 10.000 søers land", så det er ikke overraskende!
+
+✅ Prøv nogle andre optællinger på dette datasæt. Er der noget, der overrasker dig?
+
+## Sammenligning af data
+
+Du kan prøve forskellige sammenligninger af grupperede data ved at oprette nye akser. Prøv en sammenligning af fuglenes MaxLength baseret på deres kategori:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Vi grupperer dataene `birds_filtered` efter `Category` og plottede derefter et søjlediagram.
+
+
+
+Intet er overraskende her: kolibrier har den mindste MaxLength sammenlignet med pelikaner eller gæs. Det er godt, når data giver logisk mening!
+
+Du kan skabe mere interessante visualiseringer af søjlediagrammer ved at overlejre data. Lad os overlejre Minimum og Maksimum Længde på en given fuglekategori:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Udfordring
+
+Dette fugledatasæt tilbyder en rigdom af information om forskellige typer fugle inden for et bestemt økosystem. Søg på internettet og se, om du kan finde andre datasæt om fugle. Øv dig i at bygge diagrammer og grafer omkring disse fugle for at opdage fakta, du ikke kendte.
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Gennemgang & Selvstudie
+
+Denne første lektion har givet dig noget information om, hvordan du bruger `ggplot2` til at visualisere mængder. Lav noget research om andre måder at arbejde med datasæt til visualisering. Undersøg og kig efter datasæt, som du kunne visualisere ved hjælp af andre pakker som [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) og [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Opgave
+[Linjer, punkter og søjler](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/da/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..cd5fa67b
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linjer, Spredningsdiagrammer og Søjlediagrammer
+
+## Instruktioner
+
+I denne lektion arbejdede du med linjediagrammer, spredningsdiagrammer og søjlediagrammer for at vise interessante fakta om dette datasæt. I denne opgave skal du dykke dybere ned i datasættet for at opdage en interessant oplysning om en bestemt type fugl. For eksempel kan du lave et script, der visualiserer alle de spændende data, du kan finde om Snæbel. Brug de tre nævnte diagramtyper til at fortælle en historie i din notebook.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+Et script præsenteres med gode kommentarer, solid historiefortælling og attraktive grafer | Scriptet mangler et af disse elementer | Scriptet mangler to af disse elementer
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/da/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..cc657e06
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,183 @@
+
+# Visualisering af fordelinger
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisering af fordelinger - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+I den forrige lektion lærte du nogle interessante fakta om et datasæt om fuglene i Minnesota. Du fandt nogle fejlagtige data ved at visualisere outliers og kiggede på forskellene mellem fuglekategorier baseret på deres maksimale længde.
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Udforsk fugledatasættet
+
+En anden måde at undersøge data på er ved at se på deres fordeling, eller hvordan dataene er organiseret langs en akse. Måske vil du for eksempel gerne lære om den generelle fordeling i dette datasæt af den maksimale vingefang eller den maksimale kropsmasse for fuglene i Minnesota.
+
+Lad os opdage nogle fakta om fordelingerne af data i dette datasæt. I din R-konsol skal du importere `ggplot2` og databasen. Fjern outliers fra databasen, ligesom vi gjorde i det forrige emne.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Navn | VidenskabeligtNavn | Kategori | Orden | Familie | Slægt | Bevaringsstatus | MinLængde | MaxLængde | MinKropsmasse | MaxKropsmasse | MinVingefang | MaxVingefang |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Sortbuget fløjlsand | Dendrocygna autumnalis | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Rødbrun fløjlsand | Dendrocygna bicolor | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snegås | Anser caerulescens | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Stor hvidkindet gås | Anser albifrons | Ænder/Gæs/Vandfugle | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Generelt kan du hurtigt få et overblik over, hvordan data er fordelt, ved at bruge et scatterplot, som vi gjorde i den forrige lektion:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Dette giver et overblik over den generelle fordeling af kropslængde pr. fugleorden, men det er ikke den optimale måde at vise egentlige fordelinger. Denne opgave håndteres normalt ved at oprette et histogram.
+## Arbejde med histogrammer
+
+`ggplot2` tilbyder meget gode måder at visualisere datafordeling ved hjælp af histogrammer. Denne type diagram minder om et søjlediagram, hvor fordelingen kan ses via stigningen og faldet af søjlerne. For at oprette et histogram skal du bruge numeriske data. For at oprette et histogram kan du plotte et diagram og definere typen som 'hist' for histogram. Dette diagram viser fordelingen af MaxBodyMass for hele datasættets række af numeriske data. Ved at opdele dataene i mindre bins kan det vise fordelingen af dataenes værdier:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Som du kan se, falder de fleste af de 400+ fugle i dette datasæt inden for området under 2000 for deres maksimale kropsmasse. Få mere indsigt i dataene ved at ændre `bins`-parameteren til et højere tal, f.eks. 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Dette diagram viser fordelingen på en lidt mere detaljeret måde. Et diagram, der er mindre skævt mod venstre, kunne oprettes ved at sikre, at du kun vælger data inden for et givet område:
+
+Filtrer dine data for kun at få de fugle, hvis kropsmasse er under 60, og vis 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Prøv nogle andre filtre og datapunkter. For at se den fulde fordeling af dataene skal du fjerne `['MaxBodyMass']`-filteret for at vise mærkede fordelinger.
+
+Histogrammet tilbyder også nogle flotte farve- og mærkningsforbedringer, som du kan prøve:
+
+Opret et 2D-histogram for at sammenligne forholdet mellem to fordelinger. Lad os sammenligne `MaxBodyMass` vs. `MaxLength`. `ggplot2` tilbyder en indbygget måde at vise konvergens ved hjælp af lysere farver:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Der ser ud til at være en forventet korrelation mellem disse to elementer langs en forventet akse, med et særligt stærkt konvergenspunkt:
+
+
+
+Histogrammer fungerer godt som standard for numeriske data. Hvad hvis du har brug for at se fordelinger baseret på tekstdata?
+## Udforsk datasættet for fordelinger ved hjælp af tekstdata
+
+Dette datasæt indeholder også gode oplysninger om fuglekategori og dens slægt, art og familie samt dens bevaringsstatus. Lad os undersøge disse bevaringsoplysninger. Hvad er fordelingen af fuglene baseret på deres bevaringsstatus?
+
+> ✅ I datasættet bruges flere akronymer til at beskrive bevaringsstatus. Disse akronymer kommer fra [IUCN Red List Categories](https://www.iucnredlist.org/), en organisation der katalogiserer arters status.
+>
+> - CR: Kritisk truet
+> - EN: Truet
+> - EX: Uddød
+> - LC: Mindst bekymring
+> - NT: Næsten truet
+> - VU: Sårbar
+
+Disse er tekstbaserede værdier, så du skal lave en transformation for at oprette et histogram. Brug den filtreredeBirds-dataramme til at vise dens bevaringsstatus sammen med dens minimumsvingefang. Hvad ser du?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Der ser ikke ud til at være en god korrelation mellem minimumsvingefang og bevaringsstatus. Test andre elementer i datasættet ved hjælp af denne metode. Du kan også prøve forskellige filtre. Finder du nogen korrelation?
+
+## Tæthedsdiagrammer
+
+Du har måske bemærket, at de histogrammer, vi har kigget på indtil videre, er 'trappede' og ikke flyder jævnt i en bue. For at vise et mere glat tæthedsdiagram kan du prøve et tæthedsplot.
+
+Lad os arbejde med tæthedsdiagrammer nu!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Du kan se, hvordan diagrammet afspejler det tidligere for Minimum Wingspan-data; det er bare lidt glattere. Hvis du ville genbesøge den hakkede MaxBodyMass-linje i det andet diagram, du oprettede, kunne du glatte den meget godt ud ved at genskabe den ved hjælp af denne metode:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Hvis du ville have en glat, men ikke alt for glat linje, kan du redigere `adjust`-parameteren:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Læs om de tilgængelige parametre for denne type diagram og eksperimentér!
+
+Denne type diagram tilbyder smukt forklarende visualiseringer. Med få linjer kode kan du for eksempel vise den maksimale kropsmasse tæthed pr. fugleorden:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Udfordring
+
+Histogrammer er en mere sofistikeret type diagram end grundlæggende scatterplots, søjlediagrammer eller linjediagrammer. Gå på internettet og find gode eksempler på brugen af histogrammer. Hvordan bruges de, hvad demonstrerer de, og inden for hvilke områder eller felter anvendes de typisk?
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Gennemgang & Selvstudie
+
+I denne lektion brugte du `ggplot2` og begyndte at arbejde med mere sofistikerede diagrammer. Lav noget research om `geom_density_2d()`, en "kontinuerlig sandsynlighedstæthedskurve i en eller flere dimensioner". Læs [dokumentationen](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) for at forstå, hvordan det fungerer.
+
+## Opgave
+
+[Anvend dine færdigheder](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/da/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..ccc9b90f
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Anvend dine færdigheder
+
+## Instruktioner
+
+Indtil nu har du arbejdet med Minnesota fugledatasættet for at opdage information om fuglemængder og befolkningstæthed. Øv dig i at anvende disse teknikker ved at prøve et andet datasæt, måske hentet fra [Kaggle](https://www.kaggle.com/). Byg et R-script, der fortæller en historie om dette datasæt, og sørg for at bruge histogrammer, når du diskuterer det.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+Et script præsenteres med kommentarer om dette datasæt, inklusive dets kilde, og bruger mindst 5 histogrammer til at opdage fakta om dataene. | Et script præsenteres med ufuldstændige kommentarer eller fejl. | Et script præsenteres uden kommentarer og indeholder fejl.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/da/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..9b861dfc
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,201 @@
+
+# Visualisering af proportioner
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisering af proportioner - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+I denne lektion vil du bruge et naturfokuseret datasæt til at visualisere proportioner, såsom hvor mange forskellige typer svampe der findes i et givet datasæt om champignoner. Lad os udforske disse fascinerende svampe ved hjælp af et datasæt fra Audubon, der indeholder detaljer om 23 arter af lamelsvampe i Agaricus- og Lepiota-familierne. Du vil eksperimentere med lækre visualiseringer som:
+
+- Cirkeldiagrammer 🥧
+- Donutdiagrammer 🍩
+- Vaffeldiagrammer 🧇
+
+> 💡 Et meget interessant projekt kaldet [Charticulator](https://charticulator.com) fra Microsoft Research tilbyder en gratis drag-and-drop-grænseflade til datavisualiseringer. I en af deres tutorials bruger de også dette champignondatasæt! Så du kan udforske dataene og lære biblioteket samtidig: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Lær dine champignoner at kende 🍄
+
+Champignoner er meget interessante. Lad os importere et datasæt for at studere dem:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+En tabel bliver printet med nogle fantastiske data til analyse:
+
+
+| klasse | hat-form | hat-overflade | hat-farve | blå mærker | lugt | lamel-tilknytning | lamel-afstand | lamel-størrelse | lamel-farve | stilk-form | stilk-rod | stilk-overflade-over-ring | stilk-overflade-under-ring | stilk-farve-over-ring | stilk-farve-under-ring | slør-type | slør-farve | ring-antal | ring-type | spore-print-farve | population | habitat |
+| --------- | --------- | ------------- | --------- | ---------- | -------- | ----------------- | ------------- | --------------- | ----------- | ----------- | ---------- | ------------------------ | ------------------------ | --------------------- | --------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Giftig | Konveks | Glat | Brun | Blå mærker | Stikkende| Fri | Tæt | Smal | Sort | Udvidende | Lige | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Sort | Spredt | Urban |
+| Spiselig | Konveks | Glat | Gul | Blå mærker | Mandel | Fri | Tæt | Bred | Sort | Udvidende | Klub | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Brun | Talrig | Græsarealer |
+| Spiselig | Klokke | Glat | Hvid | Blå mærker | Anis | Fri | Tæt | Bred | Brun | Udvidende | Klub | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Brun | Talrig | Enge |
+| Giftig | Konveks | Skællet | Hvid | Blå mærker | Stikkende| Fri | Tæt | Smal | Brun | Udvidende | Lige | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Sort | Spredt | Urban
+| Spiselig | Konveks | Glat | Grøn | Ingen blå mærker | Ingen | Fri | Overfyldt | Bred | Sort | Taperende | Lige | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Flygtig | Brun | Rigelig | Græsarealer |
+| Spiselig | Konveks | Skællet | Gul | Blå mærker | Mandel | Fri | Tæt | Bred | Brun | Udvidende | Klub | Glat | Glat | Hvid | Hvid | Delvis | Hvid | En | Hængende | Sort | Talrig | Græsarealer |
+
+Med det samme bemærker du, at alle data er tekstuelle. Du skal konvertere disse data for at kunne bruge dem i et diagram. Faktisk er de fleste af dataene repræsenteret som et objekt:
+
+```r
+names(mushrooms)
+```
+
+Outputtet er:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Tag disse data og konverter 'klasse'-kolonnen til en kategori:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+
+Nu, hvis du printer champignondataene, kan du se, at de er blevet grupperet i kategorier baseret på den giftige/spiselige klasse:
+```r
+View(grouped)
+```
+
+
+| klasse | antal |
+| --------- | --------- |
+| Spiselig | 4208 |
+| Giftig | 3916 |
+
+
+
+Hvis du følger rækkefølgen præsenteret i denne tabel for at oprette dine klassekategorilabels, kan du lave et cirkeldiagram.
+
+## Cirkeldiagram!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voila, et cirkeldiagram, der viser proportionerne af disse data baseret på de to klasser af champignoner. Det er ret vigtigt at få rækkefølgen af labels korrekt, især her, så sørg for at verificere rækkefølgen, som label-arrayet er bygget med!
+
+
+
+## Donuts!
+
+Et lidt mere visuelt interessant cirkeldiagram er et donutdiagram, som er et cirkeldiagram med et hul i midten. Lad os se på vores data ved hjælp af denne metode.
+
+Tag et kig på de forskellige habitater, hvor champignoner vokser:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Outputtet er:
+| habitat| antal |
+| --------- | --------- |
+| Græsarealer | 2148 |
+| Blade | 832 |
+| Enge | 292 |
+| Stier | 1144 |
+| Urban | 368 |
+| Affald | 192 |
+| Skov | 3148 |
+
+
+Her grupperer du dine data efter habitat. Der er 7 listede, så brug dem som labels til dit donutdiagram:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Denne kode bruger de to biblioteker - ggplot2 og webr. Ved at bruge PieDonut-funktionen fra webr-biblioteket kan vi nemt oprette et donutdiagram!
+
+Donutdiagrammer i R kan også laves ved kun at bruge ggplot2-biblioteket. Du kan lære mere om det [her](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) og prøve det selv.
+
+Nu hvor du ved, hvordan du grupperer dine data og derefter viser dem som cirkel- eller donutdiagrammer, kan du udforske andre typer diagrammer. Prøv et vaffeldiagram, som er en anderledes måde at udforske mængder på.
+## Vaffeldiagrammer!
+
+Et 'vaffel'-type diagram er en anderledes måde at visualisere mængder som et 2D-array af firkanter. Prøv at visualisere de forskellige mængder af champignonhatfarver i dette datasæt. For at gøre dette skal du installere et hjælpebibliotek kaldet [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) og bruge det til at generere din visualisering:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Vælg et segment af dine data til gruppering:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Opret et vaffeldiagram ved at oprette labels og derefter gruppere dine data:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Ved hjælp af et vaffeldiagram kan du tydeligt se proportionerne af hatfarver i dette champignondatasæt. Interessant nok er der mange champignoner med grønne hatte!
+
+
+
+I denne lektion lærte du tre måder at visualisere proportioner på. Først skal du gruppere dine data i kategorier og derefter beslutte, hvilken der er den bedste måde at vise dataene på - cirkel, donut eller vaffel. Alle er lækre og giver brugeren et øjeblikkeligt overblik over et datasæt.
+
+## 🚀 Udfordring
+
+Prøv at genskabe disse lækre diagrammer i [Charticulator](https://charticulator.com).
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Gennemgang & Selvstudie
+
+Nogle gange er det ikke indlysende, hvornår man skal bruge et cirkel-, donut- eller vaffeldiagram. Her er nogle artikler, du kan læse om emnet:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Lav lidt research for at finde mere information om denne vanskelige beslutning.
+## Opgave
+
+[Prøv det i Excel](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/da/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..8e78a102
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# Visualisering af relationer: Alt om honning 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisering af relationer - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Med fokus på naturen i vores forskning, lad os udforske interessante visualiseringer, der viser relationerne mellem forskellige typer honning, baseret på et datasæt fra [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Dette datasæt med omkring 600 poster viser honningproduktion i mange amerikanske stater. For eksempel kan du se på antallet af kolonier, udbytte pr. koloni, total produktion, lagre, pris pr. pund og værdien af den producerede honning i en given stat fra 1998-2012, med én række pr. år for hver stat.
+
+Det vil være interessant at visualisere relationen mellem en given stats produktion pr. år og f.eks. prisen på honning i den stat. Alternativt kunne du visualisere relationen mellem staters honningudbytte pr. koloni. Denne tidsperiode dækker den ødelæggende 'CCD' eller 'Colony Collapse Disorder', som først blev observeret i 2006 (http://npic.orst.edu/envir/ccd.html), så det er et tankevækkende datasæt at studere. 🐝
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+I denne lektion kan du bruge ggplot2, som du har brugt før, som et godt bibliotek til at visualisere relationer mellem variabler. Særligt interessant er brugen af ggplot2's `geom_point` og `qplot` funktion, der tillader scatterplots og linjediagrammer til hurtigt at visualisere '[statistiske relationer](https://ggplot2.tidyverse.org/)', hvilket giver dataforskeren en bedre forståelse af, hvordan variabler relaterer til hinanden.
+
+## Scatterplots
+
+Brug et scatterplot til at vise, hvordan prisen på honning har udviklet sig år for år pr. stat. ggplot2, ved brug af `ggplot` og `geom_point`, grupperer bekvemt data fra staterne og viser datapunkter for både kategoriske og numeriske data.
+
+Lad os starte med at importere data og Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Du bemærker, at honningdataene har flere interessante kolonner, inklusive år og pris pr. pund. Lad os udforske disse data, grupperet efter amerikanske stater:
+
+| stat | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | år |
+| ---- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Lav et grundlæggende scatterplot for at vise relationen mellem prisen pr. pund honning og dens oprindelsesstat i USA. Gør `y`-aksen høj nok til at vise alle staterne:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Vis nu de samme data med et honningfarvetema for at vise, hvordan prisen udvikler sig over årene. Du kan gøre dette ved at tilføje en 'scale_color_gradientn'-parameter for at vise ændringen år for år:
+
+> ✅ Lær mere om [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - prøv et smukt regnbuefarvetema!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Med denne farveskemaændring kan du se, at der tydeligvis er en stærk progression over årene i forhold til honningprisen pr. pund. Faktisk, hvis du ser på et eksempel fra datasættet for at verificere (vælg en given stat, f.eks. Arizona), kan du se et mønster af prisstigninger år for år, med få undtagelser:
+
+| stat | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | år |
+| ---- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+En anden måde at visualisere denne progression på er at bruge størrelse i stedet for farve. For farveblinde brugere kan dette være en bedre mulighed. Rediger din visualisering for at vise en stigning i prisen ved en stigning i prikstørrelse:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Du kan se, at prikkerne gradvist bliver større.
+
+
+
+Er dette et simpelt tilfælde af udbud og efterspørgsel? På grund af faktorer som klimaforandringer og kolonikollaps, er der mindre honning tilgængelig for køb år for år, og derfor stiger prisen?
+
+For at finde en korrelation mellem nogle af variablerne i dette datasæt, lad os udforske nogle linjediagrammer.
+
+## Linjediagrammer
+
+Spørgsmål: Er der en klar stigning i prisen på honning pr. pund år for år? Du kan nemmest opdage det ved at lave et enkelt linjediagram:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Svar: Ja, med nogle undtagelser omkring året 2003:
+
+
+
+Spørgsmål: Nå, i 2003 kan vi også se en stigning i honningforsyningen? Hvad hvis du ser på den totale produktion år for år?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Svar: Ikke rigtig. Hvis du ser på den totale produktion, ser det faktisk ud til at være steget i det pågældende år, selvom mængden af produceret honning generelt er faldende i disse år.
+
+Spørgsmål: I så fald, hvad kunne have forårsaget den stigning i prisen på honning omkring 2003?
+
+For at finde ud af dette kan du udforske et facet grid.
+
+## Facet grids
+
+Facet grids tager én facet af dit datasæt (i vores tilfælde kan du vælge 'år' for at undgå at få for mange facetter). Seaborn kan derefter lave et plot for hver af disse facetter af dine valgte x- og y-koordinater for lettere visuel sammenligning. Skiller 2003 sig ud i denne type sammenligning?
+
+Lav et facet grid ved at bruge `facet_wrap` som anbefalet af [ggplot2's dokumentation](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+I denne visualisering kan du sammenligne udbytte pr. koloni og antal kolonier år for år, side om side med en wrap sat til 3 for kolonnerne:
+
+
+
+For dette datasæt skiller intet sig særligt ud med hensyn til antallet af kolonier og deres udbytte år for år og stat for stat. Er der en anden måde at finde en korrelation mellem disse to variabler?
+
+## Dual-line plots
+
+Prøv et multiline plot ved at overlejre to linjediagrammer oven på hinanden, ved brug af R's `par` og `plot` funktion. Vi vil plotte året på x-aksen og vise to y-akser. Så vis udbytte pr. koloni og antal kolonier, overlejret:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Mens intet springer i øjnene omkring året 2003, giver det os mulighed for at afslutte denne lektion på en lidt gladere note: selvom der generelt er et faldende antal kolonier, stabiliserer antallet af kolonier sig, selvom deres udbytte pr. koloni falder.
+
+Kom så, bier, kom så!
+
+🐝❤️
+## 🚀 Udfordring
+
+I denne lektion lærte du lidt mere om andre anvendelser af scatterplots og linjediagrammer, inklusive facet grids. Udfordr dig selv til at lave et facet grid ved brug af et andet datasæt, måske et du brugte tidligere i disse lektioner. Bemærk, hvor lang tid det tager at lave, og hvordan du skal være forsigtig med, hvor mange grids du skal tegne ved brug af disse teknikker.
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Gennemgang & Selvstudie
+
+Linjediagrammer kan være simple eller ret komplekse. Læs lidt i [ggplot2 dokumentationen](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) om de forskellige måder, du kan bygge dem på. Prøv at forbedre de linjediagrammer, du byggede i denne lektion, med andre metoder, der er nævnt i dokumentationen.
+## Opgave
+
+[Dyk ned i bikuben](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/da/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..fe067084
--- /dev/null
+++ b/translations/da/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Skabe Meningsfulde Visualiseringer
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Meningsfulde Visualiseringer - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+> "Hvis du torturerer data længe nok, vil de tilstå hvad som helst" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+En af de grundlæggende færdigheder for en dataforsker er evnen til at skabe en meningsfuld datavisualisering, der hjælper med at besvare de spørgsmål, du måtte have. Før du visualiserer dine data, skal du sikre dig, at de er blevet renset og forberedt, som du gjorde i tidligere lektioner. Derefter kan du begynde at beslutte, hvordan du bedst præsenterer dataene.
+
+I denne lektion vil du gennemgå:
+
+1. Hvordan man vælger den rigtige diagramtype
+2. Hvordan man undgår vildledende diagrammer
+3. Hvordan man arbejder med farver
+4. Hvordan man styler diagrammer for læsbarhed
+5. Hvordan man bygger animerede eller 3D-diagramløsninger
+6. Hvordan man skaber en kreativ visualisering
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Vælg den rigtige diagramtype
+
+I tidligere lektioner eksperimenterede du med at bygge alle slags interessante datavisualiseringer ved hjælp af Matplotlib og Seaborn til diagrammer. Generelt kan du vælge den [rigtige type diagram](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) til det spørgsmål, du stiller, ved hjælp af denne tabel:
+
+| Du skal: | Du bør bruge: |
+| -------------------------- | ------------------------------- |
+| Vise datatrends over tid | Linje |
+| Sammenligne kategorier | Søjle, Cirkel |
+| Sammenligne totaler | Cirkel, Stablet Søjle |
+| Vise relationer | Punkt, Linje, Facet, Dobbelt Linje |
+| Vise fordelinger | Punkt, Histogram, Boks |
+| Vise proportioner | Cirkel, Donut, Vaffel |
+
+> ✅ Afhængigt af sammensætningen af dine data kan det være nødvendigt at konvertere dem fra tekst til numerisk for at få et givet diagram til at understøtte dem.
+
+## Undgå vildledning
+
+Selv hvis en dataforsker er omhyggelig med at vælge det rigtige diagram til de rigtige data, er der mange måder, hvorpå data kan vises for at bevise en pointe, ofte på bekostning af at undergrave dataene selv. Der findes mange eksempler på vildledende diagrammer og infografikker!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klik på billedet ovenfor for en konferencepræsentation om vildledende diagrammer
+
+Dette diagram vender X-aksen om for at vise det modsatte af sandheden, baseret på dato:
+
+
+
+[Dette diagram](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) er endnu mere vildledende, da øjet drages mod højre for at konkludere, at COVID-tilfælde over tid er faldet i de forskellige amter. Faktisk, hvis du ser nøje på datoerne, vil du opdage, at de er blevet omarrangeret for at give den vildledende nedadgående tendens.
+
+
+
+Dette berygtede eksempel bruger farve OG en vendt Y-akse til at vildlede: i stedet for at konkludere, at våbendrab steg efter vedtagelsen af våbenvenlig lovgivning, bliver øjet faktisk narret til at tro, at det modsatte er sandt:
+
+
+
+Dette mærkelige diagram viser, hvordan proportioner kan manipuleres, til komisk effekt:
+
+
+
+At sammenligne det, der ikke kan sammenlignes, er endnu et skummelt trick. Der er en [vidunderlig hjemmeside](https://tylervigen.com/spurious-correlations) dedikeret til 'spurious correlations', der viser 'fakta', der korrelerer ting som skilsmisseraten i Maine og forbruget af margarine. En Reddit-gruppe samler også [grimme eksempler](https://www.reddit.com/r/dataisugly/top/?t=all) på data.
+
+Det er vigtigt at forstå, hvor let øjet kan narres af vildledende diagrammer. Selv hvis dataforskerens intention er god, kan valget af en dårlig type diagram, såsom et cirkeldiagram med for mange kategorier, være vildledende.
+
+## Farver
+
+Du så i 'Florida våbenvold'-diagrammet ovenfor, hvordan farver kan give et ekstra lag af mening til diagrammer, især dem, der ikke er designet ved hjælp af biblioteker som ggplot2 og RColorBrewer, som kommer med forskellige godkendte farvebiblioteker og paletter. Hvis du laver et diagram manuelt, så brug lidt tid på at studere [farveteori](https://colormatters.com/color-and-design/basic-color-theory)
+
+> ✅ Vær opmærksom på, når du designer diagrammer, at tilgængelighed er en vigtig del af visualisering. Nogle af dine brugere kan være farveblinde - vises dit diagram godt for brugere med synshandicap?
+
+Vær forsigtig, når du vælger farver til dit diagram, da farver kan formidle betydninger, du måske ikke har til hensigt. De 'pink ladies' i 'højde'-diagrammet ovenfor formidler en tydeligt 'feminin' tilskrevet betydning, der tilføjer til diagrammets mærkværdighed.
+
+Mens [farvebetydning](https://colormatters.com/color-symbolism/the-meanings-of-colors) kan variere i forskellige dele af verden og har tendens til at ændre betydning afhængigt af deres nuance, inkluderer generelle farvebetydninger:
+
+| Farve | Betydning |
+| ------ | -------------------- |
+| rød | magt |
+| blå | tillid, loyalitet |
+| gul | glæde, forsigtighed |
+| grøn | økologi, held, misundelse |
+| lilla | glæde |
+| orange | livlighed |
+
+Hvis du får til opgave at bygge et diagram med brugerdefinerede farver, skal du sikre dig, at dine diagrammer både er tilgængelige, og at den farve, du vælger, stemmer overens med den betydning, du forsøger at formidle.
+
+## Styling af diagrammer for læsbarhed
+
+Diagrammer er ikke meningsfulde, hvis de ikke er læsbare! Tag et øjeblik til at overveje at style bredden og højden af dit diagram, så det passer godt til dine data. Hvis en variabel (såsom alle 50 stater) skal vises, skal du vise dem lodret på Y-aksen, hvis det er muligt, for at undgå et diagram, der skal rulles horisontalt.
+
+Mærk dine akser, giv en forklaring, hvis det er nødvendigt, og tilbyd værktøjstip for bedre forståelse af data.
+
+Hvis dine data er tekstuelle og lange på X-aksen, kan du vinkle teksten for bedre læsbarhed. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) tilbyder 3D-plotning, hvis dine data understøtter det. Sofistikerede datavisualiseringer kan produceres ved hjælp af det.
+
+
+
+## Animation og 3D-diagramvisning
+
+Nogle af de bedste datavisualiseringer i dag er animerede. Shirley Wu har fantastiske eksempler lavet med D3, såsom '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', hvor hver blomst er en visualisering af en film. Et andet eksempel for Guardian er 'bussed out', en interaktiv oplevelse, der kombinerer visualiseringer med Greensock og D3 plus en scrollytelling-artikel for at vise, hvordan NYC håndterer sit hjemløse problem ved at sende folk ud af byen.
+
+
+
+> "Bussed Out: How America Moves its Homeless" fra [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualiseringer af Nadieh Bremer & Shirley Wu
+
+Selvom denne lektion ikke går i dybden med at lære disse kraftfulde visualiseringsbiblioteker, kan du prøve D3 i en Vue.js-app ved hjælp af et bibliotek til at vise en visualisering af bogen "Dangerous Liaisons" som et animeret socialt netværk.
+
+> "Les Liaisons Dangereuses" er en epistolær roman, eller en roman præsenteret som en række breve. Skrevet i 1782 af Choderlos de Laclos, fortæller den historien om de ondskabsfulde, moralsk forfaldne sociale manøvrer af to rivaliserende hovedpersoner fra det franske aristokrati i slutningen af det 18. århundrede, Vicomte de Valmont og Marquise de Merteuil. Begge møder deres undergang til sidst, men ikke uden at forårsage en stor social skade. Romanen udfolder sig som en række breve skrevet til forskellige personer i deres kredse, der planlægger hævn eller blot for at skabe problemer. Skab en visualisering af disse breve for at opdage de vigtigste aktører i fortællingen, visuelt.
+
+Du vil fuldføre en webapp, der viser en animeret visning af dette sociale netværk. Den bruger et bibliotek, der blev bygget til at skabe en [visualisering af et netværk](https://github.com/emiliorizzo/vue-d3-network) ved hjælp af Vue.js og D3. Når appen kører, kan du trække noderne rundt på skærmen for at omarrangere dataene.
+
+
+
+## Projekt: Byg et diagram til at vise et netværk ved hjælp af D3.js
+
+> Denne lektionsmappe inkluderer en `solution`-mappe, hvor du kan finde det færdige projekt som reference.
+
+1. Følg instruktionerne i README.md-filen i starter-mappens rod. Sørg for, at du har NPM og Node.js kørende på din maskine, før du installerer projektets afhængigheder.
+
+2. Åbn `starter/src`-mappen. Du vil finde en `assets`-mappe, hvor du kan finde en .json-fil med alle brevene fra romanen, nummereret, med en 'to' og 'from'-annotation.
+
+3. Fuldfør koden i `components/Nodes.vue` for at aktivere visualiseringen. Find metoden kaldet `createLinks()` og tilføj følgende indlejrede loop.
+
+Loop gennem .json-objektet for at fange 'to' og 'from'-dataene for brevene og opbyg `links`-objektet, så visualiseringsbiblioteket kan bruge det:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Kør din app fra terminalen (npm run serve) og nyd visualiseringen!
+
+## 🚀 Udfordring
+
+Tag en tur på internettet for at opdage vildledende visualiseringer. Hvordan narrer forfatteren brugeren, og er det med vilje? Prøv at rette visualiseringerne for at vise, hvordan de burde se ud.
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Gennemgang & Selvstudie
+
+Her er nogle artikler om vildledende datavisualisering:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Tag et kig på disse interessante visualiseringer af historiske aktiver og artefakter:
+
+https://handbook.pubpub.org/
+
+Læs denne artikel om, hvordan animation kan forbedre dine visualiseringer:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Opgave
+
+[Byg din egen brugerdefinerede visualisering](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/3-Data-Visualization/README.md b/translations/da/3-Data-Visualization/README.md
new file mode 100644
index 00000000..bd3619f4
--- /dev/null
+++ b/translations/da/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# Visualiseringer
+
+
+> Foto af Jenna Lee på Unsplash
+
+At visualisere data er en af de vigtigste opgaver for en dataforsker. Billeder siger mere end 1000 ord, og en visualisering kan hjælpe dig med at identificere alle mulige interessante aspekter af dine data, såsom spidser, afvigere, grupperinger, tendenser og meget mere, der kan hjælpe dig med at forstå den historie, dine data forsøger at fortælle.
+
+I disse fem lektioner vil du udforske data fra naturen og skabe interessante og smukke visualiseringer ved hjælp af forskellige teknikker.
+
+| Emnenummer | Emne | Linket Lektion | Forfatter |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | Visualisering af mængder | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Visualisering af fordeling | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Visualisering af proportioner | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Visualisering af relationer | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Skabe meningsfulde visualiseringer | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Kreditering
+
+Disse visualiseringslektioner er skrevet med 🌸 af [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) og [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Data for honningproduktion i USA er hentet fra Jessica Lis projekt på [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). [Dataene](https://usda.library.cornell.edu/concern/publications/rn301137d) stammer fra [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Data for svampe er også hentet fra [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) revideret af Hatteras Dunton. Dette datasæt indeholder beskrivelser af hypotetiske prøver, der svarer til 23 arter af lamelsvampe i Agaricus- og Lepiota-familien. Svampene er hentet fra The Audubon Society Field Guide to North American Mushrooms (1981). Dette datasæt blev doneret til UCI ML 27 i 1987.
+
+🦆 Data for fugle i Minnesota er fra [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) skrabet fra [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) af Hannah Collins.
+
+Alle disse datasæt er licenseret som [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/da/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..3f4c4a62
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Introduktion til Data Science-livscyklussen
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Introduktion til Data Science-livscyklussen - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før lektionen](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+På nuværende tidspunkt har du sandsynligvis indset, at data science er en proces. Denne proces kan opdeles i 5 stadier:
+
+- Indsamling
+- Bearbejdning
+- Analyse
+- Kommunikation
+- Vedligeholdelse
+
+Denne lektion fokuserer på 3 dele af livscyklussen: indsamling, bearbejdning og vedligeholdelse.
+
+
+> Foto af [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Indsamling
+
+Det første stadie i livscyklussen er meget vigtigt, da de næste stadier afhænger af det. Det er praktisk talt to stadier kombineret i ét: at indsamle data og definere formålet og de problemer, der skal adresseres.
+At definere projektets mål kræver en dybere forståelse af problemet eller spørgsmålet. Først skal vi identificere og engagere dem, der har brug for at få løst deres problem. Dette kan være interessenter i en virksomhed eller sponsorer af projektet, som kan hjælpe med at identificere, hvem eller hvad der vil drage fordel af projektet, samt hvad og hvorfor de har brug for det. Et veldefineret mål bør være målbart og kvantificerbart for at definere et acceptabelt resultat.
+
+Spørgsmål, en data scientist kan stille:
+- Er dette problem blevet adresseret før? Hvad blev opdaget?
+- Er formålet og målet forstået af alle involverede?
+- Er der uklarheder, og hvordan kan de reduceres?
+- Hvad er begrænsningerne?
+- Hvordan vil det endelige resultat potentielt se ud?
+- Hvor mange ressourcer (tid, mennesker, computerkraft) er tilgængelige?
+
+Næste skridt er at identificere, indsamle og derefter udforske de data, der er nødvendige for at opnå de definerede mål. På dette trin i indsamlingen skal data scientists også evaluere mængden og kvaliteten af dataene. Dette kræver en vis dataudforskning for at bekræfte, at det, der er indsamlet, vil understøtte opnåelsen af det ønskede resultat.
+
+Spørgsmål, en data scientist kan stille om dataene:
+- Hvilke data er allerede tilgængelige for mig?
+- Hvem ejer disse data?
+- Hvad er privatlivsbekymringerne?
+- Har jeg nok til at løse dette problem?
+- Er dataene af acceptabel kvalitet til dette problem?
+- Hvis jeg opdager yderligere information gennem disse data, bør vi så overveje at ændre eller redefinere målene?
+
+## Bearbejdning
+
+Bearbejdningstrinnet i livscyklussen fokuserer på at opdage mønstre i dataene samt modellering. Nogle teknikker, der bruges i bearbejdningstrinnet, kræver statistiske metoder for at afdække mønstre. Typisk ville dette være en tidskrævende opgave for et menneske med et stort datasæt, og derfor vil computere blive brugt til at lette processen og fremskynde arbejdet. Dette trin er også, hvor data science og machine learning krydser hinanden. Som du lærte i den første lektion, er machine learning processen med at bygge modeller for at forstå dataene. Modeller er en repræsentation af forholdet mellem variabler i dataene, som hjælper med at forudsige resultater.
+
+Almindelige teknikker, der bruges i dette trin, er dækket i ML for Beginners-kurset. Følg linkene for at lære mere om dem:
+
+- [Klassifikation](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organisering af data i kategorier for mere effektiv brug.
+- [Klyngedannelse](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Gruppering af data i lignende grupper.
+- [Regression](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Bestemme forholdet mellem variabler for at forudsige eller forudsige værdier.
+
+## Vedligeholdelse
+
+I diagrammet over livscyklussen har du måske bemærket, at vedligeholdelse ligger mellem indsamling og bearbejdning. Vedligeholdelse er en løbende proces med at administrere, opbevare og sikre data gennem hele projektets proces og bør tages i betragtning i hele projektets varighed.
+
+### Opbevaring af data
+
+Overvejelser om, hvordan og hvor data opbevares, kan påvirke omkostningerne ved opbevaring samt ydeevnen for, hvor hurtigt data kan tilgås. Beslutninger som disse vil sandsynligvis ikke blive truffet af en data scientist alene, men de kan finde sig selv i at træffe valg om, hvordan de skal arbejde med dataene baseret på, hvordan de er opbevaret.
+
+Her er nogle aspekter af moderne datalagringssystemer, der kan påvirke disse valg:
+
+**On-premise vs off-premise vs offentlig eller privat cloud**
+
+On-premise refererer til at hoste og administrere data på eget udstyr, som f.eks. at eje en server med harddiske, der opbevarer dataene, mens off-premise afhænger af udstyr, som du ikke ejer, såsom et datacenter. Den offentlige cloud er et populært valg til opbevaring af data, der ikke kræver viden om, hvordan eller hvor dataene præcist opbevares, hvor offentlig refererer til en samlet underliggende infrastruktur, der deles af alle, der bruger cloud'en. Nogle organisationer har strenge sikkerhedspolitikker, der kræver, at de har fuld adgang til det udstyr, hvor dataene hostes, og vil derfor benytte en privat cloud, der tilbyder egne cloud-tjenester. Du vil lære mere om data i cloud'en i [senere lektioner](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Kold vs varm data**
+
+Når du træner dine modeller, kan du have brug for mere træningsdata. Hvis du er tilfreds med din model, vil der komme flere data til, så modellen kan tjene sit formål. Uanset hvad vil omkostningerne ved opbevaring og adgang til data stige, jo mere du akkumulerer. At adskille sjældent brugte data, kendt som kold data, fra ofte tilgået varm data kan være en billigere datalagringsmulighed gennem hardware- eller softwaretjenester. Hvis kold data skal tilgås, kan det tage lidt længere tid at hente i forhold til varm data.
+
+### Administration af data
+
+Når du arbejder med data, kan du opdage, at nogle af dataene skal renses ved hjælp af nogle af de teknikker, der er dækket i lektionen om [dataklargøring](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) for at bygge præcise modeller. Når nye data ankommer, vil de kræve nogle af de samme applikationer for at opretholde konsistens i kvaliteten. Nogle projekter vil involvere brugen af et automatiseret værktøj til rensning, aggregering og komprimering, før dataene flyttes til deres endelige placering. Azure Data Factory er et eksempel på et af disse værktøjer.
+
+### Sikring af data
+
+Et af hovedmålene med at sikre data er at sikre, at dem, der arbejder med dem, har kontrol over, hvad der indsamles, og i hvilken kontekst det bruges. At holde data sikre indebærer at begrænse adgangen til kun dem, der har brug for det, overholde lokale love og regler samt opretholde etiske standarder, som dækket i [etiklektionen](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Her er nogle ting, som et team kan gøre med sikkerhed i tankerne:
+- Bekræfte, at alle data er krypteret
+- Give kunder information om, hvordan deres data bruges
+- Fjerne dataadgang fra dem, der har forladt projektet
+- Kun lade visse projektmedlemmer ændre dataene
+
+## 🚀 Udfordring
+
+Der findes mange versioner af Data Science-livscyklussen, hvor hvert trin kan have forskellige navne og antal stadier, men vil indeholde de samme processer nævnt i denne lektion.
+
+Undersøg [Team Data Science Process-livscyklussen](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) og [Cross-industry standard process for data mining](https://www.datascience-pm.com/crisp-dm-2/). Nævn 3 ligheder og forskelle mellem de to.
+
+|Team Data Science Process (TDSP)|Cross-industry standard process for data mining (CRISP-DM)|
+|--|--|
+| |  |
+| Billede af [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Billede af [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Quiz efter lektionen](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Gennemgang & Selvstudie
+
+Anvendelse af Data Science-livscyklussen involverer flere roller og opgaver, hvor nogle kan fokusere på bestemte dele af hvert stadie. Team Data Science Process tilbyder nogle ressourcer, der forklarer de typer roller og opgaver, som nogen kan have i et projekt.
+
+* [Team Data Science Process roller og opgaver](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Udfør data science-opgaver: udforskning, modellering og implementering](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Opgave
+
+[Vurdering af et datasæt](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/da/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..81c262df
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,37 @@
+
+# Vurdering af et datasæt
+
+En klient har henvendt sig til jeres team for hjælp til at undersøge en taxikundes sæsonmæssige forbrugsvaner i New York City.
+
+De vil gerne vide: **Giver passagerer i gule taxaer i New York City chauffører mere drikkepenge om vinteren eller sommeren?**
+
+Jeres team er i [Indsamling](Readme.md#Capturing)-fasen af Data Science-livscyklussen, og du har ansvaret for at håndtere datasættet. Du har fået udleveret en notebook og [data](../../../../data/taxi.csv) til at udforske.
+
+I denne mappe findes en [notebook](notebook.ipynb), der bruger Python til at indlæse data om ture med gule taxaer fra [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Du kan også åbne taxidatafilen i en teksteditor eller regnearkssoftware som Excel.
+
+## Instruktioner
+
+- Vurder, om dataene i dette datasæt kan hjælpe med at besvare spørgsmålet.
+- Udforsk [NYC Open Data-kataloget](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identificer et ekstra datasæt, der potentielt kunne være nyttigt til at besvare klientens spørgsmål.
+- Skriv 3 spørgsmål, som du ville stille klienten for at få mere afklaring og bedre forståelse af problemet.
+
+Se [datasættets ordbog](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) og [brugervejledning](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) for mere information om dataene.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | ---
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/da/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..3b443602
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,62 @@
+
+# Data Science Livscyklus: Analyse
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Data Science Livscyklus: Analyse - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+## Quiz før lektionen
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Analysen i dataens livscyklus bekræfter, at dataene kan besvare de stillede spørgsmål eller løse et specifikt problem. Dette trin fokuserer også på at sikre, at en model korrekt adresserer disse spørgsmål og problemer. Denne lektion handler om Exploratory Data Analysis (EDA), som er teknikker til at definere egenskaber og relationer inden for dataene og kan bruges til at forberede dataene til modellering.
+
+Vi vil bruge et eksempel-datasæt fra [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) for at vise, hvordan dette kan anvendes med Python og Pandas-biblioteket. Dette datasæt indeholder en optælling af nogle almindelige ord, der findes i e-mails, hvor kilderne til disse e-mails er anonyme. Brug [notebook](notebook.ipynb) i denne mappe til at følge med.
+
+## Exploratory Data Analysis
+
+Indfangningsfasen i livscyklussen er, hvor dataene erhverves, samt de problemer og spørgsmål, der skal adresseres. Men hvordan ved vi, om dataene kan understøtte det ønskede resultat?
+Husk, at en dataforsker kan stille følgende spørgsmål, når de erhverver dataene:
+- Har jeg nok data til at løse dette problem?
+- Er dataene af acceptabel kvalitet til dette problem?
+- Hvis jeg opdager yderligere information gennem disse data, bør vi så overveje at ændre eller omdefinere målene?
+
+Exploratory Data Analysis er processen med at lære dataene at kende og kan bruges til at besvare disse spørgsmål samt identificere udfordringerne ved at arbejde med datasættet. Lad os fokusere på nogle af de teknikker, der bruges til at opnå dette.
+
+## Data Profiling, Deskriptiv Statistik og Pandas
+Hvordan vurderer vi, om vi har nok data til at løse dette problem? Data profiling kan opsummere og indsamle nogle generelle oplysninger om vores datasæt gennem teknikker inden for deskriptiv statistik. Data profiling hjælper os med at forstå, hvad der er tilgængeligt for os, og deskriptiv statistik hjælper os med at forstå, hvor mange ting der er tilgængelige for os.
+
+I nogle af de tidligere lektioner har vi brugt Pandas til at levere deskriptiv statistik med [`describe()` funktionen](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Den giver optælling, maksimum- og minimumværdier, gennemsnit, standardafvigelse og kvantiler for de numeriske data. Ved at bruge deskriptiv statistik som `describe()` funktionen kan du vurdere, hvor meget du har, og om du har brug for mere.
+
+## Sampling og Forespørgsler
+At udforske alt i et stort datasæt kan være meget tidskrævende og en opgave, der normalt overlades til en computer. Sampling er dog et nyttigt værktøj til at forstå dataene og giver os en bedre forståelse af, hvad der er i datasættet, og hvad det repræsenterer. Med en prøve kan du anvende sandsynlighed og statistik for at komme frem til nogle generelle konklusioner om dine data. Selvom der ikke er nogen fast regel for, hvor meget data du bør sample, er det vigtigt at bemærke, at jo mere data du sample, desto mere præcis kan din generalisering om dataene være.
+
+Pandas har [`sample()` funktionen i sit bibliotek](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html), hvor du kan angive, hvor mange tilfældige prøver du ønsker at modtage og bruge.
+
+Generelle forespørgsler om dataene kan hjælpe dig med at besvare nogle generelle spørgsmål og teorier, du måtte have. I modsætning til sampling giver forespørgsler dig mulighed for at have kontrol og fokusere på specifikke dele af dataene, som du har spørgsmål om.
+[`query()` funktionen](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) i Pandas-biblioteket giver dig mulighed for at vælge kolonner og modtage enkle svar om dataene gennem de rækker, der hentes.
+
+## Udforskning med Visualiseringer
+Du behøver ikke vente, indtil dataene er grundigt renset og analyseret, før du begynder at lave visualiseringer. Faktisk kan det at have en visuel repræsentation under udforskningen hjælpe med at identificere mønstre, relationer og problemer i dataene. Desuden giver visualiseringer en måde at kommunikere med dem, der ikke er involveret i håndteringen af dataene, og kan være en mulighed for at dele og afklare yderligere spørgsmål, der ikke blev adresseret i indfangningsfasen. Se [sektionen om Visualiseringer](../../../../../../../../../3-Data-Visualization) for at lære mere om nogle populære måder at udforske visuelt.
+
+## Udforskning for at identificere inkonsistenser
+Alle emnerne i denne lektion kan hjælpe med at identificere manglende eller inkonsekvente værdier, men Pandas tilbyder funktioner til at tjekke for nogle af disse. [isna() eller isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) kan tjekke for manglende værdier. En vigtig del af udforskningen af disse værdier i dine data er at undersøge, hvorfor de endte sådan i første omgang. Dette kan hjælpe dig med at beslutte, hvilke [handlinger der skal tages for at løse dem](/2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Opgave
+
+[Udforskning for svar](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/da/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..c6426293
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Udforskning efter svar
+
+Dette er en fortsættelse af den tidligere lektions [opgave](../14-Introduction/assignment.md), hvor vi kort kiggede på datasættet. Nu vil vi tage et dybere kig på dataene.
+
+Igen, spørgsmålet som kunden ønsker svar på: **Giver passagerer i gule taxaer i New York City større drikkepenge til chauffører om vinteren eller sommeren?**
+
+Dit team befinder sig i [Analyzing](README.md)-fasen af Data Science Lifecycle, hvor I er ansvarlige for at udføre eksplorativ dataanalyse på datasættet. I har fået udleveret en notebook og et datasæt, der indeholder 200 taxatransaktioner fra januar og juli 2019.
+
+## Instruktioner
+
+I denne mappe findes en [notebook](assignment.ipynb) og data fra [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Se [datasættets ordbog](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) og [brugervejledning](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) for mere information om dataene.
+
+Brug nogle af teknikkerne fra denne lektion til at udføre din egen EDA i notebooken (tilføj celler, hvis du ønsker det) og besvar følgende spørgsmål:
+
+- Hvilke andre faktorer i dataene kunne påvirke drikkepengebeløbet?
+- Hvilke kolonner vil sandsynligvis ikke være nødvendige for at besvare kundens spørgsmål?
+- Baseret på det, der hidtil er blevet leveret, ser dataene ud til at give nogen beviser for sæsonbestemt drikkepengeadfærd?
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | ---
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/16-communication/README.md b/translations/da/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..f0d432fb
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,222 @@
+
+# Datascience-livscyklussen: Kommunikation
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Datascience-livscyklussen: Kommunikation - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Test din viden om det kommende emne med quizzen før lektionen ovenfor!
+
+# Introduktion
+
+### Hvad er kommunikation?
+Lad os starte denne lektion med at definere, hvad det vil sige at kommunikere. **At kommunikere betyder at overføre eller udveksle information.** Information kan være idéer, tanker, følelser, beskeder, skjulte signaler, data – alt, hvad en **_afsender_** (en person, der sender information) ønsker, at en **_modtager_** (en person, der modtager information) skal forstå. I denne lektion vil vi referere til afsendere som kommunikatører og modtagere som publikum.
+
+### Datakommunikation og historiefortælling
+Vi forstår, at målet med kommunikation er at overføre eller udveksle information. Men når du kommunikerer data, bør dit mål ikke blot være at videregive tal til dit publikum. Dit mål bør være at kommunikere en historie, der er informeret af dine data – effektiv datakommunikation og historiefortælling går hånd i hånd. Dit publikum vil sandsynligvis huske en historie, du fortæller, bedre end et tal, du giver. Senere i denne lektion vil vi gennemgå nogle måder, hvorpå du kan bruge historiefortælling til at kommunikere dine data mere effektivt.
+
+### Typer af kommunikation
+I løbet af denne lektion vil vi diskutere to forskellige typer kommunikation: Envejskommunikation og Tovejskommunikation.
+
+**Envejskommunikation** sker, når en afsender sender information til en modtager uden nogen feedback eller respons. Vi ser eksempler på envejskommunikation hver dag – i masse-e-mails, når nyhederne leverer de seneste historier, eller når en tv-reklame fortæller dig, hvorfor deres produkt er fantastisk. I hver af disse tilfælde søger afsenderen ikke en udveksling af information, men blot at overføre eller levere information.
+
+**Tovejskommunikation** sker, når alle involverede parter fungerer som både afsendere og modtagere. En afsender begynder med at kommunikere til en modtager, og modtageren giver feedback eller en respons. Tovejskommunikation er det, vi traditionelt tænker på, når vi taler om kommunikation. Vi forestiller os ofte folk, der er engageret i en samtale – enten personligt, over telefonen, på sociale medier eller via tekstbeskeder.
+
+Når du kommunikerer data, vil der være tilfælde, hvor du bruger envejskommunikation (tænk på at præsentere ved en konference eller for en stor gruppe, hvor spørgsmål ikke stilles direkte bagefter), og der vil være tilfælde, hvor du bruger tovejskommunikation (tænk på at bruge data til at overbevise nogle få interessenter om en idé eller for at overbevise en kollega om at investere tid og ressourcer i at udvikle noget nyt).
+
+# Effektiv kommunikation
+
+### Dit ansvar som kommunikatør
+Når du kommunikerer, er det dit ansvar at sikre, at din(e) modtager(e) tager den information med sig, som du ønsker, de skal tage med. Når du kommunikerer data, ønsker du ikke blot, at dine modtagere skal tage tal med sig, men en historie, der er informeret af dine data. En god datakommunikatør er en god historiefortæller.
+
+Hvordan fortæller du en historie med data? Der er uendelige måder – men nedenfor er 6, som vi vil tale om i denne lektion:
+1. Forstå dit publikum, din kanal og din kommunikationsmetode
+2. Begynd med slutningen i tankerne
+3. Tilgang det som en faktisk historie
+4. Brug meningsfulde ord og sætninger
+5. Brug følelser
+
+Hver af disse strategier forklares mere detaljeret nedenfor.
+
+### 1. Forstå dit publikum, din kanal og din kommunikationsmetode
+Den måde, du kommunikerer med familiemedlemmer på, er sandsynligvis anderledes end den måde, du kommunikerer med dine venner på. Du bruger sandsynligvis forskellige ord og sætninger, som de mennesker, du taler med, lettere kan forstå. Du bør tage samme tilgang, når du kommunikerer data. Tænk over, hvem du kommunikerer til. Tænk over deres mål og den kontekst, de har omkring den situation, du forklarer dem.
+
+Du kan sandsynligvis gruppere størstedelen af dit publikum i en kategori. I en artikel fra _Harvard Business Review_, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” identificerer Dell Executive Strategist Jim Stikeleather fem kategorier af publikum:
+
+- **Nybegyndere**: Første gang de stifter bekendtskab med emnet, men ønsker ikke en forenklet forklaring
+- **Generalister**: Kender til emnet, men søger en overordnet forståelse og hovedtemaer
+- **Ledere**: Har brug for en dybdegående, handlingsorienteret forståelse af detaljer og sammenhænge
+- **Eksperter**: Ønsker mere udforskning og opdagelse og mindre historiefortælling med stor detaljegrad
+- **Direktører**: Har kun tid til at forstå betydningen og konklusionerne af vægtede sandsynligheder
+
+Disse kategorier kan informere, hvordan du præsenterer data for dit publikum.
+
+Ud over at tænke over dit publikums kategori bør du også overveje den kanal, du bruger til at kommunikere med dem. Din tilgang bør være lidt anderledes, hvis du skriver et notat eller en e-mail, end hvis du holder et møde eller præsenterer ved en konference.
+
+Derudover er det vigtigt at vide, om du kommunikerer med envejskommunikation eller tovejskommunikation.
+
+Hvis du kommunikerer med et overvejende nybegynderpublikum og bruger envejskommunikation, skal du først uddanne publikum og give dem den rette kontekst. Derefter skal du præsentere dine data for dem og forklare, hvad dine data betyder, og hvorfor de er vigtige. I dette tilfælde bør du fokusere på at skabe klarhed, da dit publikum ikke vil kunne stille dig direkte spørgsmål.
+
+Hvis du kommunikerer med et overvejende lederpublikum og bruger tovejskommunikation, behøver du sandsynligvis ikke at uddanne dit publikum eller give dem meget kontekst. Du kan muligvis gå direkte til at diskutere de data, du har indsamlet, og hvorfor de er vigtige. I dette scenarie bør du dog fokusere på timing og kontrol af din præsentation. Når du bruger tovejskommunikation (især med et lederpublikum, der søger en "handlingsorienteret forståelse af detaljer og sammenhænge"), kan der opstå spørgsmål undervejs, som kan føre diskussionen i en retning, der ikke relaterer sig til den historie, du forsøger at fortælle. Når dette sker, kan du tage handling og bringe diskussionen tilbage på sporet med din historie.
+
+### 2. Begynd med slutningen i tankerne
+At begynde med slutningen i tankerne betyder at forstå, hvilke budskaber du ønsker, at dit publikum skal tage med sig, før du begynder at kommunikere med dem. At være bevidst om, hvad du ønsker, at dit publikum skal tage med sig på forhånd, kan hjælpe dig med at skabe en historie, som dit publikum kan følge. At begynde med slutningen i tankerne er passende for både envejskommunikation og tovejskommunikation.
+
+Hvordan begynder du med slutningen i tankerne? Før du kommunikerer dine data, skal du skrive dine vigtigste budskaber ned. Derefter skal du under hele forberedelsen af den historie, du vil fortælle med dine data, spørge dig selv: "Hvordan passer dette ind i den historie, jeg fortæller?"
+
+Vær opmærksom – Selvom det er ideelt at starte med slutningen i tankerne, bør du ikke kun kommunikere de data, der understøtter dine ønskede budskaber. Dette kaldes Cherry-Picking, hvilket sker, når en kommunikatør kun kommunikerer data, der understøtter det punkt, de forsøger at fremhæve, og ignorerer alle andre data.
+
+Hvis alle de data, du har indsamlet, tydeligt understøtter dine ønskede budskaber, er det fantastisk. Men hvis der er data, du har indsamlet, der ikke understøtter dine budskaber, eller endda understøtter et argument imod dine nøglebudskaber, bør du også kommunikere disse data. Hvis dette sker, skal du være ærlig over for dit publikum og forklare, hvorfor du vælger at holde fast i din historie, selvom alle data ikke nødvendigvis understøtter den.
+
+### 3. Tilgang det som en faktisk historie
+En traditionel historie foregår i 5 faser. Du har måske hørt disse faser beskrevet som Eksposition, Stigende handling, Klimaks, Faldende handling og Afslutning. Eller de lettere at huske faser: Kontekst, Konflikt, Klimaks, Afslutning, Konklusion. Når du kommunikerer dine data og din historie, kan du tage en lignende tilgang.
+
+Du kan begynde med kontekst, sætte scenen og sikre, at dit publikum er på samme side. Derefter introducerer du konflikten. Hvorfor var det nødvendigt at indsamle disse data? Hvilke problemer forsøgte du at løse? Derefter kommer klimaks. Hvad er dataene? Hvad betyder de? Hvilke løsninger fortæller dataene os, at vi har brug for? Derefter kommer afslutningen, hvor du kan gentage problemet og de foreslåede løsninger. Til sidst kommer konklusionen, hvor du kan opsummere dine vigtigste budskaber og de næste skridt, du anbefaler, at teamet tager.
+
+### 4. Brug meningsfulde ord og sætninger
+Hvis vi arbejdede sammen om et produkt, og jeg sagde til dig: "Vores brugere tager lang tid om at onboarde på vores platform," hvor lang tid ville du så estimere, at "lang tid" er? En time? En uge? Det er svært at vide. Hvad hvis jeg sagde det til et helt publikum? Alle i publikum kunne ende med en forskellig idé om, hvor lang tid det tager for brugere at onboarde på vores platform.
+
+I stedet, hvad hvis jeg sagde: "Vores brugere tager i gennemsnit 3 minutter om at tilmelde sig og onboarde på vores platform."
+
+Den besked er mere klar. Når du kommunikerer data, kan det være let at tro, at alle i dit publikum tænker ligesom dig. Men det er ikke altid tilfældet. At skabe klarhed omkring dine data og hvad de betyder, er en af dine opgaver som kommunikatør. Hvis dataene eller din historie ikke er klare, vil dit publikum have svært ved at følge med, og det er mindre sandsynligt, at de forstår dine nøglebudskaber.
+
+Du kan kommunikere data mere klart, når du bruger meningsfulde ord og sætninger i stedet for vage. Nedenfor er nogle eksempler:
+
+- Vi havde et *imponerende* år!
+ - Én person kunne tænke, at imponerende betyder en stigning på 2%-3% i omsætning, mens en anden kunne tænke, at det betyder en stigning på 50%-60%.
+- Vores brugeres succesrate steg *dramatisk*.
+ - Hvor stor en stigning er dramatisk?
+- Denne opgave vil kræve *betydelig* indsats.
+ - Hvor meget indsats er betydelig?
+
+At bruge vage ord kan være nyttigt som en introduktion til flere data, der kommer, eller som en opsummering af den historie, du lige har fortalt. Men overvej at sikre, at hver del af din præsentation er klar for dit publikum.
+
+### 5. Brug følelser
+Følelser er nøglen i historiefortælling. Det er endnu vigtigere, når du fortæller en historie med data. Når du kommunikerer data, er alt fokuseret på de budskaber, du ønsker, at dit publikum skal tage med sig. Når du vækker en følelse hos et publikum, hjælper det dem med at føle empati og gør dem mere tilbøjelige til at handle. Følelser øger også sandsynligheden for, at et publikum husker dit budskab.
+
+Du har måske oplevet dette før med tv-reklamer. Nogle reklamer er meget alvorlige og bruger en trist følelse til at forbinde sig med deres publikum og få de data, de præsenterer, til virkelig at skille sig ud. Eller nogle reklamer er meget optimistiske og glade og får dig til at forbinde deres data med en glad følelse.
+
+Hvordan bruger du følelser, når du kommunikerer data? Nedenfor er et par måder:
+
+- Brug vidnesbyrd og personlige historier
+ - Når du indsamler data, så prøv at indsamle både kvantitative og kvalitative data og integrer begge typer data, når du kommunikerer. Hvis dine data primært er kvantitative, så søg historier fra enkeltpersoner for at lære mere om deres oplevelse med det, dine data fortæller dig.
+- Brug billeder
+ - Billeder hjælper et publikum med at se sig selv i en situation. Når du bruger billeder, kan du lede et publikum mod den følelse, du mener, de bør have om dine data.
+- Brug farver
+ - Forskellige farver vækker forskellige følelser. Populære farver og de følelser, de vækker, er nedenfor. Vær opmærksom på, at farver kan have forskellige betydninger i forskellige kulturer.
+ - Blå vækker normalt følelser af fred og tillid
+ - Grøn forbindes ofte med natur og miljø
+ - Rød forbindes ofte med passion og spænding
+ - Gul forbindes ofte med optimisme og glæde
+
+# Kommunikationscase
+Emerson er produktchef for en mobilapp. Emerson har bemærket, at kunder indsender 42% flere klager og fejlrapporter i weekenderne. Emerson har også bemærket, at kunder, der indsender en klage, som ikke besvares inden for 48 timer, er 32% mere tilbøjelige til at give appen en vurdering på 1 eller 2 i appbutikken.
+
+Efter at have udført research har Emerson et par løsninger, der vil adressere problemet. Emerson arrangerer et 30-minutters møde med de 3 virksomhedsledere for at kommunikere dataene og de foreslåede løsninger.
+
+Under dette møde er Emersons mål at få virksomhedens ledere til at forstå, at de 2 løsninger nedenfor kan forbedre appens vurdering, hvilket sandsynligvis vil føre til højere indtægter.
+
+**Løsning 1.** Ansæt kundeservicemedarbejdere til at arbejde i weekenderne
+
+**Løsning 2.** Køb et nyt kundeservicesystem, hvor kundeservicemedarbejdere nemt kan identificere, hvilke klager der har været længst i køen – så de kan se, hvilke der skal adresseres hurtigst.
+I mødet bruger Emerson 5 minutter på at forklare, hvorfor det er dårligt at have en lav vurdering i app-butikken, 10 minutter på at forklare forskningsprocessen og hvordan tendenserne blev identificeret, 10 minutter på at gennemgå nogle af de seneste kundeklager, og de sidste 5 minutter på hurtigt at nævne de 2 potentielle løsninger.
+
+Var dette en effektiv måde for Emerson at kommunikere på under mødet?
+
+Under mødet fokuserede en af virksomhedens ledere udelukkende på de 10 minutter med kundeklager, som Emerson gennemgik. Efter mødet var disse klager det eneste, denne leder kunne huske. En anden leder fokuserede primært på Emersons beskrivelse af forskningsprocessen. Den tredje leder huskede de løsninger, som Emerson foreslog, men var usikker på, hvordan disse løsninger kunne implementeres.
+
+I situationen ovenfor kan man se, at der var en betydelig forskel mellem, hvad Emerson ønskede, at lederne skulle tage med sig, og hvad de rent faktisk tog med sig fra mødet. Nedenfor er en anden tilgang, som Emerson kunne overveje.
+
+Hvordan kunne Emerson forbedre denne tilgang?
+Kontekst, Konflikt, Klimaks, Afslutning, Konklusion
+**Kontekst** - Emerson kunne bruge de første 5 minutter på at introducere hele situationen og sikre, at lederne forstår, hvordan problemerne påvirker kritiske virksomhedsmål, som f.eks. omsætning.
+
+Det kunne præsenteres sådan: "I øjeblikket er vores apps vurdering i app-butikken 2,5. Vurderinger i app-butikken er afgørende for App Store-optimering, som påvirker, hvor mange brugere der ser vores app i søgninger, og hvordan vores app opfattes af potentielle brugere. Og selvfølgelig er antallet af brugere direkte knyttet til omsætningen."
+
+**Konflikt** Emerson kunne derefter bruge de næste 5 minutter på at tale om konflikten.
+
+Det kunne lyde sådan: "Brugere indsender 42% flere klager og fejlrapporter i weekenderne. Kunder, der indsender en klage, som ikke besvares inden for 48 timer, er 32% mindre tilbøjelige til at give vores app en vurdering over 2 i app-butikken. Hvis vi forbedrer vores apps vurdering i app-butikken til 4, vil det forbedre vores synlighed med 20-30%, hvilket jeg vurderer vil øge omsætningen med 10%." Emerson bør naturligvis være klar til at underbygge disse tal.
+
+**Klimaks** Efter at have lagt fundamentet kunne Emerson derefter gå videre til klimaks i cirka 5 minutter.
+
+Emerson kunne introducere de foreslåede løsninger, forklare hvordan disse løsninger vil adressere de nævnte problemer, hvordan de kan integreres i eksisterende arbejdsgange, hvad løsningerne koster, hvad ROI for løsningerne ville være, og måske endda vise nogle skærmbilleder eller wireframes af, hvordan løsningerne ville se ud, hvis de blev implementeret. Emerson kunne også dele udtalelser fra brugere, der ventede over 48 timer på at få deres klage behandlet, og en udtalelse fra en nuværende kundeservicemedarbejder i virksomheden, der har kommentarer til det nuværende ticket-system.
+
+**Afslutning** Nu kan Emerson bruge 5 minutter på at gentage de problemer, virksomheden står overfor, genbesøge de foreslåede løsninger og gennemgå, hvorfor disse løsninger er de rette.
+
+**Konklusion** Da dette er et møde med nogle få interessenter, hvor tovejskommunikation vil blive brugt, kunne Emerson planlægge at afsætte 10 minutter til spørgsmål for at sikre, at alt, der var forvirrende for lederne, bliver afklaret, inden mødet er slut.
+
+Hvis Emerson tog tilgang #2, er det meget mere sandsynligt, at lederne vil tage præcis det med sig fra mødet, som Emerson ønskede – nemlig at måden, klager og fejl håndteres på, kunne forbedres, og at der er 2 løsninger, der kan implementeres for at gøre denne forbedring mulig. Denne tilgang ville være en langt mere effektiv måde at kommunikere data og den historie, Emerson ønsker at formidle.
+
+# Konklusion
+### Opsummering af hovedpunkter
+- At kommunikere er at formidle eller udveksle information.
+- Når du kommunikerer data, bør dit mål ikke blot være at videregive tal til dit publikum. Dit mål bør være at formidle en historie, der er informeret af dine data.
+- Der er 2 typer kommunikation: Envejskommunikation (information formidles uden intention om et svar) og Tovejskommunikation (information formidles frem og tilbage).
+- Der er mange strategier, du kan bruge til at fortælle en historie med dine data. De 5 strategier, vi gennemgik, er:
+ - Forstå dit publikum, dit medie og din kommunikationsmetode
+ - Begynd med slutningen i tankerne
+ - Tilgang det som en faktisk historie
+ - Brug meningsfulde ord og sætninger
+ - Brug følelser
+
+### Anbefalede ressourcer til selvstudie
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Gennemgå det, du lige har lært, med quizzen ovenfor!
+
+## Opgave
+
+[Markedsundersøgelse](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/da/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..c394e682
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Fortæl en historie
+
+## Instruktioner
+
+Data Science handler om at fortælle historier. Vælg et hvilket som helst datasæt, og skriv en kort artikel om en historie, du kunne fortælle ud fra det. Hvad håber du, at dit datasæt kan afsløre? Hvad vil du gøre, hvis dets afsløringer viser sig at være problematiske? Hvad hvis dine data ikke let afslører deres hemmeligheder? Tænk over de scenarier, dit datasæt kunne præsentere, og skriv dem ned.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Acceptabelt | Kræver forbedring
+--- | --- | -- |
+
+En én-sides artikel præsenteres i .doc-format, hvor datasættet er forklaret, dokumenteret, krediteret, og en sammenhængende historie præsenteres med detaljerede eksempler fra dataene.| En kortere artikel præsenteres i mindre detaljeret format | Artiklen mangler en eller flere af ovenstående detaljer.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/4-Data-Science-Lifecycle/README.md b/translations/da/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..1941c9e8
--- /dev/null
+++ b/translations/da/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Data Science Livscyklus
+
+
+> Foto af Headway på Unsplash
+
+I disse lektioner vil du udforske nogle af aspekterne ved Data Science-livscyklussen, herunder analyse og kommunikation omkring data.
+
+### Emner
+
+1. [Introduktion](14-Introduction/README.md)
+2. [Analyse](15-analyzing/README.md)
+3. [Kommunikation](16-communication/README.md)
+
+### Kreditering
+
+Disse lektioner er skrevet med ❤️ af [Jalen McGee](https://twitter.com/JalenMCG) og [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/da/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..db4733a0
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# Introduktion til Data Science i Skyen
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data Science i Skyen: Introduktion - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+
+I denne lektion vil du lære de grundlæggende principper for skyen, hvorfor det kan være interessant for dig at bruge skytjenester til at køre dine data science-projekter, og vi vil se på nogle eksempler på data science-projekter, der kører i skyen.
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Hvad er Skyen?
+
+Skyen, eller Cloud Computing, er levering af en bred vifte af betalingsbaserede computing-tjenester, der er hostet på en infrastruktur via internettet. Tjenesterne inkluderer løsninger som lager, databaser, netværk, software, analyse og intelligente tjenester.
+
+Vi skelner normalt mellem offentlig, privat og hybrid sky som følger:
+
+* Offentlig sky: en offentlig sky ejes og drives af en tredjeparts skytjenesteudbyder, som leverer sine computing-ressourcer via internettet til offentligheden.
+* Privat sky: refererer til skytjenester, der udelukkende bruges af en enkelt virksomhed eller organisation, med tjenester og en infrastruktur, der vedligeholdes på et privat netværk.
+* Hybrid sky: hybrid skyen er et system, der kombinerer offentlige og private skyer. Brugere vælger et datacenter på stedet, mens de tillader data og applikationer at køre på en eller flere offentlige skyer.
+
+De fleste skytjenester falder ind under tre kategorier: Infrastruktur som en tjeneste (IaaS), Platform som en tjeneste (PaaS) og Software som en tjeneste (SaaS).
+
+* Infrastruktur som en tjeneste (IaaS): brugere lejer en IT-infrastruktur såsom servere og virtuelle maskiner (VM'er), lager, netværk, operativsystemer.
+* Platform som en tjeneste (PaaS): brugere lejer et miljø til udvikling, test, levering og styring af softwareapplikationer. Brugere behøver ikke bekymre sig om at opsætte eller administrere den underliggende infrastruktur af servere, lager, netværk og databaser, der er nødvendige for udvikling.
+* Software som en tjeneste (SaaS): brugere får adgang til softwareapplikationer via internettet, efter behov og typisk på abonnementsbasis. Brugere behøver ikke bekymre sig om hosting og styring af softwareapplikationen, den underliggende infrastruktur eller vedligeholdelse som softwareopdateringer og sikkerhedspatching.
+
+Nogle af de største skyudbydere er Amazon Web Services, Google Cloud Platform og Microsoft Azure.
+
+## Hvorfor vælge Skyen til Data Science?
+
+Udviklere og IT-professionelle vælger at arbejde med skyen af mange grunde, herunder følgende:
+
+* Innovation: du kan styrke dine applikationer ved at integrere innovative tjenester, der er skabt af skyudbydere, direkte i dine apps.
+* Fleksibilitet: du betaler kun for de tjenester, du har brug for, og kan vælge fra en bred vifte af tjenester. Du betaler typisk efter forbrug og tilpasser dine tjenester efter dine skiftende behov.
+* Budget: du behøver ikke foretage indledende investeringer i at købe hardware og software, opsætte og drive datacentre på stedet, og du kan blot betale for det, du bruger.
+* Skalerbarhed: dine ressourcer kan skaleres efter behovene i dit projekt, hvilket betyder, at dine apps kan bruge mere eller mindre computerkraft, lager og båndbredde ved at tilpasse sig eksterne faktorer på ethvert tidspunkt.
+* Produktivitet: du kan fokusere på din virksomhed i stedet for at bruge tid på opgaver, der kan administreres af andre, såsom styring af datacentre.
+* Pålidelighed: Cloud Computing tilbyder flere måder at kontinuerligt sikkerhedskopiere dine data, og du kan opsætte katastrofeberedskabsplaner for at holde din virksomhed og dine tjenester kørende, selv i krisetider.
+* Sikkerhed: du kan drage fordel af politikker, teknologier og kontroller, der styrker sikkerheden i dit projekt.
+
+Dette er nogle af de mest almindelige grunde til, at folk vælger at bruge skytjenester. Nu hvor vi har en bedre forståelse af, hvad skyen er, og hvad dens vigtigste fordele er, lad os se mere specifikt på arbejdet for dataforskere og udviklere, der arbejder med data, og hvordan skyen kan hjælpe dem med flere udfordringer, de måtte stå overfor:
+
+* Opbevaring af store mængder data: i stedet for at købe, administrere og beskytte store servere kan du opbevare dine data direkte i skyen med løsninger som Azure Cosmos DB, Azure SQL Database og Azure Data Lake Storage.
+* Udførelse af dataintegration: dataintegration er en essentiel del af Data Science, der lader dig gå fra dataindsamling til handling. Med dataintegrationstjenester, der tilbydes i skyen, kan du indsamle, transformere og integrere data fra forskellige kilder i et enkelt datalager med Data Factory.
+* Databehandling: behandling af store mængder data kræver meget computerkraft, og ikke alle har adgang til maskiner, der er kraftige nok til det, hvilket er grunden til, at mange vælger at udnytte skyens enorme computerkraft direkte til at køre og implementere deres løsninger.
+* Brug af dataanalyse-tjenester: skytjenester som Azure Synapse Analytics, Azure Stream Analytics og Azure Databricks hjælper dig med at omdanne dine data til handlingsrettede indsigter.
+* Brug af maskinlæring og dataintelligens-tjenester: i stedet for at starte fra bunden kan du bruge maskinlæringsalgoritmer, der tilbydes af skyudbyderen, med tjenester som AzureML. Du kan også bruge kognitive tjenester som tale-til-tekst, tekst-til-tale, computer vision og mere.
+
+## Eksempler på Data Science i Skyen
+
+Lad os gøre dette mere konkret ved at se på et par scenarier.
+
+### Real-time sentimentanalyse på sociale medier
+Vi starter med et scenarie, der ofte studeres af folk, der begynder med maskinlæring: sentimentanalyse på sociale medier i realtid.
+
+Lad os sige, at du driver en nyhedsmedie-webside, og du vil udnytte live data til at forstå, hvilket indhold dine læsere kunne være interesserede i. For at finde ud af mere om det kan du bygge et program, der udfører real-time sentimentanalyse af data fra Twitter-publikationer om emner, der er relevante for dine læsere.
+
+De nøgleindikatorer, du vil se på, er volumen af tweets om specifikke emner (hashtags) og sentiment, som fastlægges ved hjælp af analysetools, der udfører sentimentanalyse omkring de specificerede emner.
+
+De nødvendige trin for at oprette dette projekt er som følger:
+
+* Opret en event hub til streaming input, som vil indsamle data fra Twitter.
+* Konfigurer og start en Twitter-klientapplikation, som vil kalde Twitter Streaming APIs.
+* Opret en Stream Analytics-job.
+* Specificer jobinput og forespørgsel.
+* Opret en output-sink og specificer joboutput.
+* Start jobbet.
+
+For at se hele processen, tjek [dokumentationen](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Analyse af videnskabelige artikler
+Lad os tage et andet eksempel på et projekt skabt af [Dmitry Soshnikov](http://soshnikov.com), en af forfatterne til dette pensum.
+
+Dmitry skabte et værktøj, der analyserer COVID-artikler. Ved at gennemgå dette projekt vil du se, hvordan du kan skabe et værktøj, der udtrækker viden fra videnskabelige artikler, opnår indsigter og hjælper forskere med at navigere gennem store samlinger af artikler på en effektiv måde.
+
+Lad os se på de forskellige trin, der blev brugt til dette:
+* Udtrækning og forbehandling af information med [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Brug af [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) til at parallelisere behandlingen.
+* Opbevaring og forespørgsel af information med [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Opret en interaktiv dashboard til dataudforskning og visualisering ved hjælp af Power BI.
+
+For at se hele processen, besøg [Dmitrys blog](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Som du kan se, kan vi udnytte skytjenester på mange måder til at udføre Data Science.
+
+## Fodnote
+
+Kilder:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Quiz efter lektionen
+
+[Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Opgave
+
+[Markedsundersøgelse](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/da/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..cecbcca2
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Markedsundersøgelse
+
+## Instruktioner
+
+I denne lektion lærte du, at der er flere vigtige cloud-udbydere. Lav en markedsundersøgelse for at finde ud af, hvad hver af dem kan tilbyde Data Scientists. Er tilbuddene sammenlignelige? Skriv en opgave, der beskriver tilbuddene fra tre eller flere af disse cloud-udbydere.
+
+## Bedømmelseskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+En opgave på én side beskriver tre cloud-udbyderes data science-tilbud og skelner mellem dem. | En kortere opgave præsenteres | En opgave præsenteres uden at fuldføre analysen
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/da/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..3e4166bd
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,349 @@
+
+# Data Science i skyen: Den "Low code/No code"-metode
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Data Science i skyen: Low Code - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Indholdsfortegnelse:
+
+- [Data Science i skyen: Den "Low code/No code"-metode](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz før lektionen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Introduktion](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Hvad er Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Projektet om forudsigelse af hjertesvigt:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Datasættet om hjertesvigt:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Low code/No code træning af en model i Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Opret et Azure ML-arbejdsområde](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Compute-ressourcer](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Valg af de rigtige muligheder for dine compute-ressourcer](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Oprettelse af en compute-klynge](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Indlæsning af datasættet](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Low code/No code træning med AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Low code/No code modeludrulning og forbrug af endpoints](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Modeludrulning](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Forbrug af endpoints](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Udfordring](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz efter lektionen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Gennemgang & Selvstudie](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Opgave](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Introduktion
+### 1.1 Hvad er Azure Machine Learning?
+
+Azure cloud-platformen består af mere end 200 produkter og cloud-tjenester designet til at hjælpe dig med at bringe nye løsninger til live. Dataspecialister bruger meget tid på at udforske og forbehandle data samt afprøve forskellige algoritmer til modeltræning for at producere præcise modeller. Disse opgaver er tidskrævende og udnytter ofte ikke dyre compute-ressourcer effektivt.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) er en cloud-baseret platform til at bygge og drive maskinlæringsløsninger i Azure. Den inkluderer en bred vifte af funktioner og muligheder, der hjælper dataspecialister med at forberede data, træne modeller, publicere forudsigelsestjenester og overvåge deres brug. Mest af alt hjælper den med at øge effektiviteten ved at automatisere mange af de tidskrævende opgaver, der er forbundet med modeltræning, og den gør det muligt at bruge cloud-baserede compute-ressourcer, der skalerer effektivt til at håndtere store datamængder, mens omkostninger kun påløber, når de faktisk bruges.
+
+Azure ML tilbyder alle de værktøjer, udviklere og dataspecialister har brug for til deres maskinlæringsarbejdsgange. Disse inkluderer:
+
+- **Azure Machine Learning Studio**: En webportal i Azure Machine Learning til low-code og no-code muligheder for modeltræning, udrulning, automatisering, sporing og asset management. Studiet integreres med Azure Machine Learning SDK for en problemfri oplevelse.
+- **Jupyter Notebooks**: Hurtig prototyping og test af ML-modeller.
+- **Azure Machine Learning Designer**: Muliggør drag-and-drop af moduler til at bygge eksperimenter og derefter udrulle pipelines i et low-code miljø.
+- **Automated machine learning UI (AutoML)**: Automatiserer iterative opgaver i udviklingen af maskinlæringsmodeller, hvilket gør det muligt at bygge ML-modeller med høj skala, effektivitet og produktivitet, samtidig med at modelkvaliteten opretholdes.
+- **Data Labelling**: Et assisteret ML-værktøj til automatisk mærkning af data.
+- **Machine learning extension for Visual Studio Code**: Giver et fuldt udviklingsmiljø til at bygge og administrere ML-projekter.
+- **Machine learning CLI**: Tilbyder kommandoer til at administrere Azure ML-ressourcer fra kommandolinjen.
+- **Integration med open-source frameworks** som PyTorch, TensorFlow, Scikit-learn og mange flere til træning, udrulning og styring af hele maskinlæringsprocessen.
+- **MLflow**: Et open-source bibliotek til at administrere livscyklussen for dine maskinlæringseksperimenter. **MLFlow Tracking** er en komponent i MLflow, der logger og sporer dine træningskørselsmetrikker og modelartefakter, uanset dit eksperimentmiljø.
+
+### 1.2 Projektet om forudsigelse af hjertesvigt:
+
+Der er ingen tvivl om, at det at lave og bygge projekter er den bedste måde at teste dine færdigheder og viden på. I denne lektion vil vi udforske to forskellige måder at bygge et datavidenskabsprojekt til forudsigelse af hjertesvigt i Azure ML Studio: gennem Low code/No code og gennem Azure ML SDK, som vist i følgende skema:
+
+
+
+Hver metode har sine egne fordele og ulemper. Low code/No code-metoden er lettere at starte med, da den indebærer interaktion med en GUI (grafisk brugergrænseflade) uden krav om forudgående kendskab til kode. Denne metode muliggør hurtig test af projektets levedygtighed og oprettelse af POC (Proof Of Concept). Men efterhånden som projektet vokser, og det skal være produktionsklart, er det ikke praktisk at oprette ressourcer gennem GUI. Vi skal programmere og automatisere alt, fra oprettelse af ressourcer til udrulning af en model. Her bliver kendskab til brugen af Azure ML SDK afgørende.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Kendskab til kode | Ikke nødvendigt | Nødvendigt |
+| Udviklingstid | Hurtig og nem | Afhænger af kodeekspertise |
+| Produktionsklar | Nej | Ja |
+
+### 1.3 Datasættet om hjertesvigt:
+
+Hjerte-kar-sygdomme (CVD'er) er den største dødsårsag globalt og tegner sig for 31% af alle dødsfald på verdensplan. Miljømæssige og adfærdsmæssige risikofaktorer som tobaksbrug, usund kost og fedme, fysisk inaktivitet og skadelig brug af alkohol kan bruges som funktioner i estimeringsmodeller. At kunne estimere sandsynligheden for udvikling af en CVD kan være meget nyttigt til at forebygge angreb hos højrisikopersoner.
+
+Kaggle har gjort et [hjertesvigt-datasæt](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) offentligt tilgængeligt, som vi vil bruge til dette projekt. Du kan downloade datasættet nu. Det er et tabelbaseret datasæt med 13 kolonner (12 funktioner og 1 målvariabel) og 299 rækker.
+
+| | Variabelnavn | Type | Beskrivelse | Eksempel |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numerisk | Patientens alder | 25 |
+| 2 | anaemia | boolean | Fald i røde blodlegemer eller hæmoglobin | 0 eller 1 |
+| 3 | creatinine_phosphokinase | numerisk | Niveau af CPK-enzym i blodet | 542 |
+| 4 | diabetes | boolean | Om patienten har diabetes | 0 eller 1 |
+| 5 | ejection_fraction | numerisk | Procentdel af blod, der forlader hjertet ved hver sammentrækning | 45 |
+| 6 | high_blood_pressure | boolean | Om patienten har forhøjet blodtryk | 0 eller 1 |
+| 7 | platelets | numerisk | Blodplader i blodet | 149000 |
+| 8 | serum_creatinine | numerisk | Niveau af serumkreatinin i blodet | 0.5 |
+| 9 | serum_sodium | numerisk | Niveau af serumnatrium i blodet | jun |
+| 10 | sex | boolean | Kvinde eller mand | 0 eller 1 |
+| 11 | smoking | boolean | Om patienten ryger | 0 eller 1 |
+| 12 | time | numerisk | Opfølgningsperiode (dage) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Mål] | boolean | Om patienten dør i opfølgningsperioden | 0 eller 1 |
+
+Når du har datasættet, kan vi starte projektet i Azure.
+
+## 2. Low code/No code træning af en model i Azure ML Studio
+### 2.1 Opret et Azure ML-arbejdsområde
+For at træne en model i Azure ML skal du først oprette et Azure ML-arbejdsområde. Arbejdsområdet er den øverste ressource i Azure Machine Learning og giver et centralt sted at arbejde med alle de artefakter, du opretter, når du bruger Azure Machine Learning. Arbejdsområdet holder en historik over alle træningskørsler, inklusive logfiler, metrikker, output og et snapshot af dine scripts. Du bruger disse oplysninger til at afgøre, hvilken træningskørsel der producerer den bedste model. [Lær mere](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Det anbefales at bruge den mest opdaterede browser, der er kompatibel med dit operativsystem. Følgende browsere understøttes:
+
+- Microsoft Edge (Den nye Microsoft Edge, seneste version. Ikke Microsoft Edge legacy)
+- Safari (seneste version, kun Mac)
+- Chrome (seneste version)
+- Firefox (seneste version)
+
+For at bruge Azure Machine Learning skal du oprette et arbejdsområde i dit Azure-abonnement. Du kan derefter bruge dette arbejdsområde til at administrere data, compute-ressourcer, kode, modeller og andre artefakter relateret til dine maskinlæringsarbejdsgange.
+
+> **_NOTE:_** Dit Azure-abonnement vil blive opkrævet et mindre beløb for datalagring, så længe Azure Machine Learning-arbejdsområdet eksisterer i dit abonnement. Vi anbefaler derfor, at du sletter arbejdsområdet, når du ikke længere bruger det.
+
+1. Log ind på [Azure-portalen](https://ms.portal.azure.com/) med de Microsoft-legitimationsoplysninger, der er knyttet til dit Azure-abonnement.
+2. Vælg **+Opret en ressource**
+
+ 
+
+ Søg efter Machine Learning, og vælg Machine Learning-flisen.
+
+ 
+
+ Klik på knappen "Opret".
+
+ 
+
+ Udfyld indstillingerne som følger:
+ - Abonnement: Dit Azure-abonnement
+ - Ressourcegruppe: Opret eller vælg en ressourcegruppe
+ - Arbejdsområdenavn: Indtast et unikt navn til dit arbejdsområde
+ - Region: Vælg den geografiske region, der er tættest på dig
+ - Lagringskonto: Bemærk den nye standardlagringskonto, der vil blive oprettet til dit arbejdsområde
+ - Nøglehvælv: Bemærk det nye standardnøglehvælv, der vil blive oprettet til dit arbejdsområde
+ - Application Insights: Bemærk den nye standard Application Insights-ressource, der vil blive oprettet til dit arbejdsområde
+ - Containerregister: Ingen (et vil blive oprettet automatisk første gang, du udruller en model til en container)
+
+ 
+
+ - Klik på "Gennemse + opret", og derefter på knappen "Opret".
+3. Vent på, at dit arbejdsområde bliver oprettet (dette kan tage et par minutter). Gå derefter til det i portalen. Du kan finde det via Azure Machine Learning-tjenesten.
+4. På oversigtssiden for dit arbejdsområde skal du starte Azure Machine Learning Studio (eller åbne en ny browserfane og navigere til https://ml.azure.com), og logge ind på Azure Machine Learning Studio med din Microsoft-konto. Hvis du bliver bedt om det, skal du vælge din Azure-katalog og dit abonnement samt dit Azure Machine Learning-arbejdsområde.
+
+
+
+5. I Azure Machine Learning Studio skal du skifte ☰-ikonet øverst til venstre for at se de forskellige sider i grænsefladen. Du kan bruge disse sider til at administrere ressourcerne i dit arbejdsområde.
+
+
+
+Du kan administrere dit arbejdsområde ved hjælp af Azure-portalen, men for dataspecialister og maskinlæringsingeniører giver Azure Machine Learning Studio en mere fokuseret brugergrænseflade til at administrere arbejdsområderessourcer.
+
+### 2.2 Compute-ressourcer
+
+Compute-ressourcer er cloud-baserede ressourcer, som du kan bruge til at køre modeltræning og dataudforskningsprocesser. Der er fire typer compute-ressourcer, du kan oprette:
+
+- **Compute-instanser**: Udviklingsarbejdsstationer, som dataspecialister kan bruge til at arbejde med data og modeller. Dette indebærer oprettelse af en virtuel maskine (VM) og start af en notebook-instans. Du kan derefter træne en model ved at kalde en compute-klynge fra notebooken.
+- **Compute-klynger**: Skalerbare klynger af VM'er til on-demand behandling af eksperimentkode. Du vil få brug for det, når du træner en model. Compute-klynger kan også anvende specialiserede GPU- eller CPU-ressourcer.
+- **Inference-klynger**: Udrulningsmål for forudsigelsestjenester, der bruger dine trænet modeller.
+- **Tilsluttet Compute**: Forbinder til eksisterende Azure compute-ressourcer, såsom virtuelle maskiner eller Azure Databricks-klynger.
+
+#### 2.2.1 Valg af de rigtige muligheder for dine compute-ressourcer
+
+Nogle vigtige faktorer skal overvejes, når du opretter en compute-ressource, og disse valg kan være afgørende beslutninger.
+
+**Har du brug for CPU eller GPU?**
+
+En CPU (Central Processing Unit) er den elektroniske kredsløbsenhed, der udfører instruktioner i et computerprogram. En GPU (Graphics Processing Unit) er et specialiseret elektronisk kredsløb, der kan udføre grafikrelateret kode med meget høj hastighed.
+
+Den primære forskel mellem CPU- og GPU-arkitektur er, at en CPU er designet til hurtigt at håndtere en bred vifte af opgaver (målt ved CPU'ens clockhastighed), men er begrænset i samtidigheden af opgaver, der kan køre. GPU'er er designet til parallel computing og er derfor meget bedre til deep learning-opgaver.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Mindre dyr | Mere dyr |
+| Lavere niveau af samtidighed | Højere niveau af samtidighed |
+| Langsommere til træning af deep learning-modeller | Optimal til deep learning |
+
+**Klyngestørrelse**
+
+Større klynger er dyrere, men vil resultere i bedre responsivitet. Derfor, hvis du har tid, men ikke nok penge, bør du starte med en lille klynge. Omvendt, hvis du har penge, men ikke meget tid, bør du starte med en større klynge.
+
+**VM-størrelse**
+
+Afhængigt af dine tids- og budgetmæssige begrænsninger kan du variere størrelsen på din RAM, disk, antal kerner og clockhastighed. At øge alle disse parametre vil være dyrere, men vil resultere i bedre ydeevne.
+
+**Dedikerede eller lavprioriterede instanser?**
+
+En lavprioriteret instans betyder, at den er afbrydelig: Microsoft Azure kan i princippet tage disse ressourcer og tildele dem til en anden opgave, hvilket afbryder et job. En dedikeret instans, eller ikke-afbrydelig, betyder, at jobbet aldrig vil blive afsluttet uden din tilladelse. Dette er endnu en overvejelse mellem tid og penge, da afbrydelige instanser er billigere end dedikerede.
+
+#### 2.2.2 Oprettelse af en compute-klynge
+
+I [Azure ML-arbejdsområdet](https://ml.azure.com/), som vi oprettede tidligere, skal du gå til Compute, og du vil kunne se de forskellige compute-ressourcer, vi lige har diskuteret (dvs. compute-instanser, compute-klynger, inferensklynger og tilsluttet compute). Til dette projekt skal vi bruge en compute-klynge til modeltræning. I Studio skal du klikke på menuen "Compute", derefter fanen "Compute cluster" og klikke på knappen "+ New" for at oprette en compute-klynge.
+
+
+
+1. Vælg dine muligheder: Dedikeret vs Lav prioritet, CPU eller GPU, VM-størrelse og antal kerner (du kan beholde standardindstillingerne for dette projekt).
+2. Klik på knappen Næste.
+
+
+
+3. Giv klyngen et computenavn.
+4. Vælg dine muligheder: Minimum/maksimum antal noder, inaktive sekunder før nedskalering, SSH-adgang. Bemærk, at hvis minimumsantallet af noder er 0, sparer du penge, når klyngen er inaktiv. Bemærk, at jo højere antallet af maksimale noder er, jo kortere vil træningen være. Det anbefalede maksimale antal noder er 3.
+5. Klik på knappen "Create". Dette trin kan tage et par minutter.
+
+
+
+Fantastisk! Nu hvor vi har en compute-klynge, skal vi indlæse dataene i Azure ML Studio.
+
+### 2.3 Indlæsning af datasættet
+
+1. I [Azure ML-arbejdsområdet](https://ml.azure.com/), som vi oprettede tidligere, skal du klikke på "Datasets" i venstre menu og klikke på knappen "+ Create dataset" for at oprette et datasæt. Vælg muligheden "From local files" og vælg det Kaggle-datasæt, vi downloadede tidligere.
+
+ 
+
+2. Giv dit datasæt et navn, en type og en beskrivelse. Klik på Næste. Upload dataene fra filer. Klik på Næste.
+
+ 
+
+3. I skemaet skal du ændre datatype til Boolean for følgende funktioner: anaemia, diabetes, high blood pressure, sex, smoking og DEATH_EVENT. Klik på Næste og derefter Opret.
+
+ 
+
+Fremragende! Nu hvor datasættet er på plads, og compute-klyngen er oprettet, kan vi begynde træningen af modellen!
+
+### 2.4 Lavkode/Ingen kode-træning med AutoML
+
+Traditionel udvikling af maskinlæringsmodeller er ressourcekrævende, kræver betydelig domæneviden og tid til at producere og sammenligne dusinvis af modeller.
+Automatiseret maskinlæring (AutoML) er processen med at automatisere de tidskrævende, iterative opgaver i udviklingen af maskinlæringsmodeller. Det giver dataforskere, analytikere og udviklere mulighed for at bygge ML-modeller med høj skala, effektivitet og produktivitet, samtidig med at modelkvaliteten opretholdes. Det reducerer den tid, det tager at få produktionsklare ML-modeller, med stor lethed og effektivitet. [Læs mere](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. I [Azure ML-arbejdsområdet](https://ml.azure.com/), som vi oprettede tidligere, skal du klikke på "Automated ML" i venstre menu og vælge det datasæt, du lige har uploadet. Klik på Næste.
+
+ 
+
+2. Indtast et nyt eksperimentnavn, målsøjlen (DEATH_EVENT) og den compute-klynge, vi oprettede. Klik på Næste.
+
+ 
+
+3. Vælg "Classification" og klik på Finish. Dette trin kan tage mellem 30 minutter og 1 time, afhængigt af størrelsen på din compute-klynge.
+
+ 
+
+4. Når kørslen er færdig, skal du klikke på fanen "Automated ML", klikke på din kørsel og klikke på algoritmen i kortet "Best model summary".
+
+ 
+
+Her kan du se en detaljeret beskrivelse af den bedste model, som AutoML genererede. Du kan også udforske andre modeller, der er genereret, i fanen Models. Brug et par minutter på at udforske modellerne i forklaringerne (preview-knappen). Når du har valgt den model, du vil bruge (her vælger vi den bedste model valgt af AutoML), vil vi se, hvordan vi kan implementere den.
+
+## 3. Lavkode/Ingen kode-modelimplementering og endpoint-forbrug
+### 3.1 Modelimplementering
+
+Den automatiserede maskinlæringsgrænseflade giver dig mulighed for at implementere den bedste model som en webtjeneste i få trin. Implementering er integrationen af modellen, så den kan lave forudsigelser baseret på nye data og identificere potentielle muligheder. Til dette projekt betyder implementering til en webtjeneste, at medicinske applikationer vil kunne bruge modellen til at lave live-forudsigelser af deres patienters risiko for at få et hjerteanfald.
+
+I beskrivelsen af den bedste model skal du klikke på knappen "Deploy".
+
+
+
+15. Giv den et navn, en beskrivelse, computetype (Azure Container Instance), aktiver godkendelse, og klik på Deploy. Dette trin kan tage omkring 20 minutter at fuldføre. Implementeringsprocessen indebærer flere trin, herunder registrering af modellen, generering af ressourcer og konfiguration af dem til webtjenesten. En statusmeddelelse vises under Deploy status. Vælg Opdater periodisk for at kontrollere implementeringsstatus. Den er implementeret og kører, når status er "Healthy".
+
+
+
+16. Når den er implementeret, skal du klikke på fanen Endpoint og klikke på det endpoint, du lige har implementeret. Her kan du finde alle de detaljer, du har brug for at vide om endpointet.
+
+
+
+Fantastisk! Nu hvor vi har en model implementeret, kan vi begynde at forbruge endpointet.
+
+### 3.2 Endpoint-forbrug
+
+Klik på fanen "Consume". Her kan du finde REST-endpointet og et Python-script i forbrugsindstillingen. Tag dig tid til at læse Python-koden.
+
+Dette script kan køres direkte fra din lokale maskine og vil forbruge dit endpoint.
+
+
+
+Tag et øjeblik til at tjekke disse 2 linjer kode:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+Variablen `url` er REST-endpointet, der findes i fanen Consume, og variablen `api_key` er den primære nøgle, der også findes i fanen Consume (kun hvis du har aktiveret godkendelse). Dette er, hvordan scriptet kan forbruge endpointet.
+
+18. Når du kører scriptet, skulle du se følgende output:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Dette betyder, at forudsigelsen af hjertesvigt for de givne data er sand. Dette giver mening, fordi hvis du ser nærmere på de data, der automatisk genereres i scriptet, er alt som standard 0 og falsk. Du kan ændre dataene med følgende inputeksempel:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Scriptet skulle returnere:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Tillykke! Du har lige forbrugt den implementerede model og trænet den på Azure ML!
+
+> **_NOTE:_** Når du er færdig med projektet, skal du huske at slette alle ressourcer.
+
+## 🚀 Udfordring
+
+Se nærmere på model-forklaringerne og detaljerne, som AutoML genererede for de bedste modeller. Prøv at forstå, hvorfor den bedste model er bedre end de andre. Hvilke algoritmer blev sammenlignet? Hvad er forskellene mellem dem? Hvorfor præsterer den bedste bedre i dette tilfælde?
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Gennemgang & Selvstudie
+
+I denne lektion lærte du, hvordan man træner, implementerer og forbruger en model til at forudsige risikoen for hjertesvigt på en lavkode/ingen kode-måde i skyen. Hvis du ikke allerede har gjort det, så dyk dybere ned i model-forklaringerne, som AutoML genererede for de bedste modeller, og prøv at forstå, hvorfor den bedste model er bedre end de andre.
+
+Du kan gå videre med lavkode/ingen kode AutoML ved at læse denne [dokumentation](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Opgave
+
+[Low code/No code Data Science-projekt på Azure ML](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/da/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..b932b3a8
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Low code/No code Data Science-projekt på Azure ML
+
+## Instruktioner
+
+Vi har set, hvordan man bruger Azure ML-platformen til at træne, implementere og forbruge en model på en Low code/No code-måde. Kig nu rundt efter nogle data, som du kan bruge til at træne en anden model, implementere den og forbruge den. Du kan finde datasæt på [Kaggle](https://kaggle.com) og [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Bedømmelseskriterier
+
+| Fremragende | Tilstrækkelig | Kræver Forbedring |
+|-------------|---------------|-------------------|
+|Når du uploader data, sørgede du for at ændre funktionens type, hvis det var nødvendigt. Du rensede også dataene, hvis det var nødvendigt. Du udførte en træning på et datasæt via AutoML, og du tjekkede model-forklaringerne. Du implementerede den bedste model, og du var i stand til at forbruge den. | Når du uploader data, sørgede du for at ændre funktionens type, hvis det var nødvendigt. Du udførte en træning på et datasæt via AutoML, du implementerede den bedste model, og du var i stand til at forbruge den. | Du har implementeret den bedste model, der er trænet af AutoML, og du var i stand til at forbruge den. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/da/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..f3d68025
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,313 @@
+
+# Data Science i skyen: Den "Azure ML SDK" tilgang
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Data Science i skyen: Azure ML SDK - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Indholdsfortegnelse:
+
+- [Data Science i skyen: Den "Azure ML SDK" tilgang](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz før lektionen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Introduktion](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Hvad er Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Projekt om hjertesvigtforudsigelse og introduktion til datasæt](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Træning af en model med Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Opret et Azure ML workspace](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Opret en compute-instans](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Indlæsning af datasæt](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Oprettelse af notebooks](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Træning af en model](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Opsætning af workspace, eksperiment, compute-cluster og datasæt](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML-konfiguration og træning](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Modeludrulning og endpoint-forbrug med Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Gem den bedste model](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Modeludrulning](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Endpoint-forbrug](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Udfordring](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz efter lektionen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Gennemgang & Selvstudie](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Opgave](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Quiz før lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Introduktion
+
+### 1.1 Hvad er Azure ML SDK?
+
+Dataforskere og AI-udviklere bruger Azure Machine Learning SDK til at bygge og køre machine learning-workflows med Azure Machine Learning-tjenesten. Du kan interagere med tjenesten i ethvert Python-miljø, herunder Jupyter Notebooks, Visual Studio Code eller din foretrukne Python IDE.
+
+Nøgleområder i SDK inkluderer:
+
+- Udforsk, forbered og administrer livscyklussen for dine datasæt, der bruges i machine learning-eksperimenter.
+- Administrer cloud-ressourcer til overvågning, logning og organisering af dine machine learning-eksperimenter.
+- Træn modeller enten lokalt eller ved hjælp af cloud-ressourcer, inklusive GPU-accelereret modeltræning.
+- Brug automatiseret machine learning, som accepterer konfigurationsparametre og træningsdata. Det itererer automatisk gennem algoritmer og hyperparameterindstillinger for at finde den bedste model til at køre forudsigelser.
+- Udrul webtjenester for at konvertere dine trænede modeller til RESTful-tjenester, der kan forbruges i enhver applikation.
+
+[Læs mere om Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+I [den forrige lektion](../18-Low-Code/README.md) så vi, hvordan man træner, udruller og forbruger en model på en Low code/No code-måde. Vi brugte hjertesvigt-datasættet til at generere en hjertesvigtforudsigelsesmodel. I denne lektion vil vi gøre præcis det samme, men ved hjælp af Azure Machine Learning SDK.
+
+
+
+### 1.2 Projekt om hjertesvigtforudsigelse og introduktion til datasæt
+
+Se [her](../18-Low-Code/README.md) for introduktion til projektet om hjertesvigtforudsigelse og datasæt.
+
+## 2. Træning af en model med Azure ML SDK
+### 2.1 Opret et Azure ML workspace
+
+For nemheds skyld vil vi arbejde i en Jupyter Notebook. Dette indebærer, at du allerede har et workspace og en compute-instans. Hvis du allerede har et workspace, kan du direkte springe til sektionen 2.3 Notebook-oprettelse.
+
+Hvis ikke, følg venligst instruktionerne i sektionen **2.1 Opret et Azure ML workspace** i [den forrige lektion](../18-Low-Code/README.md) for at oprette et workspace.
+
+### 2.2 Opret en compute-instans
+
+I [Azure ML workspace](https://ml.azure.com/), som vi oprettede tidligere, gå til compute-menuen, og du vil se de forskellige compute-ressourcer, der er tilgængelige.
+
+
+
+Lad os oprette en compute-instans for at provisionere en Jupyter Notebook.
+1. Klik på knappen + Ny.
+2. Giv din compute-instans et navn.
+3. Vælg dine muligheder: CPU eller GPU, VM-størrelse og antal kerner.
+4. Klik på knappen Opret.
+
+Tillykke, du har lige oprettet en compute-instans! Vi vil bruge denne compute-instans til at oprette en Notebook i sektionen [Oprettelse af notebooks](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Indlæsning af datasæt
+Se sektionen **2.3 Indlæsning af datasæt** i [den forrige lektion](../18-Low-Code/README.md), hvis du endnu ikke har uploadet datasættet.
+
+### 2.4 Oprettelse af notebooks
+
+> **_NOTE:_** Til det næste trin kan du enten oprette en ny notebook fra bunden eller uploade den [notebook, vi oprettede](notebook.ipynb) i din Azure ML Studio. For at uploade den skal du blot klikke på "Notebook"-menuen og uploade notebooken.
+
+Notebooks er en virkelig vigtig del af data science-processen. De kan bruges til at udføre Exploratory Data Analysis (EDA), kalde en compute-cluster for at træne en model, eller kalde en inference-cluster for at udrulle et endpoint.
+
+For at oprette en Notebook har vi brug for en compute-node, der serverer Jupyter Notebook-instansen. Gå tilbage til [Azure ML workspace](https://ml.azure.com/) og klik på Compute-instanser. I listen over compute-instanser bør du se [compute-instansen, vi oprettede tidligere](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. I sektionen Applikationer skal du klikke på Jupyter-indstillingen.
+2. Marker boksen "Ja, jeg forstår" og klik på knappen Fortsæt.
+
+3. Dette skulle åbne en ny browserfane med din Jupyter Notebook-instans som vist. Klik på knappen "Ny" for at oprette en notebook.
+
+
+
+Nu hvor vi har en Notebook, kan vi begynde at træne modellen med Azure ML SDK.
+
+### 2.5 Træning af en model
+
+Først og fremmest, hvis du nogensinde er i tvivl, henvis til [Azure ML SDK-dokumentationen](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Den indeholder alle nødvendige oplysninger for at forstå de moduler, vi skal se i denne lektion.
+
+#### 2.5.1 Opsætning af workspace, eksperiment, compute-cluster og datasæt
+
+Du skal indlæse `workspace` fra konfigurationsfilen ved hjælp af følgende kode:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Dette returnerer et objekt af typen `Workspace`, der repræsenterer workspace. Derefter skal du oprette et `eksperiment` ved hjælp af følgende kode:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+For at få eller oprette et eksperiment fra et workspace anmoder du om eksperimentet ved hjælp af eksperimentnavnet. Eksperimentnavnet skal være 3-36 tegn, starte med et bogstav eller et tal og kan kun indeholde bogstaver, tal, understregninger og bindestreger. Hvis eksperimentet ikke findes i workspace, oprettes et nyt eksperiment.
+
+Nu skal du oprette en compute-cluster til træningen ved hjælp af følgende kode. Bemærk, at dette trin kan tage et par minutter.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Du kan få datasættet fra workspace ved hjælp af datasætnavnet på følgende måde:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 AutoML-konfiguration og træning
+
+For at indstille AutoML-konfigurationen skal du bruge [AutoMLConfig-klassen](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Som beskrevet i dokumentationen er der mange parametre, du kan lege med. For dette projekt vil vi bruge følgende parametre:
+
+- `experiment_timeout_minutes`: Den maksimale tid (i minutter), som eksperimentet må køre, før det automatisk stoppes, og resultaterne automatisk gøres tilgængelige.
+- `max_concurrent_iterations`: Det maksimale antal samtidige træningsiterationer, der er tilladt for eksperimentet.
+- `primary_metric`: Den primære metrik, der bruges til at bestemme eksperimentets status.
+- `compute_target`: Azure Machine Learning compute-målet, som det automatiserede machine learning-eksperiment skal køre på.
+- `task`: Typen af opgave, der skal køres. Værdier kan være 'classification', 'regression' eller 'forecasting' afhængigt af typen af automatiseret ML-problem, der skal løses.
+- `training_data`: Træningsdataene, der skal bruges i eksperimentet. Det skal indeholde både træningsfunktioner og en label-kolonne (valgfrit en sample weights-kolonne).
+- `label_column_name`: Navnet på label-kolonnen.
+- `path`: Den fulde sti til Azure Machine Learning-projektmappen.
+- `enable_early_stopping`: Om tidlig afslutning skal aktiveres, hvis scoren ikke forbedres på kort sigt.
+- `featurization`: Indikator for, om featurization-trinnet skal udføres automatisk eller ej, eller om tilpasset featurization skal bruges.
+- `debug_log`: Logfilen til at skrive debug-information til.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Nu hvor du har din konfiguration indstillet, kan du træne modellen ved hjælp af følgende kode. Dette trin kan tage op til en time afhængigt af din cluster-størrelse.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Du kan køre RunDetails-widgeten for at vise de forskellige eksperimenter.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Modeludrulning og endpoint-forbrug med Azure ML SDK
+
+### 3.1 Gem den bedste model
+
+`remote_run` er et objekt af typen [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Dette objekt indeholder metoden `get_output()`, som returnerer den bedste kørsel og den tilsvarende tilpassede model.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Du kan se de parametre, der blev brugt til den bedste model, ved blot at printe `fitted_model` og se egenskaberne for den bedste model ved hjælp af metoden [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Registrer nu modellen med metoden [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Modeludrulning
+
+Når den bedste model er gemt, kan vi udrulle den med klassen [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). InferenceConfig repræsenterer konfigurationsindstillingerne for et tilpasset miljø, der bruges til udrulning. Klassen [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) repræsenterer en machine learning-model, der er udrullet som en webtjeneste-endpoint på Azure Container Instances. En udrullet tjeneste oprettes fra en model, script og tilhørende filer. Den resulterende webtjeneste er et load-balanceret HTTP-endpoint med en REST API. Du kan sende data til denne API og modtage forudsigelsen returneret af modellen.
+
+Modellen udrulles ved hjælp af metoden [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Dette trin bør tage et par minutter.
+
+### 3.3 Endpoint-forbrug
+
+Du forbruger dit endpoint ved at oprette en prøveinput:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+Og derefter kan du sende dette input til din model for at få en forudsigelse:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Dette bør give outputtet `'{"result": [false]}'`. Det betyder, at patientdataene, vi sendte til endpointet, genererede forudsigelsen `false`, hvilket betyder, at denne person sandsynligvis ikke vil få et hjerteanfald.
+
+Tillykke! Du har netop brugt modellen, der er implementeret og trænet på Azure ML med Azure ML SDK!
+
+
+> **_NOTE:_** Når du er færdig med projektet, må du ikke glemme at slette alle ressourcer.
+
+## 🚀 Udfordring
+
+Der er mange andre ting, du kan gøre med SDK'en, men desværre kan vi ikke gennemgå dem alle i denne lektion. Men gode nyheder: Hvis du lærer at navigere i SDK-dokumentationen, kan du komme langt på egen hånd. Tag et kig på Azure ML SDK-dokumentationen og find klassen `Pipeline`, som giver dig mulighed for at oprette pipelines. En pipeline er en samling af trin, der kan udføres som en arbejdsgang.
+
+**TIP:** Gå til [SDK-dokumentationen](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) og skriv nøgleord i søgefeltet som "Pipeline". Du bør finde klassen `azureml.pipeline.core.Pipeline` i søgeresultaterne.
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Gennemgang & Selvstudie
+
+I denne lektion lærte du, hvordan man træner, implementerer og bruger en model til at forudsige risikoen for hjertesvigt med Azure ML SDK i skyen. Se denne [dokumentation](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) for yderligere information om Azure ML SDK. Prøv at oprette din egen model med Azure ML SDK.
+
+## Opgave
+
+[Data Science-projekt med Azure ML SDK](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/da/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..b9da84e1
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Data Science-projekt ved brug af Azure ML SDK
+
+## Instruktioner
+
+Vi har set, hvordan man bruger Azure ML-platformen til at træne, implementere og anvende en model med Azure ML SDK. Nu kan du finde noget data, som du kan bruge til at træne en anden model, implementere den og anvende den. Du kan finde datasæt på [Kaggle](https://kaggle.com) og [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Bedømmelseskriterier
+
+| Fremragende | Tilstrækkelig | Kræver forbedring |
+|-------------|---------------|-------------------|
+|Ved opsætning af AutoML-konfigurationen gennemgik du SDK-dokumentationen for at se, hvilke parametre du kunne bruge. Du udførte en træning på et datasæt via AutoML ved brug af Azure ML SDK, og du undersøgte model-forklaringerne. Du implementerede den bedste model og var i stand til at anvende den via Azure ML SDK. | Du udførte en træning på et datasæt via AutoML ved brug af Azure ML SDK, og du undersøgte model-forklaringerne. Du implementerede den bedste model og var i stand til at anvende den via Azure ML SDK. | Du udførte en træning på et datasæt via AutoML ved brug af Azure ML SDK. Du implementerede den bedste model og var i stand til at anvende den via Azure ML SDK. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/5-Data-Science-In-Cloud/README.md b/translations/da/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..45c2fa86
--- /dev/null
+++ b/translations/da/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Data Science i skyen
+
+
+
+> Foto af [Jelleke Vanooteghem](https://unsplash.com/@ilumire) fra [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Når det handler om at udføre data science med big data, kan skyen være en game changer. I de næste tre lektioner skal vi se, hvad skyen er, og hvorfor den kan være meget nyttig. Vi skal også udforske et dataset om hjertesvigt og bygge en model, der kan hjælpe med at vurdere sandsynligheden for, at nogen oplever hjertesvigt. Vi vil bruge skyens kraft til at træne, implementere og anvende en model på to forskellige måder. Den ene måde ved kun at bruge brugergrænsefladen i en Low code/No code tilgang, den anden måde ved at bruge Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Emner
+
+1. [Hvorfor bruge skyen til Data Science?](17-Introduction/README.md)
+2. [Data Science i skyen: "Low code/No code"-tilgangen](18-Low-Code/README.md)
+3. [Data Science i skyen: "Azure ML SDK"-tilgangen](19-Azure/README.md)
+
+### Kreditering
+Disse lektioner er skrevet med ☁️ og 💕 af [Maud Levy](https://twitter.com/maudstweets) og [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Data til projektet om forudsigelse af hjertesvigt er hentet fra [
+Larxel](https://www.kaggle.com/andrewmvd) på [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Det er licenseret under [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at opnå nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/da/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..6db97453
--- /dev/null
+++ b/translations/da/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,155 @@
+
+# Data Science i den Virkelige Verden
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Data Science i den Virkelige Verden - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Vi er næsten ved vejs ende i denne læringsrejse!
+
+Vi startede med definitioner af data science og etik, udforskede forskellige værktøjer og teknikker til dataanalyse og visualisering, gennemgik data science-livscyklussen og kiggede på skalering og automatisering af data science-arbejdsgange med cloud computing-tjenester. Så du tænker sikkert: _"Hvordan kan jeg præcist anvende alt dette i virkelige kontekster?"_
+
+I denne lektion vil vi undersøge virkelige anvendelser af data science på tværs af industrier og dykke ned i specifikke eksempler inden for forskning, digitale humaniora og bæredygtighed. Vi vil se på muligheder for studenterprojekter og afslutte med nyttige ressourcer, der kan hjælpe dig med at fortsætte din læringsrejse!
+
+## Quiz før forelæsning
+
+[Quiz før forelæsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Data Science + Industri
+
+Takket være demokratiseringen af AI finder udviklere det nu lettere at designe og integrere AI-drevne beslutningsprocesser og data-drevne indsigter i brugeroplevelser og udviklingsarbejdsgange. Her er nogle eksempler på, hvordan data science "anvendes" i virkelige applikationer på tværs af industrier:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) brugte data science til at korrelere søgetermer med influenzatrends. Selvom tilgangen havde fejl, skabte den opmærksomhed omkring mulighederne (og udfordringerne) ved data-drevne sundhedsprognoser.
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - forklarer, hvordan UPS bruger data science og maskinlæring til at forudsige optimale leveringsruter, med hensyntagen til vejrforhold, trafikmønstre, leveringsfrister og mere.
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - data indsamlet ved hjælp af [Freedom Of Information Laws](https://chriswhong.com/open-data/foil_nyc_taxi/) hjalp med at visualisere en dag i livet for NYC-taxier, hvilket gav indsigt i, hvordan de navigerer i den travle by, hvor meget de tjener, og varigheden af ture over en 24-timers periode.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - bruger data (om afhentnings- og afleveringssteder, turens varighed, foretrukne ruter osv.) indsamlet fra millioner af Uber-ture *dagligt* til at bygge et dataanalysværktøj, der hjælper med prissætning, sikkerhed, svindelopdagelse og navigationsbeslutninger.
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - fokuserer på _forudsigende analyse_ (hold- og spilleranalyse - tænk [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - og fanhåndtering) og _datavisualisering_ (hold- og fandashboards, spil osv.) med applikationer som talentspejderarbejde, sportsvæddemål og lager-/venuehåndtering.
+
+ * [Data Science i Banksektoren](https://data-flair.training/blogs/data-science-in-banking/) - fremhæver værdien af data science i finanssektoren med applikationer, der spænder fra risikomodellering og svindelopdagelse til kundesegmentering, realtidsprognoser og anbefalingssystemer. Forudsigende analyse driver også kritiske målinger som [kreditvurderinger](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Data Science i Sundhedssektoren](https://data-flair.training/blogs/data-science-in-healthcare/) - fremhæver applikationer som medicinsk billedbehandling (f.eks. MRI, røntgen, CT-scanning), genomik (DNA-sekventering), lægemiddeludvikling (risikovurdering, succesprognose), forudsigende analyse (patientpleje og forsyningslogistik), sygdomssporing og -forebyggelse osv.
+
+ Billedkredit: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Figuren viser andre domæner og eksempler på anvendelse af data science-teknikker. Vil du udforske andre applikationer? Tjek [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples)-sektionen nedenfor.
+
+## Data Science + Forskning
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Forskning - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Mens virkelige applikationer ofte fokuserer på industrielle anvendelser i stor skala, kan _forskningsprojekter_ være nyttige fra to perspektiver:
+
+* _innovationsmuligheder_ - udforsk hurtig prototyping af avancerede koncepter og test af brugeroplevelser for næste generations applikationer.
+* _implementeringsudfordringer_ - undersøg potentielle skader eller utilsigtede konsekvenser af data science-teknologier i virkelige kontekster.
+
+For studerende kan disse forskningsprojekter give både lærings- og samarbejdsmuligheder, der kan forbedre din forståelse af emnet og udvide din bevidsthed og engagement med relevante personer eller teams, der arbejder inden for interesseområder. Så hvordan ser forskningsprojekter ud, og hvordan kan de gøre en forskel?
+
+Lad os se på et eksempel - [MIT Gender Shades Study](http://gendershades.org/overview.html) af Joy Buolamwini (MIT Media Labs) med en [signatur forskningsartikel](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) medforfattet af Timnit Gebru (dengang hos Microsoft Research), der fokuserede på:
+
+ * **Hvad:** Målet med forskningsprojektet var at _evaluere bias i automatiserede ansigtsanalysealgoritmer og datasæt_ baseret på køn og hudtype.
+ * **Hvorfor:** Ansigtsanalyse bruges i områder som retshåndhævelse, lufthavnssikkerhed, ansættelsessystemer og mere - kontekster, hvor unøjagtige klassifikationer (f.eks. på grund af bias) kan forårsage potentielle økonomiske og sociale skader for berørte individer eller grupper. Forståelse (og eliminering eller afbødning) af bias er nøglen til retfærdighed i brugen.
+ * **Hvordan:** Forskerne erkendte, at eksisterende benchmarks primært brugte lysere hudtoner og kuraterede et nyt datasæt (1000+ billeder), der var _mere balanceret_ efter køn og hudtype. Datasættet blev brugt til at evaluere nøjagtigheden af tre kønsklassifikationsprodukter (fra Microsoft, IBM & Face++).
+
+Resultaterne viste, at selvom den samlede klassifikationsnøjagtighed var god, var der en mærkbar forskel i fejlprocenter mellem forskellige undergrupper - med **fejlklassifikation** højere for kvinder eller personer med mørkere hudtoner, hvilket indikerer bias.
+
+**Vigtige Resultater:** Skabte opmærksomhed omkring, at data science har brug for mere _repræsentative datasæt_ (balancerede undergrupper) og mere _inkluderende teams_ (diverse baggrunde) for at genkende og eliminere eller afbøde sådanne bias tidligere i AI-løsninger. Forskningsindsatser som denne er også afgørende for, at mange organisationer kan definere principper og praksis for _ansvarlig AI_ for at forbedre retfærdighed i deres AI-produkter og -processer.
+
+**Vil du lære om relevante forskningsindsatser hos Microsoft?**
+
+* Tjek [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) inden for kunstig intelligens.
+* Udforsk studenterprojekter fra [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Tjek [Fairlearn](https://fairlearn.org/) projektet og [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) initiativerne.
+
+## Data Science + Humaniora
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Digitale Humaniora - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+Digitale Humaniora [er blevet defineret](https://digitalhumanities.stanford.edu/about-dh-stanford) som "en samling af praksisser og tilgange, der kombinerer computermetoder med humanistisk forskning". [Stanford-projekter](https://digitalhumanities.stanford.edu/projects) som _"rebooting history"_ og _"poetic thinking"_ illustrerer forbindelsen mellem [Digitale Humaniora og Data Science](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - med vægt på teknikker som netværksanalyse, informationsvisualisering, rumlig og tekstanalyse, der kan hjælpe os med at genbesøge historiske og litterære datasæt for at udlede nye indsigter og perspektiver.
+
+*Vil du udforske og udvide et projekt inden for dette område?*
+
+Tjek ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - et godt eksempel fra [Jen Looper](https://twitter.com/jenlooper), der spørger, hvordan vi kan bruge data science til at genbesøge velkendt poesi og genvurdere dens betydning og bidrag fra dens forfatter i nye kontekster. For eksempel, _kan vi forudsige sæsonen, hvor et digt blev skrevet, ved at analysere dets tone eller sentiment_ - og hvad fortæller dette os om forfatterens sindstilstand i den relevante periode?
+
+For at besvare det spørgsmål følger vi trinnene i vores data science-livscyklus:
+ * [`Dataindsamling`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - for at indsamle et relevant datasæt til analyse. Muligheder inkluderer brug af en API (f.eks. [Poetry DB API](https://poetrydb.org/index.html)) eller scraping af websider (f.eks. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) ved hjælp af værktøjer som [Scrapy](https://scrapy.org/).
+ * [`Databehandling`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - forklarer, hvordan tekst kan formateres, renses og forenkles ved hjælp af grundlæggende værktøjer som Visual Studio Code og Microsoft Excel.
+ * [`Dataanalyse`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - forklarer, hvordan vi kan importere datasættet til "Notebooks" til analyse ved hjælp af Python-pakker (som pandas, numpy og matplotlib) til at organisere og visualisere dataene.
+ * [`Sentimentanalyse`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - forklarer, hvordan vi kan integrere cloud-tjenester som Text Analytics ved hjælp af low-code værktøjer som [Power Automate](https://flow.microsoft.com/en-us/) til automatiserede databehandlingsarbejdsgange.
+
+Ved at bruge denne arbejdsgang kan vi udforske sæsonmæssige påvirkninger på digtenes sentiment og hjælpe os med at forme vores egne perspektiver på forfatteren. Prøv det selv - og udvid derefter notebooken til at stille andre spørgsmål eller visualisere dataene på nye måder!
+
+> Du kan bruge nogle af værktøjerne i [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) til at forfølge disse undersøgelsesveje.
+
+## Data Science + Bæredygtighed
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Bæredygtighed - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+[2030 Agenda For Sustainable Development](https://sdgs.un.org/2030agenda) - vedtaget af alle FN-medlemmer i 2015 - identificerer 17 mål, herunder dem, der fokuserer på **beskyttelse af planeten** mod nedbrydning og virkningerne af klimaforandringer. [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability)-initiativet støtter disse mål ved at undersøge måder, hvorpå teknologiløsninger kan understøtte og bygge mere bæredygtige fremtider med et [fokus på 4 mål](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - at være kulstofnegative, vandpositive, nul affald og biodiversitet ved 2030.
+
+At tackle disse udfordringer på en skalerbar og rettidig måde kræver cloud-skala tænkning - og store mængder data. [Planetary Computer](https://planetarycomputer.microsoft.com/)-initiativet tilbyder 4 komponenter til at hjælpe dataforskere og udviklere i denne indsats:
+
+ * [Data Catalog](https://planetarycomputer.microsoft.com/catalog) - med petabytes af Earth Systems-data (gratis og Azure-hostet).
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - for at hjælpe brugere med at søge efter relevante data på tværs af rum og tid.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - administreret miljø for forskere til at behandle massive geospatiale datasæt.
+ * [Applications](https://planetarycomputer.microsoft.com/applications) - viser anvendelsessager og værktøjer til bæredygtighedsindsigter.
+**Planetary Computer-projektet er i øjeblikket i preview (fra september 2021)** - her er, hvordan du kan komme i gang med at bidrage til bæredygtighedsløsninger ved hjælp af data science.
+
+* [Anmod om adgang](https://planetarycomputer.microsoft.com/account/request) for at starte din udforskning og forbinde med andre.
+* [Udforsk dokumentation](https://planetarycomputer.microsoft.com/docs/overview/about) for at forstå understøttede datasæt og API'er.
+* Udforsk applikationer som [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) for inspiration til applikationsidéer.
+
+Tænk over, hvordan du kan bruge datavisualisering til at fremhæve eller forstærke relevante indsigter inden for områder som klimaforandringer og skovrydning. Eller overvej, hvordan indsigter kan bruges til at skabe nye brugeroplevelser, der motiverer adfærdsændringer for en mere bæredygtig livsstil.
+
+## Data Science + Studerende
+
+Vi har talt om virkelige anvendelser i industrien og forskningen og udforsket eksempler på data science-applikationer inden for digitale humaniora og bæredygtighed. Så hvordan kan du opbygge dine færdigheder og dele din ekspertise som nybegynder inden for data science?
+
+Her er nogle eksempler på data science-studerende projekter til inspiration.
+
+* [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) med GitHub [projekter](https://github.com/msr-ds3), der udforsker emner som:
+ - [Racial Bias in Police Use of Force](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Reliability of NYC Subway System](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [Digitizing Material Culture: Exploring socio-economic distributions in Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - fra [Ornella Altunyan](https://twitter.com/ornelladotcom) og teamet på Claremont, ved brug af [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Udfordring
+
+Søg efter artikler, der anbefaler data science-projekter, som er begyndervenlige - som [disse 50 emneområder](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) eller [disse 21 projektidéer](https://www.intellspot.com/data-science-project-ideas) eller [disse 16 projekter med kildekode](https://data-flair.training/blogs/data-science-project-ideas/), som du kan dekonstruere og remix. Og glem ikke at blogge om dine læringsrejser og dele dine indsigter med os alle.
+
+## Quiz efter forelæsning
+
+[Quiz efter forelæsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Gennemgang & Selvstudie
+
+Vil du udforske flere anvendelsesmuligheder? Her er nogle relevante artikler:
+* [17 Data Science Applications and Examples](https://builtin.com/data-science/data-science-applications-examples) - juli 2021
+* [11 Breathtaking Data Science Applications in Real World](https://myblindbird.com/data-science-applications-real-world/) - maj 2021
+* [Data Science In The Real World](https://towardsdatascience.com/data-science-in-the-real-world/home) - Artikelkollektion
+* Data Science inden for: [Uddannelse](https://data-flair.training/blogs/data-science-in-education/), [Landbrug](https://data-flair.training/blogs/data-science-in-agriculture/), [Finans](https://data-flair.training/blogs/data-science-in-finance/), [Film](https://data-flair.training/blogs/data-science-at-movies/) og mere.
+
+## Opgave
+
+[Udforsk et Planetary Computer-datasæt](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/da/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..4dfcdff1
--- /dev/null
+++ b/translations/da/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Udforsk et Planetary Computer-datasæt
+
+## Instruktioner
+
+I denne lektion talte vi om forskellige anvendelsesområder inden for datavidenskab - med dybdegående eksempler relateret til forskning, bæredygtighed og digitale humaniora. I denne opgave skal du udforske et af disse eksempler mere detaljeret og anvende nogle af dine læringer omkring datavisualiseringer og analyser for at udlede indsigt om bæredygtighedsdata.
+
+Projektet [Planetary Computer](https://planetarycomputer.microsoft.com/) har datasæt og API'er, der kan tilgås med en konto - anmod om en konto, hvis du vil prøve bonusdelen af opgaven. Siden tilbyder også en [Explorer](https://planetarycomputer.microsoft.com/explore)-funktion, som du kan bruge uden at oprette en konto.
+
+`Trin:`
+Explorer-grænsefladen (vist på skærmbilledet nedenfor) giver dig mulighed for at vælge et datasæt (fra de tilgængelige muligheder), en forudindstillet forespørgsel (til at filtrere data) og en visningsmulighed (til at skabe en relevant visualisering). I denne opgave er din opgave at:
+
+ 1. Læs [Explorer-dokumentationen](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - forstå mulighederne.
+ 2. Udforsk datasæt [Kataloget](https://planetarycomputer.microsoft.com/catalog) - lær formålet med hvert datasæt.
+ 3. Brug Explorer - vælg et datasæt, der interesserer dig, vælg en relevant forespørgsel og visningsmulighed.
+
+
+
+`Din opgave:`
+Undersøg nu den visualisering, der vises i browseren, og besvar følgende:
+ * Hvilke _funktioner_ har datasættet?
+ * Hvilke _indsigter_ eller resultater giver visualiseringen?
+ * Hvad er _implikationerne_ af disse indsigter for projektets bæredygtighedsmål?
+ * Hvad er _begrænsningerne_ ved visualiseringen (dvs. hvilken indsigt fik du ikke)?
+ * Hvis du kunne få rådataene, hvilke _alternative visualiseringer_ ville du skabe, og hvorfor?
+
+`Bonuspoint:`
+Ansøg om en konto - og log ind, når du er blevet godkendt.
+ * Brug _Launch Hub_-muligheden til at åbne rådataene i en Notebook.
+ * Udforsk dataene interaktivt, og implementer de alternative visualiseringer, du tænkte på.
+ * Analyser nu dine brugerdefinerede visualiseringer - var du i stand til at udlede de indsigter, du tidligere gik glip af?
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilstrækkelig | Kræver forbedring
+--- | --- | -- |
+Alle fem kerne-spørgsmål blev besvaret. Eleven identificerede tydeligt, hvordan nuværende og alternative visualiseringer kunne give indsigt i bæredygtighedsmål eller -resultater. | Eleven besvarede mindst de tre øverste spørgsmål i stor detalje og viste, at de havde praktisk erfaring med Explorer. | Eleven undlod at besvare flere spørgsmål eller gav utilstrækkelige detaljer - hvilket indikerer, at der ikke blev gjort et meningsfuldt forsøg på opgaven. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/6-Data-Science-In-Wild/README.md b/translations/da/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..e731635f
--- /dev/null
+++ b/translations/da/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Data Science i det virkelige liv
+
+Anvendelser af data science i forskellige industrier.
+
+### Emner
+
+1. [Data Science i den virkelige verden](20-Real-World-Examples/README.md)
+
+### Kreditering
+
+Skrevet med ❤️ af [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/CODE_OF_CONDUCT.md b/translations/da/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..df5eb746
--- /dev/null
+++ b/translations/da/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Microsoft Open Source Adfærdskodeks
+
+Dette projekt har vedtaget [Microsoft Open Source Adfærdskodeks](https://opensource.microsoft.com/codeofconduct/).
+
+Ressourcer:
+
+- [Microsoft Open Source Adfærdskodeks](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoft Adfærdskodeks FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+- Kontakt [opencode@microsoft.com](mailto:opencode@microsoft.com) med spørgsmål eller bekymringer
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/CONTRIBUTING.md b/translations/da/CONTRIBUTING.md
new file mode 100644
index 00000000..02bf99c9
--- /dev/null
+++ b/translations/da/CONTRIBUTING.md
@@ -0,0 +1,28 @@
+
+# Bidrag
+
+Dette projekt byder velkommen til bidrag og forslag. De fleste bidrag kræver, at du
+accepterer en Contributor License Agreement (CLA), som erklærer, at du har retten til,
+og faktisk giver os rettighederne til at bruge dit bidrag. For detaljer, besøg
+https://cla.microsoft.com.
+
+Når du indsender en pull request, vil en CLA-bot automatisk afgøre, om du skal
+afgive en CLA og dekorere PR'en passende (f.eks. med label eller kommentar). Følg blot
+instruktionerne fra botten. Du behøver kun gøre dette én gang på tværs af alle repositories, der bruger vores CLA.
+
+Dette projekt har vedtaget [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/).
+For mere information, se [Code of Conduct FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+eller kontakt [opencode@microsoft.com](mailto:opencode@microsoft.com) med eventuelle yderligere spørgsmål eller kommentarer.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/README.md b/translations/da/README.md
new file mode 100644
index 00000000..80ffcb26
--- /dev/null
+++ b/translations/da/README.md
@@ -0,0 +1,164 @@
+
+# Data Science for Begyndere - Et Curriculum
+
+Azure Cloud Advocates hos Microsoft er glade for at tilbyde et 10-ugers, 20-lektioners curriculum om Data Science. Hver lektion inkluderer quizzer før og efter lektionen, skriftlige instruktioner til at gennemføre lektionen, en løsning og en opgave. Vores projektbaserede pædagogik giver dig mulighed for at lære, mens du bygger, en dokumenteret metode til at få nye færdigheder til at hænge fast.
+
+**Stor tak til vores forfattere:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Speciel tak 🙏 til vores [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) forfattere, anmeldere og indholdsbidragydere,** især Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200),
+[Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Data Science For Beginners - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+## Meddelelse - Nyt Curriculum om Generativ AI er netop udgivet!
+
+Vi har netop udgivet et 12-lektioners curriculum om generativ AI. Lær om ting som:
+
+- promptning og prompt engineering
+- tekst- og billedapp-generering
+- søgeapps
+
+Som altid er der en lektion, opgaver at fuldføre, videnskontroller og udfordringer.
+
+Se det her:
+
+> https://aka.ms/genai-beginners
+
+# Er du studerende?
+
+Kom i gang med følgende ressourcer:
+
+- [Student Hub-side](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) På denne side finder du begynderressourcer, studentpakker og endda måder at få en gratis certifikatvoucher. Dette er en side, du bør bogmærke og tjekke fra tid til anden, da vi skifter indhold mindst månedligt.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Bliv en del af et globalt fællesskab af studentambassadører, dette kunne være din vej ind i Microsoft.
+
+# Kom godt i gang
+
+> **Lærere**: vi har [inkluderet nogle forslag](for-teachers.md) til, hvordan man bruger dette curriculum. Vi vil meget gerne høre din feedback [i vores diskussionsforum](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Studerende](https://aka.ms/student-page)**: for at bruge dette curriculum på egen hånd, fork hele repoen og fuldfør øvelserne selv, startende med en quiz før lektionen. Læs derefter lektionen og fuldfør resten af aktiviteterne. Prøv at skabe projekterne ved at forstå lektionerne i stedet for at kopiere løsningskoden; dog er den kode tilgængelig i /solutions-mapperne i hver projektorienteret lektion. En anden idé kunne være at danne en studiegruppe med venner og gennemgå indholdet sammen. For yderligere studier anbefaler vi [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Mød teamet
+
+[](https://youtu.be/8mzavjQSMM4 "Promo video")
+
+**Gif af** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Klik på billedet ovenfor for en video om projektet og de folk, der skabte det!
+
+## Pædagogik
+
+Vi har valgt to pædagogiske principper, mens vi byggede dette curriculum: at sikre, at det er projektbaseret, og at det inkluderer hyppige quizzer. Ved slutningen af denne serie vil studerende have lært grundlæggende principper for data science, herunder etiske begreber, dataklargøring, forskellige måder at arbejde med data på, datavisualisering, dataanalyse, virkelige anvendelser af data science og mere.
+
+Derudover sætter en lav-stress quiz før en klasse intentionen hos den studerende mod at lære et emne, mens en anden quiz efter klassen sikrer yderligere fastholdelse. Dette curriculum er designet til at være fleksibelt og sjovt og kan tages i sin helhed eller delvist. Projekterne starter små og bliver gradvist mere komplekse ved slutningen af den 10-ugers cyklus.
+
+> Find vores [Code of Conduct](CODE_OF_CONDUCT.md), [Contributing](CONTRIBUTING.md), [Translation](TRANSLATIONS.md) retningslinjer. Vi byder din konstruktive feedback velkommen!
+
+## Hver lektion inkluderer:
+
+- Valgfri sketchnote
+- Valgfri supplerende video
+- Opvarmningsquiz før lektionen
+- Skriftlig lektion
+- For projektbaserede lektioner, trin-for-trin vejledninger om, hvordan man bygger projektet
+- Videnskontroller
+- En udfordring
+- Supplerende læsning
+- Opgave
+- Quiz efter lektionen
+
+> **En note om quizzer**: Alle quizzer er indeholdt i Quiz-App-mappen, med i alt 40 quizzer med tre spørgsmål hver. De er linket fra lektionerne, men quiz-appen kan køres lokalt eller implementeres på Azure; følg instruktionen i `quiz-app`-mappen. De bliver gradvist lokaliseret.
+
+## Lektioner
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Data Science For Beginners: Roadmap - _Sketchnote af [@nitya](https://twitter.com/nitya)_ |
+
+| Lektion Nummer | Emne | Lektion Gruppe | Læringsmål | Linket Lektion | Forfatter |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definere Data Science | [Introduktion](1-Introduction/README.md) | Lær de grundlæggende begreber bag data science og hvordan det er relateret til kunstig intelligens, maskinlæring og big data. | [lektion](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Data Science Etik | [Introduktion](1-Introduction/README.md) | Dataetik begreber, udfordringer og rammer. | [lektion](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definere Data | [Introduktion](1-Introduction/README.md) | Hvordan data klassificeres og dets almindelige kilder. | [lektion](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introduktion til Statistik & Sandsynlighed | [Introduktion](1-Introduction/README.md) | De matematiske teknikker inden for sandsynlighed og statistik til at forstå data. | [lektion](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Arbejde med Relationelle Data | [Arbejde Med Data](2-Working-With-Data/README.md) | Introduktion til relationelle data og grundlæggende udforskning og analyse af relationelle data med Structured Query Language, også kendt som SQL (udtales “see-quell”). | [lektion](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Arbejde med NoSQL Data | [Arbejde Med Data](2-Working-With-Data/README.md) | Introduktion til ikke-relationelle data, dets forskellige typer og grundlæggende udforskning og analyse af dokumentdatabaser. | [lektion](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Arbejde med Python | [Arbejde Med Data](2-Working-With-Data/README.md) | Grundlæggende brug af Python til dataudforskning med biblioteker som Pandas. Grundlæggende forståelse af Python-programmering anbefales. | [lektion](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Dataklargøring | [Arbejde med data](2-Working-With-Data/README.md) | Emner om datateknikker til rengøring og transformation af data for at håndtere udfordringer med manglende, unøjagtige eller ufuldstændige data. | [lektion](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualisering af mængder | [Datavisualisering](3-Data-Visualization/README.md) | Lær at bruge Matplotlib til at visualisere fugledata 🦆 | [lektion](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualisering af datafordelinger | [Datavisualisering](3-Data-Visualization/README.md) | Visualisering af observationer og tendenser inden for et interval. | [lektion](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualisering af proportioner | [Datavisualisering](3-Data-Visualization/README.md) | Visualisering af diskrete og grupperede procentdele. | [lektion](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualisering af relationer | [Datavisualisering](3-Data-Visualization/README.md) | Visualisering af forbindelser og korrelationer mellem datasæt og deres variabler. | [lektion](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Meningsfulde visualiseringer | [Datavisualisering](3-Data-Visualization/README.md) | Teknikker og vejledning til at gøre dine visualiseringer værdifulde for effektiv problemløsning og indsigt. | [lektion](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introduktion til data science-livscyklussen | [Livscyklus](4-Data-Science-Lifecycle/README.md) | Introduktion til data science-livscyklussen og dens første trin med at indsamle og udtrække data. | [lektion](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analyse | [Livscyklus](4-Data-Science-Lifecycle/README.md) | Denne fase af data science-livscyklussen fokuserer på teknikker til at analysere data. | [lektion](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Kommunikation | [Livscyklus](4-Data-Science-Lifecycle/README.md) | Denne fase af data science-livscyklussen fokuserer på at præsentere indsigt fra data på en måde, der gør det lettere for beslutningstagere at forstå. | [lektion](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Data science i skyen | [Cloud Data](5-Data-Science-In-Cloud/README.md) | Denne serie af lektioner introducerer data science i skyen og dens fordele. | [lektion](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) og [Maud](https://twitter.com/maudstweets) |
+| 18 | Data science i skyen | [Cloud Data](5-Data-Science-In-Cloud/README.md) | Træning af modeller ved hjælp af Low Code-værktøjer. | [lektion](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) og [Maud](https://twitter.com/maudstweets) |
+| 19 | Data science i skyen | [Cloud Data](5-Data-Science-In-Cloud/README.md) | Udrulning af modeller med Azure Machine Learning Studio. | [lektion](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) og [Maud](https://twitter.com/maudstweets) |
+| 20 | Data science i praksis | [I praksis](6-Data-Science-In-Wild/README.md) | Data science-drevne projekter i den virkelige verden. | [lektion](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Følg disse trin for at åbne dette eksempel i en Codespace:
+1. Klik på Code-menuen og vælg Open with Codespaces.
+2. Vælg + New codespace nederst i panelet.
+For mere info, se [GitHub-dokumentationen](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Følg disse trin for at åbne dette repo i en container ved hjælp af din lokale maskine og VSCode med VS Code Remote - Containers-udvidelsen:
+
+1. Hvis det er første gang, du bruger en udviklingscontainer, skal du sikre dig, at dit system opfylder forudsætningerne (f.eks. have Docker installeret) i [kom godt i gang-dokumentationen](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+For at bruge dette repository kan du enten åbne det i et isoleret Docker-volumen:
+
+**Bemærk**: Bag kulisserne vil dette bruge Remote-Containers: **Clone Repository in Container Volume...**-kommandoen til at klone kildekoden i et Docker-volumen i stedet for det lokale filsystem. [Volumener](https://docs.docker.com/storage/volumes/) er den foretrukne mekanisme til at vedvarende containerdata.
+
+Eller åbne en lokalt klonet eller downloadet version af repositoryet:
+
+- Klon dette repository til dit lokale filsystem.
+- Tryk på F1 og vælg **Remote-Containers: Open Folder in Container...**-kommandoen.
+- Vælg den klonede kopi af denne mappe, vent på, at containeren starter, og prøv tingene af.
+
+## Offline adgang
+
+Du kan køre denne dokumentation offline ved hjælp af [Docsify](https://docsify.js.org/#/). Fork dette repo, [installer Docsify](https://docsify.js.org/#/quickstart) på din lokale maskine, og skriv derefter `docsify serve` i roden af dette repo. Websitet vil blive serveret på port 3000 på din localhost: `localhost:3000`.
+
+> Bemærk, notebooks vil ikke blive gengivet via Docsify, så når du skal køre en notebook, skal du gøre det separat i VS Code med en Python-kernel.
+
+## Hjælp ønskes!
+
+Hvis du ønsker at oversætte hele eller dele af pensum, så følg vores [Translations](TRANSLATIONS.md)-vejledning.
+
+## Andre pensum
+
+Vores team producerer andre pensum! Tjek:
+
+- [Generativ AI for begyndere](https://aka.ms/genai-beginners)
+- [Generativ AI for begyndere .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generativ AI med JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generativ AI med Java](https://aka.ms/genaijava)
+- [AI for begyndere](https://aka.ms/ai-beginners)
+- [Data science for begyndere](https://aka.ms/datascience-beginners)
+- [ML for begyndere](https://aka.ms/ml-beginners)
+- [Cybersikkerhed for begyndere](https://github.com/microsoft/Security-101)
+- [Webudvikling for begyndere](https://aka.ms/webdev-beginners)
+- [IoT for begyndere](https://aka.ms/iot-beginners)
+- [XR-udvikling for begyndere](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for parprogrammering](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET-udviklere](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Vælg din egen Copilot-oplevelse](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/SECURITY.md b/translations/da/SECURITY.md
new file mode 100644
index 00000000..a0c33d5a
--- /dev/null
+++ b/translations/da/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Sikkerhed
+
+Microsoft tager sikkerheden af vores softwareprodukter og -tjenester alvorligt, hvilket inkluderer alle kildekoderepositorier, der administreres gennem vores GitHub-organisationer, som inkluderer [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) og [vores GitHub-organisationer](https://opensource.microsoft.com/).
+
+Hvis du mener, at du har fundet en sikkerhedssårbarhed i et Microsoft-ejet repository, der opfylder [Microsofts definition af en sikkerhedssårbarhed](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), bedes du rapportere det til os som beskrevet nedenfor.
+
+## Rapportering af sikkerhedsproblemer
+
+**Rapportér venligst ikke sikkerhedssårbarheder via offentlige GitHub-issues.**
+
+Rapportér dem i stedet til Microsoft Security Response Center (MSRC) på [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Hvis du foretrækker at indsende uden at logge ind, kan du sende en e-mail til [secure@microsoft.com](mailto:secure@microsoft.com). Hvis det er muligt, krypter din besked med vores PGP-nøgle; du kan downloade den fra [Microsoft Security Response Center PGP Key-siden](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Du bør modtage et svar inden for 24 timer. Hvis du af en eller anden grund ikke gør det, bedes du følge op via e-mail for at sikre, at vi har modtaget din oprindelige besked. Yderligere information kan findes på [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Inkluder venligst de ønskede oplysninger nedenfor (så meget som du kan give), for at hjælpe os med bedre at forstå arten og omfanget af det mulige problem:
+
+ * Type af problem (f.eks. buffer overflow, SQL injection, cross-site scripting osv.)
+ * Fulde stier til kildefil(er) relateret til manifestationen af problemet
+ * Placeringen af den berørte kildekode (tag/branch/commit eller direkte URL)
+ * Eventuelle særlige konfigurationer, der kræves for at genskabe problemet
+ * Trin-for-trin instruktioner til at genskabe problemet
+ * Proof-of-concept eller exploit-kode (hvis muligt)
+ * Indvirkning af problemet, herunder hvordan en angriber kunne udnytte problemet
+
+Disse oplysninger vil hjælpe os med at prioritere din rapport hurtigere.
+
+Hvis du rapporterer for en bug bounty, kan mere komplette rapporter bidrage til en højere bounty-belønning. Besøg venligst vores [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty)-side for flere detaljer om vores aktive programmer.
+
+## Foretrukne sprog
+
+Vi foretrækker, at al kommunikation foregår på engelsk.
+
+## Politik
+
+Microsoft følger princippet om [Koordineret Sårbarhedsrapportering](https://www.microsoft.com/en-us/msrc/cvd).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på at sikre nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/SUPPORT.md b/translations/da/SUPPORT.md
new file mode 100644
index 00000000..de1e5b51
--- /dev/null
+++ b/translations/da/SUPPORT.md
@@ -0,0 +1,26 @@
+
+# Support
+## Sådan indberetter du problemer og får hjælp
+
+Dette projekt bruger GitHub Issues til at spore fejl og funktionsanmodninger. Søg venligst blandt de eksisterende
+problemer, før du opretter nye, for at undgå dubletter. For nye problemer, opret din fejlrapport eller
+funktionsanmodning som en ny Issue.
+
+For hjælp og spørgsmål om brugen af dette projekt, opret en Issue.
+
+## Microsoft Supportpolitik
+
+Support for dette repository er begrænset til de ressourcer, der er nævnt ovenfor.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/docs/_sidebar.md b/translations/da/docs/_sidebar.md
new file mode 100644
index 00000000..ee79c6f9
--- /dev/null
+++ b/translations/da/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Introduktion
+ - [Definition af Data Science](../1-Introduction/01-defining-data-science/README.md)
+ - [Etik i Data Science](../1-Introduction/02-ethics/README.md)
+ - [Definition af Data](../1-Introduction/03-defining-data/README.md)
+ - [Sandsynlighed og Statistik](../1-Introduction/04-stats-and-probability/README.md)
+- Arbejde med Data
+ - [Relationelle Databaser](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Ikke-relationelle Databaser](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Dataklargøring](../2-Working-With-Data/08-data-preparation/README.md)
+- Datavisualisering
+ - [Visualisering af Mængder](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualisering af Fordelinger](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualisering af Proportioner](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualisering af Relationer](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Meningsfulde Visualiseringer](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Data Science Livscyklus
+ - [Introduktion](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analyse](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Kommunikation](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Data Science i Skyen
+ - [Introduktion](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Data Science i Felten
+ - [DS i Felten](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi er ikke ansvarlige for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/for-teachers.md b/translations/da/for-teachers.md
new file mode 100644
index 00000000..4396af66
--- /dev/null
+++ b/translations/da/for-teachers.md
@@ -0,0 +1,78 @@
+
+## For undervisere
+
+Vil du bruge dette pensum i dit klasseværelse? Du er meget velkommen!
+
+Faktisk kan du bruge det direkte på GitHub ved at anvende GitHub Classroom.
+
+For at gøre det, skal du forgrene dette repo. Du skal oprette et repo for hver lektion, så du skal udtrække hver mappe til et separat repo. På den måde kan [GitHub Classroom](https://classroom.github.com/classrooms) håndtere hver lektion individuelt.
+
+Disse [fulde instruktioner](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) giver dig en idé om, hvordan du kan opsætte dit klasseværelse.
+
+## Brug af repoet som det er
+
+Hvis du ønsker at bruge dette repo, som det står nu, uden at anvende GitHub Classroom, kan det også lade sig gøre. Du skal blot kommunikere med dine elever om, hvilken lektion I skal arbejde med sammen.
+
+I et online format (Zoom, Teams eller andet) kan du oprette grupperum til quizzerne og vejlede eleverne, så de er klar til at lære. Derefter kan du invitere eleverne til at deltage i quizzerne og indsende deres svar som 'issues' på et bestemt tidspunkt. Du kan gøre det samme med opgaver, hvis du ønsker, at eleverne skal arbejde sammen offentligt.
+
+Foretrækker du et mere privat format, kan du bede dine elever om at forgrene pensum, lektion for lektion, til deres egne private GitHub-repos og give dig adgang. Så kan de gennemføre quizzer og opgaver privat og indsende dem til dig via issues på dit klasseværelsesrepo.
+
+Der er mange måder at få dette til at fungere i et online klasseværelse. Lad os endelig vide, hvad der fungerer bedst for dig!
+
+## Inkluderet i dette pensum:
+
+20 lektioner, 40 quizzer og 20 opgaver. Sketchnotes følger med lektionerne for visuelle elever. Mange lektioner er tilgængelige både i Python og R og kan gennemføres ved hjælp af Jupyter-notebooks i VS Code. Læs mere om, hvordan du opsætter dit klasseværelse til at bruge denne teknologiske platform: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Alle sketchnotes, inklusive en storformatplakat, findes i [denne mappe](../../sketchnotes).
+
+Hele pensum er tilgængeligt [som en PDF](../../pdf/readme.pdf).
+
+Du kan også køre dette pensum som en selvstændig, offline-venlig hjemmeside ved at bruge [Docsify](https://docsify.js.org/#/). [Installér Docsify](https://docsify.js.org/#/quickstart) på din lokale maskine, og skriv derefter `docsify serve` i roden af din lokale kopi af dette repo. Hjemmesiden vil blive serveret på port 3000 på din localhost: `localhost:3000`.
+
+En offline-venlig version af pensum vil åbne som en selvstændig webside: https://localhost:3000
+
+Lektionerne er grupperet i 6 dele:
+
+- 1: Introduktion
+ - 1: Definition af datavidenskab
+ - 2: Etik
+ - 3: Definition af data
+ - 4: Oversigt over sandsynlighed og statistik
+- 2: Arbejde med data
+ - 5: Relationelle databaser
+ - 6: Ikke-relationelle databaser
+ - 7: Python
+ - 8: Databehandling
+- 3: Datavisualisering
+ - 9: Visualisering af mængder
+ - 10: Visualisering af fordelinger
+ - 11: Visualisering af proportioner
+ - 12: Visualisering af relationer
+ - 13: Meningsfulde visualiseringer
+- 4: Datavidenskabens livscyklus
+ - 14: Introduktion
+ - 15: Analyse
+ - 16: Kommunikation
+- 5: Datavidenskab i skyen
+ - 17: Introduktion
+ - 18: Lavkode-muligheder
+ - 19: Azure
+- 6: Datavidenskab i praksis
+ - 20: Oversigt
+
+## Giv os dine tanker!
+
+Vi vil gerne gøre dette pensum så brugbart som muligt for dig og dine elever. Giv os feedback i diskussionsforaene! Du er velkommen til at oprette et klasseværelsesområde i diskussionsforaene til dine elever.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der opstår som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/quiz-app/README.md b/translations/da/quiz-app/README.md
new file mode 100644
index 00000000..f3f8403d
--- /dev/null
+++ b/translations/da/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Quizzer
+
+Disse quizzer er før- og efterforelæsningsquizzer for data science-kurset på https://aka.ms/datascience-beginners
+
+## Tilføjelse af et oversat quizsæt
+
+Tilføj en quizoversættelse ved at oprette matchende quizstrukturer i `assets/translations`-mapperne. De originale quizzer findes i `assets/translations/en`. Quizzerne er opdelt i flere grupperinger. Sørg for at tilpasse nummereringen til den korrekte quizsektion. Der er i alt 40 quizzer i dette kursus, og nummereringen starter ved 0.
+
+Efter at have redigeret oversættelserne, rediger `index.js`-filen i oversættelsesmappen for at importere alle filerne i henhold til konventionerne i `en`.
+
+Rediger `index.js`-filen i `assets/translations` for at importere de nye oversatte filer.
+
+Derefter skal du redigere dropdown-menuen i `App.vue` i denne app for at tilføje dit sprog. Match den lokaliserede forkortelse med mappenavnet for dit sprog.
+
+Til sidst skal du redigere alle quiz-links i de oversatte lektioner, hvis de findes, for at inkludere denne lokalisering som en forespørgselsparameter: `?loc=fr` for eksempel.
+
+## Projektopsætning
+
+```
+npm install
+```
+
+### Kompilerer og genindlæser til udvikling
+
+```
+npm run serve
+```
+
+### Kompilerer og minimerer til produktion
+
+```
+npm run build
+```
+
+### Linter og retter filer
+
+```
+npm run lint
+```
+
+### Tilpas konfiguration
+
+Se [Configuration Reference](https://cli.vuejs.org/config/).
+
+Credits: Tak til den originale version af denne quiz-app: https://github.com/arpan45/simple-quiz-vue
+
+## Udrulning til Azure
+
+Her er en trin-for-trin guide til at hjælpe dig i gang:
+
+1. Fork en GitHub-repository
+Sørg for, at din statiske webapp-kode er i din GitHub-repository. Fork denne repository.
+
+2. Opret en Azure Static Web App
+- Opret en [Azure-konto](http://azure.microsoft.com)
+- Gå til [Azure-portalen](https://portal.azure.com)
+- Klik på "Create a resource" og søg efter "Static Web App".
+- Klik på "Create".
+
+3. Konfigurer den statiske webapp
+- Basics:
+ - Subscription: Vælg dit Azure-abonnement.
+ - Resource Group: Opret en ny ressourcegruppe eller brug en eksisterende.
+ - Name: Angiv et navn til din statiske webapp.
+ - Region: Vælg den region, der er tættest på dine brugere.
+
+- #### Deployment Details:
+ - Source: Vælg "GitHub".
+ - GitHub Account: Autoriser Azure til at få adgang til din GitHub-konto.
+ - Organization: Vælg din GitHub-organisation.
+ - Repository: Vælg den repository, der indeholder din statiske webapp.
+ - Branch: Vælg den gren, du vil udrulle fra.
+
+- #### Build Details:
+ - Build Presets: Vælg det framework, din app er bygget med (f.eks. React, Angular, Vue osv.).
+ - App Location: Angiv mappen, der indeholder din app-kode (f.eks. / hvis den er i roden).
+ - API Location: Hvis du har en API, angiv dens placering (valgfrit).
+ - Output Location: Angiv mappen, hvor build-output genereres (f.eks. build eller dist).
+
+4. Gennemse og opret
+Gennemse dine indstillinger og klik på "Create". Azure vil oprette de nødvendige ressourcer og oprette en GitHub Actions workflow i din repository.
+
+5. GitHub Actions Workflow
+Azure vil automatisk oprette en GitHub Actions workflow-fil i din repository (.github/workflows/azure-static-web-apps-.yml). Denne workflow vil håndtere build- og udrulningsprocessen.
+
+6. Overvåg udrulningen
+Gå til "Actions"-fanen i din GitHub-repository.
+Du bør se en workflow køre. Denne workflow vil bygge og udrulle din statiske webapp til Azure.
+Når workflowen er færdig, vil din app være live på den angivne Azure-URL.
+
+### Eksempel på workflow-fil
+
+Her er et eksempel på, hvordan GitHub Actions workflow-filen kan se ud:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Yderligere ressourcer
+- [Azure Static Web Apps Dokumentation](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Dokumentation](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for eventuelle misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/da/sketchnotes/README.md b/translations/da/sketchnotes/README.md
new file mode 100644
index 00000000..0205b9fb
--- /dev/null
+++ b/translations/da/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Find alle sketchnotes her!
+
+## Kreditering
+
+Nitya Narasimhan, kunstner
+
+
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selvom vi bestræber os på nøjagtighed, skal du være opmærksom på, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/01-defining-data-science/README.md b/translations/el/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..6573c589
--- /dev/null
+++ b/translations/el/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,112 @@
+
+## Τι είναι τα Δεδομένα;
+Στην καθημερινή μας ζωή, είμαστε συνεχώς περιτριγυρισμένοι από δεδομένα. Το κείμενο που διαβάζετε τώρα είναι δεδομένα. Η λίστα με τους αριθμούς τηλεφώνου των φίλων σας στο smartphone σας είναι δεδομένα, όπως και η τρέχουσα ώρα που εμφανίζεται στο ρολόι σας. Ως άνθρωποι, λειτουργούμε φυσικά με δεδομένα, είτε μετρώντας τα χρήματα που έχουμε είτε γράφοντας γράμματα στους φίλους μας.
+
+Ωστόσο, τα δεδομένα έγιναν πολύ πιο σημαντικά με τη δημιουργία των υπολογιστών. Ο κύριος ρόλος των υπολογιστών είναι να εκτελούν υπολογισμούς, αλλά χρειάζονται δεδομένα για να λειτουργήσουν. Έτσι, πρέπει να κατανοήσουμε πώς οι υπολογιστές αποθηκεύουν και επεξεργάζονται δεδομένα.
+
+Με την εμφάνιση του Διαδικτύου, ο ρόλος των υπολογιστών ως συσκευών χειρισμού δεδομένων αυξήθηκε. Αν το σκεφτείτε, χρησιμοποιούμε πλέον τους υπολογιστές όλο και περισσότερο για επεξεργασία και επικοινωνία δεδομένων, παρά για πραγματικούς υπολογισμούς. Όταν γράφουμε ένα e-mail σε έναν φίλο ή αναζητούμε πληροφορίες στο Διαδίκτυο, ουσιαστικά δημιουργούμε, αποθηκεύουμε, μεταδίδουμε και χειριζόμαστε δεδομένα.
+> Μπορείτε να θυμηθείτε την τελευταία φορά που χρησιμοποιήσατε υπολογιστές για να υπολογίσετε κάτι πραγματικά;
+
+## Τι είναι η Επιστήμη Δεδομένων;
+
+Στη [Wikipedia](https://en.wikipedia.org/wiki/Data_science), η **Επιστήμη Δεδομένων** ορίζεται ως *ένα επιστημονικό πεδίο που χρησιμοποιεί επιστημονικές μεθόδους για να εξάγει γνώση και πληροφορίες από δομημένα και μη δομημένα δεδομένα, και να εφαρμόζει τη γνώση και τις εφαρμόσιμες πληροφορίες από δεδομένα σε ένα ευρύ φάσμα εφαρμογών*.
+
+Αυτός ο ορισμός υπογραμμίζει τα εξής σημαντικά σημεία της επιστήμης δεδομένων:
+
+* Ο κύριος στόχος της επιστήμης δεδομένων είναι να **εξάγει γνώση** από δεδομένα, δηλαδή να **κατανοήσει** τα δεδομένα, να βρει κρυφές σχέσεις και να δημιουργήσει ένα **μοντέλο**.
+* Η επιστήμη δεδομένων χρησιμοποιεί **επιστημονικές μεθόδους**, όπως η πιθανότητα και η στατιστική. Στην πραγματικότητα, όταν ο όρος *επιστήμη δεδομένων* εισήχθη για πρώτη φορά, κάποιοι υποστήριξαν ότι ήταν απλώς ένα νέο εντυπωσιακό όνομα για τη στατιστική. Σήμερα είναι προφανές ότι το πεδίο είναι πολύ ευρύτερο.
+* Η γνώση που αποκτάται πρέπει να εφαρμόζεται για να παράγει **εφαρμόσιμες πληροφορίες**, δηλαδή πρακτικές πληροφορίες που μπορούν να εφαρμοστούν σε πραγματικές επιχειρηματικές καταστάσεις.
+* Πρέπει να μπορούμε να λειτουργούμε τόσο με **δομημένα** όσο και με **μη δομημένα** δεδομένα. Θα επιστρέψουμε για να συζητήσουμε τους διαφορετικούς τύπους δεδομένων αργότερα στο μάθημα.
+* Η **περιοχή εφαρμογής** είναι μια σημαντική έννοια, και οι επιστήμονες δεδομένων συχνά χρειάζονται τουλάχιστον κάποιο βαθμό εξειδίκευσης στον τομέα του προβλήματος, όπως χρηματοοικονομικά, ιατρική, μάρκετινγκ κ.λπ.
+
+> Ένα άλλο σημαντικό στοιχείο της Επιστήμης Δεδομένων είναι ότι μελετά πώς τα δεδομένα μπορούν να συλλέγονται, να αποθηκεύονται και να λειτουργούν μέσω υπολογιστών. Ενώ η στατιστική μας δίνει μαθηματικά θεμέλια, η επιστήμη δεδομένων εφαρμόζει μαθηματικές έννοιες για να αντλήσει πραγματικά πληροφορίες από δεδομένα.
+
+Μία από τις προσεγγίσεις (αποδίδεται στον [Jim Gray](https://en.wikipedia.org/wiki/Jim_Gray_(computer_scientist))) για να δούμε την επιστήμη δεδομένων είναι να τη θεωρήσουμε ως ένα ξεχωριστό παράδειγμα επιστήμης:
+* **Εμπειρική**, όπου βασιζόμαστε κυρίως σε παρατηρήσεις και αποτελέσματα πειραμάτων
+* **Θεωρητική**, όπου νέες έννοιες προκύπτουν από την υπάρχουσα επιστημονική γνώση
+* **Υπολογιστική**, όπου ανακαλύπτουμε νέες αρχές βάσει υπολογιστικών πειραμάτων
+* **Βασισμένη στα Δεδομένα**, όπου ανακαλύπτουμε σχέσεις και μοτίβα στα δεδομένα
+
+## Άλλα Σχετικά Πεδία
+
+Επειδή τα δεδομένα είναι πανταχού παρόντα, η επιστήμη δεδομένων είναι επίσης ένα ευρύ πεδίο που αγγίζει πολλές άλλες επιστήμες.
+
+## Τύποι Δεδομένων
+
+Όπως έχουμε ήδη αναφέρει, τα δεδομένα είναι παντού. Αρκεί να τα καταγράψουμε με τον σωστό τρόπο! Είναι χρήσιμο να διακρίνουμε μεταξύ **δομημένων** και **μη δομημένων** δεδομένων. Τα πρώτα συνήθως παρουσιάζονται σε κάποια καλά δομημένη μορφή, συχνά ως πίνακας ή αριθμός πινάκων, ενώ τα δεύτερα είναι απλώς μια συλλογή αρχείων. Μερικές φορές μπορούμε επίσης να μιλήσουμε για **ημι-δομημένα** δεδομένα, που έχουν κάποιο είδος δομής που μπορεί να διαφέρει σημαντικά.
+
+| Δομημένα | Ημι-δομημένα | Μη δομημένα |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | --------------------------------------- |
+| Λίστα ανθρώπων με τους αριθμούς τηλεφώνου τους | Σελίδες Wikipedia με συνδέσμους | Κείμενο της Εγκυκλοπαίδειας Britannica |
+| Θερμοκρασία σε όλα τα δωμάτια ενός κτιρίου κάθε λεπτό για τα τελευταία 20 χρόνια | Συλλογή επιστημονικών άρθρων σε μορφή JSON με συγγραφείς, ημερομηνία δημοσίευσης και περίληψη | Κοινόχρηστα αρχεία με εταιρικά έγγραφα |
+| Δεδομένα για ηλικία και φύλο όλων των ανθρώπων που εισέρχονται στο κτίριο | Σελίδες Διαδικτύου | Ακατέργαστο βίντεο από κάμερα παρακολούθησης |
+
+## Πού να βρείτε Δεδομένα
+
+Υπάρχουν πολλές πιθανές πηγές δεδομένων, και θα ήταν αδύνατο να τις απαριθμήσουμε όλες! Ωστόσο, ας αναφέρουμε μερικά από τα τυπικά μέρη όπου μπορείτε να βρείτε δεδομένα:
+
+* **Δομημένα**
+ - **Internet of Things** (IoT), συμπεριλαμβανομένων δεδομένων από διάφορους αισθητήρες, όπως αισθητήρες θερμοκρασίας ή πίεσης, παρέχει πολλά χρήσιμα δεδομένα. Για παράδειγμα, αν ένα κτίριο γραφείων είναι εξοπλισμένο με αισθητήρες IoT, μπορούμε να ελέγξουμε αυτόματα τη θέρμανση και τον φωτισμό για να ελαχιστοποιήσουμε το κόστος.
+ - **Έρευνες** που ζητάμε από τους χρήστες να συμπληρώσουν μετά από μια αγορά ή μετά από επίσκεψη σε έναν ιστότοπο.
+ - **Ανάλυση συμπεριφοράς** μπορεί, για παράδειγμα, να μας βοηθήσει να κατανοήσουμε πόσο βαθιά ένας χρήστης εξερευνά έναν ιστότοπο και ποιος είναι ο τυπικός λόγος για την αποχώρησή του.
+* **Μη δομημένα**
+ - **Κείμενα** μπορούν να αποτελέσουν πλούσια πηγή πληροφοριών, όπως συνολική **βαθμολογία συναισθήματος** ή εξαγωγή λέξεων-κλειδιών και σημασιολογικού νοήματος.
+ - **Εικόνες** ή **Βίντεο**. Ένα βίντεο από μια κάμερα παρακολούθησης μπορεί να χρησιμοποιηθεί για να εκτιμήσει την κυκλοφορία στον δρόμο και να ενημερώσει τους ανθρώπους για πιθανές κυκλοφοριακές συμφόρησεις.
+ - **Αρχεία καταγραφής** από διακομιστές ιστού μπορούν να χρησιμοποιηθούν για να κατανοήσουμε ποιες σελίδες του ιστότοπού μας επισκέπτονται πιο συχνά και για πόσο χρόνο.
+* Ημι-δομημένα
+ - **Γραφήματα κοινωνικών δικτύων** μπορούν να αποτελέσουν εξαιρετικές πηγές δεδομένων για τις προσωπικότητες των χρηστών και την πιθανή αποτελεσματικότητα στη διάδοση πληροφοριών.
+ - Όταν έχουμε μια συλλογή φωτογραφιών από ένα πάρτι, μπορούμε να προσπαθήσουμε να εξαγάγουμε δεδομένα **ομαδικής δυναμικής** δημιουργώντας ένα γράφημα ανθρώπων που βγάζουν φωτογραφίες μαζί.
+
+Γνωρίζοντας τις διάφορες πιθανές πηγές δεδομένων, μπορείτε να σκεφτείτε διαφορετικά σενάρια όπου οι τεχνικές επιστήμης δεδομένων μπορούν να εφαρμοστούν για να κατανοήσετε καλύτερα την κατάσταση και να βελτιώσετε τις επιχειρηματικές διαδικασίες.
+
+## Τι μπορείτε να κάνετε με τα Δεδομένα
+
+Στην Επιστήμη Δεδομένων, εστιάζουμε στα εξής βήματα της πορείας των δεδομένων:
+
+Φυσικά, ανάλογα με τα δεδομένα, κάποια βήματα μπορεί να λείπουν (π.χ., όταν έχουμε ήδη τα δεδομένα στη βάση δεδομένων ή όταν δεν χρειάζεται εκπαίδευση μοντέλου), ή κάποια βήματα μπορεί να επαναληφθούν αρκετές φορές (όπως η επεξεργασία δεδομένων).
+
+## Ψηφιοποίηση και Ψηφιακός Μετασχηματισμός
+
+Την τελευταία δεκαετία, πολλές επιχειρήσεις άρχισαν να κατανοούν τη σημασία των δεδομένων στη λήψη επιχειρηματικών αποφάσεων. Για να εφαρμόσει κανείς τις αρχές της επιστήμης δεδομένων στη λειτουργία μιας επιχείρησης, πρέπει πρώτα να συλλέξει κάποια δεδομένα, δηλαδή να μετατρέψει τις επιχειρηματικές διαδικασίες σε ψηφιακή μορφή. Αυτό είναι γνωστό ως **ψηφιοποίηση**. Η εφαρμογή τεχνικών επιστήμης δεδομένων σε αυτά τα δεδομένα για τη λήψη αποφάσεων μπορεί να οδηγήσει σε σημαντικές αυξήσεις παραγωγικότητας (ή ακόμα και σε αλλαγή κατεύθυνσης της επιχείρησης), που ονομάζεται **ψηφιακός μετασχηματισμός**.
+
+Ας εξετάσουμε ένα παράδειγμα. Ας υποθέσουμε ότι έχουμε ένα μάθημα επιστήμης δεδομένων (όπως αυτό) που παραδίδουμε διαδικτυακά στους φοιτητές και θέλουμε να χρησιμοποιήσουμε την επιστήμη δεδομένων για να το βελτιώσουμε. Πώς μπορούμε να το κάνουμε;
+
+Μπορούμε να ξεκινήσουμε ρωτώντας "Τι μπορεί να ψηφιοποιηθεί;" Ο απλούστερος τρόπος θα ήταν να μετρήσουμε τον χρόνο που χρειάζεται κάθε φοιτητής για να ολοκληρώσει κάθε ενότητα και να μετρήσουμε τη γνώση που αποκτήθηκε δίνοντας ένα τεστ πολλαπλών επιλογών στο τέλος κάθε ενότητας. Με τον μέσο όρο του χρόνου ολοκλήρωσης όλων των φοιτητών, μπορούμε να εντοπίσουμε ποιες ενότητες προκαλούν τις μεγαλύτερες δυσκολίες στους φοιτητές και να εργαστούμε για την απλοποίησή τους.
+Μπορείτε να υποστηρίξετε ότι αυτή η προσέγγιση δεν είναι ιδανική, επειδή τα modules μπορεί να έχουν διαφορετικά μήκη. Ίσως είναι πιο δίκαιο να διαιρέσετε τον χρόνο με το μήκος του module (σε αριθμό χαρακτήρων) και να συγκρίνετε αυτές τις τιμές αντί για αυτό.
+Όταν ξεκινάμε να αναλύουμε τα αποτελέσματα από τεστ πολλαπλών επιλογών, μπορούμε να προσπαθήσουμε να προσδιορίσουμε ποιες έννοιες δυσκολεύονται να κατανοήσουν οι μαθητές και να χρησιμοποιήσουμε αυτές τις πληροφορίες για να βελτιώσουμε το περιεχόμενο. Για να το πετύχουμε αυτό, πρέπει να σχεδιάσουμε τα τεστ με τέτοιο τρόπο ώστε κάθε ερώτηση να αντιστοιχεί σε μια συγκεκριμένη έννοια ή κομμάτι γνώσης.
+
+Αν θέλουμε να γίνουμε ακόμα πιο περίπλοκοι, μπορούμε να σχεδιάσουμε τον χρόνο που απαιτείται για κάθε ενότητα σε σχέση με την ηλικιακή κατηγορία των μαθητών. Ίσως ανακαλύψουμε ότι για ορισμένες ηλικιακές κατηγορίες απαιτείται υπερβολικά πολύς χρόνος για την ολοκλήρωση της ενότητας ή ότι οι μαθητές εγκαταλείπουν πριν την ολοκληρώσουν. Αυτό μπορεί να μας βοηθήσει να παρέχουμε συστάσεις ηλικίας για την ενότητα και να ελαχιστοποιήσουμε τη δυσαρέσκεια των ανθρώπων από λανθασμένες προσδοκίες.
+
+## 🚀 Πρόκληση
+
+Σε αυτή την πρόκληση, θα προσπαθήσουμε να βρούμε έννοιες που σχετίζονται με τον τομέα της Επιστήμης Δεδομένων εξετάζοντας κείμενα. Θα πάρουμε ένα άρθρο της Wikipedia για την Επιστήμη Δεδομένων, θα κατεβάσουμε και θα επεξεργαστούμε το κείμενο, και στη συνέχεια θα δημιουργήσουμε ένα σύννεφο λέξεων όπως αυτό:
+
+
+
+Επισκεφθείτε το [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') για να διαβάσετε τον κώδικα. Μπορείτε επίσης να εκτελέσετε τον κώδικα και να δείτε πώς πραγματοποιεί όλες τις μετατροπές δεδομένων σε πραγματικό χρόνο.
+
+> Αν δεν γνωρίζετε πώς να εκτελέσετε κώδικα σε ένα Jupyter Notebook, ρίξτε μια ματιά σε [αυτό το άρθρο](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Εργασίες
+
+* **Εργασία 1**: Τροποποιήστε τον παραπάνω κώδικα για να βρείτε σχετικές έννοιες για τους τομείς του **Big Data** και της **Μηχανικής Μάθησης**
+* **Εργασία 2**: [Σκεφτείτε Σενάρια Επιστήμης Δεδομένων](assignment.md)
+
+## Πιστώσεις
+
+Αυτό το μάθημα έχει δημιουργηθεί με ♥️ από τον [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/01-defining-data-science/assignment.md b/translations/el/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..6b32f33f
--- /dev/null
+++ b/translations/el/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Ανάθεση: Σενάρια Επιστήμης Δεδομένων
+
+Σε αυτή την πρώτη ανάθεση, σας ζητάμε να σκεφτείτε μια πραγματική διαδικασία ή πρόβλημα σε διαφορετικούς τομείς προβλημάτων και πώς μπορείτε να το βελτιώσετε χρησιμοποιώντας τη διαδικασία της Επιστήμης Δεδομένων. Σκεφτείτε τα εξής:
+
+1. Ποια δεδομένα μπορείτε να συλλέξετε;
+1. Πώς θα τα συλλέγατε;
+1. Πώς θα αποθηκεύατε τα δεδομένα; Πόσο μεγάλα είναι πιθανό να είναι τα δεδομένα;
+1. Ποια συμπεράσματα μπορείτε να εξάγετε από αυτά τα δεδομένα; Ποιες αποφάσεις θα μπορούσαμε να πάρουμε με βάση τα δεδομένα;
+
+Προσπαθήστε να σκεφτείτε 3 διαφορετικά προβλήματα/διαδικασίες και να περιγράψετε κάθε ένα από τα παραπάνω σημεία για κάθε τομέα προβλήματος.
+
+Ακολουθούν μερικοί τομείς προβλημάτων και προβλήματα που μπορούν να σας βοηθήσουν να ξεκινήσετε να σκέφτεστε:
+
+1. Πώς μπορείτε να χρησιμοποιήσετε δεδομένα για να βελτιώσετε τη διαδικασία εκπαίδευσης των παιδιών στα σχολεία;
+1. Πώς μπορείτε να χρησιμοποιήσετε δεδομένα για να ελέγξετε τον εμβολιασμό κατά τη διάρκεια της πανδημίας;
+1. Πώς μπορείτε να χρησιμοποιήσετε δεδομένα για να διασφαλίσετε ότι είστε παραγωγικοί στη δουλειά;
+
+## Οδηγίες
+
+Συμπληρώστε τον παρακάτω πίνακα (αντικαταστήστε τους προτεινόμενους τομείς προβλημάτων με δικούς σας αν χρειάζεται):
+
+| Τομέας Προβλήματος | Πρόβλημα | Ποια δεδομένα να συλλέξετε | Πώς να αποθηκεύσετε τα δεδομένα | Ποια συμπεράσματα/αποφάσεις μπορούμε να πάρουμε |
+|---------------------|----------|---------------------------|-------------------------------|-----------------------------------------------|
+| Εκπαίδευση | | | | |
+| Εμβολιασμός | | | | |
+| Παραγωγικότητα | | | | |
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Ο μαθητής μπόρεσε να εντοπίσει λογικές πηγές δεδομένων, τρόπους αποθήκευσης δεδομένων και πιθανές αποφάσεις/συμπεράσματα για όλους τους τομείς προβλημάτων | Μερικές πτυχές της λύσης δεν είναι λεπτομερείς, η αποθήκευση δεδομένων δεν συζητείται, τουλάχιστον 2 τομείς προβλημάτων περιγράφονται | Περιγράφονται μόνο μέρη της λύσης δεδομένων, εξετάζεται μόνο ένας τομέας προβλήματος.
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/el/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..2caa7177
--- /dev/null
+++ b/translations/el/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Ανάθεση: Σενάρια Επιστήμης Δεδομένων
+
+Σε αυτή την πρώτη ανάθεση, σας ζητάμε να σκεφτείτε μια πραγματική διαδικασία ή πρόβλημα σε διαφορετικούς τομείς προβλημάτων και πώς μπορείτε να το βελτιώσετε χρησιμοποιώντας τη διαδικασία της Επιστήμης Δεδομένων. Σκεφτείτε τα εξής:
+
+1. Ποια δεδομένα μπορείτε να συλλέξετε;
+1. Πώς θα τα συλλέγατε;
+1. Πώς θα αποθηκεύατε τα δεδομένα; Πόσο μεγάλα είναι πιθανό να είναι τα δεδομένα;
+1. Ποια συμπεράσματα μπορείτε να εξάγετε από αυτά τα δεδομένα; Ποιες αποφάσεις θα μπορούσαμε να πάρουμε βάσει αυτών των δεδομένων;
+
+Προσπαθήστε να σκεφτείτε 3 διαφορετικά προβλήματα/διαδικασίες και να περιγράψετε κάθε ένα από τα παραπάνω σημεία για κάθε τομέα προβλήματος.
+
+Ακολουθούν μερικοί τομείς προβλημάτων και προβλήματα που μπορούν να σας βοηθήσουν να ξεκινήσετε να σκέφτεστε:
+
+1. Πώς μπορείτε να χρησιμοποιήσετε δεδομένα για να βελτιώσετε τη διαδικασία εκπαίδευσης των παιδιών στα σχολεία;
+1. Πώς μπορείτε να χρησιμοποιήσετε δεδομένα για να ελέγξετε τον εμβολιασμό κατά τη διάρκεια της πανδημίας;
+1. Πώς μπορείτε να χρησιμοποιήσετε δεδομένα για να διασφαλίσετε ότι είστε παραγωγικοί στη δουλειά;
+
+## Οδηγίες
+
+Συμπληρώστε τον παρακάτω πίνακα (αντικαταστήστε τους προτεινόμενους τομείς προβλημάτων με δικούς σας αν χρειάζεται):
+
+| Τομέας Προβλήματος | Πρόβλημα | Ποια δεδομένα να συλλέξετε | Πώς να αποθηκεύσετε τα δεδομένα | Ποια συμπεράσματα/αποφάσεις μπορούμε να πάρουμε |
+|--------------------|----------|---------------------------|-------------------------------|-----------------------------------------------|
+| Εκπαίδευση | Στο πανεπιστήμιο, συνήθως έχουμε χαμηλή προσέλευση στις διαλέξεις, και έχουμε την υπόθεση ότι οι φοιτητές που παρακολουθούν διαλέξεις κατά μέσο όρο τα πηγαίνουν καλύτερα στις εξετάσεις. Θέλουμε να ενθαρρύνουμε την προσέλευση και να δοκιμάσουμε την υπόθεση. | Μπορούμε να παρακολουθούμε την προσέλευση μέσω φωτογραφιών που λαμβάνονται από την κάμερα ασφαλείας στην αίθουσα ή παρακολουθώντας τις διευθύνσεις bluetooth/wifi των κινητών τηλεφώνων των φοιτητών στην αίθουσα. Τα δεδομένα εξετάσεων είναι ήδη διαθέσιμα στη βάση δεδομένων του πανεπιστημίου. | Στην περίπτωση που παρακολουθούμε εικόνες από κάμερες ασφαλείας - πρέπει να αποθηκεύσουμε μερικές (5-10) φωτογραφίες κατά τη διάρκεια της διάλεξης (μη δομημένα δεδομένα) και στη συνέχεια να χρησιμοποιήσουμε AI για να αναγνωρίσουμε πρόσωπα φοιτητών (μετατροπή δεδομένων σε δομημένη μορφή). | Μπορούμε να υπολογίσουμε τα μέσες τιμές προσέλευσης για κάθε φοιτητή και να δούμε αν υπάρχει κάποια συσχέτιση με τους βαθμούς εξετάσεων. Θα μιλήσουμε περισσότερο για τη συσχέτιση στην ενότητα [πιθανότητες και στατιστική](../../04-stats-and-probability/README.md). Για να ενθαρρύνουμε την προσέλευση των φοιτητών, μπορούμε να δημοσιεύουμε την εβδομαδιαία κατάταξη προσέλευσης στην πύλη του πανεπιστημίου και να κληρώνουμε βραβεία μεταξύ αυτών με την υψηλότερη προσέλευση. |
+| Εμβολιασμός | | | | |
+| Παραγωγικότητα | | | | |
+
+> *Παρέχουμε μόνο μία απάντηση ως παράδειγμα, ώστε να κατανοήσετε τι αναμένεται σε αυτή την ανάθεση.*
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Ο μαθητής μπόρεσε να εντοπίσει λογικές πηγές δεδομένων, τρόπους αποθήκευσης δεδομένων και πιθανά συμπεράσματα/αποφάσεις για όλους τους τομείς προβλημάτων | Ορισμένες πτυχές της λύσης δεν είναι λεπτομερείς, η αποθήκευση δεδομένων δεν συζητείται, τουλάχιστον 2 τομείς προβλημάτων περιγράφονται | Περιγράφονται μόνο μέρη της λύσης δεδομένων, εξετάζεται μόνο ένας τομέας προβλήματος.
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/02-ethics/README.md b/translations/el/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..5d1c5faf
--- /dev/null
+++ b/translations/el/1-Introduction/02-ethics/README.md
@@ -0,0 +1,222 @@
+
+# Εισαγωγή στην Ηθική των Δεδομένων
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Ηθική της Επιστήμης Δεδομένων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Είμαστε όλοι πολίτες δεδομένων που ζούμε σε έναν κόσμο γεμάτο δεδομένα.
+
+Οι τάσεις της αγοράς μας λένε ότι μέχρι το 2022, 1 στις 3 μεγάλες οργανώσεις θα αγοράζει και θα πουλά τα δεδομένα της μέσω διαδικτυακών [Αγορών και Ανταλλακτηρίων](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Ως **Προγραμματιστές Εφαρμογών**, θα βρίσκουμε πιο εύκολο και οικονομικό να ενσωματώνουμε πληροφορίες που βασίζονται σε δεδομένα και αυτοματισμούς που βασίζονται σε αλγορίθμους στις καθημερινές εμπειρίες των χρηστών. Αλλά καθώς η Τεχνητή Νοημοσύνη (AI) γίνεται πανταχού παρούσα, θα πρέπει επίσης να κατανοήσουμε τις πιθανές βλάβες που προκαλούνται από τη [χρήση της ως όπλο](https://www.youtube.com/watch?v=TQHs8SA1qpk) σε μεγάλη κλίμακα.
+
+Οι τάσεις δείχνουν επίσης ότι θα δημιουργήσουμε και θα καταναλώσουμε πάνω από [180 zettabytes](https://www.statista.com/statistics/871513/worldwide-data-created/) δεδομένων μέχρι το 2025. Ως **Επιστήμονες Δεδομένων**, αυτό μας δίνει πρωτοφανή επίπεδα πρόσβασης σε προσωπικά δεδομένα. Αυτό σημαίνει ότι μπορούμε να δημιουργήσουμε προφίλ συμπεριφοράς χρηστών και να επηρεάσουμε τη λήψη αποφάσεων με τρόπους που δημιουργούν μια [ψευδαίσθηση ελεύθερης επιλογής](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), ενώ ενδεχομένως κατευθύνουμε τους χρήστες προς αποτελέσματα που προτιμούμε. Αυτό εγείρει επίσης ευρύτερα ερωτήματα σχετικά με την ιδιωτικότητα των δεδομένων και την προστασία των χρηστών.
+
+Η ηθική των δεδομένων είναι πλέον _απαραίτητοι κανόνες ασφαλείας_ για την επιστήμη και τη μηχανική των δεδομένων, βοηθώντας μας να ελαχιστοποιήσουμε τις πιθανές βλάβες και τις ακούσιες συνέπειες από τις ενέργειές μας που βασίζονται σε δεδομένα. Ο [Κύκλος Υπερβολής της Gartner για την AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) αναγνωρίζει σχετικές τάσεις στην ψηφιακή ηθική, την υπεύθυνη AI και τη διακυβέρνηση της AI ως βασικούς παράγοντες για μεγαλύτερες τάσεις γύρω από τη _δημοκρατικοποίηση_ και τη _βιομηχανοποίηση_ της AI.
+
+
+
+Σε αυτό το μάθημα, θα εξερευνήσουμε τον συναρπαστικό τομέα της ηθικής των δεδομένων - από βασικές έννοιες και προκλήσεις, μέχρι μελέτες περιπτώσεων και εφαρμοσμένες έννοιες AI όπως η διακυβέρνηση - που βοηθούν στη δημιουργία μιας κουλτούρας ηθικής στις ομάδες και τους οργανισμούς που εργάζονται με δεδομένα και AI.
+
+
+
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Βασικοί Ορισμοί
+
+Ας ξεκινήσουμε κατανοώντας τη βασική ορολογία.
+
+Η λέξη "ηθική" προέρχεται από την [ελληνική λέξη "ηθικός"](https://en.wikipedia.org/wiki/Ethics) (και τη ρίζα της "ήθος") που σημαίνει _χαρακτήρας ή ηθική φύση_.
+
+**Ηθική** αφορά τις κοινές αξίες και ηθικές αρχές που διέπουν τη συμπεριφορά μας στην κοινωνία. Η ηθική δεν βασίζεται σε νόμους αλλά σε ευρέως αποδεκτούς κανόνες για το τι είναι "σωστό έναντι λάθους". Ωστόσο, οι ηθικές εκτιμήσεις μπορούν να επηρεάσουν πρωτοβουλίες εταιρικής διακυβέρνησης και κυβερνητικούς κανονισμούς που δημιουργούν περισσότερα κίνητρα για συμμόρφωση.
+
+**Ηθική των Δεδομένων** είναι ένας [νέος κλάδος της ηθικής](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) που "μελετά και αξιολογεί ηθικά προβλήματα που σχετίζονται με _δεδομένα, αλγορίθμους και αντίστοιχες πρακτικές_". Εδώ, **"δεδομένα"** εστιάζουν σε ενέργειες που σχετίζονται με τη δημιουργία, καταγραφή, επιμέλεια, επεξεργασία, διάδοση, κοινή χρήση και χρήση, **"αλγόριθμοι"** εστιάζουν στην AI, τους πράκτορες, τη μηχανική μάθηση και τα ρομπότ, και **"πρακτικές"** εστιάζουν σε θέματα όπως η υπεύθυνη καινοτομία, ο προγραμματισμός, το hacking και οι κώδικες ηθικής.
+
+**Εφαρμοσμένη Ηθική** είναι η [πρακτική εφαρμογή ηθικών εκτιμήσεων](https://en.wikipedia.org/wiki/Applied_ethics). Είναι η διαδικασία ενεργής διερεύνησης ηθικών ζητημάτων στο πλαίσιο _πραγματικών ενεργειών, προϊόντων και διαδικασιών_ και η λήψη διορθωτικών μέτρων για να διασφαλιστεί ότι παραμένουν ευθυγραμμισμένα με τις καθορισμένες ηθικές μας αξίες.
+
+**Κουλτούρα Ηθικής** αφορά την [_επιχειρησιακή εφαρμογή_ της εφαρμοσμένης ηθικής](https://hbr.org/2019/05/how-to-design-an-ethical-organization) για να διασφαλιστεί ότι οι ηθικές μας αρχές και πρακτικές υιοθετούνται με συνέπεια και κλίμακα σε ολόκληρο τον οργανισμό. Οι επιτυχημένες κουλτούρες ηθικής ορίζουν ηθικές αρχές σε επίπεδο οργανισμού, παρέχουν ουσιαστικά κίνητρα για συμμόρφωση και ενισχύουν τους κανόνες ηθικής ενθαρρύνοντας και ενισχύοντας τις επιθυμητές συμπεριφορές σε κάθε επίπεδο του οργανισμού.
+
+
+## Έννοιες Ηθικής
+
+Σε αυτή την ενότητα, θα συζητήσουμε έννοιες όπως **κοινές αξίες** (αρχές) και **ηθικές προκλήσεις** (προβλήματα) για την ηθική των δεδομένων - και θα εξερευνήσουμε **μελέτες περιπτώσεων** που σας βοηθούν να κατανοήσετε αυτές τις έννοιες σε πραγματικά πλαίσια.
+
+### 1. Αρχές Ηθικής
+
+Κάθε στρατηγική ηθικής δεδομένων ξεκινά με τον ορισμό των _ηθικών αρχών_ - των "κοινών αξιών" που περιγράφουν αποδεκτές συμπεριφορές και καθοδηγούν συμμορφούμενες ενέργειες στα έργα δεδομένων και AI. Μπορείτε να τις ορίσετε σε ατομικό ή ομαδικό επίπεδο. Ωστόσο, οι περισσότερες μεγάλες οργανώσεις τις περιγράφουν σε μια δήλωση αποστολής ή πλαίσιο _ηθικής AI_ που ορίζεται σε εταιρικό επίπεδο και εφαρμόζεται με συνέπεια σε όλες τις ομάδες.
+
+**Παράδειγμα:** Η δήλωση αποστολής της Microsoft για την [Υπεύθυνη AI](https://www.microsoft.com/en-us/ai/responsible-ai) αναφέρει: _"Δεσμευόμαστε για την προώθηση της AI που καθοδηγείται από ηθικές αρχές που βάζουν τους ανθρώπους πρώτα"_ - προσδιορίζοντας 6 ηθικές αρχές στο παρακάτω πλαίσιο:
+
+
+
+Ας εξερευνήσουμε σύντομα αυτές τις αρχές. _Η διαφάνεια_ και _η λογοδοσία_ είναι θεμελιώδεις αξίες πάνω στις οποίες βασίζονται οι υπόλοιπες αρχές - ας ξεκινήσουμε από εκεί:
+
+* [**Λογοδοσία**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) καθιστά τους επαγγελματίες _υπεύθυνους_ για τις λειτουργίες δεδομένων και AI τους, καθώς και για τη συμμόρφωση με αυτές τις ηθικές αρχές.
+* [**Διαφάνεια**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) διασφαλίζει ότι οι ενέργειες δεδομένων και AI είναι _κατανοητές_ (ερμηνεύσιμες) από τους χρήστες, εξηγώντας το τι και το γιατί πίσω από τις αποφάσεις.
+* [**Δικαιοσύνη**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - εστιάζει στη διασφάλιση ότι η AI αντιμετωπίζει _όλους τους ανθρώπους_ δίκαια, αντιμετωπίζοντας τυχόν συστημικές ή έμφυτες κοινωνικοτεχνικές προκαταλήψεις στα δεδομένα και τα συστήματα.
+* [**Αξιοπιστία & Ασφάλεια**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - διασφαλίζει ότι η AI συμπεριφέρεται _συνεπώς_ με καθορισμένες αξίες, ελαχιστοποιώντας πιθανές βλάβες ή ακούσιες συνέπειες.
+* [**Ιδιωτικότητα & Ασφάλεια**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - αφορά την κατανόηση της προέλευσης των δεδομένων και την παροχή _προστασίας ιδιωτικότητας δεδομένων_ στους χρήστες.
+* [**Συμπερίληψη**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - αφορά το σχεδιασμό λύσεων AI με πρόθεση, προσαρμόζοντάς τες ώστε να καλύπτουν ένα _ευρύ φάσμα ανθρώπινων αναγκών_ και δυνατοτήτων.
+
+> 🚨 Σκεφτείτε ποια θα μπορούσε να είναι η δήλωση αποστολής σας για την ηθική των δεδομένων. Εξερευνήστε πλαίσια ηθικής AI από άλλους οργανισμούς - εδώ είναι παραδείγματα από [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), και [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Ποιες κοινές αξίες έχουν; Πώς σχετίζονται αυτές οι αρχές με το προϊόν AI ή τη βιομηχανία στην οποία δραστηριοποιούνται;
+
+### 2. Προκλήσεις Ηθικής
+
+Αφού ορίσουμε τις ηθικές αρχές, το επόμενο βήμα είναι να αξιολογήσουμε τις ενέργειες δεδομένων και AI για να δούμε αν ευθυγραμμίζονται με αυτές τις κοινές αξίες. Σκεφτείτε τις ενέργειές σας σε δύο κατηγορίες: _συλλογή δεδομένων_ και _σχεδιασμός αλγορίθμων_.
+
+Με τη συλλογή δεδομένων, οι ενέργειες πιθανότατα θα περιλαμβάνουν **προσωπικά δεδομένα** ή προσωπικά αναγνωρίσιμες πληροφορίες (PII) για αναγνωρίσιμα ζωντανά άτομα. Αυτό περιλαμβάνει [διάφορα στοιχεία μη προσωπικών δεδομένων](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) που _συλλογικά_ αναγνωρίζουν ένα άτομο. Οι ηθικές προκλήσεις μπορεί να σχετίζονται με _ιδιωτικότητα δεδομένων_, _ιδιοκτησία δεδομένων_ και συναφή θέματα όπως η _ενημερωμένη συγκατάθεση_ και τα _δικαιώματα πνευματικής ιδιοκτησίας_ για τους χρήστες.
+
+Με το σχεδιασμό αλγορίθμων, οι ενέργειες θα περιλαμβάνουν τη συλλογή και επιμέλεια **συνόλων δεδομένων**, και στη συνέχεια τη χρήση τους για την εκπαίδευση και ανάπτυξη **μοντέλων δεδομένων** που προβλέπουν αποτελέσματα ή αυτοματοποιούν αποφάσεις σε πραγματικά πλαίσια. Οι ηθικές προκλήσεις μπορεί να προκύψουν από _προκατάληψη συνόλου δεδομένων_, _ζητήματα ποιότητας δεδομένων_, _αδικία_ και _παραπλάνηση_ στους αλγορίθμους - συμπεριλαμβανομένων ορισμένων ζητημάτων που είναι συστημικής φύσης.
+
+Σε αμφότερες τις περιπτώσεις, οι προκλήσεις ηθικής αναδεικνύουν περιοχές όπου οι ενέργειές μας ενδέχεται να έρχονται σε σύγκρουση με τις κοινές μας αξίες. Για να ανιχνεύσουμε, να μετριάσουμε, να ελαχιστοποιήσουμε ή να εξαλείψουμε αυτές τις ανησυχίες - πρέπει να κάνουμε ηθικές ερωτήσεις "ναι/όχι" σχετικά με τις ενέργειές μας και στη συνέχεια να λάβουμε διορθωτικές ενέργειες όπως απαιτείται. Ας δούμε μερικές ηθικές προκλήσεις και τις ηθικές ερωτήσεις που εγείρουν:
+
+
+#### 2.1 Ιδιοκτησία Δεδομένων
+
+Η συλλογή δεδομένων συχνά περιλαμβάνει προσωπικά δεδομένα που μπορούν να αναγνωρίσουν τα υποκείμενα των δεδομένων. [Η ιδιοκτησία δεδομένων](https://permission.io/blog/data-ownership) αφορά τον _έλεγχο_ και τα [_δικαιώματα χρηστών_](https://permission.io/blog/data-ownership) που σχετίζονται με τη δημιουργία, επεξεργασία και διάδοση δεδομένων.
+
+Οι ηθικές ερωτήσεις που πρέπει να κάνουμε είναι:
+ * Ποιος κατέχει τα δεδομένα; (χρήστης ή οργανισμός)
+ * Ποια δικαιώματα έχουν τα υποκείμενα των δεδομένων; (π.χ. πρόσβαση, διαγραφή, φορητότητα)
+ * Ποια δικαιώματα έχουν οι οργανισμοί; (π.χ. διόρθωση κακόβουλων κριτικών χρηστών)
+
+#### 2.2 Ενημερωμένη Συγκατάθεση
+
+[Η ενημερωμένη συγκατάθεση](https://legaldictionary.net/informed-consent/) ορίζει την πράξη των χρηστών να συμφωνούν σε μια ενέργεια (όπως η συλλογή δεδομένων) με _πλήρη κατανόηση_ των σχετικών γεγονότων, συμπεριλαμβανομένου του σκοπού, των πιθανών κινδύνων και των εναλλακτικών.
+
+Ερωτήσεις που πρέπει να εξεταστούν εδώ είναι:
+ * Έδωσε ο χρήστης (υποκείμενο δεδομένων) άδεια για τη συλλογή και χρήση δεδομένων;
+ * Κατάλαβε ο χρήστης τον σκοπό για τον οποίο συλλέχθηκαν τα δεδομένα;
+ * Κατάλαβε ο χρήστης τους πιθανούς κινδύνους από τη συμμετοχή του;
+
+#### 2.3 Πνευματική Ιδιοκτησία
+
+[Η πνευματική ιδιοκτησία](https://en.wikipedia.org/wiki/Intellectual_property) αναφέρεται σε άυτες δημιουργίες που προκύπτουν από ανθρώπινη πρωτοβουλία, οι οποίες μπορεί να _έχουν οικονομική αξία_ για άτομα ή επιχειρήσεις.
+
+Ερωτήσεις που πρέπει να εξεταστούν εδώ είναι:
+ * Είχαν τα συλλεχθέντα δεδομένα οικονομική αξία για έναν χρήστη ή μια επιχείρηση;
+ * Έχει ο **χρήστης** πνευματική ιδιοκτησία εδώ;
+ * Έχει ο **οργανισμός** πνευματική ιδιοκτησία εδώ;
+ * Αν υπάρχουν αυτά τα δικαιώματα, πώς τα προστατεύουμε;
+
+#### 2.4 Ιδιωτικότητα Δεδομένων
+
+[Η ιδιωτικότητα δεδομένων](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) ή η ιδιωτικότητα πληροφοριών αναφέρεται στη διατήρηση της ιδιωτικότητας των
+[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) ελέγχει αν ο σχεδιασμός του αλγορίθμου συστηματικά εισάγει διακρίσεις εναντίον συγκεκριμένων υποομάδων υποκειμένων δεδομένων, οδηγώντας σε [πιθανές βλάβες](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) στην _κατανομή_ (όπου πόροι αρνούνται ή παρακρατούνται από αυτήν την ομάδα) και στην _ποιότητα υπηρεσιών_ (όπου η ακρίβεια της AI δεν είναι ίδια για όλες τις υποομάδες).
+
+Ερωτήσεις για διερεύνηση εδώ:
+ * Αξιολογήσαμε την ακρίβεια του μοντέλου για διαφορετικές υποομάδες και συνθήκες;
+ * Εξετάσαμε το σύστημα για πιθανές βλάβες (π.χ., στερεότυπα);
+ * Μπορούμε να αναθεωρήσουμε δεδομένα ή να επανεκπαιδεύσουμε μοντέλα για να μετριάσουμε τις εντοπισμένες βλάβες;
+
+Εξερευνήστε πόρους όπως [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) για να μάθετε περισσότερα.
+
+#### 2.9 Παραπλάνηση
+
+[Παραπλάνηση δεδομένων](https://www.sciencedirect.com/topics/computer-science/misrepresentation) αφορά το ερώτημα αν επικοινωνούμε πληροφορίες από ειλικρινώς αναφερόμενα δεδομένα με τρόπο που παραπλανά για να υποστηρίξουμε μια επιθυμητή αφήγηση.
+
+Ερωτήσεις για διερεύνηση εδώ:
+ * Αναφέρουμε ελλιπή ή ανακριβή δεδομένα;
+ * Οπτικοποιούμε δεδομένα με τρόπο που οδηγεί σε παραπλανητικά συμπεράσματα;
+ * Χρησιμοποιούμε επιλεκτικές στατιστικές τεχνικές για να χειραγωγήσουμε αποτελέσματα;
+ * Υπάρχουν εναλλακτικές εξηγήσεις που μπορεί να προσφέρουν διαφορετικό συμπέρασμα;
+
+#### 2.10 Ελεύθερη Επιλογή
+Η [Ψευδαίσθηση της Ελεύθερης Επιλογής](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) συμβαίνει όταν οι "αρχιτεκτονικές επιλογών" του συστήματος χρησιμοποιούν αλγορίθμους λήψης αποφάσεων για να ωθήσουν τους ανθρώπους προς ένα προτιμώμενο αποτέλεσμα, ενώ φαίνεται ότι τους δίνουν επιλογές και έλεγχο. Αυτά τα [σκοτεινά μοτίβα](https://www.darkpatterns.org/) μπορούν να προκαλέσουν κοινωνική και οικονομική βλάβη στους χρήστες. Επειδή οι αποφάσεις των χρηστών επηρεάζουν τα προφίλ συμπεριφοράς, αυτές οι ενέργειες ενδέχεται να οδηγήσουν σε μελλοντικές επιλογές που μπορούν να ενισχύσουν ή να επεκτείνουν τον αντίκτυπο αυτών των βλαβών.
+
+Ερωτήσεις για διερεύνηση εδώ:
+ * Κατάλαβε ο χρήστης τις συνέπειες της επιλογής που έκανε;
+ * Ήταν ο χρήστης ενήμερος για (εναλλακτικές) επιλογές και τα πλεονεκτήματα & μειονεκτήματα της κάθε μίας;
+ * Μπορεί ο χρήστης να αναιρέσει μια αυτοματοποιημένη ή επηρεασμένη επιλογή αργότερα;
+
+### 3. Μελέτες Περίπτωσης
+
+Για να τοποθετήσουμε αυτές τις ηθικές προκλήσεις σε πραγματικά πλαίσια, βοηθά να εξετάσουμε μελέτες περίπτωσης που αναδεικνύουν τις πιθανές βλάβες και συνέπειες για άτομα και την κοινωνία, όταν παραβιάσεις ηθικής παραβλέπονται.
+
+Ακολουθούν μερικά παραδείγματα:
+
+| Ηθική Πρόκληση | Μελέτη Περίπτωσης |
+|--- |--- |
+| **Ενημερωμένη Συναίνεση** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Αφροαμερικανοί άνδρες που συμμετείχαν στη μελέτη υποσχέθηκαν δωρεάν ιατρική περίθαλψη _αλλά εξαπατήθηκαν_ από ερευνητές που δεν ενημέρωσαν τους συμμετέχοντες για τη διάγνωσή τους ή για τη διαθεσιμότητα θεραπείας. Πολλοί συμμετέχοντες πέθαναν και οι σύντροφοι ή τα παιδιά τους επηρεάστηκαν. Η μελέτη διήρκεσε 40 χρόνια. |
+| **Ιδιωτικότητα Δεδομένων** | 2007 - Το [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) παρείχε στους ερευνητές _10 εκατομμύρια ανωνυμοποιημένες βαθμολογίες ταινιών από 50.000 πελάτες_ για να βοηθήσουν στη βελτίωση των αλγορίθμων συστάσεων. Ωστόσο, οι ερευνητές μπόρεσαν να συσχετίσουν ανωνυμοποιημένα δεδομένα με προσωπικά δεδομένα σε _εξωτερικές βάσεις δεδομένων_ (π.χ., σχόλια IMDb), ουσιαστικά "απο-ανωνυμοποιώντας" ορισμένους συνδρομητές του Netflix.|
+| **Προκατάληψη Συλλογής Δεδομένων** | 2013 - Η πόλη της Βοστώνης [ανέπτυξε το Street Bump](https://www.boston.gov/transportation/street-bump), μια εφαρμογή που επέτρεπε στους πολίτες να αναφέρουν λακκούβες, παρέχοντας στην πόλη καλύτερα δεδομένα για τους δρόμους. Ωστόσο, [άτομα με χαμηλότερα εισοδήματα είχαν λιγότερη πρόσβαση σε αυτοκίνητα και τηλέφωνα](https://hbr.org/2013/04/the-hidden-biases-in-big-data), καθιστώντας τα προβλήματα των δρόμων τους αόρατα στην εφαρμογή. Οι προγραμματιστές συνεργάστηκαν με ακαδημαϊκούς για να αντιμετωπίσουν ζητήματα _ισότιμης πρόσβασης και ψηφιακών αποκλεισμών_ για δικαιοσύνη. |
+| **Δικαιοσύνη Αλγορίθμων** | 2018 - Η MIT [Gender Shades Study](http://gendershades.org/overview.html) αξιολόγησε την ακρίβεια των προϊόντων AI ταξινόμησης φύλου, αποκαλύπτοντας κενά στην ακρίβεια για γυναίκες και άτομα με χρώμα. Μια [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) φάνηκε να προσφέρει λιγότερη πίστωση στις γυναίκες από ό,τι στους άνδρες. Και τα δύο παραδείγματα ανέδειξαν ζητήματα προκατάληψης αλγορίθμων που οδηγούν σε κοινωνικοοικονομικές βλάβες.|
+| **Παραπλάνηση Δεδομένων** | 2020 - Το [Georgia Department of Public Health κυκλοφόρησε γραφήματα COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) που φαινόταν να παραπλανούν τους πολίτες σχετικά με τις τάσεις των επιβεβαιωμένων κρουσμάτων με μη χρονολογική ταξινόμηση στον άξονα x. Αυτό δείχνει παραπλάνηση μέσω τεχνασμάτων οπτικοποίησης. |
+| **Ψευδαίσθηση Ελεύθερης Επιλογής** | 2020 - Η εκπαιδευτική εφαρμογή [ABCmouse πλήρωσε $10M για να διευθετήσει καταγγελία της FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) όπου οι γονείς παγιδεύτηκαν να πληρώνουν για συνδρομές που δεν μπορούσαν να ακυρώσουν. Αυτό δείχνει σκοτεινά μοτίβα στις αρχιτεκτονικές επιλογών, όπου οι χρήστες ωθήθηκαν σε δυνητικά επιβλαβείς επιλογές. |
+| **Ιδιωτικότητα Δεδομένων & Δικαιώματα Χρηστών** | 2021 - Η [Διαρροή Δεδομένων του Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) αποκάλυψε δεδομένα από 530 εκατομμύρια χρήστες, οδηγώντας σε διακανονισμό $5B με την FTC. Ωστόσο, αρνήθηκε να ειδοποιήσει τους χρήστες για τη διαρροή, παραβιάζοντας τα δικαιώματα των χρηστών σχετικά με τη διαφάνεια και την πρόσβαση στα δεδομένα. |
+
+Θέλετε να εξερευνήσετε περισσότερες μελέτες περίπτωσης; Δείτε αυτούς τους πόρους:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ηθικά διλήμματα σε διάφορες βιομηχανίες.
+* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - μελέτες περίπτωσης ορόσημα.
+* [Where things have gone wrong](https://deon.drivendata.org/examples/) - λίστα ελέγχου deon με παραδείγματα.
+
+
+> 🚨 Σκεφτείτε τις μελέτες περίπτωσης που έχετε δει - έχετε βιώσει ή επηρεαστεί από μια παρόμοια ηθική πρόκληση στη ζωή σας; Μπορείτε να σκεφτείτε τουλάχιστον μία άλλη μελέτη περίπτωσης που να απεικονίζει μία από τις ηθικές προκλήσεις που συζητήσαμε σε αυτήν την ενότητα;
+
+## Εφαρμοσμένη Ηθική
+
+Μιλήσαμε για έννοιες ηθικής, προκλήσεις και μελέτες περίπτωσης σε πραγματικά πλαίσια. Αλλά πώς ξεκινάμε να _εφαρμόζουμε_ ηθικές αρχές και πρακτικές στα έργα μας; Και πώς _επιχειρησιακοποιούμε_ αυτές τις πρακτικές για καλύτερη διακυβέρνηση; Ας εξερευνήσουμε μερικές λύσεις πραγματικού κόσμου:
+
+### 1. Επαγγελματικοί Κώδικες
+
+Οι Επαγγελματικοί Κώδικες προσφέρουν μια επιλογή για οργανισμούς να "ενθαρρύνουν" τα μέλη να υποστηρίξουν τις ηθικές αρχές και τη δήλωση αποστολής τους. Οι κώδικες είναι _ηθικές κατευθυντήριες γραμμές_ για επαγγελματική συμπεριφορά, βοηθώντας τους υπαλλήλους ή τα μέλη να λαμβάνουν αποφάσεις που ευθυγραμμίζονται με τις αρχές του οργανισμού τους. Είναι τόσο καλοί όσο η εθελοντική συμμόρφωση από τα μέλη. Ωστόσο, πολλοί οργανισμοί προσφέρουν πρόσθετες ανταμοιβές και ποινές για να παρακινήσουν τη συμμόρφωση από τα μέλη.
+
+Παραδείγματα περιλαμβάνουν:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Κώδικας Ηθικής
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Κώδικας Συμπεριφοράς (δημιουργήθηκε το 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (από το 1993)
+
+> 🚨 Ανήκετε σε έναν επαγγελματικό οργανισμό μηχανικής ή επιστήμης δεδομένων; Εξερευνήστε τον ιστότοπό τους για να δείτε αν ορίζουν έναν επαγγελματικό κώδικα ηθικής. Τι λέει αυτό για τις ηθικές τους αρχές; Πώς "ενθαρρύνουν" τα μέλη να ακολουθήσουν τον κώδικα;
+
+### 2. Λίστες Ελέγχου Ηθικής
+
+Ενώ οι επαγγελματικοί κώδικες ορίζουν την απαιτούμενη _ηθική συμπεριφορά_ από τους επαγγελματίες, [έχουν γνωστούς περιορισμούς](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) στην επιβολή, ιδιαίτερα σε μεγάλης κλίμακας έργα. Αντίθετα, πολλοί ειδικοί στην επιστήμη δεδομένων [υποστηρίζουν λίστες ελέγχου](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), που μπορούν να **συνδέσουν τις αρχές με τις πρακτικές** με πιο καθοριστικούς και εφαρμόσιμους τρόπους.
+
+Οι λίστες ελέγχου μετατρέπουν ερωτήσεις σε "ναι/όχι" εργασίες που μπορούν να επιχειρησιακοποιηθούν, επιτρέποντάς τους να παρακολουθούνται ως μέρος των τυπικών ροών εργασίας κυκλοφορίας προϊόντων.
+
+Παραδείγματα περιλαμβάνουν:
+ * [Deon](https://deon.drivendata.org/) - μια γενικής χρήσης λίστα ελέγχου ηθικής δεδομένων που δημιουργήθηκε από [συστάσεις της βιομηχανίας](https://deon.drivendata.org/#checklist-citations) με ένα εργαλείο γραμμής εντολών για εύκολη ενσωμάτωση.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - παρέχει γενικές οδηγίες για πρακτικές χειρισμού πληροφοριών από νομικές και κοινωνικές προοπτικές έκθεσης.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - δημιουργήθηκε από επαγγελματίες AI για να υποστηρίξει την υιοθέτηση και ενσωμάτωση ελέγχων δικαιοσύνης στους κύκλους ανάπτυξης AI.
+ * [22 ερωτήσεις για την ηθική στα δεδομένα και την AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - πιο ανοιχτό πλαίσιο, δομημένο για αρχική εξερεύνηση ηθικών ζητημάτων στο σχεδιασμό, την υλοποίηση και τα οργανωτικά πλαίσια.
+
+### 3. Κανονισμοί Ηθικής
+
+Η ηθική αφορά τον ορισμό κοινών αξιών και την εθελοντική σωστή πράξη. **Συμμόρφωση** αφορά την _τήρηση του νόμου_ όπου και αν ορίζεται. **Διακυβέρνηση** καλύπτει γενικά όλους τους τρόπους με τους οποίους οι οργανισμοί λειτουργούν για να επιβάλλουν ηθικές αρχές και να συμμορφώνονται με καθορισμένους νόμους.
+
+Σήμερα, η διακυβέρνηση λαμβάνει δύο μορφές εντός οργανισμών. Πρώτον, αφορά τον ορισμό **ηθικών αρχών AI** και την καθιέρωση πρακτικών για την επιχειρησιακοποίηση της υιοθέτησης σε όλα τα έργα που σχετίζονται με AI στον οργανισμό. Δεύτερον, αφορά τη συμμόρφωση με όλους τους κυβερνητικά καθορισμένους **κανονισμούς προστασίας δεδομένων** για τις περιοχές στις οποίες λειτουργεί.
+
+Παραδείγματα κανονισμών προστασίας δεδομένων και ιδιωτικότητας:
+
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - ρυθμίζει τη _συλλογή, χρήση και αποκάλυψη_ προσωπικών πληροφοριών από την ομοσπονδιακή κυβέρνηση.
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - προστατεύει προσωπικά δεδομένα υγείας.
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - προστατεύει την ιδιωτικότητα δεδομένων παιδιών κάτω των 13 ετών.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - παρέχει δικαιώματα χρηστών, προστασία δεδομένων και ιδιωτικότητα.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) δίνει στους καταναλωτές περισσότερα _δικαιώματα_ για τα (προσωπικά) δεδομένα τους.
+ * `2021`, Η Κίνα [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) μόλις πέρασε, δημιουργώντας έναν από τους ισχυρότερους κανονισμούς ιδιωτικότητας δεδομένων παγκοσμίως.
+
+> 🚨 Η Ευρωπαϊ
+* [Αρχές Υπεύθυνης Τεχνητής Νοημοσύνης](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - δωρεάν εκπαιδευτική διαδρομή από το Microsoft Learn.
+* [Ηθική και Επιστήμη Δεδομένων](https://resources.oreilly.com/examples/0636920203964) - EBook από την O'Reilly (M. Loukides, H. Mason κ.ά.)
+* [Ηθική στην Επιστήμη Δεδομένων](https://www.coursera.org/learn/data-science-ethics#syllabus) - διαδικτυακό μάθημα από το Πανεπιστήμιο του Μίσιγκαν.
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - μελέτες περιπτώσεων από το Πανεπιστήμιο του Τέξας.
+
+# Εργασία
+
+[Γράψτε Μια Μελέτη Περίπτωσης Ηθικής Δεδομένων](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/02-ethics/assignment.md b/translations/el/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..7f4e5496
--- /dev/null
+++ b/translations/el/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Γράψτε Μια Μελέτη Περίπτωσης Για Την Ηθική Δεδομένων
+
+## Οδηγίες
+
+Έχετε μάθει για διάφορες [Προκλήσεις Ηθικής Δεδομένων](README.md#2-ethics-challenges) και έχετε δει παραδείγματα [Μελετών Περίπτωσης](README.md#3-case-studies) που αντικατοπτρίζουν προκλήσεις ηθικής δεδομένων σε πραγματικά πλαίσια.
+
+Σε αυτήν την εργασία, θα γράψετε τη δική σας μελέτη περίπτωσης που αντικατοπτρίζει μια πρόκληση ηθικής δεδομένων από τη δική σας εμπειρία ή από ένα σχετικό πραγματικό πλαίσιο που γνωρίζετε. Ακολουθήστε απλώς αυτά τα βήματα:
+
+1. `Επιλέξτε μια Πρόκληση Ηθικής Δεδομένων`. Δείτε [τα παραδείγματα του μαθήματος](README.md#2-ethics-challenges) ή εξερευνήστε διαδικτυακά παραδείγματα όπως [το Deon Checklist](https://deon.drivendata.org/examples/) για έμπνευση.
+
+2. `Περιγράψτε ένα Παράδειγμα από τον Πραγματικό Κόσμο`. Σκεφτείτε μια κατάσταση που έχετε ακούσει (ειδήσεις, ερευνητική μελέτη κ.λπ.) ή έχετε βιώσει (τοπική κοινότητα), όπου εμφανίστηκε αυτή η συγκεκριμένη πρόκληση. Σκεφτείτε τα ερωτήματα ηθικής δεδομένων που σχετίζονται με την πρόκληση - και συζητήστε τις πιθανές βλάβες ή ακούσιες συνέπειες που προκύπτουν λόγω αυτού του ζητήματος. Επιπλέον πόντοι: σκεφτείτε πιθανές λύσεις ή διαδικασίες που θα μπορούσαν να εφαρμοστούν εδώ για να βοηθήσουν στην εξάλειψη ή τον μετριασμό των αρνητικών επιπτώσεων αυτής της πρόκλησης.
+
+3. `Παρέχετε μια λίστα Σχετικών Πόρων`. Μοιραστείτε έναν ή περισσότερους πόρους (συνδέσμους σε άρθρο, προσωπικό ιστολόγιο ή εικόνα, διαδικτυακή ερευνητική εργασία κ.λπ.) για να αποδείξετε ότι αυτό ήταν ένα πραγματικό περιστατικό. Επιπλέον πόντοι: μοιραστείτε πόρους που επίσης αναδεικνύουν τις πιθανές βλάβες και συνέπειες από το περιστατικό ή υπογραμμίζουν θετικά βήματα που έγιναν για να αποτραπεί η επανάληψή του.
+
+
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Έχουν εντοπιστεί μία ή περισσότερες προκλήσεις ηθικής δεδομένων.
Η μελέτη περίπτωσης περιγράφει ξεκάθαρα ένα πραγματικό περιστατικό που αντικατοπτρίζει αυτή την πρόκληση και αναδεικνύει τις ανεπιθύμητες συνέπειες ή βλάβες που προκάλεσε.
Υπάρχει τουλάχιστον ένας συνδεδεμένος πόρος που αποδεικνύει ότι αυτό συνέβη. | Έχει εντοπιστεί μία πρόκληση ηθικής δεδομένων.
Τουλάχιστον μία σχετική βλάβη ή συνέπεια συζητείται σύντομα.
Ωστόσο, η συζήτηση είναι περιορισμένη ή δεν υπάρχει απόδειξη πραγματικού περιστατικού. | Έχει εντοπιστεί μια πρόκληση δεδομένων.
Ωστόσο, η περιγραφή ή οι πόροι δεν αντικατοπτρίζουν επαρκώς την πρόκληση ή δεν αποδεικνύουν ότι είναι πραγματικό περιστατικό. |
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/03-defining-data/README.md b/translations/el/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..d51ded96
--- /dev/null
+++ b/translations/el/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,84 @@
+
+# Ορισμός Δεδομένων
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Ορισμός Δεδομένων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Τα δεδομένα είναι γεγονότα, πληροφορίες, παρατηρήσεις και μετρήσεις που χρησιμοποιούνται για την ανακάλυψη και τη λήψη τεκμηριωμένων αποφάσεων. Ένα σημείο δεδομένων είναι μια μεμονωμένη μονάδα δεδομένων μέσα σε ένα σύνολο δεδομένων, το οποίο είναι μια συλλογή σημείων δεδομένων. Τα σύνολα δεδομένων μπορεί να έχουν διαφορετικές μορφές και δομές και συνήθως βασίζονται στην πηγή τους ή στο από πού προέρχονται τα δεδομένα. Για παράδειγμα, τα μηνιαία έσοδα μιας εταιρείας μπορεί να βρίσκονται σε ένα υπολογιστικό φύλλο, ενώ τα δεδομένα καρδιακού ρυθμού ανά ώρα από ένα smartwatch μπορεί να είναι σε μορφή [JSON](https://stackoverflow.com/a/383699). Είναι συνηθισμένο για τους επιστήμονες δεδομένων να εργάζονται με διαφορετικούς τύπους δεδομένων μέσα σε ένα σύνολο δεδομένων.
+
+Αυτό το μάθημα επικεντρώνεται στον εντοπισμό και την ταξινόμηση των δεδομένων με βάση τα χαρακτηριστικά και τις πηγές τους.
+
+## [Προ-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## Πώς Περιγράφονται τα Δεδομένα
+
+### Ακατέργαστα Δεδομένα
+Τα ακατέργαστα δεδομένα είναι δεδομένα που προέρχονται από την πηγή τους στην αρχική τους κατάσταση και δεν έχουν αναλυθεί ή οργανωθεί. Για να κατανοήσουμε τι συμβαίνει με ένα σύνολο δεδομένων, πρέπει να οργανωθεί σε μια μορφή που να είναι κατανοητή από τους ανθρώπους καθώς και από την τεχνολογία που μπορεί να χρησιμοποιηθεί για περαιτέρω ανάλυση. Η δομή ενός συνόλου δεδομένων περιγράφει πώς είναι οργανωμένο και μπορεί να ταξινομηθεί ως δομημένο, μη δομημένο και ημι-δομημένο. Αυτοί οι τύποι δομής θα διαφέρουν ανάλογα με την πηγή, αλλά τελικά θα εμπίπτουν σε αυτές τις τρεις κατηγορίες.
+
+### Ποσοτικά Δεδομένα
+Τα ποσοτικά δεδομένα είναι αριθμητικές παρατηρήσεις μέσα σε ένα σύνολο δεδομένων και συνήθως μπορούν να αναλυθούν, να μετρηθούν και να χρησιμοποιηθούν μαθηματικά. Μερικά παραδείγματα ποσοτικών δεδομένων είναι: ο πληθυσμός μιας χώρας, το ύψος ενός ατόμου ή τα τριμηνιαία έσοδα μιας εταιρείας. Με κάποια επιπλέον ανάλυση, τα ποσοτικά δεδομένα θα μπορούσαν να χρησιμοποιηθούν για να ανακαλύψουν εποχιακές τάσεις του Δείκτη Ποιότητας Αέρα (AQI) ή να εκτιμήσουν την πιθανότητα κυκλοφοριακής αιχμής σε μια τυπική εργάσιμη ημέρα.
+
+### Ποιοτικά Δεδομένα
+Τα ποιοτικά δεδομένα, γνωστά και ως κατηγορικά δεδομένα, είναι δεδομένα που δεν μπορούν να μετρηθούν αντικειμενικά όπως οι παρατηρήσεις ποσοτικών δεδομένων. Γενικά είναι διάφορες μορφές υποκειμενικών δεδομένων που καταγράφουν την ποιότητα κάτι, όπως ένα προϊόν ή μια διαδικασία. Μερικές φορές, τα ποιοτικά δεδομένα είναι αριθμητικά αλλά δεν χρησιμοποιούνται συνήθως μαθηματικά, όπως οι αριθμοί τηλεφώνου ή οι χρονικές σημάνσεις. Μερικά παραδείγματα ποιοτικών δεδομένων είναι: σχόλια σε βίντεο, η μάρκα και το μοντέλο ενός αυτοκινήτου ή το αγαπημένο χρώμα των πιο κοντινών σας φίλων. Τα ποιοτικά δεδομένα θα μπορούσαν να χρησιμοποιηθούν για να κατανοήσουν ποια προϊόντα προτιμούν οι καταναλωτές ή για τον εντοπισμό δημοφιλών λέξεων-κλειδιών σε βιογραφικά αιτήσεων εργασίας.
+
+### Δομημένα Δεδομένα
+Τα δομημένα δεδομένα είναι δεδομένα που είναι οργανωμένα σε σειρές και στήλες, όπου κάθε σειρά έχει το ίδιο σύνολο στηλών. Οι στήλες αντιπροσωπεύουν μια τιμή ενός συγκεκριμένου τύπου και θα προσδιορίζονται με ένα όνομα που περιγράφει τι αντιπροσωπεύει η τιμή, ενώ οι σειρές περιέχουν τις πραγματικές τιμές. Οι στήλες συχνά έχουν ένα συγκεκριμένο σύνολο κανόνων ή περιορισμών στις τιμές, για να διασφαλιστεί ότι οι τιμές αντιπροσωπεύουν με ακρίβεια τη στήλη. Για παράδειγμα, φανταστείτε ένα υπολογιστικό φύλλο πελατών όπου κάθε σειρά πρέπει να έχει έναν αριθμό τηλεφώνου και οι αριθμοί τηλεφώνου δεν περιέχουν αλφαβητικούς χαρακτήρες. Μπορεί να υπάρχουν κανόνες που εφαρμόζονται στη στήλη αριθμού τηλεφώνου για να διασφαλιστεί ότι δεν είναι ποτέ κενή και περιέχει μόνο αριθμούς.
+
+Ένα πλεονέκτημα των δομημένων δεδομένων είναι ότι μπορούν να οργανωθούν με τέτοιο τρόπο ώστε να σχετίζονται με άλλα δομημένα δεδομένα. Ωστόσο, επειδή τα δεδομένα έχουν σχεδιαστεί για να είναι οργανωμένα με συγκεκριμένο τρόπο, η αλλαγή της συνολικής δομής τους μπορεί να απαιτήσει μεγάλη προσπάθεια. Για παράδειγμα, η προσθήκη μιας στήλης email στο υπολογιστικό φύλλο πελατών που δεν μπορεί να είναι κενή σημαίνει ότι θα πρέπει να βρείτε πώς θα προσθέσετε αυτές τις τιμές στις υπάρχουσες σειρές πελατών στο σύνολο δεδομένων.
+
+Παραδείγματα δομημένων δεδομένων: υπολογιστικά φύλλα, σχεσιακές βάσεις δεδομένων, αριθμοί τηλεφώνου, τραπεζικές καταστάσεις
+
+### Μη Δομημένα Δεδομένα
+Τα μη δομημένα δεδομένα συνήθως δεν μπορούν να κατηγοριοποιηθούν σε σειρές ή στήλες και δεν περιέχουν μορφή ή σύνολο κανόνων που πρέπει να ακολουθούν. Επειδή τα μη δομημένα δεδομένα έχουν λιγότερους περιορισμούς στη δομή τους, είναι πιο εύκολο να προστεθούν νέες πληροφορίες σε σύγκριση με ένα δομημένο σύνολο δεδομένων. Αν ένας αισθητήρας που καταγράφει δεδομένα για την ατμοσφαιρική πίεση κάθε 2 λεπτά λάβει μια ενημέρωση που του επιτρέπει να μετρά και να καταγράφει τη θερμοκρασία, δεν απαιτείται τροποποίηση των υπαρχόντων δεδομένων αν είναι μη δομημένα. Ωστόσο, αυτό μπορεί να κάνει την ανάλυση ή τη διερεύνηση αυτού του τύπου δεδομένων να διαρκεί περισσότερο. Για παράδειγμα, ένας επιστήμονας που θέλει να βρει τη μέση θερμοκρασία του προηγούμενου μήνα από τα δεδομένα του αισθητήρα, αλλά ανακαλύπτει ότι ο αισθητήρας κατέγραψε ένα "e" σε ορισμένα από τα δεδομένα του για να σημειώσει ότι ήταν χαλασμένος αντί για έναν τυπικό αριθμό, κάτι που σημαίνει ότι τα δεδομένα είναι ελλιπή.
+
+Παραδείγματα μη δομημένων δεδομένων: αρχεία κειμένου, μηνύματα κειμένου, αρχεία βίντεο
+
+### Ημι-δομημένα Δεδομένα
+Τα ημι-δομημένα δεδομένα έχουν χαρακτηριστικά που τα καθιστούν συνδυασμό δομημένων και μη δομημένων δεδομένων. Συνήθως δεν συμμορφώνονται με μια μορφή σειρών και στηλών, αλλά είναι οργανωμένα με τρόπο που θεωρείται δομημένος και μπορεί να ακολουθεί μια σταθερή μορφή ή ένα σύνολο κανόνων. Η δομή θα διαφέρει μεταξύ πηγών, όπως μια καλά καθορισμένη ιεραρχία ή κάτι πιο ευέλικτο που επιτρέπει την εύκολη ενσωμάτωση νέων πληροφοριών. Τα μεταδεδομένα είναι δείκτες που βοηθούν στον καθορισμό του τρόπου οργάνωσης και αποθήκευσης των δεδομένων και θα έχουν διάφορα ονόματα, ανάλογα με τον τύπο των δεδομένων. Μερικά κοινά ονόματα για τα μεταδεδομένα είναι ετικέτες, στοιχεία, οντότητες και χαρακτηριστικά. Για παράδειγμα, ένα τυπικό μήνυμα ηλεκτρονικού ταχυδρομείου θα έχει θέμα, σώμα και ένα σύνολο παραληπτών και μπορεί να οργανωθεί ανάλογα με το ποιος ή πότε στάλθηκε.
+
+Παραδείγματα ημι-δομημένων δεδομένων: HTML, αρχεία CSV, JavaScript Object Notation (JSON)
+
+## Πηγές Δεδομένων
+
+Μια πηγή δεδομένων είναι η αρχική τοποθεσία από την οποία δημιουργήθηκαν τα δεδομένα ή όπου "ζουν" και θα διαφέρει ανάλογα με το πώς και πότε συλλέχθηκαν. Τα δεδομένα που δημιουργούνται από τους χρήστες τους είναι γνωστά ως πρωτογενή δεδομένα, ενώ τα δευτερογενή δεδομένα προέρχονται από μια πηγή που έχει συλλέξει δεδομένα για γενική χρήση. Για παράδειγμα, μια ομάδα επιστημόνων που συλλέγει παρατηρήσεις σε ένα τροπικό δάσος θα θεωρούνταν πρωτογενής πηγή, και αν αποφασίσουν να τα μοιραστούν με άλλους επιστήμονες, θα θεωρούνταν δευτερογενής για αυτούς που τα χρησιμοποιούν.
+
+Οι βάσεις δεδομένων είναι μια κοινή πηγή και βασίζονται σε ένα σύστημα διαχείρισης βάσεων δεδομένων για τη φιλοξενία και τη συντήρηση των δεδομένων, όπου οι χρήστες χρησιμοποιούν εντολές που ονομάζονται ερωτήματα για να εξερευνήσουν τα δεδομένα. Τα αρχεία ως πηγές δεδομένων μπορεί να είναι αρχεία ήχου, εικόνας και βίντεο, καθώς και υπολογιστικά φύλλα όπως το Excel. Οι πηγές στο διαδίκτυο είναι μια κοινή τοποθεσία για τη φιλοξενία δεδομένων, όπου μπορούν να βρεθούν βάσεις δεδομένων καθώς και αρχεία. Οι διεπαφές προγραμματισμού εφαρμογών, γνωστές και ως APIs, επιτρέπουν στους προγραμματιστές να δημιουργούν τρόπους για να μοιράζονται δεδομένα με εξωτερικούς χρήστες μέσω του διαδικτύου, ενώ η διαδικασία εξαγωγής δεδομένων από μια ιστοσελίδα ονομάζεται web scraping. Τα [μαθήματα στην Εργασία με Δεδομένα](../../../../../../../../../2-Working-With-Data) επικεντρώνονται στο πώς να χρησιμοποιείτε διάφορες πηγές δεδομένων.
+
+## Συμπέρασμα
+
+Σε αυτό το μάθημα μάθαμε:
+
+- Τι είναι τα δεδομένα
+- Πώς περιγράφονται τα δεδομένα
+- Πώς ταξινομούνται και κατηγοριοποιούνται τα δεδομένα
+- Πού μπορούν να βρεθούν τα δεδομένα
+
+## 🚀 Πρόκληση
+
+Το Kaggle είναι μια εξαιρετική πηγή ανοιχτών συνόλων δεδομένων. Χρησιμοποιήστε το [εργαλείο αναζήτησης συνόλων δεδομένων](https://www.kaggle.com/datasets) για να βρείτε μερικά ενδιαφέροντα σύνολα δεδομένων και να ταξινομήσετε 3-5 σύνολα δεδομένων με αυτά τα κριτήρια:
+
+- Είναι τα δεδομένα ποσοτικά ή ποιοτικά;
+- Είναι τα δεδομένα δομημένα, μη δομημένα ή ημι-δομημένα;
+
+## [Μετά-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Ανασκόπηση & Αυτομελέτη
+
+- Αυτή η ενότητα του Microsoft Learn, με τίτλο [Classify your Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), περιέχει μια λεπτομερή ανάλυση των δομημένων, ημι-δομημένων και μη δομημένων δεδομένων.
+
+## Ανάθεση
+
+[Ταξινόμηση Συνόλων Δεδομένων](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/03-defining-data/assignment.md b/translations/el/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..2cc7a74d
--- /dev/null
+++ b/translations/el/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Κατηγοριοποίηση Συνόλων Δεδομένων
+
+## Οδηγίες
+
+Ακολουθήστε τις οδηγίες αυτής της εργασίας για να εντοπίσετε και να ταξινομήσετε τα δεδομένα με έναν από κάθε έναν από τους παρακάτω τύπους δεδομένων:
+
+**Τύποι Δομής**: Δομημένα, Ημιδομημένα ή Μη Δομημένα
+
+**Τύποι Αξίας**: Ποιοτικά ή Ποσοτικά
+
+**Τύποι Πηγής**: Πρωτογενή ή Δευτερογενή
+
+1. Μια εταιρεία έχει εξαγοραστεί και τώρα έχει μητρική εταιρεία. Οι επιστήμονες δεδομένων έχουν λάβει ένα υπολογιστικό φύλλο με αριθμούς τηλεφώνου πελατών από τη μητρική εταιρεία.
+
+Τύπος Δομής:
+
+Τύπος Αξίας:
+
+Τύπος Πηγής:
+
+---
+
+2. Ένα έξυπνο ρολόι συλλέγει δεδομένα καρδιακού ρυθμού από τον χρήστη του, και τα ακατέργαστα δεδομένα είναι σε μορφή JSON.
+
+Τύπος Δομής:
+
+Τύπος Αξίας:
+
+Τύπος Πηγής:
+
+---
+
+3. Μια έρευνα στο χώρο εργασίας για την ηθική των εργαζομένων που είναι αποθηκευμένη σε αρχείο CSV.
+
+Τύπος Δομής:
+
+Τύπος Αξίας:
+
+Τύπος Πηγής:
+
+---
+
+4. Αστροφυσικοί έχουν πρόσβαση σε μια βάση δεδομένων γαλαξιών που έχει συλλεχθεί από έναν διαστημικό ανιχνευτή. Τα δεδομένα περιέχουν τον αριθμό των πλανητών σε κάθε γαλαξία.
+
+Τύπος Δομής:
+
+Τύπος Αξίας:
+
+Τύπος Πηγής:
+
+---
+
+5. Μια εφαρμογή προσωπικών οικονομικών χρησιμοποιεί APIs για να συνδεθεί με τους χρηματοοικονομικούς λογαριασμούς ενός χρήστη προκειμένου να υπολογίσει την καθαρή του αξία. Ο χρήστης μπορεί να δει όλες τις συναλλαγές του σε μορφή γραμμών και στηλών που μοιάζει με υπολογιστικό φύλλο.
+
+Τύπος Δομής:
+
+Τύπος Αξίας:
+
+Τύπος Πηγής:
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Εντοπίζει σωστά όλους τους τύπους δομής, αξίας και πηγής | Εντοπίζει σωστά 3 όλους τους τύπους δομής, αξίας και πηγής | Εντοπίζει σωστά 2 ή λιγότερους όλους τους τύπους δομής, αξίας και πηγής |
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/04-stats-and-probability/README.md b/translations/el/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..7036c79c
--- /dev/null
+++ b/translations/el/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,264 @@
+
+# Μια Σύντομη Εισαγωγή στη Στατιστική και την Πιθανότητα
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Στατιστική και Πιθανότητα - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Η Στατιστική και η Θεωρία Πιθανοτήτων είναι δύο στενά συνδεδεμένοι τομείς των Μαθηματικών που είναι εξαιρετικά σημαντικοί για την Επιστήμη Δεδομένων. Είναι δυνατόν να δουλέψουμε με δεδομένα χωρίς βαθιά γνώση μαθηματικών, αλλά είναι καλύτερο να γνωρίζουμε τουλάχιστον κάποιες βασικές έννοιες. Εδώ θα παρουσιάσουμε μια σύντομη εισαγωγή που θα σας βοηθήσει να ξεκινήσετε.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Προ-διάλεξης κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Πιθανότητα και Τυχαίες Μεταβλητές
+
+**Πιθανότητα** είναι ένας αριθμός μεταξύ 0 και 1 που εκφράζει πόσο πιθανό είναι ένα **γεγονός**. Ορίζεται ως ο αριθμός των θετικών αποτελεσμάτων (που οδηγούν στο γεγονός), διαιρεμένος με τον συνολικό αριθμό αποτελεσμάτων, δεδομένου ότι όλα τα αποτελέσματα είναι εξίσου πιθανά. Για παράδειγμα, όταν ρίχνουμε ένα ζάρι, η πιθανότητα να φέρουμε έναν ζυγό αριθμό είναι 3/6 = 0.5.
+
+Όταν μιλάμε για γεγονότα, χρησιμοποιούμε **τυχαίες μεταβλητές**. Για παράδειγμα, η τυχαία μεταβλητή που αντιπροσωπεύει τον αριθμό που προκύπτει όταν ρίχνουμε ένα ζάρι θα παίρνει τιμές από 1 έως 6. Το σύνολο των αριθμών από 1 έως 6 ονομάζεται **χώρος δειγμάτων**. Μπορούμε να μιλήσουμε για την πιθανότητα μιας τυχαίας μεταβλητής να πάρει μια συγκεκριμένη τιμή, για παράδειγμα P(X=3)=1/6.
+
+Η τυχαία μεταβλητή στο προηγούμενο παράδειγμα ονομάζεται **διακριτή**, επειδή έχει έναν μετρήσιμο χώρο δειγμάτων, δηλαδή υπάρχουν ξεχωριστές τιμές που μπορούν να απαριθμηθούν. Υπάρχουν περιπτώσεις όπου ο χώρος δειγμάτων είναι ένα εύρος πραγματικών αριθμών ή το σύνολο των πραγματικών αριθμών. Τέτοιες μεταβλητές ονομάζονται **συνεχείς**. Ένα καλό παράδειγμα είναι η ώρα άφιξης του λεωφορείου.
+
+## Κατανομή Πιθανότητας
+
+Στην περίπτωση των διακριτών τυχαίων μεταβλητών, είναι εύκολο να περιγράψουμε την πιθανότητα κάθε γεγονότος με μια συνάρτηση P(X). Για κάθε τιμή *s* από τον χώρο δειγμάτων *S*, θα δίνει έναν αριθμό από 0 έως 1, έτσι ώστε το άθροισμα όλων των τιμών του P(X=s) για όλα τα γεγονότα να είναι 1.
+
+Η πιο γνωστή διακριτή κατανομή είναι η **ομοιόμορφη κατανομή**, στην οποία υπάρχει ένας χώρος δειγμάτων με N στοιχεία, με ίση πιθανότητα 1/N για καθένα από αυτά.
+
+Είναι πιο δύσκολο να περιγράψουμε την κατανομή πιθανότητας μιας συνεχούς μεταβλητής, με τιμές που προέρχονται από κάποιο διάστημα [a,b] ή το σύνολο των πραγματικών αριθμών ℝ. Σκεφτείτε την περίπτωση της ώρας άφιξης του λεωφορείου. Στην πραγματικότητα, για κάθε ακριβή ώρα άφιξης *t*, η πιθανότητα να φτάσει το λεωφορείο ακριβώς εκείνη την ώρα είναι 0!
+
+> Τώρα ξέρετε ότι γεγονότα με πιθανότητα 0 συμβαίνουν, και μάλιστα πολύ συχνά! Τουλάχιστον κάθε φορά που φτάνει το λεωφορείο!
+
+Μπορούμε μόνο να μιλήσουμε για την πιθανότητα μιας μεταβλητής να πέσει σε ένα δεδομένο διάστημα τιμών, π.χ. P(t1≤X2). Σε αυτή την περίπτωση, η κατανομή πιθανότητας περιγράφεται από μια **συνάρτηση πυκνότητας πιθανότητας** p(x), έτσι ώστε
+
+![P(t_1\le X1, x2, ..., xn. Μπορούμε να ορίσουμε τη **μέση τιμή** (ή **αριθμητικό μέσο όρο**) της ακολουθίας με τον παραδοσιακό τρόπο ως (x1+x2+xn)/n. Καθώς αυξάνουμε το μέγεθος του δείγματος (δηλαδή παίρνουμε το όριο με n→∞), θα προκύψει η μέση τιμή (επίσης γνωστή ως **αναμενόμενη τιμή**) της κατανομής. Θα συμβολίσουμε την αναμενόμενη τιμή με **E**(x).
+
+> Μπορεί να αποδειχθεί ότι για οποιαδήποτε διακριτή κατανομή με τιμές {x1, x2, ..., xN} και αντίστοιχες πιθανότητες p1, p2, ..., pN, η αναμενόμενη τιμή θα ισούται με E(X)=x1p1+x2p2+...+xNpN.
+
+Για να προσδιορίσουμε πόσο διασκορπισμένες είναι οι τιμές, μπορούμε να υπολογίσουμε τη διακύμανση σ2 = ∑(xi - μ)2/n, όπου μ είναι η μέση τιμή της ακολουθίας. Η τιμή σ ονομάζεται **τυπική απόκλιση**, και σ2 ονομάζεται **διακύμανση**.
+
+## Τρόπος, Διάμεσος και Τεταρτημόρια
+
+Μερικές φορές, η μέση τιμή δεν αντιπροσωπεύει επαρκώς την "τυπική" τιμή για τα δεδομένα. Για παράδειγμα, όταν υπάρχουν λίγες ακραίες τιμές που είναι εντελώς εκτός εύρους, μπορούν να επηρεάσουν τη μέση τιμή. Μια άλλη καλή ένδειξη είναι η **διάμεσος**, μια τιμή τέτοια ώστε το μισό των δεδομένων να είναι χαμηλότερο από αυτήν και το άλλο μισό - υψηλότερο.
+
+Για να κατανοήσουμε την κατανομή των δεδομένων, είναι χρήσιμο να μιλήσουμε για **τεταρτημόρια**:
+
+* Το πρώτο τεταρτημόριο, ή Q1, είναι μια τιμή τέτοια ώστε το 25% των δεδομένων να είναι κάτω από αυτήν
+* Το τρίτο τεταρτημόριο, ή Q3, είναι μια τιμή τέτοια ώστε το 75% των δεδομένων να είναι κάτω από αυτήν
+
+Γραφικά μπορούμε να αναπαραστήσουμε τη σχέση μεταξύ διαμέσου και τεταρτημορίων σε ένα διάγραμμα που ονομάζεται **κουτίγραμμα**:
+
+
+
+Εδώ υπολογίζουμε επίσης το **εύρος μεταξύ τεταρτημορίων** IQR=Q3-Q1, και τις λεγόμενες **ακραίες τιμές** - τιμές που βρίσκονται εκτός των ορίων [Q1-1.5*IQR,Q3+1.5*IQR].
+
+Για πεπερασμένη κατανομή που περιέχει μικρό αριθμό πιθανών τιμών, μια καλή "τυπική" τιμή είναι αυτή που εμφανίζεται πιο συχνά, η οποία ονομάζεται **τρόπος**. Συχνά εφαρμόζεται σε κατηγοριοποιημένα δεδομένα, όπως χρώματα. Σκεφτείτε μια κατάσταση όπου έχουμε δύο ομάδες ανθρώπων - κάποιους που προτιμούν έντονα το κόκκινο και άλλους που προτιμούν το μπλε. Αν κωδικοποιήσουμε τα χρώματα με αριθμούς, η μέση τιμή για το αγαπημένο χρώμα θα ήταν κάπου στο πορτοκαλί-πράσινο φάσμα, κάτι που δεν υποδεικνύει την πραγματική προτίμηση καμίας ομάδας. Ωστόσο, ο τρόπος θα ήταν είτε ένα από τα χρώματα είτε και τα δύο χρώματα, αν ο αριθμός των ανθρώπων που τα προτιμούν είναι ίσος (σε αυτή την περίπτωση ονομάζουμε το δείγμα **πολυτροπικό**).
+
+## Δεδομένα από τον Πραγματικό Κόσμο
+
+Όταν αναλύουμε δεδομένα από την πραγματική ζωή, συχνά δεν είναι τυχαίες μεταβλητές με την έννοια ότι δεν διεξάγουμε πειράματα με άγνωστο αποτέλεσμα. Για παράδειγμα, σκεφτείτε μια ομάδα παικτών του μπέιζμπολ και τα σωματικά τους δεδομένα, όπως ύψος, βάρος και ηλικία. Αυτοί οι αριθμοί δεν είναι ακριβώς τυχαίοι, αλλά μπορούμε να εφαρμόσουμε τις ίδιες μαθηματικές έννοιες. Για παράδειγμα, μια ακολουθία βαρών ανθρώπων μπορεί να θεωρηθεί ως ακολουθία τιμών που προέρχονται από κάποια τυχαία μεταβλητή. Παρακάτω είναι η ακολουθία βαρών πραγματικών παικτών μπέιζμπολ από [Major League Baseball](http://mlb.mlb.com/index.jsp), που προέρχεται από [αυτό το σύνολο δεδομένων](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (για ευκολία σας, εμφανίζονται μόνο οι πρώτες 20 τιμές):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Σημείωση**: Για να δείτε το παράδειγμα εργασίας με αυτό το σύνολο δεδομένων, ρίξτε μια ματιά στο [συνοδευτικό σημειωματάριο](notebook.ipynb). Υπάρχουν επίσης αρκετές προκλήσεις σε όλη τη διάρκεια αυτού του μαθήματος, και μπορείτε να τις ολοκληρώσετε προσθέτοντας κάποιον κώδικα σε αυτό το σημειωματάριο. Αν δεν είστε σίγουροι πώς να εργαστείτε με δεδομένα, μην ανησυχείτε - θα επιστρέψουμε στην εργασία με δεδομένα χρησιμοποιώντας Python αργότερα. Αν δεν ξέρετε πώς να εκτελέσετε κώδικα σε Jupyter Notebook, δείτε [αυτό το άρθρο](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Εδώ είναι το κουτίγραμμα που δείχνει τη μέση τιμή, τη διάμεσο και τα τεταρτημόρια για τα δεδομένα μας:
+
+
+
+Επειδή τα δεδομένα μας περιέχουν πληροφορίες για διαφορετικούς **ρόλους** παικτών, μπορούμε επίσης να δημιουργήσουμε κουτίγραμμα ανά ρόλο - αυτό θα μας επιτρέψει να κατανοήσουμε πώς οι τιμές των παραμέτρων διαφέρουν ανάλογα με τους ρόλους. Αυτή τη φορά θα εξετάσουμε το ύψος:
+
+
+
+Αυτό το διάγραμμα υποδεικνύει ότι, κατά μέσο όρο, το ύψος των πρώτων βασικών παικτών είναι μεγαλύτερο από το ύψος των δεύτερων βασικών παικτών. Αργότερα σε αυτό το μάθημα θα μάθουμε πώς μπορούμε να δοκιμάσουμε αυτή την υπόθεση πιο επίσημα και πώς να δείξουμε ότι τα δεδομένα μας είναι στατιστικά σημαντικά για να το αποδείξουν.
+
+> Όταν εργαζόμαστε με δεδομένα από τον πραγματικό κόσμο, υποθέτουμε ότι όλα τα δεδομένα είναι δείγματα που προέρχονται από κάποια κατανομή πιθανότητας. Αυτή η υπόθεση μας επιτρέπει να εφαρμόσουμε τεχνικές μηχανικής μάθησης και να δημιουργήσουμε λειτουργικά μοντέλα πρόβλεψης.
+
+Για να δούμε ποια είναι η κατανομή των δεδομένων μας, μπορούμε να σχεδιάσουμε ένα γράφημα που ονομάζεται **ιστόγραμμα**. Ο άξονας X θα περιέχει έναν αριθμό διαφορετικών διαστημάτων βάρους (τα λεγόμενα **bins**), και ο κάθετος άξονας θα δείχνει τον αριθμό των φορών που το δείγμα της τυχαίας μεταβλητής ήταν μέσα σε ένα δεδομένο διάστημα.
+
+
+
+Από αυτό το ιστόγραμμα μπορείτε να δείτε ότι όλες οι τιμές είναι συγκεντρωμένες γύρω από μια συγκεκριμένη μέση τιμή βάρους, και όσο πιο μακριά πηγαίνουμε από αυτή τη μέση τιμή - τόσο λιγότερα βάρη αυτής της τιμής συναντώνται. Δηλαδή, είναι πολύ απίθανο το βάρος ενός παίκτη μπέιζμπολ να είναι πολύ διαφορετικό από τη μέση τιμή. Η διακύμανση των βαρών δείχνει το βαθμό στον οποίο τα βάρη είναι πιθανό να διαφέρουν από τη μέση τιμή.
+
+> Αν πάρουμε βάρη άλλων ανθρώπων, όχι από τη λίγκα μπέιζμπολ, η κατανομή είναι πιθανό να είναι διαφορετική. Ωστόσο, το σχήμα της κατανομής θα είναι το ίδιο, αλλά η μέση τιμή και η διακύμανση θα αλλάξουν. Έτσι, αν εκπαιδεύσουμε το μοντέλο μας σε παίκτες μπέιζμπολ, είναι πιθανό να δώσει λανθασμένα αποτελέσματα όταν εφαρμοστεί σε φοιτητές πανεπιστημίου, επειδή η υποκείμενη κατανομή είναι διαφορετική.
+
+## Κανονική Κατανομή
+
+Η κατανομή των βαρών που είδαμε παραπάνω είναι πολύ τυπική, και πολλές μετρήσεις από τον πραγματικό κόσμο ακολουθούν τον ίδιο τύπο κατανομής, αλλά με διαφορετική μέση τιμή και διακύμανση. Αυτή η κατανομή ονομάζεται **κανονική κατανομή**, και παίζει πολύ σημαντικό ρόλο στη στατιστική.
+
+Η χρήση της κανονικής κατανομής είναι ο σωστός τρόπος για να δημιουργήσουμε τυχαία βάρη πιθανών παικτών μπέιζμπολ. Μόλις γνωρίζουμε τη μέση τιμή βάρους `mean` και την τυπική απόκλιση `std`, μπορούμε να δημιουργήσουμε 1000 δείγματα βάρους με τον εξής τρόπο:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Αν σχεδιάσουμε το ιστόγραμμα των παραγόμενων δειγμάτων, θα δούμε μια εικόνα πολύ παρόμοια με αυτή που φαίνεται παραπάνω. Και αν αυξήσουμε τον αριθμό των δειγμάτων και τον αριθμό των bins, μπορούμε να δημιουργήσουμε μια εικόνα της κανονικής κατανομής που είναι πιο κοντά στο ιδανικό:
+
+
+
+*Κανονική Κατανομή με mean=0 και std.dev=1*
+
+## Διαστήματα Εμπιστοσύνης
+
+Όταν μιλάμε για βάρη παικτών μπέιζμπολ, υποθέτουμε ότι υπάρχει μια συγκεκριμένη **τυχαία μεταβλητή W** που αντιστοιχεί στην ιδανική κατανομή πιθανότητας των βαρών όλων των παικτών μπέιζμπολ (η λεγόμενη **πληθυσμός**). Η ακολουθία των βαρών μας αντιστοιχεί σε ένα υποσύνολο όλων των παικτών μπέιζμπολ που ονομάζουμε **δείγμα**. Ένα ενδιαφέρον ερώτημα είναι
+> **Διάστημα εμπιστοσύνης** είναι η εκτίμηση της πραγματικής μέσης τιμής του πληθυσμού με βάση το δείγμα μας, η οποία είναι ακριβής με μια συγκεκριμένη πιθανότητα (ή **επίπεδο εμπιστοσύνης**).
+Υποθέτουμε ότι έχουμε ένα δείγμα X1, ..., Xn από την κατανομή μας. Κάθε φορά που παίρνουμε ένα δείγμα από την κατανομή μας, καταλήγουμε με διαφορετική μέση τιμή μ. Έτσι, η μ μπορεί να θεωρηθεί ως τυχαία μεταβλητή. Ένα **διάστημα εμπιστοσύνης** με εμπιστοσύνη p είναι ένα ζεύγος τιμών (Lp,Rp), τέτοιο ώστε **P**(Lp≤μ≤Rp) = p, δηλαδή η πιθανότητα η μετρημένη μέση τιμή να βρίσκεται εντός του διαστήματος ισούται με p.
+
+Πηγαίνει πέρα από την σύντομη εισαγωγή μας να συζητήσουμε λεπτομερώς πώς υπολογίζονται αυτά τα διαστήματα εμπιστοσύνης. Περισσότερες λεπτομέρειες μπορείτε να βρείτε [στη Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). Εν συντομία, ορίζουμε την κατανομή της υπολογισμένης μέσης τιμής του δείγματος σε σχέση με την πραγματική μέση τιμή του πληθυσμού, η οποία ονομάζεται **κατανομή του Student**.
+
+> **Ενδιαφέρον γεγονός**: Η κατανομή του Student πήρε το όνομά της από τον μαθηματικό William Sealy Gosset, ο οποίος δημοσίευσε την εργασία του με το ψευδώνυμο "Student". Εργαζόταν στη ζυθοποιία Guinness και, σύμφωνα με μία εκδοχή, ο εργοδότης του δεν ήθελε το ευρύ κοινό να γνωρίζει ότι χρησιμοποιούσαν στατιστικά τεστ για να καθορίσουν την ποιότητα των πρώτων υλών.
+
+Αν θέλουμε να εκτιμήσουμε τη μέση τιμή μ του πληθυσμού μας με εμπιστοσύνη p, πρέπει να πάρουμε το *(1-p)/2-ο εκατοστημόριο* μιας κατανομής του Student A, το οποίο μπορεί είτε να ληφθεί από πίνακες είτε να υπολογιστεί με ενσωματωμένες συναρτήσεις λογισμικού στατιστικής (π.χ. Python, R, κλπ.). Τότε το διάστημα για τη μ θα δίνεται από X±A*D/√n, όπου X είναι η μέση τιμή του δείγματος, D είναι η τυπική απόκλιση.
+
+> **Σημείωση**: Παραλείπουμε επίσης τη συζήτηση μιας σημαντικής έννοιας των [βαθμών ελευθερίας](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), η οποία είναι σημαντική σε σχέση με την κατανομή του Student. Μπορείτε να ανατρέξετε σε πιο ολοκληρωμένα βιβλία στατιστικής για να κατανοήσετε αυτήν την έννοια βαθύτερα.
+
+Ένα παράδειγμα υπολογισμού διαστήματος εμπιστοσύνης για βάρη και ύψη δίνεται στα [συνοδευτικά σημειωματάρια](notebook.ipynb).
+
+| p | Μέση τιμή βάρους |
+|-----|-----------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Παρατηρήστε ότι όσο μεγαλύτερη είναι η πιθανότητα εμπιστοσύνης, τόσο ευρύτερο είναι το διάστημα εμπιστοσύνης.
+
+## Έλεγχος Υποθέσεων
+
+Στο σύνολο δεδομένων των παικτών του μπέιζμπολ, υπάρχουν διαφορετικοί ρόλοι παικτών, που μπορούν να συνοψιστούν παρακάτω (δείτε το [συνοδευτικό σημειωματάριο](notebook.ipynb) για να δείτε πώς μπορεί να υπολογιστεί αυτός ο πίνακας):
+
+| Ρόλος | Ύψος | Βάρος | Πλήθος |
+|------|--------|--------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Μπορούμε να παρατηρήσουμε ότι η μέση τιμή ύψους των πρώτων βάσεων είναι μεγαλύτερη από αυτή των δεύτερων βάσεων. Έτσι, μπορεί να μπείτε στον πειρασμό να συμπεράνετε ότι **οι πρώτοι βάσεις είναι ψηλότεροι από τους δεύτερους βάσεις**.
+
+> Αυτή η δήλωση ονομάζεται **υπόθεση**, επειδή δεν γνωρίζουμε αν το γεγονός είναι πραγματικά αληθές ή όχι.
+
+Ωστόσο, δεν είναι πάντα προφανές αν μπορούμε να κάνουμε αυτό το συμπέρασμα. Από τη συζήτηση παραπάνω γνωρίζουμε ότι κάθε μέση τιμή έχει ένα σχετικό διάστημα εμπιστοσύνης, και έτσι αυτή η διαφορά μπορεί να είναι απλώς ένα στατιστικό σφάλμα. Χρειαζόμαστε έναν πιο επίσημο τρόπο για να ελέγξουμε την υπόθεσή μας.
+
+Ας υπολογίσουμε τα διαστήματα εμπιστοσύνης ξεχωριστά για τα ύψη των πρώτων και δεύτερων βάσεων:
+
+| Εμπιστοσύνη | Πρώτοι Βάσεις | Δεύτεροι Βάσεις |
+|------------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Μπορούμε να δούμε ότι σε καμία εμπιστοσύνη τα διαστήματα δεν επικαλύπτονται. Αυτό αποδεικνύει την υπόθεσή μας ότι οι πρώτοι βάσεις είναι ψηλότεροι από τους δεύτερους βάσεις.
+
+Πιο επίσημα, το πρόβλημα που λύνουμε είναι να δούμε αν **δύο κατανομές πιθανότητας είναι ίδιες**, ή τουλάχιστον έχουν τα ίδια παραμέτρους. Ανάλογα με την κατανομή, πρέπει να χρησιμοποιήσουμε διαφορετικά τεστ για αυτό. Αν γνωρίζουμε ότι οι κατανομές μας είναι κανονικές, μπορούμε να εφαρμόσουμε **[Student t-test](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+Στο Student t-test, υπολογίζουμε την λεγόμενη **t-τιμή**, η οποία δείχνει τη διαφορά μεταξύ των μέσων τιμών, λαμβάνοντας υπόψη τη διακύμανση. Έχει αποδειχθεί ότι η t-τιμή ακολουθεί την **κατανομή του Student**, η οποία μας επιτρέπει να πάρουμε την οριακή τιμή για ένα δεδομένο επίπεδο εμπιστοσύνης **p** (αυτό μπορεί να υπολογιστεί ή να αναζητηθεί στους αριθμητικούς πίνακες). Στη συνέχεια συγκρίνουμε την t-τιμή με αυτήν την οριακή τιμή για να εγκρίνουμε ή να απορρίψουμε την υπόθεση.
+
+Στην Python, μπορούμε να χρησιμοποιήσουμε το πακέτο **SciPy**, το οποίο περιλαμβάνει τη συνάρτηση `ttest_ind` (εκτός από πολλές άλλες χρήσιμες στατιστικές συναρτήσεις!). Υπολογίζει την t-τιμή για εμάς και επίσης κάνει την αντίστροφη αναζήτηση της τιμής εμπιστοσύνης p, ώστε να μπορούμε απλώς να κοιτάξουμε την εμπιστοσύνη για να βγάλουμε το συμπέρασμα.
+
+Για παράδειγμα, η σύγκρισή μας μεταξύ των υψών των πρώτων και δεύτερων βάσεων μας δίνει τα εξής αποτελέσματα:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+Στην περίπτωσή μας, η τιμή p είναι πολύ χαμηλή, που σημαίνει ότι υπάρχουν ισχυρά στοιχεία που υποστηρίζουν ότι οι πρώτοι βάσεις είναι ψηλότεροι.
+
+Υπάρχουν επίσης διαφορετικοί άλλοι τύποι υποθέσεων που μπορεί να θέλουμε να ελέγξουμε, για παράδειγμα:
+* Να αποδείξουμε ότι ένα δεδομένο δείγμα ακολουθεί κάποια κατανομή. Στην περίπτωσή μας έχουμε υποθέσει ότι τα ύψη κατανέμονται κανονικά, αλλά αυτό χρειάζεται επίσημη στατιστική επαλήθευση.
+* Να αποδείξουμε ότι η μέση τιμή ενός δείγματος αντιστοιχεί σε κάποια προκαθορισμένη τιμή.
+* Να συγκρίνουμε τις μέσες τιμές ενός αριθμού δειγμάτων (π.χ. ποια είναι η διαφορά στα επίπεδα ευτυχίας μεταξύ διαφορετικών ηλικιακών ομάδων).
+
+## Νόμος των Μεγάλων Αριθμών και Κεντρικό Οριακό Θεώρημα
+
+Ένας από τους λόγους για τους οποίους η κανονική κατανομή είναι τόσο σημαντική είναι το λεγόμενο **κεντρικό οριακό θεώρημα**. Υποθέτουμε ότι έχουμε ένα μεγάλο δείγμα από ανεξάρτητες N τιμές X1, ..., XN, δειγματοληπτημένες από οποιαδήποτε κατανομή με μέση τιμή μ και διακύμανση σ2. Τότε, για αρκετά μεγάλο N (με άλλα λόγια, όταν N→∞), η μέση τιμή ΣiXi θα κατανέμεται κανονικά, με μέση τιμή μ και διακύμανση σ2/N.
+
+> Ένας άλλος τρόπος να ερμηνεύσουμε το κεντρικό οριακό θεώρημα είναι να πούμε ότι ανεξάρτητα από την κατανομή, όταν υπολογίζετε τη μέση τιμή ενός αθροίσματος οποιωνδήποτε τυχαίων μεταβλητών καταλήγετε σε κανονική κατανομή.
+
+Από το κεντρικό οριακό θεώρημα προκύπτει επίσης ότι, όταν N→∞, η πιθανότητα η μέση τιμή του δείγματος να είναι ίση με μ γίνεται 1. Αυτό είναι γνωστό ως **ο νόμος των μεγάλων αριθμών**.
+
+## Συνδιακύμανση και Συσχέτιση
+
+Ένα από τα πράγματα που κάνει η Επιστήμη Δεδομένων είναι να βρίσκει σχέσεις μεταξύ δεδομένων. Λέμε ότι δύο ακολουθίες **συσχετίζονται** όταν παρουσιάζουν παρόμοια συμπεριφορά την ίδια στιγμή, δηλαδή είτε αυξάνονται/μειώνονται ταυτόχρονα, είτε μία ακολουθία αυξάνεται όταν η άλλη μειώνεται και αντίστροφα. Με άλλα λόγια, φαίνεται να υπάρχει κάποια σχέση μεταξύ δύο ακολουθιών.
+
+> Η συσχέτιση δεν υποδεικνύει απαραίτητα αιτιακή σχέση μεταξύ δύο ακολουθιών· μερικές φορές και οι δύο μεταβλητές μπορεί να εξαρτώνται από κάποια εξωτερική αιτία ή μπορεί να είναι καθαρά τυχαίο το ότι οι δύο ακολουθίες συσχετίζονται. Ωστόσο, η ισχυρή μαθηματική συσχέτιση είναι μια καλή ένδειξη ότι δύο μεταβλητές συνδέονται κάπως.
+
+Μαθηματικά, η κύρια έννοια που δείχνει τη σχέση μεταξύ δύο τυχαίων μεταβλητών είναι η **συνδιακύμανση**, η οποία υπολογίζεται ως εξής: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Υπολογίζουμε την απόκλιση και των δύο μεταβλητών από τις μέσες τιμές τους και στη συνέχεια το γινόμενο αυτών των αποκλίσεων. Αν και οι δύο μεταβλητές αποκλίνουν μαζί, το γινόμενο θα είναι πάντα θετική τιμή, που θα προστίθεται σε θετική συνδιακύμανση. Αν και οι δύο μεταβλητές αποκλίνουν εκτός συγχρονισμού (δηλαδή μία πέφτει κάτω από τον μέσο όρο όταν η άλλη ανεβαίνει πάνω από τον μέσο όρο), θα έχουμε πάντα αρνητικούς αριθμούς, που θα προστίθενται σε αρνητική συνδιακύμανση. Αν οι αποκλίσεις δεν εξαρτώνται, θα προστίθενται περίπου στο μηδέν.
+
+Η απόλυτη τιμή της συνδιακύμανσης δεν μας λέει πολλά για το πόσο μεγάλη είναι η συσχέτιση, επειδή εξαρτάται από το μέγεθος των πραγματικών τιμών. Για να την κανονικοποιήσουμε, μπορούμε να διαιρέσουμε τη συνδιακύμανση με την τυπική απόκλιση και των δύο μεταβλητών, για να πάρουμε τη **συσχέτιση**. Το καλό είναι ότι η συσχέτιση είναι πάντα στο εύρος [-1,1], όπου το 1 υποδεικνύει ισχυρή θετική συσχέτιση μεταξύ των τιμών, το -1 ισχυρή αρνητική συσχέτιση και το 0 καμία συσχέτιση (οι μεταβλητές είναι ανεξάρτητες).
+
+**Παράδειγμα**: Μπορούμε να υπολογίσουμε τη συσχέτιση μεταξύ βαρών και υψών των παικτών του μπέιζμπολ από το σύνολο δεδομένων που αναφέρθηκε παραπάνω:
+```python
+print(np.corrcoef(weights,heights))
+```
+Ως αποτέλεσμα, παίρνουμε **πίνακα συσχέτισης** όπως αυτόν:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Ο πίνακας συσχέτισης C μπορεί να υπολογιστεί για οποιονδήποτε αριθμό εισαγωγικών ακολουθιών S1, ..., Sn. Η τιμή του Cij είναι η συσχέτιση μεταξύ των Si και Sj, και τα διαγώνια στοιχεία είναι πάντα 1 (που είναι επίσης η αυτοσυσχέτιση του Si).
+
+Στην περίπτωσή μας, η τιμή 0.53 υποδεικνύει ότι υπάρχει κάποια συσχέτιση μεταξύ του βάρους και του ύψους ενός ατόμου. Μπορούμε επίσης να κάνουμε το διάγραμμα διασποράς μιας τιμής έναντι της άλλης για να δούμε τη σχέση οπτικά:
+
+
+
+> Περισσότερα παραδείγματα συσχέτισης και συνδιακύμανσης μπορείτε να βρείτε στο [συνοδευτικό σημειωματάριο](notebook.ipynb).
+
+## Συμπέρασμα
+
+Σε αυτήν την ενότητα, μάθαμε:
+
+* βασικές στατιστικές ιδιότητες δεδομένων, όπως μέση τιμή, διακύμανση, διάμεσος και τεταρτημόρια
+* διαφορετικές κατανομές τυχαίων μεταβλητών, συμπεριλαμβανομένης της κανονικής κατανομής
+* πώς να βρούμε τη συσχέτιση μεταξύ διαφορετικών ιδιοτήτων
+* πώς να χρησιμοποιήσουμε τον μαθηματικό και στατιστικό μηχανισμό για να αποδείξουμε κάποιες υποθέσεις
+* πώς να υπολογίσουμε διαστήματα εμπιστοσύνης για τυχαίες μεταβλητές δεδομένου δείγματος δεδομένων
+
+Παρόλο που αυτή δεν είναι εξαντλητική λίστα θεμάτων που υπάρχουν μέσα στην πιθανότητα και στατιστική, θα πρέπει να είναι αρκετή για να σας δώσει μια καλή αρχή σε αυτό το μάθημα.
+
+## 🚀 Πρόκληση
+
+Χρησιμοποιήστε τον κώδικα δείγματος στο σημειωματάριο για να ελέγξετε άλλες υποθέσεις ότι:
+1. Οι πρώτοι βάσεις είναι μεγαλύτεροι σε ηλικία από τους δεύτερους βάσεις
+2. Οι πρώτοι βάσεις είναι ψηλότεροι από τους τρίτους βάσεις
+3. Οι shortstops είναι ψηλότεροι από τους δεύτερους βάσεις
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Η πιθανότητα και η στατιστική είναι τόσο ευρύ θέμα που αξίζει το δικό της μάθημα. Αν ενδιαφέρεστε να εμβαθύνετε στη θεωρία, ίσως θέλετε να συνεχίσετε την ανάγνωση μερικών από τα παρακάτω βιβλία:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) από το Πανεπιστήμιο της Νέας Υόρκης έχει εξαιρετικές σημειώσεις διαλέξεων [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (διαθέσιμες
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/04-stats-and-probability/assignment.md b/translations/el/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..08704631
--- /dev/null
+++ b/translations/el/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Μικρή Μελέτη για τον Διαβήτη
+
+Σε αυτή την εργασία, θα δουλέψουμε με ένα μικρό σύνολο δεδομένων ασθενών με διαβήτη που προέρχεται από [εδώ](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | ΗΛΙΚΙΑ | ΦΥΛΟ | ΔΜΣ | ΠΑ | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|--------|------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1| 101.| 157| 93.2| 38.0| 4. | 4.8598| 87 | 151 |
+| 1 | 48 | 1 | 21.6| 87.0| 183| 103.2| 70. | 3. | 3.8918| 69 | 75 |
+| 2 | 72 | 2 | 30.5| 93.0| 156| 93.6| 41.0| 4.0| 4. | 85 | 141 |
+| ... | ... | ... | ... | ... | ...| ...| ...| ...| ... | ...| ... |
+
+## Οδηγίες
+
+* Ανοίξτε το [notebook της εργασίας](assignment.ipynb) σε ένα περιβάλλον jupyter notebook
+* Ολοκληρώστε όλες τις εργασίες που αναφέρονται στο notebook, συγκεκριμένα:
+ * [ ] Υπολογίστε τις μέσες τιμές και τη διακύμανση για όλες τις μεταβλητές
+ * [ ] Δημιουργήστε boxplots για τις μεταβλητές ΔΜΣ, ΠΑ και Y ανάλογα με το φύλο
+ * [ ] Ποια είναι η κατανομή των μεταβλητών Ηλικία, Φύλο, ΔΜΣ και Y;
+ * [ ] Ελέγξτε τη συσχέτιση μεταξύ διαφορετικών μεταβλητών και της εξέλιξης της νόσου (Y)
+ * [ ] Ελέγξτε την υπόθεση ότι ο βαθμός εξέλιξης του διαβήτη διαφέρει μεταξύ ανδρών και γυναικών
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | --- |
+Όλες οι απαιτούμενες εργασίες έχουν ολοκληρωθεί, απεικονιστεί γραφικά και εξηγηθεί | Οι περισσότερες εργασίες έχουν ολοκληρωθεί, αλλά λείπουν εξηγήσεις ή συμπεράσματα από τα γραφήματα και/ή τις τιμές που προέκυψαν | Μόνο βασικές εργασίες, όπως ο υπολογισμός μέσων τιμών/διακύμανσης και βασικά γραφήματα, έχουν ολοκληρωθεί, χωρίς να εξάγονται συμπεράσματα από τα δεδομένα
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/1-Introduction/README.md b/translations/el/1-Introduction/README.md
new file mode 100644
index 00000000..1ada9760
--- /dev/null
+++ b/translations/el/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Εισαγωγή στην Επιστήμη Δεδομένων
+
+
+> Φωτογραφία από Stephen Dawson στο Unsplash
+
+Σε αυτά τα μαθήματα, θα ανακαλύψετε πώς ορίζεται η Επιστήμη Δεδομένων και θα μάθετε για τις ηθικές παραμέτρους που πρέπει να λαμβάνει υπόψη ένας επιστήμονας δεδομένων. Θα μάθετε επίσης πώς ορίζονται τα δεδομένα και θα αποκτήσετε μια βασική κατανόηση της στατιστικής και της πιθανότητας, των βασικών ακαδημαϊκών πεδίων της Επιστήμης Δεδομένων.
+
+### Θέματα
+
+1. [Ορισμός της Επιστήμης Δεδομένων](01-defining-data-science/README.md)
+2. [Ηθική στην Επιστήμη Δεδομένων](02-ethics/README.md)
+3. [Ορισμός των Δεδομένων](03-defining-data/README.md)
+4. [Εισαγωγή στη Στατιστική και την Πιθανότητα](04-stats-and-probability/README.md)
+
+### Συντελεστές
+
+Αυτά τα μαθήματα γράφτηκαν με ❤️ από [Nitya Narasimhan](https://twitter.com/nitya) και [Dmitry Soshnikov](https://twitter.com/shwars).
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/05-relational-databases/README.md b/translations/el/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..c6b9a68e
--- /dev/null
+++ b/translations/el/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Εργασία με Δεδομένα: Σχεσιακές Βάσεις Δεδομένων
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Εργασία με Δεδομένα: Σχεσιακές Βάσεις Δεδομένων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Πιθανότατα έχετε χρησιμοποιήσει ένα υπολογιστικό φύλλο στο παρελθόν για να αποθηκεύσετε πληροφορίες. Είχατε ένα σύνολο από γραμμές και στήλες, όπου οι γραμμές περιείχαν τις πληροφορίες (ή δεδομένα) και οι στήλες περιέγραφαν τις πληροφορίες (μερικές φορές ονομάζονται μεταδεδομένα). Μια σχεσιακή βάση δεδομένων βασίζεται σε αυτήν την αρχή των στηλών και γραμμών σε πίνακες, επιτρέποντάς σας να έχετε πληροφορίες κατανεμημένες σε πολλαπλούς πίνακες. Αυτό σας επιτρέπει να εργάζεστε με πιο σύνθετα δεδομένα, να αποφεύγετε την επανάληψη και να έχετε ευελιξία στον τρόπο που εξερευνάτε τα δεδομένα. Ας εξερευνήσουμε τις έννοιες μιας σχεσιακής βάσης δεδομένων.
+
+## [Προ-διάλεξης κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Όλα ξεκινούν από τους πίνακες
+
+Μια σχεσιακή βάση δεδομένων έχει ως πυρήνα της τους πίνακες. Όπως και με το υπολογιστικό φύλλο, ένας πίνακας είναι μια συλλογή από στήλες και γραμμές. Η γραμμή περιέχει τα δεδομένα ή τις πληροφορίες με τις οποίες θέλουμε να εργαστούμε, όπως το όνομα μιας πόλης ή την ποσότητα βροχόπτωσης. Οι στήλες περιγράφουν τα δεδομένα που αποθηκεύουν.
+
+Ας ξεκινήσουμε την εξερεύνησή μας δημιουργώντας έναν πίνακα για την αποθήκευση πληροφοριών σχετικά με πόλεις. Μπορεί να ξεκινήσουμε με το όνομά τους και τη χώρα τους. Θα μπορούσατε να το αποθηκεύσετε σε έναν πίνακα ως εξής:
+
+| Πόλη | Χώρα |
+| -------- | ------------- |
+| Τόκιο | Ιαπωνία |
+| Ατλάντα | Ηνωμένες Πολιτείες |
+| Όκλαντ | Νέα Ζηλανδία |
+
+Παρατηρήστε ότι τα ονόματα των στηλών **πόλη**, **χώρα** και **πληθυσμός** περιγράφουν τα δεδομένα που αποθηκεύονται, και κάθε γραμμή έχει πληροφορίες για μία πόλη.
+
+## Οι περιορισμοί της προσέγγισης ενός πίνακα
+
+Πιθανότατα, ο παραπάνω πίνακας σας φαίνεται αρκετά οικείος. Ας προσθέσουμε κάποια επιπλέον δεδομένα στη βάση δεδομένων μας που αναπτύσσεται - την ετήσια βροχόπτωση (σε χιλιοστά). Θα επικεντρωθούμε στα έτη 2018, 2019 και 2020. Αν προσθέταμε αυτά τα δεδομένα για το Τόκιο, θα μπορούσε να μοιάζει κάπως έτσι:
+
+| Πόλη | Χώρα | Έτος | Ποσότητα |
+| ----- | ------- | ---- | -------- |
+| Τόκιο | Ιαπωνία | 2020 | 1690 |
+| Τόκιο | Ιαπωνία | 2019 | 1874 |
+| Τόκιο | Ιαπωνία | 2018 | 1445 |
+
+Τι παρατηρείτε στον πίνακά μας; Ίσως παρατηρήσετε ότι επαναλαμβάνουμε το όνομα και τη χώρα της πόλης ξανά και ξανά. Αυτό θα μπορούσε να καταναλώσει αρκετό αποθηκευτικό χώρο και είναι σε μεγάλο βαθμό περιττό να έχουμε πολλαπλά αντίγραφα. Εξάλλου, το Τόκιο έχει μόνο ένα όνομα που μας ενδιαφέρει.
+
+Εντάξει, ας δοκιμάσουμε κάτι άλλο. Ας προσθέσουμε νέες στήλες για κάθε έτος:
+
+| Πόλη | Χώρα | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Τόκιο | Ιαπωνία | 1445 | 1874 | 1690 |
+| Ατλάντα | Ηνωμένες Πολιτείες | 1779 | 1111 | 1683 |
+| Όκλαντ | Νέα Ζηλανδία | 1386 | 942 | 1176 |
+
+Ενώ αυτό αποφεύγει την επανάληψη των γραμμών, προσθέτει μερικές άλλες προκλήσεις. Θα χρειαζόταν να τροποποιούμε τη δομή του πίνακά μας κάθε φορά που υπάρχει ένα νέο έτος. Επιπλέον, καθώς τα δεδομένα μας αυξάνονται, η χρήση των ετών ως στήλες θα κάνει πιο δύσκολη την ανάκτηση και τον υπολογισμό τιμών.
+
+Αυτός είναι ο λόγος που χρειαζόμαστε πολλαπλούς πίνακες και σχέσεις. Διαχωρίζοντας τα δεδομένα μας, μπορούμε να αποφύγουμε την επανάληψη και να έχουμε μεγαλύτερη ευελιξία στον τρόπο που εργαζόμαστε με αυτά.
+
+## Οι έννοιες των σχέσεων
+
+Ας επιστρέψουμε στα δεδομένα μας και ας καθορίσουμε πώς θέλουμε να τα διαχωρίσουμε. Ξέρουμε ότι θέλουμε να αποθηκεύσουμε το όνομα και τη χώρα για τις πόλεις μας, οπότε αυτό πιθανότατα θα λειτουργήσει καλύτερα σε έναν πίνακα.
+
+| Πόλη | Χώρα |
+| -------- | ------------- |
+| Τόκιο | Ιαπωνία |
+| Ατλάντα | Ηνωμένες Πολιτείες |
+| Όκλαντ | Νέα Ζηλανδία |
+
+Αλλά πριν δημιουργήσουμε τον επόμενο πίνακα, πρέπει να βρούμε πώς να αναφερόμαστε σε κάθε πόλη. Χρειαζόμαστε κάποια μορφή αναγνωριστικού, ID ή (σε τεχνικούς όρους βάσεων δεδομένων) πρωτεύον κλειδί. Ένα πρωτεύον κλειδί είναι μια τιμή που χρησιμοποιείται για να αναγνωρίσει μια συγκεκριμένη γραμμή σε έναν πίνακα. Ενώ αυτό θα μπορούσε να βασίζεται σε μια τιμή (θα μπορούσαμε να χρησιμοποιήσουμε το όνομα της πόλης, για παράδειγμα), θα πρέπει σχεδόν πάντα να είναι ένας αριθμός ή άλλος αναγνωριστικός δείκτης. Δεν θέλουμε το ID να αλλάζει ποτέ, καθώς αυτό θα έσπαγε τη σχέση. Στις περισσότερες περιπτώσεις, το πρωτεύον κλειδί ή ID θα είναι ένας αυτόματα παραγόμενος αριθμός.
+
+> ✅ Το πρωτεύον κλειδί συχνά συντομογραφείται ως PK
+
+### πόλεις
+
+| city_id | Πόλη | Χώρα |
+| ------- | -------- | ------------- |
+| 1 | Τόκιο | Ιαπωνία |
+| 2 | Ατλάντα | Ηνωμένες Πολιτείες |
+| 3 | Όκλαντ | Νέα Ζηλανδία |
+
+> ✅ Θα παρατηρήσετε ότι χρησιμοποιούμε τους όρους "id" και "πρωτεύον κλειδί" εναλλακτικά κατά τη διάρκεια αυτού του μαθήματος. Οι έννοιες αυτές ισχύουν και για τα DataFrames, τα οποία θα εξερευνήσετε αργότερα. Τα DataFrames δεν χρησιμοποιούν την ορολογία "πρωτεύον κλειδί", ωστόσο θα παρατηρήσετε ότι λειτουργούν με παρόμοιο τρόπο.
+
+Με τον πίνακα πόλεων μας δημιουργημένο, ας αποθηκεύσουμε τη βροχόπτωση. Αντί να επαναλαμβάνουμε τις πλήρεις πληροφορίες για την πόλη, μπορούμε να χρησιμοποιήσουμε το ID. Θα πρέπει επίσης να διασφαλίσουμε ότι ο νεοδημιουργημένος πίνακας έχει μια στήλη *id*, καθώς όλοι οι πίνακες πρέπει να έχουν ένα ID ή πρωτεύον κλειδί.
+
+### βροχόπτωση
+
+| rainfall_id | city_id | Έτος | Ποσότητα |
+| ----------- | ------- | ---- | -------- |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Παρατηρήστε τη στήλη **city_id** στον νεοδημιουργημένο πίνακα **βροχόπτωση**. Αυτή η στήλη περιέχει τιμές που αναφέρονται στα IDs στον πίνακα **πόλεις**. Σε τεχνικούς όρους σχεσιακών δεδομένων, αυτό ονομάζεται **ξένο κλειδί**. Μπορείτε απλά να το σκεφτείτε ως μια αναφορά ή έναν δείκτη. Το **city_id** 1 αναφέρεται στο Τόκιο.
+
+> [!NOTE] Το ξένο κλειδί συχνά συντομογραφείται ως FK
+
+## Ανάκτηση δεδομένων
+
+Με τα δεδομένα μας διαχωρισμένα σε δύο πίνακες, ίσως αναρωτιέστε πώς τα ανακτούμε. Αν χρησιμοποιούμε μια σχεσιακή βάση δεδομένων όπως MySQL, SQL Server ή Oracle, μπορούμε να χρησιμοποιήσουμε μια γλώσσα που ονομάζεται Δομημένη Γλώσσα Ερωτημάτων ή SQL. Η SQL (μερικές φορές προφέρεται "σίκουελ") είναι μια τυποποιημένη γλώσσα που χρησιμοποιείται για την ανάκτηση και τροποποίηση δεδομένων σε μια σχεσιακή βάση δεδομένων.
+
+Για να ανακτήσετε δεδομένα, χρησιμοποιείτε την εντολή `SELECT`. Στον πυρήνα της, **επιλέγετε** τις στήλες που θέλετε να δείτε **από** τον πίνακα στον οποίο περιέχονται. Αν θέλατε να εμφανίσετε μόνο τα ονόματα των πόλεων, θα μπορούσατε να χρησιμοποιήσετε το εξής:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+Το `SELECT` είναι όπου παραθέτετε τις στήλες, και το `FROM` είναι όπου παραθέτετε τους πίνακες.
+
+> [NOTE] Η σύνταξη της SQL δεν κάνει διάκριση πεζών-κεφαλαίων, που σημαίνει ότι `select` και `SELECT` είναι το ίδιο. Ωστόσο, ανάλογα με τον τύπο της βάσης δεδομένων που χρησιμοποιείτε, οι στήλες και οι πίνακες μπορεί να είναι ευαίσθητοι σε πεζά-κεφαλαία. Ως αποτέλεσμα, είναι καλή πρακτική να αντιμετωπίζετε τα πάντα στον προγραμματισμό σαν να είναι ευαίσθητα σε πεζά-κεφαλαία. Όταν γράφετε ερωτήματα SQL, η κοινή σύμβαση είναι να γράφετε τις λέξεις-κλειδιά με κεφαλαία γράμματα.
+
+Το παραπάνω ερώτημα θα εμφανίσει όλες τις πόλεις. Ας φανταστούμε ότι θέλουμε να εμφανίσουμε μόνο τις πόλεις στη Νέα Ζηλανδία. Χρειαζόμαστε κάποια μορφή φίλτρου. Η λέξη-κλειδί της SQL για αυτό είναι `WHERE`, ή "όπου κάτι είναι αληθές".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Συνένωση δεδομένων
+
+Μέχρι τώρα έχουμε ανακτήσει δεδομένα από έναν μόνο πίνακα. Τώρα θέλουμε να συνδυάσουμε τα δεδομένα από τους πίνακες **πόλεις** και **βροχόπτωση**. Αυτό γίνεται με τη *συνένωση* τους. Ουσιαστικά θα δημιουργήσετε μια σύνδεση μεταξύ των δύο πινάκων και θα αντιστοιχίσετε τις τιμές από μια στήλη κάθε πίνακα.
+
+Στο παράδειγμά μας, θα αντιστοιχίσουμε τη στήλη **city_id** στον πίνακα **βροχόπτωση** με τη στήλη **city_id** στον πίνακα **πόλεις**. Αυτό θα αντιστοιχίσει την τιμή της βροχόπτωσης με την αντίστοιχη πόλη. Ο τύπος συνένωσης που θα εκτελέσουμε ονομάζεται *εσωτερική* συνένωση, που σημαίνει ότι αν οποιαδήποτε γραμμή δεν ταιριάζει με τίποτα από τον άλλο πίνακα, δεν θα εμφανιστεί. Στην περίπτωσή μας, κάθε πόλη έχει δεδομένα βροχόπτωσης, οπότε όλα θα εμφανιστούν.
+
+Ας ανακτήσουμε τη βροχόπτωση για το 2019 για όλες τις πόλεις μας.
+
+Θα το κάνουμε αυτό σε βήματα. Το πρώτο βήμα είναι να συνενώσουμε τα δεδομένα υποδεικνύοντας τις στήλες για τη σύνδεση - **city_id** όπως τονίστηκε προηγουμένως.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Έχουμε τονίσει τις δύο στήλες που θέλουμε, και το γεγονός ότι θέλουμε να συνενώσουμε τους πίνακες μέσω του **city_id**. Τώρα μπορούμε να προσθέσουμε τη δήλωση `WHERE` για να φιλτράρουμε μόνο το έτος 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Περίληψη
+
+Οι σχεσιακές βάσεις δεδομένων επικεντρώνονται στη διαίρεση των πληροφοριών μεταξύ πολλαπλών πινάκων, οι οποίοι στη συνέχεια συνδυάζονται για εμφάνιση και ανάλυση. Αυτό παρέχει υψηλό βαθμό ευελιξίας για την εκτέλεση υπολογισμών και τη διαχείριση δεδομένων. Έχετε δει τις βασικές έννοιες μιας σχεσιακής βάσης δεδομένων και πώς να εκτελέσετε μια συνένωση μεταξύ δύο πινάκων.
+
+## 🚀 Πρόκληση
+
+Υπάρχουν πολλές σχεσιακές βάσεις δεδομένων διαθέσιμες στο διαδίκτυο. Μπορείτε να εξερευνήσετε τα δεδομένα χρησιμοποιώντας τις δεξιότητες που μάθατε παραπάνω.
+
+## Κουίζ μετά τη διάλεξη
+
+## [Κουίζ μετά τη διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Υπάρχουν αρκετοί πόροι διαθέσιμοι στο [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) για να συνεχίσετε την εξερεύνηση της SQL και των εννοιών σχεσιακών βάσεων δεδομένων.
+
+- [Περιγραφή εννοιών σχεσιακών δεδομένων](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Ξεκινήστε με ερωτήματα Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Το Transact-SQL είναι μια έκδοση της SQL)
+- [Περιεχόμενο SQL στο Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Εργασία
+
+[Τίτλος Εργασίας](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/05-relational-databases/assignment.md b/translations/el/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..611e469e
--- /dev/null
+++ b/translations/el/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Εμφάνιση δεδομένων αεροδρομίων
+
+Σας έχει δοθεί μια [βάση δεδομένων](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) βασισμένη στο [SQLite](https://sqlite.org/index.html), η οποία περιέχει πληροφορίες για αεροδρόμια. Το σχήμα της εμφανίζεται παρακάτω. Θα χρησιμοποιήσετε την [επέκταση SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) στο [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) για να εμφανίσετε πληροφορίες σχετικά με τα αεροδρόμια διαφορετικών πόλεων.
+
+## Οδηγίες
+
+Για να ξεκινήσετε την εργασία, θα χρειαστεί να εκτελέσετε μερικά βήματα. Θα πρέπει να εγκαταστήσετε κάποια εργαλεία και να κατεβάσετε τη δείγματική βάση δεδομένων.
+
+### Ρύθμιση του συστήματός σας
+
+Μπορείτε να χρησιμοποιήσετε το Visual Studio Code και την επέκταση SQLite για να αλληλεπιδράσετε με τη βάση δεδομένων.
+
+1. Μεταβείτε στο [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) και ακολουθήστε τις οδηγίες για να εγκαταστήσετε το Visual Studio Code
+1. Εγκαταστήστε την [επέκταση SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) όπως περιγράφεται στη σελίδα του Marketplace
+
+### Κατεβάστε και ανοίξτε τη βάση δεδομένων
+
+Στη συνέχεια, θα κατεβάσετε και θα ανοίξετε τη βάση δεδομένων.
+
+1. Κατεβάστε το [αρχείο βάσης δεδομένων από το GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) και αποθηκεύστε το σε έναν κατάλογο
+1. Ανοίξτε το Visual Studio Code
+1. Ανοίξτε τη βάση δεδομένων στην επέκταση SQLite επιλέγοντας **Ctl-Shift-P** (ή **Cmd-Shift-P** σε Mac) και πληκτρολογώντας `SQLite: Open database`
+1. Επιλέξτε **Choose database from file** και ανοίξτε το αρχείο **airports.db** που κατεβάσατε προηγουμένως
+1. Αφού ανοίξετε τη βάση δεδομένων (δεν θα δείτε κάποια ενημέρωση στην οθόνη), δημιουργήστε ένα νέο παράθυρο ερωτημάτων επιλέγοντας **Ctl-Shift-P** (ή **Cmd-Shift-P** σε Mac) και πληκτρολογώντας `SQLite: New query`
+
+Μόλις ανοίξετε το νέο παράθυρο ερωτημάτων, μπορείτε να εκτελέσετε δηλώσεις SQL στη βάση δεδομένων. Μπορείτε να χρησιμοποιήσετε την εντολή **Ctl-Shift-Q** (ή **Cmd-Shift-Q** σε Mac) για να εκτελέσετε ερωτήματα στη βάση δεδομένων.
+
+> [!NOTE] Για περισσότερες πληροφορίες σχετικά με την επέκταση SQLite, μπορείτε να συμβουλευτείτε την [τεκμηρίωση](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Σχήμα βάσης δεδομένων
+
+Το σχήμα μιας βάσης δεδομένων είναι ο σχεδιασμός και η δομή των πινάκων της. Η βάση δεδομένων **airports** έχει δύο πίνακες, `cities`, που περιέχει μια λίστα πόλεων στο Ηνωμένο Βασίλειο και την Ιρλανδία, και `airports`, που περιέχει τη λίστα όλων των αεροδρομίων. Επειδή κάποιες πόλεις μπορεί να έχουν πολλαπλά αεροδρόμια, δημιουργήθηκαν δύο πίνακες για την αποθήκευση των πληροφοριών. Σε αυτή την άσκηση θα χρησιμοποιήσετε συνδέσεις (joins) για να εμφανίσετε πληροφορίες για διαφορετικές πόλεις.
+
+| Πόλεις |
+| ------------------ |
+| id (PK, ακέραιος) |
+| city (κείμενο) |
+| country (κείμενο) |
+
+| Αεροδρόμια |
+| --------------------------------- |
+| id (PK, ακέραιος) |
+| name (κείμενο) |
+| code (κείμενο) |
+| city_id (FK προς id στον **Cities**) |
+
+## Εργασία
+
+Δημιουργήστε ερωτήματα για να επιστρέψετε τις παρακάτω πληροφορίες:
+
+1. όλα τα ονόματα πόλεων στον πίνακα `Cities`
+1. όλες τις πόλεις στην Ιρλανδία στον πίνακα `Cities`
+1. όλα τα ονόματα αεροδρομίων με την πόλη και τη χώρα τους
+1. όλα τα αεροδρόμια στο Λονδίνο, Ηνωμένο Βασίλειο
+
+## Κριτήρια αξιολόγησης
+
+| Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση |
+| ---------- | ------- | ------------------- |
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/06-non-relational/README.md b/translations/el/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..9407c498
--- /dev/null
+++ b/translations/el/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Εργασία με Δεδομένα: Μη Σχεσιακά Δεδομένα
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Εργασία με Δεδομένα NoSQL - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+## [Προ-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Τα δεδομένα δεν περιορίζονται μόνο σε σχεσιακές βάσεις δεδομένων. Αυτό το μάθημα επικεντρώνεται στα μη σχεσιακά δεδομένα και καλύπτει τις βασικές αρχές των υπολογιστικών φύλλων και του NoSQL.
+
+## Υπολογιστικά Φύλλα
+
+Τα υπολογιστικά φύλλα είναι ένας δημοφιλής τρόπος αποθήκευσης και εξερεύνησης δεδομένων, καθώς απαιτούν λιγότερη προετοιμασία για να ξεκινήσετε. Σε αυτό το μάθημα θα μάθετε τα βασικά στοιχεία ενός υπολογιστικού φύλλου, καθώς και τύπους και συναρτήσεις. Τα παραδείγματα θα παρουσιαστούν με το Microsoft Excel, αλλά τα περισσότερα μέρη και θέματα θα έχουν παρόμοια ονόματα και βήματα σε σύγκριση με άλλα λογισμικά υπολογιστικών φύλλων.
+
+
+
+Ένα υπολογιστικό φύλλο είναι ένα αρχείο και θα είναι προσβάσιμο στο σύστημα αρχείων ενός υπολογιστή, μιας συσκευής ή ενός συστήματος αρχείων που βασίζεται στο cloud. Το ίδιο το λογισμικό μπορεί να είναι βασισμένο σε πρόγραμμα περιήγησης ή μια εφαρμογή που πρέπει να εγκατασταθεί σε υπολογιστή ή να κατεβεί ως εφαρμογή. Στο Excel, αυτά τα αρχεία ορίζονται επίσης ως **βιβλία εργασίας** και αυτή η ορολογία θα χρησιμοποιηθεί στο υπόλοιπο του μαθήματος.
+
+Ένα βιβλίο εργασίας περιέχει ένα ή περισσότερα **φύλλα εργασίας**, όπου κάθε φύλλο εργασίας φέρει ετικέτα με καρτέλες. Μέσα σε ένα φύλλο εργασίας υπάρχουν ορθογώνια που ονομάζονται **κελιά**, τα οποία περιέχουν τα πραγματικά δεδομένα. Ένα κελί είναι η τομή μιας γραμμής και μιας στήλης, όπου οι στήλες φέρουν αλφαβητικούς χαρακτήρες και οι γραμμές αριθμητικούς. Ορισμένα υπολογιστικά φύλλα περιέχουν επικεφαλίδες στις πρώτες γραμμές για να περιγράψουν τα δεδομένα σε ένα κελί.
+
+Με αυτά τα βασικά στοιχεία ενός βιβλίου εργασίας Excel, θα χρησιμοποιήσουμε ένα παράδειγμα από τα [Microsoft Templates](https://templates.office.com/) που επικεντρώνεται σε ένα απόθεμα για να εξετάσουμε επιπλέον μέρη ενός υπολογιστικού φύλλου.
+
+### Διαχείριση Αποθέματος
+
+Το αρχείο υπολογιστικού φύλλου με όνομα "InventoryExample" είναι ένα μορφοποιημένο υπολογιστικό φύλλο αντικειμένων μέσα σε ένα απόθεμα που περιέχει τρία φύλλα εργασίας, όπου οι καρτέλες φέρουν τις ετικέτες "Inventory List", "Inventory Pick List" και "Bin Lookup". Η γραμμή 4 του φύλλου εργασίας Inventory List είναι η επικεφαλίδα, η οποία περιγράφει την τιμή κάθε κελιού στη στήλη επικεφαλίδας.
+
+
+
+Υπάρχουν περιπτώσεις όπου ένα κελί εξαρτάται από τις τιμές άλλων κελιών για να δημιουργήσει την τιμή του. Το υπολογιστικό φύλλο Inventory List παρακολουθεί το κόστος κάθε αντικειμένου στο απόθεμά του, αλλά τι γίνεται αν χρειαστεί να γνωρίζουμε την αξία όλων των αντικειμένων στο απόθεμα; Οι [**τύποι**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) εκτελούν ενέργειες στα δεδομένα κελιών και χρησιμοποιούνται για τον υπολογισμό της αξίας του αποθέματος σε αυτό το παράδειγμα. Αυτό το υπολογιστικό φύλλο χρησιμοποιεί έναν τύπο στη στήλη Inventory Value για να υπολογίσει την αξία κάθε αντικειμένου πολλαπλασιάζοντας την ποσότητα κάτω από την επικεφαλίδα QTY και το κόστος της κάτω από την επικεφαλίδα COST. Κάνοντας διπλό κλικ ή επιλέγοντας ένα κελί θα εμφανιστεί ο τύπος. Θα παρατηρήσετε ότι οι τύποι ξεκινούν με ένα ίσον, ακολουθούμενο από τον υπολογισμό ή τη λειτουργία.
+
+
+
+Μπορούμε να χρησιμοποιήσουμε έναν άλλο τύπο για να προσθέσουμε όλες τις τιμές της στήλης Inventory Value και να υπολογίσουμε τη συνολική αξία. Αυτό θα μπορούσε να υπολογιστεί προσθέτοντας κάθε κελί για να δημιουργηθεί το άθροισμα, αλλά αυτό μπορεί να είναι μια κουραστική εργασία. Το Excel διαθέτει [**συναρτήσεις**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), ή προκαθορισμένους τύπους για την εκτέλεση υπολογισμών στις τιμές κελιών. Οι συναρτήσεις απαιτούν ορίσματα, τα οποία είναι οι απαραίτητες τιμές που χρησιμοποιούνται για την εκτέλεση αυτών των υπολογισμών. Όταν οι συναρτήσεις απαιτούν περισσότερα από ένα ορίσματα, πρέπει να παρατίθενται με συγκεκριμένη σειρά, διαφορετικά η συνάρτηση μπορεί να μην υπολογίσει τη σωστή τιμή. Σε αυτό το παράδειγμα χρησιμοποιείται η συνάρτηση SUM, και χρησιμοποιεί τις τιμές της στήλης Inventory Value ως ορίσματα για να υπολογίσει το συνολικό άθροισμα που αναφέρεται στη γραμμή 3, στήλη B (επίσης γνωστή ως B3).
+
+## NoSQL
+
+Το NoSQL είναι ένας γενικός όρος για τους διαφορετικούς τρόπους αποθήκευσης μη σχεσιακών δεδομένων και μπορεί να ερμηνευθεί ως "μη-SQL", "μη-σχεσιακό" ή "όχι μόνο SQL". Αυτοί οι τύποι συστημάτων βάσεων δεδομένων μπορούν να κατηγοριοποιηθούν σε 4 τύπους.
+
+
+> Πηγή από [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+Οι [βάσεις δεδομένων key-value](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) συνδυάζουν μοναδικά κλειδιά, τα οποία είναι μοναδικοί αναγνωριστικοί αριθμοί που συνδέονται με μια τιμή. Αυτά τα ζεύγη αποθηκεύονται χρησιμοποιώντας έναν [πίνακα κατακερματισμού](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) με μια κατάλληλη συνάρτηση κατακερματισμού.
+
+
+> Πηγή από [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+Οι [βάσεις δεδομένων γραφήματος](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) περιγράφουν σχέσεις στα δεδομένα και αναπαρίστανται ως συλλογή κόμβων και ακμών. Ένας κόμβος αντιπροσωπεύει μια οντότητα, κάτι που υπάρχει στον πραγματικό κόσμο, όπως ένας φοιτητής ή μια τραπεζική δήλωση. Οι ακμές αντιπροσωπεύουν τη σχέση μεταξύ δύο οντοτήτων. Κάθε κόμβος και ακμή έχουν ιδιότητες που παρέχουν επιπλέον πληροφορίες.
+
+
+
+Οι [βάσεις δεδομένων στήλης](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) οργανώνουν δεδομένα σε στήλες και γραμμές όπως μια σχεσιακή δομή δεδομένων, αλλά κάθε στήλη διαιρείται σε ομάδες που ονομάζονται οικογένειες στηλών, όπου όλα τα δεδομένα κάτω από μία στήλη σχετίζονται και μπορούν να ανακτηθούν και να αλλάξουν ως μία μονάδα.
+
+### Βάσεις Δεδομένων Εγγράφων με το Azure Cosmos DB
+
+Οι [βάσεις δεδομένων εγγράφων](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) βασίζονται στην έννοια μιας βάσης δεδομένων key-value και αποτελούνται από μια σειρά πεδίων και αντικειμένων. Αυτή η ενότητα θα εξερευνήσει τις βάσεις δεδομένων εγγράφων με τον εξομοιωτή Cosmos DB.
+
+Μια βάση δεδομένων Cosmos DB ταιριάζει στον ορισμό του "Όχι Μόνο SQL", όπου η βάση δεδομένων εγγράφων του Cosmos DB βασίζεται στη SQL για την αναζήτηση δεδομένων. Το [προηγούμενο μάθημα](../05-relational-databases/README.md) για τη SQL καλύπτει τα βασικά της γλώσσας, και θα μπορέσουμε να εφαρμόσουμε ορισμένα από τα ίδια ερωτήματα σε μια βάση δεδομένων εγγράφων εδώ. Θα χρησιμοποιήσουμε τον εξομοιωτή Cosmos DB, ο οποίος μας επιτρέπει να δημιουργήσουμε και να εξερευνήσουμε μια βάση δεδομένων εγγράφων τοπικά σε έναν υπολογιστή. Διαβάστε περισσότερα για τον εξομοιωτή [εδώ](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Ένα έγγραφο είναι μια συλλογή πεδίων και τιμών αντικειμένων, όπου τα πεδία περιγράφουν τι αντιπροσωπεύει η τιμή του αντικειμένου. Παρακάτω είναι ένα παράδειγμα εγγράφου.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Τα πεδία ενδιαφέροντος σε αυτό το έγγραφο είναι: `firstname`, `id`, και `age`. Τα υπόλοιπα πεδία με τις κάτω παύλες δημιουργήθηκαν από το Cosmos DB.
+
+#### Εξερεύνηση Δεδομένων με τον Εξομοιωτή Cosmos DB
+
+Μπορείτε να κατεβάσετε και να εγκαταστήσετε τον εξομοιωτή [για Windows εδώ](https://aka.ms/cosmosdb-emulator). Ανατρέξτε σε αυτήν την [τεκμηρίωση](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) για επιλογές σχετικά με το πώς να εκτελέσετε τον εξομοιωτή σε macOS και Linux.
+
+Ο εξομοιωτής ανοίγει ένα παράθυρο προγράμματος περιήγησης, όπου η προβολή Explorer σας επιτρέπει να εξερευνήσετε έγγραφα.
+
+
+
+Αν ακολουθείτε, κάντε κλικ στο "Start with Sample" για να δημιουργήσετε μια δείγμα βάση δεδομένων που ονομάζεται SampleDB. Αν επεκτείνετε το SampleDB κάνοντας κλικ στο βέλος, θα βρείτε ένα κοντέινερ που ονομάζεται `Persons`. Ένα κοντέινερ περιέχει μια συλλογή αντικειμένων, τα οποία είναι τα έγγραφα μέσα στο κοντέινερ. Μπορείτε να εξερευνήσετε τα τέσσερα μεμονωμένα έγγραφα κάτω από το `Items`.
+
+
+
+#### Ερωτήματα Δεδομένων Εγγράφων με τον Εξομοιωτή Cosmos DB
+
+Μπορούμε επίσης να εκτελέσουμε ερωτήματα στα δεδομένα δείγματος κάνοντας κλικ στο κουμπί νέου SQL Query (δεύτερο κουμπί από τα αριστερά).
+
+`SELECT * FROM c` επιστρέφει όλα τα έγγραφα στο κοντέινερ. Ας προσθέσουμε μια where clause και να βρούμε όλους όσους είναι κάτω των 40 ετών.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Το ερώτημα επιστρέφει δύο έγγραφα. Παρατηρήστε ότι η τιμή age για κάθε έγγραφο είναι μικρότερη από 40.
+
+#### JSON και Έγγραφα
+
+Αν είστε εξοικειωμένοι με το JavaScript Object Notation (JSON), θα παρατηρήσετε ότι τα έγγραφα μοιάζουν με JSON. Υπάρχει ένα αρχείο `PersonsData.json` σε αυτόν τον κατάλογο με περισσότερα δεδομένα που μπορείτε να ανεβάσετε στο κοντέινερ Persons στον εξομοιωτή μέσω του κουμπιού `Upload Item`.
+
+Στις περισσότερες περιπτώσεις, τα APIs που επιστρέφουν δεδομένα JSON μπορούν να μεταφερθούν απευθείας και να αποθηκευτούν σε βάσεις δεδομένων εγγράφων. Παρακάτω είναι ένα άλλο έγγραφο, το οποίο αντιπροσωπεύει tweets από τον λογαριασμό Twitter της Microsoft που ανακτήθηκαν χρησιμοποιώντας το Twitter API και στη συνέχεια εισήχθησαν στο Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Τα πεδία ενδιαφέροντος σε αυτό το έγγραφο είναι: `created_at`, `id`, και `text`.
+
+## 🚀 Πρόκληση
+
+Υπάρχει ένα αρχείο `TwitterData.json` που μπορείτε να ανεβάσετε στη βάση δεδομένων SampleDB. Συνιστάται να το προσθέσετε σε ξεχωριστό κοντέινερ. Αυτό μπορεί να γίνει ως εξής:
+
+1. Κάντε κλικ στο κουμπί νέου κοντέινερ στην επάνω δεξιά γωνία.
+2. Επιλέξτε την υπάρχουσα βάση δεδομένων (SampleDB) και δημιουργήστε ένα id για το κοντέινερ.
+3. Ορίστε το partition key σε `/id`.
+4. Κάντε κλικ στο OK (μπορείτε να αγνοήσετε τις υπόλοιπες πληροφορίες σε αυτήν την προβολή, καθώς πρόκειται για ένα μικρό σύνολο δεδομένων που εκτελείται τοπικά στον υπολογιστή σας).
+5. Ανοίξτε το νέο σας κοντέινερ και ανεβάστε το αρχείο Twitter Data με το κουμπί `Upload Item`.
+
+Προσπαθήστε να εκτελέσετε μερικά ερωτήματα SELECT για να βρείτε τα έγγραφα που περιέχουν τη λέξη Microsoft στο πεδίο text. Υπόδειξη: δοκιμάστε να χρησιμοποιήσετε τη [λέξη-κλειδί LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Μετά-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Ανασκόπηση & Αυτομελέτη
+
+- Υπάρχουν πρόσθετες μορφοποιήσεις και δυνατότητες που έχουν προστεθεί σε αυτό το υπολογιστικό φύλλο, τις οποίες αυτό το μάθημα δεν καλύπτει. Η Microsoft διαθέτει μια [μεγάλη βιβλιοθήκη τεκμηρίωσης και βίντεο](https://support.microsoft.com/excel) για το Excel, αν ενδιαφέρεστε να μάθετε περισσότερα.
+
+- Αυτή η αρχιτεκτονική τεκμηρίωση περιγράφει τα χαρακτηριστικά των διαφορετικών τύπων μη σχεσιακών δεδομένων: [Μη Σχεσιακά Δεδομένα και NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Το Cosmos DB είναι μια βάση δεδομένων που βασίζεται στο cloud και μπορεί επίσης να αποθηκεύσει τους διαφορετικούς τύπους NoSQL που αναφέρονται σε αυτό το μάθημα. Μάθετε περισσότερα για αυτούς τους τύπους σε αυτό το [Cosmos DB Microsoft Learn Module](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Εργασία
+
+[Soda Profits](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/06-non-relational/assignment.md b/translations/el/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..23bf4433
--- /dev/null
+++ b/translations/el/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Κέρδη από Σόδα
+
+## Οδηγίες
+
+Το [υπολογιστικό φύλλο Coca Cola Co](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) λείπει κάποιους υπολογισμούς. Η αποστολή σας είναι:
+
+1. Υπολογίστε τα Μικτά Κέρδη για τα οικονομικά έτη '15, '16, '17 και '18
+ - Μικτά Κέρδη = Καθαρά Λειτουργικά Έσοδα - Κόστος Πωληθέντων
+1. Υπολογίστε τον μέσο όρο όλων των μικτών κερδών. Προσπαθήστε να το κάνετε με μια συνάρτηση.
+ - Μέσος Όρος = Άθροισμα των μικτών κερδών διαιρεμένο με τον αριθμό των οικονομικών ετών (10)
+ - Τεκμηρίωση για τη [συνάρτηση AVERAGE](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Αυτό είναι ένα αρχείο Excel, αλλά θα πρέπει να είναι επεξεργάσιμο σε οποιαδήποτε πλατφόρμα υπολογιστικών φύλλων
+
+[Πηγή δεδομένων: Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | --- |
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/07-python/README.md b/translations/el/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..eb54bead
--- /dev/null
+++ b/translations/el/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,274 @@
+
+# Εργασία με Δεδομένα: Python και η Βιβλιοθήκη Pandas
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Εργασία με Python - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Ενώ οι βάσεις δεδομένων προσφέρουν πολύ αποδοτικούς τρόπους αποθήκευσης και αναζήτησης δεδομένων μέσω γλωσσών ερωτημάτων, ο πιο ευέλικτος τρόπος επεξεργασίας δεδομένων είναι η συγγραφή του δικού σας προγράμματος για τη διαχείριση των δεδομένων. Σε πολλές περιπτώσεις, μια ερώτηση σε βάση δεδομένων μπορεί να είναι πιο αποτελεσματική. Ωστόσο, σε περιπτώσεις όπου απαιτείται πιο σύνθετη επεξεργασία δεδομένων, αυτό δεν μπορεί να γίνει εύκολα με SQL.
+Η επεξεργασία δεδομένων μπορεί να προγραμματιστεί σε οποιαδήποτε γλώσσα προγραμματισμού, αλλά υπάρχουν ορισμένες γλώσσες που είναι πιο κατάλληλες για εργασία με δεδομένα. Οι επιστήμονες δεδομένων συνήθως προτιμούν μία από τις παρακάτω γλώσσες:
+
+* **[Python](https://www.python.org/)**, μια γλώσσα γενικού σκοπού, που συχνά θεωρείται μία από τις καλύτερες επιλογές για αρχάριους λόγω της απλότητάς της. Η Python διαθέτει πολλές πρόσθετες βιβλιοθήκες που μπορούν να σας βοηθήσουν να λύσετε πολλά πρακτικά προβλήματα, όπως η εξαγωγή δεδομένων από αρχεία ZIP ή η μετατροπή εικόνων σε αποχρώσεις του γκρι. Εκτός από την επιστήμη δεδομένων, η Python χρησιμοποιείται συχνά και για ανάπτυξη ιστοσελίδων.
+* **[R](https://www.r-project.org/)** είναι ένα παραδοσιακό εργαλείο που αναπτύχθηκε με γνώμονα την επεξεργασία στατιστικών δεδομένων. Διαθέτει επίσης μια μεγάλη αποθήκη βιβλιοθηκών (CRAN), καθιστώντας το μια καλή επιλογή για επεξεργασία δεδομένων. Ωστόσο, το R δεν είναι γλώσσα γενικού σκοπού και σπάνια χρησιμοποιείται εκτός του τομέα της επιστήμης δεδομένων.
+* **[Julia](https://julialang.org/)** είναι μια άλλη γλώσσα που αναπτύχθηκε ειδικά για την επιστήμη δεδομένων. Σχεδιάστηκε για να προσφέρει καλύτερη απόδοση από την Python, καθιστώντας την ένα εξαιρετικό εργαλείο για επιστημονικά πειράματα.
+
+Σε αυτό το μάθημα, θα επικεντρωθούμε στη χρήση της Python για απλή επεξεργασία δεδομένων. Θα υποθέσουμε ότι έχετε βασική εξοικείωση με τη γλώσσα. Αν θέλετε μια πιο βαθιά εισαγωγή στην Python, μπορείτε να ανατρέξετε σε μία από τις παρακάτω πηγές:
+
+* [Μάθετε Python με Διασκεδαστικό Τρόπο μέσω Turtle Graphics και Fractals](https://github.com/shwars/pycourse) - Γρήγορο εισαγωγικό μάθημα στην Python μέσω GitHub
+* [Κάντε τα Πρώτα σας Βήματα με την Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) - Διαδρομή μάθησης στο [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Τα δεδομένα μπορούν να έχουν πολλές μορφές. Σε αυτό το μάθημα, θα εξετάσουμε τρεις μορφές δεδομένων - **δεδομένα σε πίνακες**, **κείμενο** και **εικόνες**.
+
+Θα επικεντρωθούμε σε μερικά παραδείγματα επεξεργασίας δεδομένων, αντί να σας δώσουμε μια πλήρη επισκόπηση όλων των σχετικών βιβλιοθηκών. Αυτό θα σας επιτρέψει να κατανοήσετε τις βασικές δυνατότητες και να ξέρετε πού να βρείτε λύσεις στα προβλήματά σας όταν τις χρειαστείτε.
+
+> **Η πιο χρήσιμη συμβουλή**. Όταν χρειάζεται να εκτελέσετε μια συγκεκριμένη λειτουργία σε δεδομένα και δεν ξέρετε πώς να το κάνετε, δοκιμάστε να το αναζητήσετε στο διαδίκτυο. Το [Stackoverflow](https://stackoverflow.com/) περιέχει συνήθως πολλά χρήσιμα δείγματα κώδικα σε Python για πολλές τυπικές εργασίες.
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Δεδομένα σε Πίνακες και Dataframes
+
+Έχετε ήδη συναντήσει δεδομένα σε πίνακες όταν μιλήσαμε για σχεσιακές βάσεις δεδομένων. Όταν έχετε πολλά δεδομένα που περιέχονται σε πολλούς διαφορετικούς συνδεδεμένους πίνακες, είναι λογικό να χρησιμοποιήσετε SQL για να εργαστείτε με αυτά. Ωστόσο, υπάρχουν πολλές περιπτώσεις όπου έχουμε έναν πίνακα δεδομένων και θέλουμε να αποκτήσουμε κάποια **κατανόηση** ή **συμπεράσματα** για αυτά τα δεδομένα, όπως η κατανομή, η συσχέτιση μεταξύ τιμών κ.λπ. Στην επιστήμη δεδομένων, υπάρχουν πολλές περιπτώσεις όπου πρέπει να εκτελέσουμε κάποιους μετασχηματισμούς στα αρχικά δεδομένα, ακολουθούμενους από οπτικοποίηση. Και τα δύο αυτά βήματα μπορούν να γίνουν εύκολα με τη χρήση της Python.
+
+Υπάρχουν δύο πιο χρήσιμες βιβλιοθήκες στην Python που μπορούν να σας βοηθήσουν να διαχειριστείτε δεδομένα σε πίνακες:
+* **[Pandas](https://pandas.pydata.org/)** σας επιτρέπει να διαχειρίζεστε τα λεγόμενα **Dataframes**, τα οποία είναι ανάλογα με τους σχεσιακούς πίνακες. Μπορείτε να έχετε ονομασμένες στήλες και να εκτελείτε διάφορες λειτουργίες σε γραμμές, στήλες και γενικά στα dataframes.
+* **[Numpy](https://numpy.org/)** είναι μια βιβλιοθήκη για εργασία με **tensors**, δηλαδή πολυδιάστατους **πίνακες**. Οι πίνακες έχουν τιμές του ίδιου υποκείμενου τύπου, είναι πιο απλοί από τα dataframes, αλλά προσφέρουν περισσότερες μαθηματικές λειτουργίες και δημιουργούν λιγότερη επιβάρυνση.
+
+Υπάρχουν επίσης μερικές άλλες βιβλιοθήκες που πρέπει να γνωρίζετε:
+* **[Matplotlib](https://matplotlib.org/)** είναι μια βιβλιοθήκη που χρησιμοποιείται για οπτικοποίηση δεδομένων και σχεδίαση γραφημάτων
+* **[SciPy](https://www.scipy.org/)** είναι μια βιβλιοθήκη με πρόσθετες επιστημονικές λειτουργίες. Την έχουμε ήδη συναντήσει όταν μιλήσαμε για πιθανότητες και στατιστική.
+
+Ακολουθεί ένα κομμάτι κώδικα που θα χρησιμοποιούσατε συνήθως για να εισάγετε αυτές τις βιβλιοθήκες στην αρχή του προγράμματος Python:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Η Pandas επικεντρώνεται σε μερικές βασικές έννοιες.
+
+### Series
+
+Η **Series** είναι μια ακολουθία τιμών, παρόμοια με μια λίστα ή έναν πίνακα numpy. Η κύρια διαφορά είναι ότι η series έχει επίσης έναν **δείκτη**, και όταν εκτελούμε λειτουργίες σε series (π.χ., προσθέτουμε), ο δείκτης λαμβάνεται υπόψη. Ο δείκτης μπορεί να είναι τόσο απλός όσο ένας ακέραιος αριθμός γραμμής (είναι ο προεπιλεγμένος δείκτης όταν δημιουργούμε μια series από λίστα ή πίνακα), ή μπορεί να έχει μια πιο σύνθετη δομή, όπως ένα χρονικό διάστημα.
+
+> **Σημείωση**: Υπάρχει εισαγωγικός κώδικας Pandas στο συνοδευτικό notebook [`notebook.ipynb`](notebook.ipynb). Εδώ παραθέτουμε μόνο μερικά παραδείγματα, και σίγουρα μπορείτε να εξερευνήσετε το πλήρες notebook.
+
+Ας δούμε ένα παράδειγμα: θέλουμε να αναλύσουμε τις πωλήσεις του καταστήματος παγωτών μας. Ας δημιουργήσουμε μια σειρά αριθμών πωλήσεων (αριθμός αντικειμένων που πωλήθηκαν κάθε μέρα) για μια χρονική περίοδο:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Τώρα, ας υποθέσουμε ότι κάθε εβδομάδα οργανώνουμε ένα πάρτι για φίλους και παίρνουμε επιπλέον 10 πακέτα παγωτού για το πάρτι. Μπορούμε να δημιουργήσουμε μια άλλη σειρά, με δείκτη ανά εβδομάδα, για να το δείξουμε αυτό:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Όταν προσθέτουμε τις δύο σειρές μαζί, παίρνουμε το συνολικό αριθμό:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Σημείωση** ότι δεν χρησιμοποιούμε την απλή σύνταξη `total_items+additional_items`. Αν το κάναμε, θα λαμβάναμε πολλές τιμές `NaN` (*Not a Number*) στη σειρά που προκύπτει. Αυτό συμβαίνει επειδή υπάρχουν ελλιπείς τιμές για ορισμένα σημεία του δείκτη στη σειρά `additional_items`, και η πρόσθεση του `NaN` με οτιδήποτε άλλο δίνει `NaN`. Έτσι, πρέπει να καθορίσουμε την παράμετρο `fill_value` κατά την πρόσθεση.
+
+Με τις χρονικές σειρές, μπορούμε επίσης να κάνουμε **επαναδειγματοληψία** της σειράς με διαφορετικά χρονικά διαστήματα. Για παράδειγμα, αν θέλουμε να υπολογίσουμε τον μέσο όγκο πωλήσεων μηνιαίως, μπορούμε να χρησιμοποιήσουμε τον παρακάτω κώδικα:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+Ένα DataFrame είναι ουσιαστικά μια συλλογή από series με τον ίδιο δείκτη. Μπορούμε να συνδυάσουμε πολλές series μαζί σε ένα DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Αυτό θα δημιουργήσει έναν οριζόντιο πίνακα όπως αυτόν:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Μπορούμε επίσης να χρησιμοποιήσουμε Series ως στήλες και να καθορίσουμε ονόματα στηλών χρησιμοποιώντας λεξικό:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Αυτό θα μας δώσει έναν πίνακα όπως αυτόν:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Σημείωση** ότι μπορούμε επίσης να πάρουμε αυτή τη διάταξη πίνακα κάνοντας μετατροπή του προηγούμενου πίνακα, π.χ., γράφοντας
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Εδώ το `.T` σημαίνει τη λειτουργία μετατροπής του DataFrame, δηλαδή την αλλαγή γραμμών και στηλών, και η λειτουργία `rename` μας επιτρέπει να μετονομάσουμε τις στήλες ώστε να ταιριάζουν με το προηγούμενο παράδειγμα.
+
+Ακολουθούν μερικές από τις πιο σημαντικές λειτουργίες που μπορούμε να εκτελέσουμε σε DataFrames:
+
+**Επιλογή στηλών**. Μπορούμε να επιλέξουμε μεμονωμένες στήλες γράφοντας `df['A']` - αυτή η λειτουργία επιστρέφει μια Series. Μπορούμε επίσης να επιλέξουμε ένα υποσύνολο στηλών σε ένα άλλο DataFrame γράφοντας `df[['B','A']]` - αυτό επιστρέφει ένα άλλο DataFrame.
+
+**Φιλτράρισμα** μόνο ορισμένων γραμμών βάσει κριτηρίων. Για παράδειγμα, για να αφήσουμε μόνο γραμμές με τη στήλη `A` μεγαλύτερη από 5, μπορούμε να γράψουμε `df[df['A']>5]`.
+
+> **Σημείωση**: Ο τρόπος που λειτουργεί το φιλτράρισμα είναι ο εξής. Η έκφραση `df['A']<5` επιστρέφει μια boolean σειρά, η οποία υποδεικνύει αν η έκφραση είναι `True` ή `False` για κάθε στοιχείο της αρχικής σειράς `df['A']`. Όταν η boolean σειρά χρησιμοποιείται ως δείκτης, επιστρέφει ένα υποσύνολο γραμμών στο DataFrame. Έτσι, δεν είναι δυνατό να χρησιμοποιήσετε αυθαίρετες boolean εκφράσεις της Python, για παράδειγμα, το να γράψετε `df[df['A']>5 and df['A']<7]` θα ήταν λάθος. Αντίθετα, θα πρέπει να χρησιμοποιήσετε την ειδική λειτουργία `&` στις boolean σειρές, γράφοντας `df[(df['A']>5) & (df['A']<7)]` (*οι παρενθέσεις είναι σημαντικές εδώ*).
+
+**Δημιουργία νέων υπολογιζόμενων στηλών**. Μπορούμε εύκολα να δημιουργήσουμε νέες υπολογιζόμενες στήλες για το DataFrame μας χρησιμοποιώντας διαισθητικές εκφράσεις όπως αυτή:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Αυτό το παράδειγμα υπολογίζει την απόκλιση της A από τη μέση τιμή της. Αυτό που συμβαίνει εδώ είναι ότι υπολογίζουμε μια σειρά και στη συνέχεια την αναθέτουμε στην αριστερή πλευρά, δημιουργώντας μια άλλη στήλη. Έτσι, δεν μπορούμε να χρησιμοποιήσουμε λειτουργίες που δεν είναι συμβατές με τις σειρές, για παράδειγμα, ο παρακάτω κώδικας είναι λάθος:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Το τελευταίο παράδειγμα, αν και συντακτικά σωστό, μας δίνει λάθος αποτέλεσμα, επειδή αναθέτει το μήκος της σειράς `B` σε όλες τις τιμές της στήλης, και όχι το μήκος των μεμονωμένων στοιχείων όπως σκοπεύαμε.
+
+Αν χρειαστεί να υπολογίσουμε σύνθετες εκφράσεις όπως αυτή, μπορούμε να χρησιμοποιήσουμε τη λειτουργία `apply`. Το τελευταίο παράδειγμα μπορεί να γραφτεί ως εξής:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Μετά τις παραπάνω λειτουργίες, θα καταλήξουμε στο παρακάτω DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Επιλογή γραμμών βάσει αριθμών** μπορεί να γίνει χρησιμοποιώντας τη δομή `iloc`. Για παράδειγμα, για να επιλέξουμε τις πρώτες 5 γραμμές από το DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Ομαδοποίηση** χρησιμοποιείται συχνά για να πάρουμε ένα αποτέλεσμα παρόμοιο με τους *συγκεντρωτικούς πίνακες* στο Excel. Ας υποθέσουμε ότι θέλουμε να υπολογίσουμε τη μέση τιμή της στήλης `A` για κάθε δεδομένο αριθμό του `LenB`. Τότε μπορούμε να ομαδοποιήσουμε το DataFrame μας κατά `LenB` και να καλέσουμε τη λειτουργία `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Αν χρειαστεί να υπολογίσουμε τη μέση τιμή και τον αριθμό των στοιχείων στην ομάδα, τότε μπορούμε να χρησιμοποιήσουμε τη
+Έχουμε δει πόσο εύκολο είναι να δημιουργήσουμε Series και DataFrames από αντικείμενα Python. Ωστόσο, τα δεδομένα συνήθως έρχονται με τη μορφή ενός αρχείου κειμένου ή ενός πίνακα Excel. Ευτυχώς, το Pandas μας προσφέρει έναν απλό τρόπο να φορτώσουμε δεδομένα από τον δίσκο. Για παράδειγμα, η ανάγνωση ενός αρχείου CSV είναι τόσο απλή όσο αυτό:
+```python
+df = pd.read_csv('file.csv')
+```
+Θα δούμε περισσότερα παραδείγματα φόρτωσης δεδομένων, συμπεριλαμβανομένης της ανάκτησής τους από εξωτερικούς ιστότοπους, στην ενότητα "Πρόκληση".
+
+### Εκτύπωση και Οπτικοποίηση
+
+Ένας Data Scientist συχνά πρέπει να εξερευνήσει τα δεδομένα, επομένως είναι σημαντικό να μπορεί να τα οπτικοποιήσει. Όταν το DataFrame είναι μεγάλο, πολλές φορές θέλουμε απλώς να βεβαιωθούμε ότι κάνουμε τα πάντα σωστά εκτυπώνοντας τις πρώτες λίγες γραμμές. Αυτό μπορεί να γίνει καλώντας τη μέθοδο `df.head()`. Εάν το εκτελείτε από το Jupyter Notebook, θα εκτυπώσει το DataFrame σε μια ωραία ταμπουλαρισμένη μορφή.
+
+Έχουμε επίσης δει τη χρήση της συνάρτησης `plot` για την οπτικοποίηση ορισμένων στηλών. Ενώ η `plot` είναι πολύ χρήσιμη για πολλές εργασίες και υποστηρίζει πολλούς διαφορετικούς τύπους γραφημάτων μέσω της παραμέτρου `kind=`, μπορείτε πάντα να χρησιμοποιήσετε τη βιβλιοθήκη `matplotlib` για να σχεδιάσετε κάτι πιο περίπλοκο. Θα καλύψουμε την οπτικοποίηση δεδομένων λεπτομερώς σε ξεχωριστά μαθήματα του μαθήματος.
+
+Αυτή η επισκόπηση καλύπτει τις πιο σημαντικές έννοιες του Pandas, ωστόσο, η βιβλιοθήκη είναι πολύ πλούσια και δεν υπάρχει όριο σε αυτά που μπορείτε να κάνετε με αυτήν! Ας εφαρμόσουμε τώρα αυτή τη γνώση για την επίλυση ενός συγκεκριμένου προβλήματος.
+
+## 🚀 Πρόκληση 1: Ανάλυση της Εξάπλωσης του COVID
+
+Το πρώτο πρόβλημα στο οποίο θα επικεντρωθούμε είναι η μοντελοποίηση της εξάπλωσης της επιδημίας του COVID-19. Για να το κάνουμε αυτό, θα χρησιμοποιήσουμε τα δεδομένα για τον αριθμό των μολυσμένων ατόμων σε διάφορες χώρες, που παρέχονται από το [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) του [Johns Hopkins University](https://jhu.edu/). Το σύνολο δεδομένων είναι διαθέσιμο σε αυτό το [GitHub Repository](https://github.com/CSSEGISandData/COVID-19).
+
+Επειδή θέλουμε να δείξουμε πώς να χειριζόμαστε δεδομένα, σας προσκαλούμε να ανοίξετε το [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) και να το διαβάσετε από την αρχή μέχρι το τέλος. Μπορείτε επίσης να εκτελέσετε τα κελιά και να κάνετε κάποιες προκλήσεις που έχουμε αφήσει για εσάς στο τέλος.
+
+
+
+> Αν δεν ξέρετε πώς να εκτελέσετε κώδικα στο Jupyter Notebook, ρίξτε μια ματιά σε αυτό το [άρθρο](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Εργασία με Μη Δομημένα Δεδομένα
+
+Ενώ τα δεδομένα συχνά έρχονται σε ταμπουλαρισμένη μορφή, σε ορισμένες περιπτώσεις πρέπει να χειριστούμε λιγότερο δομημένα δεδομένα, όπως κείμενο ή εικόνες. Σε αυτή την περίπτωση, για να εφαρμόσουμε τις τεχνικές επεξεργασίας δεδομένων που έχουμε δει παραπάνω, πρέπει με κάποιο τρόπο να **εξάγουμε** δομημένα δεδομένα. Εδώ είναι μερικά παραδείγματα:
+
+* Εξαγωγή λέξεων-κλειδιών από κείμενο και ανάλυση της συχνότητάς τους
+* Χρήση νευρωνικών δικτύων για την εξαγωγή πληροφοριών σχετικά με αντικείμενα σε εικόνες
+* Λήψη πληροφοριών για τα συναισθήματα ανθρώπων από ροές βίντεο
+
+## 🚀 Πρόκληση 2: Ανάλυση Επιστημονικών Άρθρων για τον COVID
+
+Σε αυτή την πρόκληση, θα συνεχίσουμε με το θέμα της πανδημίας COVID και θα επικεντρωθούμε στην επεξεργασία επιστημονικών άρθρων για το θέμα. Υπάρχει το [CORD-19 Dataset](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) με περισσότερα από 7000 (τη στιγμή της συγγραφής) άρθρα για τον COVID, διαθέσιμα με μεταδεδομένα και περιλήψεις (και για περίπου τα μισά από αυτά παρέχεται και το πλήρες κείμενο).
+
+Ένα πλήρες παράδειγμα ανάλυσης αυτού του συνόλου δεδομένων χρησιμοποιώντας την υπηρεσία [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) περιγράφεται σε αυτό το [blog post](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Θα συζητήσουμε μια απλοποιημένη έκδοση αυτής της ανάλυσης.
+
+> **NOTE**: Δεν παρέχουμε αντίγραφο του συνόλου δεδομένων ως μέρος αυτού του αποθετηρίου. Ίσως χρειαστεί πρώτα να κατεβάσετε το αρχείο [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) από αυτό το [σύνολο δεδομένων στο Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Ενδέχεται να απαιτείται εγγραφή στο Kaggle. Μπορείτε επίσης να κατεβάσετε το σύνολο δεδομένων χωρίς εγγραφή [από εδώ](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), αλλά θα περιλαμβάνει όλα τα πλήρη κείμενα εκτός από το αρχείο μεταδεδομένων.
+
+Ανοίξτε το [`notebook-papers.ipynb`](notebook-papers.ipynb) και διαβάστε το από την αρχή μέχρι το τέλος. Μπορείτε επίσης να εκτελέσετε τα κελιά και να κάνετε κάποιες προκλήσεις που έχουμε αφήσει για εσάς στο τέλος.
+
+
+
+## Επεξεργασία Δεδομένων Εικόνας
+
+Πρόσφατα, έχουν αναπτυχθεί πολύ ισχυρά μοντέλα AI που μας επιτρέπουν να κατανοούμε εικόνες. Υπάρχουν πολλές εργασίες που μπορούν να λυθούν χρησιμοποιώντας προεκπαιδευμένα νευρωνικά δίκτυα ή υπηρεσίες cloud. Μερικά παραδείγματα περιλαμβάνουν:
+
+* **Ταξινόμηση Εικόνων**, που μπορεί να σας βοηθήσει να κατηγοριοποιήσετε την εικόνα σε μία από τις προκαθορισμένες κατηγορίες. Μπορείτε εύκολα να εκπαιδεύσετε τους δικούς σας ταξινομητές εικόνων χρησιμοποιώντας υπηρεσίες όπως το [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Ανίχνευση Αντικειμένων** για την ανίχνευση διαφορετικών αντικειμένων στην εικόνα. Υπηρεσίες όπως το [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) μπορούν να ανιχνεύσουν έναν αριθμό κοινών αντικειμένων, και μπορείτε να εκπαιδεύσετε ένα μοντέλο [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) για να ανιχνεύσετε συγκεκριμένα αντικείμενα ενδιαφέροντος.
+* **Ανίχνευση Προσώπων**, συμπεριλαμβανομένης της ηλικίας, του φύλου και της ανίχνευσης συναισθημάτων. Αυτό μπορεί να γίνει μέσω του [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Όλες αυτές οι υπηρεσίες cloud μπορούν να κληθούν χρησιμοποιώντας [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), και έτσι μπορούν εύκολα να ενσωματωθούν στη ροή εργασίας εξερεύνησης δεδομένων σας.
+
+Εδώ είναι μερικά παραδείγματα εξερεύνησης δεδομένων από πηγές δεδομένων εικόνας:
+* Στο blog post [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) εξερευνούμε φωτογραφίες από το Instagram, προσπαθώντας να κατανοήσουμε τι κάνει τους ανθρώπους να δίνουν περισσότερα likes σε μια φωτογραφία. Πρώτα εξάγουμε όσο το δυνατόν περισσότερες πληροφορίες από τις εικόνες χρησιμοποιώντας το [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), και στη συνέχεια χρησιμοποιούμε το [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) για να δημιουργήσουμε ένα ερμηνεύσιμο μοντέλο.
+* Στο [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) χρησιμοποιούμε το [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) για να εξάγουμε συναισθήματα από ανθρώπους σε φωτογραφίες από εκδηλώσεις, προκειμένου να προσπαθήσουμε να κατανοήσουμε τι κάνει τους ανθρώπους χαρούμενους.
+
+## Συμπέρασμα
+
+Είτε έχετε ήδη δομημένα είτε μη δομημένα δεδομένα, χρησιμοποιώντας Python μπορείτε να εκτελέσετε όλα τα βήματα που σχετίζονται με την επεξεργασία και κατανόηση δεδομένων. Είναι πιθανώς ο πιο ευέλικτος τρόπος επεξεργασίας δεδομένων, και αυτός είναι ο λόγος που η πλειοψηφία των data scientists χρησιμοποιεί την Python ως το κύριο εργαλείο τους. Η εκμάθηση της Python σε βάθος είναι πιθανώς μια καλή ιδέα αν είστε σοβαροί για το ταξίδι σας στην επιστήμη δεδομένων!
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Ανασκόπηση & Αυτομελέτη
+
+**Βιβλία**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Διαδικτυακοί Πόροι**
+* Επίσημο [10 λεπτά με το Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) tutorial
+* [Τεκμηρίωση για την Οπτικοποίηση στο Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Μάθηση Python**
+* [Μάθετε Python με Διασκεδαστικό Τρόπο με Turtle Graphics και Fractals](https://github.com/shwars/pycourse)
+* [Κάντε τα Πρώτα σας Βήματα με την Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Learning Path στο [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Εργασία
+
+[Εκτελέστε πιο λεπτομερή μελέτη δεδομένων για τις παραπάνω προκλήσεις](assignment.md)
+
+## Ευχαριστίες
+
+Αυτό το μάθημα έχει δημιουργηθεί με ♥️ από τον [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/07-python/assignment.md b/translations/el/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..db5ff4e4
--- /dev/null
+++ b/translations/el/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Ανάθεση για Επεξεργασία Δεδομένων σε Python
+
+Σε αυτή την ανάθεση, θα σας ζητήσουμε να επεξεργαστείτε τον κώδικα που έχουμε αρχίσει να αναπτύσσουμε στις προκλήσεις μας. Η ανάθεση αποτελείται από δύο μέρη:
+
+## Μοντελοποίηση Εξάπλωσης COVID-19
+
+ - [ ] Σχεδιάστε *R* γραφήματα για 5-6 διαφορετικές χώρες σε ένα γράφημα για σύγκριση ή χρησιμοποιώντας πολλά γραφήματα δίπλα-δίπλα.
+ - [ ] Δείτε πώς ο αριθμός των θανάτων και των αναρρώσεων συσχετίζεται με τον αριθμό των μολυσμένων περιπτώσεων.
+ - [ ] Βρείτε πόσο διαρκεί συνήθως μια ασθένεια, συσχετίζοντας οπτικά τον ρυθμό μόλυνσης και τον ρυθμό θανάτων και αναζητώντας κάποιες ανωμαλίες. Ίσως χρειαστεί να εξετάσετε διαφορετικές χώρες για να το ανακαλύψετε.
+ - [ ] Υπολογίστε το ποσοστό θνησιμότητας και πώς αυτό αλλάζει με την πάροδο του χρόνου. *Ίσως θελήσετε να λάβετε υπόψη τη διάρκεια της ασθένειας σε ημέρες για να μετατοπίσετε μία χρονοσειρά πριν κάνετε τους υπολογισμούς.*
+
+## Ανάλυση Εγγράφων για COVID-19
+
+- [ ] Δημιουργήστε μήτρα συν-εμφάνισης διαφορετικών φαρμάκων και δείτε ποια φάρμακα εμφανίζονται συχνά μαζί (δηλαδή αναφέρονται σε μία περίληψη). Μπορείτε να τροποποιήσετε τον κώδικα για τη δημιουργία μήτρας συν-εμφάνισης για φάρμακα και διαγνώσεις.
+- [ ] Οπτικοποιήστε αυτή τη μήτρα χρησιμοποιώντας heatmap.
+- [ ] Ως επιπλέον στόχο, οπτικοποιήστε τη συν-εμφάνιση φαρμάκων χρησιμοποιώντας [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram). [Αυτή η βιβλιοθήκη](https://pypi.org/project/chord/) μπορεί να σας βοηθήσει να σχεδιάσετε ένα chord diagram.
+- [ ] Ως άλλον επιπλέον στόχο, εξαγάγετε δοσολογίες διαφορετικών φαρμάκων (όπως **400mg** στο *take 400mg of chloroquine daily*) χρησιμοποιώντας κανονικές εκφράσεις και δημιουργήστε dataframe που δείχνει διαφορετικές δοσολογίες για διαφορετικά φάρμακα. **Σημείωση**: λάβετε υπόψη αριθμητικές τιμές που βρίσκονται σε κοντινή κειμενική απόσταση από το όνομα του φαρμάκου.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Όλες οι εργασίες ολοκληρώνονται, απεικονίζονται γραφικά και εξηγούνται, συμπεριλαμβανομένου τουλάχιστον ενός από τους δύο επιπλέον στόχους | Περισσότερες από 5 εργασίες ολοκληρώνονται, δεν επιχειρούνται επιπλέον στόχοι ή τα αποτελέσματα δεν είναι σαφή | Λιγότερες από 5 (αλλά περισσότερες από 3) εργασίες ολοκληρώνονται, οι απεικονίσεις δεν βοηθούν να αποδειχθεί το σημείο
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/08-data-preparation/README.md b/translations/el/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..37b4ecda
--- /dev/null
+++ b/translations/el/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,287 @@
+
+# Εργασία με Δεδομένα: Προετοιμασία Δεδομένων
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Προετοιμασία Δεδομένων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+## [Προ-Διάλεξη Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Ανάλογα με την πηγή τους, τα ακατέργαστα δεδομένα μπορεί να περιέχουν ασυνέπειες που θα προκαλέσουν προκλήσεις στην ανάλυση και τη μοντελοποίηση. Με άλλα λόγια, αυτά τα δεδομένα μπορούν να χαρακτηριστούν ως "βρώμικα" και θα χρειαστεί να καθαριστούν. Αυτό το μάθημα επικεντρώνεται σε τεχνικές καθαρισμού και μετασχηματισμού δεδομένων για την αντιμετώπιση προβλημάτων όπως ελλιπή, ανακριβή ή ατελή δεδομένα. Τα θέματα που καλύπτονται σε αυτό το μάθημα χρησιμοποιούν Python και τη βιβλιοθήκη Pandas και θα [παρουσιαστούν στο notebook](notebook.ipynb) αυτού του φακέλου.
+
+## Η σημασία του καθαρισμού δεδομένων
+
+- **Ευκολία χρήσης και επαναχρησιμοποίησης**: Όταν τα δεδομένα είναι σωστά οργανωμένα και κανονικοποιημένα, είναι πιο εύκολο να αναζητηθούν, να χρησιμοποιηθούν και να μοιραστούν με άλλους.
+
+- **Συνέπεια**: Η επιστήμη δεδομένων συχνά απαιτεί εργασία με περισσότερα από ένα σύνολα δεδομένων, όπου σύνολα δεδομένων από διαφορετικές πηγές πρέπει να συνδυαστούν. Η διασφάλιση ότι κάθε μεμονωμένο σύνολο δεδομένων έχει κοινή τυποποίηση θα εξασφαλίσει ότι τα δεδομένα παραμένουν χρήσιμα όταν συγχωνεύονται σε ένα ενιαίο σύνολο δεδομένων.
+
+- **Ακρίβεια μοντέλου**: Τα καθαρισμένα δεδομένα βελτιώνουν την ακρίβεια των μοντέλων που βασίζονται σε αυτά.
+
+## Κοινά καθήκοντα και στρατηγικές καθαρισμού
+
+- **Εξερεύνηση ενός συνόλου δεδομένων**: Η εξερεύνηση δεδομένων, η οποία καλύπτεται σε ένα [μεταγενέστερο μάθημα](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), μπορεί να σας βοηθήσει να ανακαλύψετε δεδομένα που χρειάζονται καθαρισμό. Η οπτική παρατήρηση τιμών μέσα σε ένα σύνολο δεδομένων μπορεί να δημιουργήσει προσδοκίες για το πώς θα μοιάζει το υπόλοιπο ή να δώσει μια ιδέα για τα προβλήματα που μπορούν να επιλυθούν. Η εξερεύνηση μπορεί να περιλαμβάνει βασικές ερωτήσεις, οπτικοποιήσεις και δειγματοληψία.
+
+- **Μορφοποίηση**: Ανάλογα με την πηγή, τα δεδομένα μπορεί να έχουν ασυνέπειες στον τρόπο παρουσίασής τους. Αυτό μπορεί να προκαλέσει προβλήματα στην αναζήτηση και την αναπαράσταση της τιμής, όπου αυτή εμφανίζεται στο σύνολο δεδομένων αλλά δεν αναπαρίσταται σωστά σε οπτικοποιήσεις ή αποτελέσματα ερωτημάτων. Κοινά προβλήματα μορφοποίησης περιλαμβάνουν την επίλυση κενών, ημερομηνιών και τύπων δεδομένων. Η επίλυση ζητημάτων μορφοποίησης συνήθως επαφίεται στους χρήστες των δεδομένων. Για παράδειγμα, τα πρότυπα για το πώς παρουσιάζονται οι ημερομηνίες και οι αριθμοί μπορεί να διαφέρουν ανά χώρα.
+
+- **Διπλοεγγραφές**: Τα δεδομένα που εμφανίζονται περισσότερες από μία φορές μπορούν να παράγουν ανακριβή αποτελέσματα και συνήθως πρέπει να αφαιρούνται. Αυτό μπορεί να είναι συνηθισμένο όταν συνδυάζονται δύο ή περισσότερα σύνολα δεδομένων. Ωστόσο, υπάρχουν περιπτώσεις όπου οι διπλοεγγραφές σε συνδυασμένα σύνολα δεδομένων περιέχουν στοιχεία που μπορούν να παρέχουν πρόσθετες πληροφορίες και μπορεί να χρειαστεί να διατηρηθούν.
+
+- **Ελλιπή δεδομένα**: Τα ελλιπή δεδομένα μπορούν να προκαλέσουν ανακρίβειες καθώς και αδύναμα ή μεροληπτικά αποτελέσματα. Μερικές φορές αυτά μπορούν να επιλυθούν με "επανφόρτωση" των δεδομένων, συμπλήρωση των ελλιπών τιμών με υπολογισμούς και κώδικα όπως η Python ή απλά με την αφαίρεση της τιμής και των αντίστοιχων δεδομένων. Υπάρχουν πολλοί λόγοι για τους οποίους τα δεδομένα μπορεί να λείπουν και οι ενέργειες που λαμβάνονται για την επίλυση αυτών των ελλείψεων εξαρτώνται από το πώς και γιατί χάθηκαν.
+
+## Εξερεύνηση πληροφοριών DataFrame
+> **Στόχος μάθησης:** Μέχρι το τέλος αυτής της υποενότητας, θα πρέπει να είστε άνετοι με την εύρεση γενικών πληροφοριών για τα δεδομένα που αποθηκεύονται σε pandas DataFrames.
+
+Αφού φορτώσετε τα δεδομένα σας στις pandas, πιθανότατα θα βρίσκονται σε ένα DataFrame (ανατρέξτε στο προηγούμενο [μάθημα](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) για λεπτομερή επισκόπηση). Ωστόσο, αν το σύνολο δεδομένων στο DataFrame σας έχει 60.000 γραμμές και 400 στήλες, πώς ξεκινάτε να κατανοείτε τι έχετε να δουλέψετε; Ευτυχώς, οι [pandas](https://pandas.pydata.org/) παρέχουν μερικά χρήσιμα εργαλεία για να δείτε γρήγορα γενικές πληροφορίες για ένα DataFrame, καθώς και τις πρώτες και τελευταίες γραμμές.
+
+Για να εξερευνήσουμε αυτή τη λειτουργικότητα, θα εισάγουμε τη βιβλιοθήκη scikit-learn της Python και θα χρησιμοποιήσουμε ένα εμβληματικό σύνολο δεδομένων: το **Iris dataset**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Για αρχή, η μέθοδος `info()` χρησιμοποιείται για να εκτυπώσει μια σύνοψη του περιεχομένου που υπάρχει σε ένα `DataFrame`. Ας δούμε αυτό το σύνολο δεδομένων για να δούμε τι έχουμε:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Από αυτό, γνωρίζουμε ότι το σύνολο δεδομένων *Iris* έχει 150 εγγραφές σε τέσσερις στήλες χωρίς κενές εγγραφές. Όλα τα δεδομένα αποθηκεύονται ως αριθμοί κινητής υποδιαστολής 64-bit.
+
+- **DataFrame.head()**: Στη συνέχεια, για να ελέγξουμε το πραγματικό περιεχόμενο του `DataFrame`, χρησιμοποιούμε τη μέθοδο `head()`. Ας δούμε πώς φαίνονται οι πρώτες γραμμές του `iris_df`:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Αντίστροφα, για να ελέγξουμε τις τελευταίες γραμμές του `DataFrame`, χρησιμοποιούμε τη μέθοδο `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Συμπέρασμα:** Ακόμα και μόνο κοιτάζοντας τα μεταδεδομένα για τις πληροφορίες σε ένα DataFrame ή τις πρώτες και τελευταίες τιμές σε αυτό, μπορείτε να αποκτήσετε μια άμεση ιδέα για το μέγεθος, το σχήμα και το περιεχόμενο των δεδομένων που διαχειρίζεστε.
+
+## Αντιμετώπιση Ελλιπών Δεδομένων
+> **Στόχος μάθησης:** Μέχρι το τέλος αυτής της υποενότητας, θα πρέπει να γνωρίζετε πώς να αντικαθιστάτε ή να αφαιρείτε κενές τιμές από τα DataFrames.
+
+Στις περισσότερες περιπτώσεις, τα σύνολα δεδομένων που θέλετε (ή πρέπει) να χρησιμοποιήσετε περιέχουν ελλιπείς τιμές. Ο τρόπος με τον οποίο αντιμετωπίζονται τα ελλιπή δεδομένα φέρει λεπτές συμβιβαστικές αποφάσεις που μπορούν να επηρεάσουν την τελική ανάλυση και τα πραγματικά αποτελέσματα.
+
+Οι pandas χειρίζονται τις ελλιπείς τιμές με δύο τρόπους. Ο πρώτος, που έχετε δει σε προηγούμενες ενότητες, είναι το `NaN` (Not a Number). Αυτό είναι μια ειδική τιμή που αποτελεί μέρος της προδιαγραφής κινητής υποδιαστολής IEEE και χρησιμοποιείται μόνο για να υποδηλώσει ελλιπείς τιμές κινητής υποδιαστολής.
+
+Για ελλιπείς τιμές εκτός από κινητές υποδιαστολές, οι pandas χρησιμοποιούν το αντικείμενο `None` της Python. Ενώ μπορεί να φαίνεται μπερδεμένο ότι θα συναντήσετε δύο διαφορετικά είδη τιμών που λένε ουσιαστικά το ίδιο πράγμα, υπάρχουν βάσιμοι προγραμματιστικοί λόγοι για αυτήν την επιλογή σχεδίασης και, στην πράξη, αυτή η προσέγγιση επιτρέπει στις pandas να προσφέρουν έναν καλό συμβιβασμό για τη συντριπτική πλειονότητα των περιπτώσεων. Παρ' όλα αυτά, τόσο το `None` όσο και το `NaN` φέρουν περιορισμούς που πρέπει να έχετε υπόψη σας σχετικά με το πώς μπορούν να χρησιμοποιηθούν.
+
+Δείτε περισσότερα για το `NaN` και το `None` από το [notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Ανίχνευση κενών τιμών**: Στις `pandas`, οι μέθοδοι `isnull()` και `notnull()` είναι οι κύριες μέθοδοι για την ανίχνευση κενών δεδομένων. Και οι δύο επιστρέφουν Boolean μάσκες πάνω από τα δεδομένα σας. Θα χρησιμοποιήσουμε το `numpy` για τιμές `NaN`:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Παρατηρήστε προσεκτικά την έξοδο. Σας εκπλήσσει κάτι; Ενώ το `0` είναι αριθμητικά μηδενικό, είναι παρ' όλα αυτά ένας αποδεκτός ακέραιος αριθμός και οι pandas το αντιμετωπίζουν ως τέτοιο. Το `''` είναι λίγο πιο λεπτό. Ενώ το χρησιμοποιήσαμε στην Ενότητα 1 για να αναπαραστήσουμε μια κενή συμβολοσειρά, είναι παρ' όλα αυτά ένα αντικείμενο συμβολοσειράς και όχι μια αναπαράσταση του κενού σύμφωνα με τις pandas.
+
+Τώρα, ας αντιστρέψουμε αυτό και ας χρησιμοποιήσουμε αυτές τις μεθόδους με τρόπο πιο κοντά σε αυτόν που θα τις χρησιμοποιήσετε στην πράξη. Μπορείτε να χρησιμοποιήσετε Boolean μάσκες απευθείας ως δείκτη ``Series`` ή ``DataFrame``, κάτι που μπορεί να είναι χρήσιμο όταν προσπαθείτε να εργαστείτε με απομονωμένες ελλιπείς (ή παρούσες) τιμές.
+
+> **Συμπέρασμα**: Οι μέθοδοι `isnull()` και `notnull()` παράγουν παρόμοια αποτελέσματα όταν τις χρησιμοποιείτε σε `DataFrame`s: δείχνουν τα αποτελέσματα και τον δείκτη αυτών των αποτελεσμάτων, κάτι που θα σας βοηθήσει σημαντικά καθώς παλεύετε με τα δεδομένα σας.
+
+- **Αφαίρεση κενών τιμών**: Πέρα από την αναγνώριση ελλιπών τιμών, οι pandas παρέχουν έναν βολικό τρόπο για να αφαιρέσετε κενές τιμές από `Series` και `DataFrame`s. (Ιδιαίτερα σε μεγάλα σύνολα δεδομένων, είναι συχνά πιο συνετό να αφαιρέσετε απλώς τις ελλιπείς [NA] τιμές από την ανάλυσή σας παρά να τις αντιμετωπίσετε με άλλους τρόπους.) Για να το δείτε αυτό στην πράξη, ας επιστρέψουμε στο `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Παρατηρήστε ότι αυτό θα πρέπει να μοιάζει με την έξοδό σας από το `example3[example3.notnull()]`. Η διαφορά εδώ είναι ότι, αντί να κάνετε απλώς ευρετηρίαση στις τιμές της μάσκας, το `dropna` έχει αφαιρέσει αυτές τις ελλιπείς τιμές από το `Series` `example1`.
+
+Επειδή τα `DataFrame`s έχουν δύο διαστάσεις, προσφέρουν περισσότερες επιλογές για την αφαίρεση δεδομένων.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Παρατηρήσατε ότι οι pandas μετέτρεψαν δύο από τις στήλες σε κινητές υποδιαστολές για να φιλοξενήσουν τα `NaN`;)
+
+Δεν μπορείτε να αφαιρέσετε μία μόνο τιμή από ένα `DataFrame`, οπότε πρέπει να αφαιρέσετε πλήρεις γραμμές ή στήλες. Ανάλογα με το τι κάνετε, μπορεί να θέλετε να κάνετε το ένα ή το άλλο, και έτσι οι pandas σας δίνουν επιλογές και για τα δύο. Επειδή στην επιστήμη δεδομένων οι στήλες γενικά αντιπροσωπεύουν μεταβλητές και οι γραμμές παρατηρήσεις, είναι πιο πιθανό να αφαιρέσετε γραμμές δεδομένων. Η προεπιλεγμένη ρύθμιση για το `dropna()` είναι να αφαιρεί όλες τις γραμμές που περιέχουν οποιεσδήποτε κενές τιμές:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Εάν είναι απαραίτητο, μπορείτε να αφαιρέσετε τιμές NA από στήλες. Χρησιμοποιήστε `axis=1` για να το κάνετε:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Παρατηρήστε ότι αυτό μπορεί να αφαιρέσει πολλά δεδομένα που μπορεί να θέλετε να διατηρήσετε, ιδιαίτερα σε μικρότερα σύνολα δεδομένων. Τι γίνεται αν θέλετε απλώς να αφαιρέσετε γραμμές ή στήλες που περιέχουν αρκετές ή ακόμα και όλες τις κενές τιμές; Μπορείτε να καθορίσετε αυτές τις ρυθμίσεις στο `dropna` με τις παραμέτρους `how` και `thresh`.
+
+Από προεπιλογή, `how='any'` (αν θέλετε να το ελέγξετε μόνοι σας ή να δείτε ποιες άλλες παραμέτρους έχει η μέθοδος, εκτελέστε `example4.dropna?` σε ένα κελί κώδικα). Θα μπορούσατε εναλλακτικά να καθορίσετε `how='all'` ώστε να αφαιρέσετε μόνο γραμμές ή στήλες που περιέχουν όλες τις κενές τιμές. Ας επεκτείνουμε το παράδειγμα `DataFrame` για να δούμε αυτό στην πράξη.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+Η παράμετρος `thresh` σας δίνει πιο λεπτομερή έλεγχο: καθορίζετε τον αριθμό των *μη κενών* τιμών που χρειάζεται να έχει μια γραμμή ή στήλη για να διατηρηθεί:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Εδώ, η πρώτη και η τελευταία γραμμή έχουν αφαιρεθεί, επειδή περιέχουν μόνο δύο μη κενές τιμές.
+
+- **Συμπλήρωση κενών τιμών**: Ανάλογα με το σύνολο δεδομένων σας, μπορεί μερικές φορές να έχει περισσότερο νόημα να συμπληρώσετε τις κενές τιμές με έγκυρες παρά να τις αφαιρέσετε. Θα μπορούσατε να χρησιμοποιήσετε το `isnull` για να το κάνετε αυτό επί
+> **Σημαντικό:** Υπάρχουν πολλοί τρόποι για να αντιμετωπίσετε τις ελλείπουσες τιμές στα σύνολα δεδομένων σας. Η συγκεκριμένη στρατηγική που θα χρησιμοποιήσετε (αφαίρεση, αντικατάσταση ή ακόμα και ο τρόπος αντικατάστασης) θα πρέπει να καθορίζεται από τις ιδιαιτερότητες των δεδομένων. Θα αναπτύξετε καλύτερη αίσθηση για το πώς να χειρίζεστε τις ελλείπουσες τιμές όσο περισσότερο ασχολείστε και αλληλεπιδράτε με σύνολα δεδομένων.
+
+## Αφαίρεση διπλότυπων δεδομένων
+
+> **Στόχος μάθησης:** Μέχρι το τέλος αυτής της υποενότητας, θα πρέπει να είστε άνετοι με την αναγνώριση και την αφαίρεση διπλότυπων τιμών από DataFrames.
+
+Εκτός από τα ελλείποντα δεδομένα, συχνά θα συναντήσετε διπλότυπα δεδομένα σε σύνολα δεδομένων του πραγματικού κόσμου. Ευτυχώς, το `pandas` παρέχει έναν εύκολο τρόπο για την ανίχνευση και την αφαίρεση διπλότυπων εγγραφών.
+
+- **Αναγνώριση διπλότυπων: `duplicated`**: Μπορείτε εύκολα να εντοπίσετε διπλότυπες τιμές χρησιμοποιώντας τη μέθοδο `duplicated` στο pandas, η οποία επιστρέφει μια μάσκα Boolean που δείχνει αν μια εγγραφή σε ένα `DataFrame` είναι διπλότυπη μιας προηγούμενης. Ας δημιουργήσουμε ένα άλλο παράδειγμα `DataFrame` για να δούμε πώς λειτουργεί αυτό.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Αφαίρεση διπλότυπων: `drop_duplicates`:** απλά επιστρέφει ένα αντίγραφο των δεδομένων για τα οποία όλες οι τιμές `duplicated` είναι `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Τόσο το `duplicated` όσο και το `drop_duplicates` από προεπιλογή εξετάζουν όλες τις στήλες, αλλά μπορείτε να καθορίσετε ότι εξετάζουν μόνο ένα υποσύνολο στηλών στο `DataFrame` σας:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Σημαντικό:** Η αφαίρεση διπλότυπων δεδομένων είναι ένα απαραίτητο μέρος σχεδόν κάθε έργου επιστήμης δεδομένων. Τα διπλότυπα δεδομένα μπορούν να αλλάξουν τα αποτελέσματα των αναλύσεών σας και να σας δώσουν ανακριβή αποτελέσματα!
+
+
+## 🚀 Πρόκληση
+
+Όλα τα υλικά που συζητήθηκαν παρέχονται ως [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Επιπλέον, υπάρχουν ασκήσεις μετά από κάθε ενότητα, δοκιμάστε τις!
+
+## [Κουίζ μετά τη διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Ανασκόπηση & Αυτομελέτη
+
+Υπάρχουν πολλοί τρόποι για να ανακαλύψετε και να προσεγγίσετε την προετοιμασία των δεδομένων σας για ανάλυση και μοντελοποίηση, και ο καθαρισμός των δεδομένων είναι ένα σημαντικό βήμα που απαιτεί "πρακτική" εμπειρία. Δοκιμάστε αυτές τις προκλήσεις από το Kaggle για να εξερευνήσετε τεχνικές που δεν καλύφθηκαν σε αυτό το μάθημα.
+
+- [Πρόκληση Καθαρισμού Δεδομένων: Ανάλυση Ημερομηνιών](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Πρόκληση Καθαρισμού Δεδομένων: Κλίμακα και Κανονικοποίηση Δεδομένων](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Εργασία
+
+[Αξιολόγηση Δεδομένων από μια Φόρμα](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/08-data-preparation/assignment.md b/translations/el/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..31a14029
--- /dev/null
+++ b/translations/el/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Αξιολόγηση Δεδομένων από μια Φόρμα
+
+Ένας πελάτης έχει δοκιμάσει μια [μικρή φόρμα](../../../../2-Working-With-Data/08-data-preparation/index.html) για να συλλέξει βασικά δεδομένα σχετικά με τη βάση πελατών του. Έχει φέρει τα ευρήματά του σε εσάς για να επικυρώσετε τα δεδομένα που έχει συλλέξει. Μπορείτε να ανοίξετε τη σελίδα `index.html` στον περιηγητή για να δείτε τη φόρμα.
+
+Σας έχει δοθεί ένα [σύνολο δεδομένων με εγγραφές csv](../../../../data/form.csv) που περιέχει καταχωρήσεις από τη φόρμα καθώς και κάποιες βασικές οπτικοποιήσεις. Ο πελάτης επισήμανε ότι κάποιες από τις οπτικοποιήσεις φαίνονται λανθασμένες, αλλά δεν είναι σίγουρος πώς να τις διορθώσει. Μπορείτε να τις εξερευνήσετε στο [σημειωματάριο της εργασίας](assignment.ipynb).
+
+## Οδηγίες
+
+Χρησιμοποιήστε τις τεχνικές αυτού του μαθήματος για να κάνετε συστάσεις σχετικά με τη φόρμα ώστε να συλλέγει ακριβείς και συνεπείς πληροφορίες.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | ---
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/2-Working-With-Data/README.md b/translations/el/2-Working-With-Data/README.md
new file mode 100644
index 00000000..ed0ae4f7
--- /dev/null
+++ b/translations/el/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Εργασία με Δεδομένα
+
+
+> Φωτογραφία από Alexander Sinn στο Unsplash
+
+Σε αυτά τα μαθήματα, θα μάθετε μερικούς από τους τρόπους με τους οποίους μπορούν να διαχειριστούν, να τροποποιηθούν και να χρησιμοποιηθούν τα δεδομένα σε εφαρμογές. Θα μάθετε για σχεσιακές και μη σχεσιακές βάσεις δεδομένων και πώς μπορούν να αποθηκευτούν δεδομένα σε αυτές. Θα μάθετε τα βασικά της εργασίας με την Python για τη διαχείριση δεδομένων και θα ανακαλύψετε μερικούς από τους πολλούς τρόπους με τους οποίους μπορείτε να χρησιμοποιήσετε την Python για τη διαχείριση και την εξόρυξη δεδομένων.
+
+### Θέματα
+
+1. [Σχεσιακές βάσεις δεδομένων](05-relational-databases/README.md)
+2. [Μη σχεσιακές βάσεις δεδομένων](06-non-relational/README.md)
+3. [Εργασία με Python](07-python/README.md)
+4. [Προετοιμασία δεδομένων](08-data-preparation/README.md)
+
+### Συντελεστές
+
+Αυτά τα μαθήματα γράφτηκαν με ❤️ από [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) και [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/09-visualization-quantities/README.md b/translations/el/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..8fe2c2d6
--- /dev/null
+++ b/translations/el/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Οπτικοποίηση Ποσοτήτων
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Οπτικοποίηση Ποσοτήτων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Σε αυτό το μάθημα θα εξερευνήσετε πώς να χρησιμοποιήσετε μία από τις πολλές διαθέσιμες βιβλιοθήκες Python για να μάθετε πώς να δημιουργείτε ενδιαφέρουσες οπτικοποιήσεις γύρω από την έννοια της ποσότητας. Χρησιμοποιώντας ένα καθαρισμένο σύνολο δεδομένων για τα πουλιά της Μινεσότα, μπορείτε να μάθετε πολλά ενδιαφέροντα στοιχεία για την τοπική άγρια ζωή.
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Παρατηρήστε το άνοιγμα φτερών με το Matplotlib
+
+Μια εξαιρετική βιβλιοθήκη για τη δημιουργία τόσο απλών όσο και σύνθετων γραφημάτων και διαγραμμάτων διαφόρων ειδών είναι το [Matplotlib](https://matplotlib.org/stable/index.html). Σε γενικές γραμμές, η διαδικασία σχεδίασης δεδομένων χρησιμοποιώντας αυτές τις βιβλιοθήκες περιλαμβάνει τον εντοπισμό των τμημάτων του dataframe που θέλετε να στοχεύσετε, την εκτέλεση οποιωνδήποτε μετασχηματισμών στα δεδομένα, την ανάθεση τιμών στους άξονες x και y, την απόφαση για το είδος του γραφήματος που θα εμφανιστεί και στη συνέχεια την εμφάνιση του γραφήματος. Το Matplotlib προσφέρει μια μεγάλη ποικιλία οπτικοποιήσεων, αλλά για αυτό το μάθημα, ας επικεντρωθούμε σε εκείνες που είναι πιο κατάλληλες για την οπτικοποίηση ποσοτήτων: γραφήματα γραμμών, scatterplots και ραβδογράμματα.
+
+> ✅ Χρησιμοποιήστε το καλύτερο γράφημα που ταιριάζει στη δομή των δεδομένων σας και την ιστορία που θέλετε να πείτε.
+> - Για ανάλυση τάσεων με την πάροδο του χρόνου: γραμμή
+> - Για σύγκριση τιμών: ράβδος, στήλη, πίτα, scatterplot
+> - Για να δείξετε πώς τα μέρη σχετίζονται με το σύνολο: πίτα
+> - Για να δείξετε τη διανομή δεδομένων: scatterplot, ράβδος
+> - Για να δείξετε τάσεις: γραμμή, στήλη
+> - Για να δείξετε σχέσεις μεταξύ τιμών: γραμμή, scatterplot, bubble
+
+Αν έχετε ένα σύνολο δεδομένων και χρειάζεται να ανακαλύψετε πόσο από ένα συγκεκριμένο στοιχείο περιλαμβάνεται, μία από τις πρώτες εργασίες που έχετε να κάνετε είναι να επιθεωρήσετε τις τιμές του.
+
+✅ Υπάρχουν πολύ καλά 'cheat sheets' διαθέσιμα για το Matplotlib [εδώ](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Δημιουργήστε ένα γράφημα γραμμής για τις τιμές ανοίγματος φτερών των πουλιών
+
+Ανοίξτε το αρχείο `notebook.ipynb` στη ρίζα του φακέλου αυτού του μαθήματος και προσθέστε ένα κελί.
+
+> Σημείωση: τα δεδομένα βρίσκονται στη ρίζα αυτού του αποθετηρίου στον φάκελο `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Αυτά τα δεδομένα είναι ένας συνδυασμός κειμένου και αριθμών:
+
+| | Όνομα | Επιστημονικό Όνομα | Κατηγορία | Τάξη | Οικογένεια | Γένος | Κατάσταση Διατήρησης | Ελάχιστο Μήκος | Μέγιστο Μήκος | Ελάχιστη Μάζα Σώματος | Μέγιστη Μάζα Σώματος | Ελάχιστο Άνοιγμα Φτερών | Μέγιστο Άνοιγμα Φτερών |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Μαυροκοιλιά πάπια | Dendrocygna autumnalis | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Καστανόχρωμη πάπια | Dendrocygna bicolor | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Χήνα του χιονιού | Anser caerulescens | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Χήνα του Ross | Anser rossii | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Μεγαλόσωμη λευκομέτωπη χήνα | Anser albifrons | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Ας ξεκινήσουμε σχεδιάζοντας μερικά από τα αριθμητικά δεδομένα χρησιμοποιώντας ένα βασικό γράφημα γραμμής. Υποθέστε ότι θέλετε μια εικόνα του μέγιστου ανοίγματος φτερών για αυτά τα ενδιαφέροντα πουλιά.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Τι παρατηρείτε αμέσως; Φαίνεται να υπάρχει τουλάχιστον μία ακραία τιμή - αυτό είναι αρκετά μεγάλο άνοιγμα φτερών! Ένα άνοιγμα φτερών 2300 εκατοστών ισοδυναμεί με 23 μέτρα - υπάρχουν Πτερόδακτυλοι που περιφέρονται στη Μινεσότα; Ας ερευνήσουμε.
+
+Ενώ θα μπορούσατε να κάνετε μια γρήγορη ταξινόμηση στο Excel για να βρείτε αυτές τις ακραίες τιμές, που πιθανότατα είναι τυπογραφικά λάθη, συνεχίστε τη διαδικασία οπτικοποίησης δουλεύοντας μέσα από το γράφημα.
+
+Προσθέστε ετικέτες στον άξονα x για να δείξετε τι είδους πουλιά εξετάζονται:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Ακόμα και με την περιστροφή των ετικετών στις 45 μοίρες, υπάρχουν πάρα πολλές για να διαβαστούν. Ας δοκιμάσουμε μια διαφορετική στρατηγική: ετικέτα μόνο τις ακραίες τιμές και τοποθετήστε τις ετικέτες μέσα στο γράφημα. Μπορείτε να χρησιμοποιήσετε ένα scatter chart για να δημιουργήσετε περισσότερο χώρο για την επισήμανση:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Τι συμβαίνει εδώ; Χρησιμοποιήσατε το `tick_params` για να κρύψετε τις κάτω ετικέτες και στη συνέχεια δημιουργήσατε έναν βρόχο πάνω από το σύνολο δεδομένων των πουλιών σας. Σχεδιάζοντας το γράφημα με μικρές στρογγυλές μπλε κουκκίδες χρησιμοποιώντας `bo`, ελέγξατε για οποιοδήποτε πουλί με μέγιστο άνοιγμα φτερών πάνω από 500 και εμφανίσατε την ετικέτα του δίπλα στην κουκκίδα αν ισχύει. Μετατοπίσατε τις ετικέτες λίγο στον άξονα y (`y * (1 - 0.05)`) και χρησιμοποιήσατε το όνομα του πουλιού ως ετικέτα.
+
+Τι ανακαλύψατε;
+
+
+## Φιλτράρετε τα δεδομένα σας
+
+Τόσο ο Φαλακρός Αετός όσο και το Γεράκι της Πεδιάδας, ενώ πιθανότατα είναι πολύ μεγάλα πουλιά, φαίνεται να έχουν λανθασμένες ετικέτες, με ένα επιπλέον `0` να έχει προστεθεί στο μέγιστο άνοιγμα φτερών τους. Είναι απίθανο να συναντήσετε έναν Φαλακρό Αετό με άνοιγμα φτερών 25 μέτρα, αλλά αν συμβεί, παρακαλώ ενημερώστε μας! Ας δημιουργήσουμε ένα νέο dataframe χωρίς αυτές τις δύο ακραίες τιμές:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Φιλτράροντας τις ακραίες τιμές, τα δεδομένα σας είναι τώρα πιο συνεκτικά και κατανοητά.
+
+
+
+Τώρα που έχουμε ένα καθαρότερο σύνολο δεδομένων τουλάχιστον όσον αφορά το άνοιγμα φτερών, ας ανακαλύψουμε περισσότερα για αυτά τα πουλιά.
+
+Ενώ τα γραφήματα γραμμών και scatter μπορούν να εμφανίσουν πληροφορίες σχετικά με τις τιμές δεδομένων και τις κατανομές τους, θέλουμε να σκεφτούμε τις τιμές που υπάρχουν σε αυτό το σύνολο δεδομένων. Θα μπορούσατε να δημιουργήσετε οπτικοποιήσεις για να απαντήσετε στις ακόλουθες ερωτήσεις σχετικά με την ποσότητα:
+
+> Πόσες κατηγορίες πουλιών υπάρχουν και ποιοι είναι οι αριθμοί τους;
+> Πόσα πουλιά είναι εξαφανισμένα, απειλούμενα, σπάνια ή κοινά;
+> Πόσα υπάρχουν από τα διάφορα γένη και τάξεις στην ορολογία του Linnaeus;
+## Εξερευνήστε τα ραβδογράμματα
+
+Τα ραβδογράμματα είναι πρακτικά όταν χρειάζεται να δείξετε ομαδοποιήσεις δεδομένων. Ας εξερευνήσουμε τις κατηγορίες πουλιών που υπάρχουν σε αυτό το σύνολο δεδομένων για να δούμε ποια είναι η πιο κοινή ανά αριθμό.
+
+Στο αρχείο notebook, δημιουργήστε ένα βασικό ραβδόγραμμα.
+
+✅ Σημείωση, μπορείτε είτε να φιλτράρετε τα δύο πουλιά με ακραίες τιμές που εντοπίσαμε στην προηγούμενη ενότητα, να επεξεργαστείτε το τυπογραφικό λάθος στο άνοιγμα φτερών τους, είτε να τα αφήσετε για αυτές τις ασκήσεις που δεν εξαρτώνται από τις τιμές ανοίγματος φτερών.
+
+Αν θέλετε να δημιουργήσετε ένα ραβδόγραμμα, μπορείτε να επιλέξετε τα δεδομένα στα οποία θέλετε να εστιάσετε. Τα ραβδογράμματα μπορούν να δημιουργηθούν από ακατέργαστα δεδομένα:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Αυτό το ραβδόγραμμα, ωστόσο, είναι δυσανάγνωστο επειδή υπάρχουν πάρα πολλά μη ομαδοποιημένα δεδομένα. Πρέπει να επιλέξετε μόνο τα δεδομένα που θέλετε να σχεδιάσετε, οπότε ας δούμε το μήκος των πουλιών με βάση την κατηγορία τους.
+
+Φιλτράρετε τα δεδομένα σας ώστε να περιλαμβάνουν μόνο την κατηγορία του πουλιού.
+
+✅ Παρατηρήστε ότι χρησιμοποιείτε το Pandas για τη διαχείριση των δεδομένων και στη συνέχεια αφήνετε το Matplotlib να κάνει τη σχεδίαση.
+
+Επειδή υπάρχουν πολλές κατηγορίες, μπορείτε να εμφανίσετε αυτό το γράφημα κάθετα και να προσαρμόσετε το ύψος του για να ληφθούν υπόψη όλα τα δεδομένα:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Αυτό το ραβδόγραμμα δείχνει μια καλή εικόνα του αριθμού των πουλιών σε κάθε κατηγορία. Με μια ματιά, βλέπετε ότι ο μεγαλύτερος αριθμός πουλιών σε αυτήν την περιοχή ανήκει στην κατηγορία Πάπιες/Χήνες/Υδρόβια. Η Μινεσότα είναι η 'γη των 10.000 λιμνών', οπότε αυτό δεν είναι έκπληξη!
+
+✅ Δοκιμάστε μερικές άλλες μετρήσεις σε αυτό το σύνολο δεδομένων. Σας εκπλήσσει κάτι;
+
+## Σύγκριση δεδομένων
+
+Μπορείτε να δοκιμάσετε διαφορετικές συγκρίσεις ομαδοποιημένων δεδομένων δημιουργώντας νέους άξονες. Δοκιμάστε μια σύγκριση του MaxLength ενός πουλιού, με βάση την κατηγορία του:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Τίποτα δεν είναι εκπληκτικό εδώ: τα κολιμπρί έχουν το μικρότερο MaxLength σε σύγκριση με τους Πελεκάνους ή τις Χήνες. Είναι καλό όταν τα δεδομένα έχουν λογική!
+
+Μπορείτε να δημιουργήσετε πιο ενδιαφέρουσες οπτικοποιήσεις ραβδογραμμάτων υπερθέτοντας δεδομένα. Ας υπερθέσουμε το Ελάχιστο και Μέγιστο Μήκος σε μια δεδομένη κατηγορία πουλιών:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+Σε αυτό το γράφημα, μπορείτε να δείτε το εύρος ανά κατηγορία πουλιών του Ελάχιστου Μήκους και του Μέγιστου Μήκους. Μπορείτε να πείτε με ασφάλεια ότι, δεδομένων αυτών των δεδομένων, όσο μεγαλύτερο το πουλί, τόσο μεγαλύτερο το εύρος μήκους του. Εντυπωσιακό!
+
+
+
+## 🚀 Πρόκληση
+
+Αυτό το σύνολο δεδομένων για τα πουλιά προσφέρει μια πληθώρα πληροφοριών για διαφορετικούς τύπους πουλιών μέσα σε ένα συγκεκριμένο οικοσύστημα. Ψάξτε στο διαδίκτυο και δείτε αν μπορείτε να βρείτε άλλα σύνολα δεδομένων που αφορούν πουλιά. Εξασκηθείτε στη δημιουργία γραφημάτων και διαγραμμάτων γύρω από αυτά τα πουλιά για να ανακαλύψετε γεγονότα που δεν γνωρίζατε.
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Αυτό το πρώτο μάθημα σας έδωσε κάποιες πληροφορίες για το πώς να χρησιμοποιείτε το Matplotlib για την οπτικοποίηση ποσοτήτων. Κάντε κάποια έρευνα γύρω από άλλους τρόπους εργασίας με σύνολα δεδομένων για οπτικοποίηση. Το [Plotly](https://github.com/plotly/plotly.py) είναι ένα εργαλείο που δεν θα καλύψουμε σε αυτά τα μαθήματα, οπότε ρίξτε μια ματιά σε αυτά που μπορεί να προσφέρει.
+## Εργασία
+
+[Γραμμές, Scatter και Ράβδοι](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/el/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..0efa6185
--- /dev/null
+++ b/translations/el/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Γραμμές, Διασκορπισμοί και Ραβδόγραμμα
+
+## Οδηγίες
+
+Σε αυτό το μάθημα, δουλέψατε με γραφήματα γραμμών, διαγράμματα διασποράς και ραβδογράμματα για να παρουσιάσετε ενδιαφέροντα στοιχεία σχετικά με αυτό το σύνολο δεδομένων. Σε αυτήν την εργασία, εμβαθύνετε περισσότερο στο σύνολο δεδομένων για να ανακαλύψετε ένα γεγονός σχετικά με έναν συγκεκριμένο τύπο πουλιού. Για παράδειγμα, δημιουργήστε ένα σημειωματάριο που να οπτικοποιεί όλα τα ενδιαφέροντα δεδομένα που μπορείτε να αποκαλύψετε για τις Χήνες του Χιονιού. Χρησιμοποιήστε τα τρία παραπάνω γραφήματα για να αφηγηθείτε μια ιστορία στο σημειωματάριό σας.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Παρουσιάζεται ένα σημειωματάριο με καλές σημειώσεις, συνεκτική αφήγηση και ελκυστικά γραφήματα | Το σημειωματάριο λείπει σε ένα από αυτά τα στοιχεία | Το σημειωματάριο λείπει σε δύο από αυτά τα στοιχεία
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/10-visualization-distributions/README.md b/translations/el/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..4a16c775
--- /dev/null
+++ b/translations/el/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,216 @@
+
+# Οπτικοποίηση Κατανομών
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Οπτικοποίηση Κατανομών - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Στο προηγούμενο μάθημα, μάθατε μερικά ενδιαφέροντα στοιχεία για ένα σύνολο δεδομένων σχετικά με τα πουλιά της Μινεσότα. Εντοπίσατε λανθασμένα δεδομένα οπτικοποιώντας ακραίες τιμές και εξετάσατε τις διαφορές μεταξύ των κατηγοριών πουλιών βάσει του μέγιστου μήκους τους.
+
+## [Προ-μάθημα κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Εξερεύνηση του συνόλου δεδομένων για τα πουλιά
+
+Ένας άλλος τρόπος να εμβαθύνετε στα δεδομένα είναι να εξετάσετε την κατανομή τους, δηλαδή πώς οργανώνονται τα δεδομένα κατά μήκος ενός άξονα. Ίσως, για παράδειγμα, θέλετε να μάθετε για τη γενική κατανομή, για αυτό το σύνολο δεδομένων, του μέγιστου άνοιγματος φτερών ή της μέγιστης μάζας σώματος των πουλιών της Μινεσότα.
+
+Ας ανακαλύψουμε μερικά στοιχεία για τις κατανομές των δεδομένων σε αυτό το σύνολο δεδομένων. Στο αρχείο _notebook.ipynb_ που βρίσκεται στη ρίζα του φακέλου αυτού του μαθήματος, εισάγετε Pandas, Matplotlib και τα δεδομένα σας:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Όνομα | Επιστημονικό Όνομα | Κατηγορία | Τάξη | Οικογένεια | Γένος | Κατάσταση Διατήρησης | Ελάχιστο Μήκος | Μέγιστο Μήκος | Ελάχιστη Μάζα Σώματος | Μέγιστη Μάζα Σώματος | Ελάχιστο Άνοιγμα Φτερών | Μέγιστο Άνοιγμα Φτερών |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Μαυροκοιλιάτικη σφυριχτή πάπια | Dendrocygna autumnalis | Πάπιες/Χήνες/Υδρόβια Πουλιά | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Καστανόχρωμη σφυριχτή πάπια | Dendrocygna bicolor | Πάπιες/Χήνες/Υδρόβια Πουλιά | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Χήνα του χιονιού | Anser caerulescens | Πάπιες/Χήνες/Υδρόβια Πουλιά | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Χήνα του Ross | Anser rossii | Πάπιες/Χήνες/Υδρόβια Πουλιά | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Μεγαλόλευκη χήνα | Anser albifrons | Πάπιες/Χήνες/Υδρόβια Πουλιά | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Γενικά, μπορείτε να δείτε γρήγορα τον τρόπο με τον οποίο κατανέμονται τα δεδομένα χρησιμοποιώντας ένα διάγραμμα διασποράς, όπως κάναμε στο προηγούμενο μάθημα:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Αυτό δίνει μια επισκόπηση της γενικής κατανομής του μήκους σώματος ανά Τάξη πουλιών, αλλά δεν είναι ο βέλτιστος τρόπος για να εμφανιστούν οι πραγματικές κατανομές. Αυτή η εργασία συνήθως γίνεται με τη δημιουργία ενός Ιστογράμματος.
+## Εργασία με Ιστογράμματα
+
+Το Matplotlib προσφέρει πολύ καλούς τρόπους για την οπτικοποίηση της κατανομής δεδομένων χρησιμοποιώντας Ιστογράμματα. Αυτός ο τύπος γραφήματος μοιάζει με γράφημα στηλών, όπου η κατανομή φαίνεται μέσω της ανόδου και της πτώσης των στηλών. Για να δημιουργήσετε ένα Ιστόγραμμα, χρειάζεστε αριθμητικά δεδομένα. Για να δημιουργήσετε ένα Ιστόγραμμα, μπορείτε να σχεδιάσετε ένα γράφημα ορίζοντας τον τύπο ως 'hist' για Ιστόγραμμα. Αυτό το γράφημα δείχνει την κατανομή της MaxBodyMass για το εύρος των αριθμητικών δεδομένων του συνόλου δεδομένων. Διαιρώντας τον πίνακα δεδομένων που του δίνεται σε μικρότερα διαστήματα, μπορεί να εμφανίσει την κατανομή των τιμών των δεδομένων:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Όπως μπορείτε να δείτε, τα περισσότερα από τα 400+ πουλιά σε αυτό το σύνολο δεδομένων βρίσκονται στο εύρος κάτω από 2000 για τη Μέγιστη Μάζα Σώματος. Αποκτήστε περισσότερη εικόνα για τα δεδομένα αλλάζοντας την παράμετρο `bins` σε μεγαλύτερο αριθμό, όπως 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Αυτό το γράφημα δείχνει την κατανομή με λίγο πιο λεπτομερή τρόπο. Ένα γράφημα λιγότερο κεκλιμένο προς τα αριστερά θα μπορούσε να δημιουργηθεί διασφαλίζοντας ότι επιλέγετε μόνο δεδομένα εντός ενός συγκεκριμένου εύρους:
+
+Φιλτράρετε τα δεδομένα σας για να λάβετε μόνο εκείνα τα πουλιά των οποίων η μάζα σώματος είναι κάτω από 60, και δείξτε 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Δοκιμάστε μερικά άλλα φίλτρα και σημεία δεδομένων. Για να δείτε την πλήρη κατανομή των δεδομένων, αφαιρέστε το φίλτρο `['MaxBodyMass']` για να εμφανίσετε κατανομές με ετικέτες.
+
+Το Ιστόγραμμα προσφέρει επίσης ωραίες βελτιώσεις χρώματος και ετικετών για να δοκιμάσετε:
+
+Δημιουργήστε ένα 2D Ιστόγραμμα για να συγκρίνετε τη σχέση μεταξύ δύο κατανομών. Ας συγκρίνουμε το `MaxBodyMass` με το `MaxLength`. Το Matplotlib προσφέρει έναν ενσωματωμένο τρόπο να δείξει τη σύγκλιση χρησιμοποιώντας πιο φωτεινά χρώματα:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Φαίνεται να υπάρχει μια αναμενόμενη συσχέτιση μεταξύ αυτών των δύο στοιχείων κατά μήκος ενός αναμενόμενου άξονα, με ένα ιδιαίτερα ισχυρό σημείο σύγκλισης:
+
+
+
+Τα Ιστογράμματα λειτουργούν καλά από προεπιλογή για αριθμητικά δεδομένα. Τι γίνεται αν χρειαστεί να δείτε κατανομές σύμφωνα με δεδομένα κειμένου;
+## Εξερεύνηση του συνόλου δεδομένων για κατανομές χρησιμοποιώντας δεδομένα κειμένου
+
+Αυτό το σύνολο δεδομένων περιλαμβάνει επίσης καλές πληροφορίες σχετικά με την κατηγορία του πουλιού, το γένος, το είδος και την οικογένειά του, καθώς και την κατάσταση διατήρησής του. Ας εμβαθύνουμε σε αυτές τις πληροφορίες διατήρησης. Ποια είναι η κατανομή των πουλιών σύμφωνα με την κατάσταση διατήρησής τους;
+
+> ✅ Στο σύνολο δεδομένων, χρησιμοποιούνται αρκετά ακρωνύμια για να περιγράψουν την κατάσταση διατήρησης. Αυτά τα ακρωνύμια προέρχονται από τις [Κατηγορίες Κόκκινης Λίστας της IUCN](https://www.iucnredlist.org/), έναν οργανισμό που καταγράφει την κατάσταση των ειδών.
+>
+> - CR: Κρίσιμα Απειλούμενο
+> - EN: Απειλούμενο
+> - EX: Εξαφανισμένο
+> - LC: Ελάχιστη Ανησυχία
+> - NT: Σχεδόν Απειλούμενο
+> - VU: Ευάλωτο
+
+Αυτές είναι τιμές βασισμένες σε κείμενο, οπότε θα χρειαστεί να κάνετε μια μετατροπή για να δημιουργήσετε ένα Ιστόγραμμα. Χρησιμοποιώντας το dataframe filteredBirds, εμφανίστε την κατάσταση διατήρησής του μαζί με το Ελάχιστο Άνοιγμα Φτερών. Τι παρατηρείτε;
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Δεν φαίνεται να υπάρχει καλή συσχέτιση μεταξύ του ελάχιστου ανοίγματος φτερών και της κατάστασης διατήρησης. Δοκιμάστε άλλα στοιχεία του συνόλου δεδομένων χρησιμοποιώντας αυτή τη μέθοδο. Μπορείτε να δοκιμάσετε διαφορετικά φίλτρα επίσης. Βρίσκετε κάποια συσχέτιση;
+
+## Γραφήματα Πυκνότητας
+
+Ίσως να παρατηρήσατε ότι τα Ιστογράμματα που έχουμε δει μέχρι τώρα είναι 'βηματικά' και δεν ρέουν ομαλά σε ένα τόξο. Για να δείξετε ένα πιο ομαλό γράφημα πυκνότητας, μπορείτε να δοκιμάσετε ένα γράφημα πυκνότητας.
+
+Για να εργαστείτε με γραφήματα πυκνότητας, εξοικειωθείτε με μια νέα βιβλιοθήκη γραφημάτων, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Φορτώνοντας το Seaborn, δοκιμάστε ένα βασικό γράφημα πυκνότητας:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Μπορείτε να δείτε πώς το γράφημα αντικατοπτρίζει το προηγούμενο για τα δεδομένα Ελάχιστου Ανοίγματος Φτερών· είναι απλώς λίγο πιο ομαλό. Σύμφωνα με την τεκμηρίωση του Seaborn, "Σε σχέση με ένα Ιστόγραμμα, το KDE μπορεί να παράγει ένα γράφημα που είναι λιγότερο φορτωμένο και πιο κατανοητό, ειδικά όταν σχεδιάζονται πολλαπλές κατανομές. Αλλά έχει τη δυνατότητα να εισάγει παραμορφώσεις εάν η υποκείμενη κατανομή είναι περιορισμένη ή μη ομαλή. Όπως ένα Ιστόγραμμα, η ποιότητα της αναπαράστασης εξαρτάται επίσης από την επιλογή καλών παραμέτρων εξομάλυνσης." [πηγή](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Με άλλα λόγια, οι ακραίες τιμές, όπως πάντα, θα κάνουν τα γραφήματά σας να συμπεριφέρονται άσχημα.
+
+Αν θέλατε να επανεξετάσετε εκείνη τη γραμμή MaxBodyMass που ήταν τραχιά στο δεύτερο γράφημα που δημιουργήσατε, θα μπορούσατε να την εξομαλύνετε πολύ καλά αναδημιουργώντας την με αυτή τη μέθοδο:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Αν θέλατε μια ομαλή, αλλά όχι υπερβολικά ομαλή γραμμή, επεξεργαστείτε την παράμετρο `bw_adjust`:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Διαβάστε για τις διαθέσιμες παραμέτρους για αυτόν τον τύπο γραφήματος και πειραματιστείτε!
+
+Αυτός ο τύπος γραφήματος προσφέρει όμορφες επεξηγηματικές οπτικοποιήσεις. Με λίγες γραμμές κώδικα, για παράδειγμα, μπορείτε να δείξετε την πυκνότητα μέγιστης μάζας σώματος ανά Τάξη πουλιών:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Μπορείτε επίσης να χαρτογραφήσετε την πυκνότητα πολλών μεταβλητών σε ένα γράφημα. Δοκιμάστε το MaxLength και το MinLength ενός πουλιού σε σύγκριση με την κατάσταση διατήρησής τους:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Ίσως αξίζει να ερευνήσετε αν η συγκέντρωση των 'Ευάλωτων' πουλιών σύμφωνα με τα μήκη τους είναι σημαντική ή όχι.
+
+## 🚀 Πρόκληση
+
+Τα Ιστογράμματα είναι ένας πιο εξελιγμένος τύπος γραφήματος από τα βασικά γραφήματα διασποράς, γραφήματα στηλών ή γραφήματα γραμμών. Ψάξτε στο διαδίκτυο για να βρείτε καλά παραδείγματα χρήσης Ιστογραμμάτων. Πώς χρησιμοποιούνται, τι δείχνουν και σε ποιους τομείς ή περιοχές έρευνας τείνουν να χρησιμοποιούνται;
+
+## [Μετά-μάθημα κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Σε αυτό το μάθημα, χρησιμοποιήσατε το Matplotlib και αρχίσατε να εργάζεστε με το Seaborn για να δημιουργήσετε πιο εξελιγμένα γραφήματα. Κάντε έρευνα για το `kdeplot` στο Seaborn, μια "συνεχής καμπύλη πυκνότητας πιθανότητας σε μία ή περισσότερες διαστάσεις". Διαβάστε την [τεκμηρίωση](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) για να κατανοήσετε πώς λειτουργεί.
+
+## Εργασία
+
+[Εφαρμόστε τις δεξιότητές σας](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/el/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..92bb6ded
--- /dev/null
+++ b/translations/el/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Εφαρμόστε τις δεξιότητές σας
+
+## Οδηγίες
+
+Μέχρι τώρα, έχετε εργαστεί με το σύνολο δεδομένων των πουλιών της Μινεσότα για να ανακαλύψετε πληροφορίες σχετικά με τις ποσότητες και την πυκνότητα πληθυσμού των πουλιών. Εξασκηθείτε στην εφαρμογή αυτών των τεχνικών δοκιμάζοντας ένα διαφορετικό σύνολο δεδομένων, ίσως από [Kaggle](https://www.kaggle.com/). Δημιουργήστε ένα notebook για να διηγηθείτε μια ιστορία σχετικά με αυτό το σύνολο δεδομένων και βεβαιωθείτε ότι χρησιμοποιείτε ιστογράμματα κατά τη συζήτησή του.
+
+## Κριτήρια αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Παρουσιάζεται ένα notebook με σχολιασμούς σχετικά με αυτό το σύνολο δεδομένων, συμπεριλαμβανομένης της πηγής του, και χρησιμοποιεί τουλάχιστον 5 ιστογράμματα για να ανακαλύψει γεγονότα σχετικά με τα δεδομένα. | Παρουσιάζεται ένα notebook με ελλιπείς σχολιασμούς ή σφάλματα. | Παρουσιάζεται ένα notebook χωρίς σχολιασμούς και περιλαμβάνει σφάλματα.
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/11-visualization-proportions/README.md b/translations/el/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..1307ef46
--- /dev/null
+++ b/translations/el/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,205 @@
+
+# Οπτικοποίηση Αναλογιών
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Οπτικοποίηση Αναλογιών - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Σε αυτό το μάθημα, θα χρησιμοποιήσετε ένα διαφορετικό dataset με επίκεντρο τη φύση για να οπτικοποιήσετε αναλογίες, όπως πόσα διαφορετικά είδη μανιταριών περιλαμβάνονται σε ένα δεδομένο dataset για μανιτάρια. Ας εξερευνήσουμε αυτά τα συναρπαστικά μανιτάρια χρησιμοποιώντας ένα dataset από το Audubon που περιλαμβάνει λεπτομέρειες για 23 είδη μανιταριών με ελάσματα από τις οικογένειες Agaricus και Lepiota. Θα πειραματιστείτε με νόστιμες οπτικοποιήσεις όπως:
+
+- Γραφήματα πίτας 🥧
+- Γραφήματα ντόνατ 🍩
+- Γραφήματα βάφλας 🧇
+
+> 💡 Ένα πολύ ενδιαφέρον project που ονομάζεται [Charticulator](https://charticulator.com) από τη Microsoft Research προσφέρει μια δωρεάν διεπαφή drag and drop για οπτικοποιήσεις δεδομένων. Σε ένα από τα tutorials τους χρησιμοποιούν επίσης αυτό το dataset για μανιτάρια! Έτσι, μπορείτε να εξερευνήσετε τα δεδομένα και να μάθετε τη βιβλιοθήκη ταυτόχρονα: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Γνωρίστε τα μανιτάρια σας 🍄
+
+Τα μανιτάρια είναι πολύ ενδιαφέροντα. Ας εισάγουμε ένα dataset για να τα μελετήσουμε:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Ένας πίνακας εμφανίζεται με κάποια εξαιρετικά δεδομένα για ανάλυση:
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Δηλητηριώδες | Κυρτό | Λείο | Καφέ | Μώλωπες | Δριμύ | Ελεύθερο | Κοντινό | Στενό | Μαύρο | Διευρυνόμενο | Ίσο | Λείο | Λείο | Λευκό | Λευκό | Μερικό | Λευκό | Ένα | Κρεμαστό | Μαύρο | Σκόρπιο | Αστικό |
+| Βρώσιμο | Κυρτό | Λείο | Κίτρινο | Μώλωπες | Αμυγδάλου | Ελεύθερο | Κοντινό | Ευρύ | Μαύρο | Διευρυνόμενο | Κλαμπ | Λείο | Λείο | Λευκό | Λευκό | Μερικό | Λευκό | Ένα | Κρεμαστό | Καφέ | Πολλά | Χόρτα |
+| Βρώσιμο | Καμπανόσχημο | Λείο | Λευκό | Μώλωπες | Γλυκάνισο | Ελεύθερο | Κοντινό | Ευρύ | Καφέ | Διευρυνόμενο | Κλαμπ | Λείο | Λείο | Λευκό | Λευκό | Μερικό | Λευκό | Ένα | Κρεμαστό | Καφέ | Πολλά | Λιβάδια |
+| Δηλητηριώδες | Κυρτό | Λεπιδωτό | Λευκό | Μώλωπες | Δριμύ | Ελεύθερο | Κοντινό | Στενό | Καφέ | Διευρυνόμενο | Ίσο | Λείο | Λείο | Λευκό | Λευκό | Μερικό | Λευκό | Ένα | Κρεμαστό | Μαύρο | Σκόρπιο | Αστικό |
+
+Αμέσως παρατηρείτε ότι όλα τα δεδομένα είναι κειμενικά. Θα πρέπει να μετατρέψετε αυτά τα δεδομένα για να μπορέσετε να τα χρησιμοποιήσετε σε ένα γράφημα. Στην πραγματικότητα, τα περισσότερα δεδομένα αναπαρίστανται ως αντικείμενα:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Η έξοδος είναι:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Πάρτε αυτά τα δεδομένα και μετατρέψτε τη στήλη 'class' σε κατηγορία:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Τώρα, αν εκτυπώσετε τα δεδομένα των μανιταριών, μπορείτε να δείτε ότι έχουν ομαδοποιηθεί σε κατηγορίες σύμφωνα με την κατηγορία δηλητηριώδες/βρώσιμο:
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Βρώσιμο | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Δηλητηριώδες | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Αν ακολουθήσετε τη σειρά που παρουσιάζεται σε αυτόν τον πίνακα για να δημιουργήσετε τις ετικέτες κατηγορίας, μπορείτε να δημιουργήσετε ένα γράφημα πίτας:
+
+## Πίτα!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Ορίστε, ένα γράφημα πίτας που δείχνει τις αναλογίες αυτών των δεδομένων σύμφωνα με αυτές τις δύο κατηγορίες μανιταριών. Είναι αρκετά σημαντικό να διασφαλίσετε τη σωστή σειρά των ετικετών, ειδικά εδώ, οπότε φροντίστε να επαληθεύσετε τη σειρά με την οποία δημιουργείται ο πίνακας ετικετών!
+
+
+
+## Ντόνατ!
+
+Ένα κάπως πιο οπτικά ενδιαφέρον γράφημα πίτας είναι το γράφημα ντόνατ, το οποίο είναι ένα γράφημα πίτας με μια τρύπα στη μέση. Ας δούμε τα δεδομένα μας χρησιμοποιώντας αυτή τη μέθοδο.
+
+Δείτε τους διάφορους βιότοπους όπου αναπτύσσονται τα μανιτάρια:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Εδώ, ομαδοποιείτε τα δεδομένα σας ανά βιότοπο. Υπάρχουν 7 καταγεγραμμένοι, οπότε χρησιμοποιήστε αυτούς ως ετικέτες για το γράφημα ντόνατ:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Αυτός ο κώδικας σχεδιάζει ένα γράφημα και έναν κεντρικό κύκλο, και στη συνέχεια προσθέτει αυτόν τον κεντρικό κύκλο στο γράφημα. Επεξεργαστείτε το πλάτος του κεντρικού κύκλου αλλάζοντας το `0.40` σε άλλη τιμή.
+
+Τα γραφήματα ντόνατ μπορούν να προσαρμοστούν με διάφορους τρόπους για να αλλάξουν οι ετικέτες. Οι ετικέτες, ειδικότερα, μπορούν να τονιστούν για καλύτερη αναγνωσιμότητα. Μάθετε περισσότερα στα [έγγραφα](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Τώρα που ξέρετε πώς να ομαδοποιείτε τα δεδομένα σας και να τα εμφανίζετε ως πίτα ή ντόνατ, μπορείτε να εξερευνήσετε άλλους τύπους γραφημάτων. Δοκιμάστε ένα γράφημα βάφλας, το οποίο είναι απλώς ένας διαφορετικός τρόπος εξερεύνησης ποσοτήτων.
+
+## Βάφλες!
+
+Ένα γράφημα τύπου 'βάφλας' είναι ένας διαφορετικός τρόπος οπτικοποίησης ποσοτήτων ως δισδιάστατος πίνακας τετραγώνων. Δοκιμάστε να οπτικοποιήσετε τις διαφορετικές ποσότητες χρωμάτων καπέλου μανιταριών σε αυτό το dataset. Για να το κάνετε αυτό, πρέπει να εγκαταστήσετε μια βοηθητική βιβλιοθήκη που ονομάζεται [PyWaffle](https://pypi.org/project/pywaffle/) και να χρησιμοποιήσετε το Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Επιλέξτε ένα τμήμα των δεδομένων σας για ομαδοποίηση:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Δημιουργήστε ένα γράφημα βάφλας δημιουργώντας ετικέτες και στη συνέχεια ομαδοποιώντας τα δεδομένα σας:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Χρησιμοποιώντας ένα γράφημα βάφλας, μπορείτε να δείτε ξεκάθαρα τις αναλογίες των χρωμάτων καπέλου σε αυτό το dataset μανιταριών. Ενδιαφέρον είναι ότι υπάρχουν πολλά μανιτάρια με πράσινα καπέλα!
+
+
+
+✅ Το Pywaffle υποστηρίζει εικονίδια μέσα στα γραφήματα που χρησιμοποιούν οποιοδήποτε εικονίδιο διαθέσιμο στο [Font Awesome](https://fontawesome.com/). Κάντε πειράματα για να δημιουργήσετε ένα ακόμα πιο ενδιαφέρον γράφημα βάφλας χρησιμοποιώντας εικονίδια αντί για τετράγωνα.
+
+Σε αυτό το μάθημα, μάθατε τρεις τρόπους για να οπτικοποιήσετε αναλογίες. Πρώτα, πρέπει να ομαδοποιήσετε τα δεδομένα σας σε κατηγορίες και στη συνέχεια να αποφασίσετε ποιος είναι ο καλύτερος τρόπος για να εμφανίσετε τα δεδομένα - πίτα, ντόνατ ή βάφλα. Όλα είναι νόστιμα και ικανοποιούν τον χρήστη με μια άμεση εικόνα ενός dataset.
+
+## 🚀 Πρόκληση
+
+Δοκιμάστε να αναδημιουργήσετε αυτά τα νόστιμα γραφήματα στο [Charticulator](https://charticulator.com).
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Μερικές φορές δεν είναι προφανές πότε να χρησιμοποιήσετε ένα γράφημα πίτας, ντόνατ ή βάφλας. Εδώ είναι μερικά άρθρα για να διαβάσετε σχετικά με αυτό το θέμα:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Κάντε έρευνα για να βρείτε περισσότερες πληροφορίες σχετικά με αυτή τη δύσκολη απόφαση.
+
+## Εργασία
+
+[Δοκιμάστε το στο Excel](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/el/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..cbb326fa
--- /dev/null
+++ b/translations/el/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Δοκιμάστε το στο Excel
+
+## Οδηγίες
+
+Γνωρίζατε ότι μπορείτε να δημιουργήσετε γραφήματα ντόνατ, πίτας και βάφλας στο Excel; Χρησιμοποιώντας ένα σύνολο δεδομένων της επιλογής σας, δημιουργήστε αυτά τα τρία γραφήματα απευθείας σε ένα φύλλο Excel.
+
+## Κριτήρια Αξιολόγησης
+
+| Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση |
+| ------------------------------------------------------- | ------------------------------------------------- | ------------------------------------------------------ |
+| Παρουσιάζεται ένα φύλλο Excel με όλα τα τρία γραφήματα | Παρουσιάζεται ένα φύλλο Excel με δύο γραφήματα | Παρουσιάζεται ένα φύλλο Excel με μόνο ένα γράφημα |
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/12-visualization-relationships/README.md b/translations/el/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..d8663464
--- /dev/null
+++ b/translations/el/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# Οπτικοποίηση Σχέσεων: Όλα για το Μέλι 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Οπτικοποίηση Σχέσεων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Συνεχίζοντας με τη φυσική θεματολογία της έρευνάς μας, ας ανακαλύψουμε ενδιαφέρουσες οπτικοποιήσεις για να δείξουμε τις σχέσεις μεταξύ διαφόρων τύπων μελιού, σύμφωνα με ένα σύνολο δεδομένων που προέρχεται από το [Υπουργείο Γεωργίας των Ηνωμένων Πολιτειών](https://www.nass.usda.gov/About_NASS/index.php).
+
+Αυτό το σύνολο δεδομένων, που περιλαμβάνει περίπου 600 στοιχεία, παρουσιάζει την παραγωγή μελιού σε πολλές πολιτείες των Η.Π.Α. Για παράδειγμα, μπορείτε να εξετάσετε τον αριθμό των αποικιών, την απόδοση ανά αποικία, τη συνολική παραγωγή, τα αποθέματα, την τιμή ανά λίβρα και την αξία του παραγόμενου μελιού σε μια συγκεκριμένη πολιτεία από το 1998 έως το 2012, με μία γραμμή ανά έτος για κάθε πολιτεία.
+
+Θα ήταν ενδιαφέρον να οπτικοποιήσουμε τη σχέση μεταξύ της παραγωγής μιας πολιτείας ανά έτος και, για παράδειγμα, της τιμής του μελιού σε αυτή την πολιτεία. Εναλλακτικά, θα μπορούσατε να οπτικοποιήσετε τη σχέση μεταξύ της απόδοσης μελιού ανά αποικία στις πολιτείες. Αυτή η χρονική περίοδος περιλαμβάνει την καταστροφική «Διαταραχή Κατάρρευσης Αποικιών» (CCD), που παρατηρήθηκε για πρώτη φορά το 2006 (http://npic.orst.edu/envir/ccd.html), καθιστώντας το ένα συγκινητικό σύνολο δεδομένων για μελέτη. 🐝
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Σε αυτό το μάθημα, μπορείτε να χρησιμοποιήσετε τη βιβλιοθήκη Seaborn, την οποία έχετε χρησιμοποιήσει ξανά, ως μια εξαιρετική επιλογή για την οπτικοποίηση σχέσεων μεταξύ μεταβλητών. Ιδιαίτερα ενδιαφέρουσα είναι η χρήση της συνάρτησης `relplot` του Seaborn, που επιτρέπει τη δημιουργία διαγραμμάτων διασποράς και γραμμών για γρήγορη οπτικοποίηση των '[στατιστικών σχέσεων](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', βοηθώντας τον επιστήμονα δεδομένων να κατανοήσει καλύτερα πώς σχετίζονται οι μεταβλητές μεταξύ τους.
+
+## Διαγράμματα Διασποράς
+
+Χρησιμοποιήστε ένα διάγραμμα διασποράς για να δείξετε πώς εξελίχθηκε η τιμή του μελιού, χρόνο με τον χρόνο, ανά πολιτεία. Το Seaborn, χρησιμοποιώντας το `relplot`, ομαδοποιεί βολικά τα δεδομένα ανά πολιτεία και εμφανίζει σημεία δεδομένων για κατηγορικά και αριθμητικά δεδομένα.
+
+Ας ξεκινήσουμε εισάγοντας τα δεδομένα και το Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Παρατηρείτε ότι τα δεδομένα για το μέλι περιλαμβάνουν αρκετές ενδιαφέρουσες στήλες, όπως το έτος και την τιμή ανά λίβρα. Ας εξερευνήσουμε αυτά τα δεδομένα, ομαδοποιημένα ανά πολιτεία των Η.Π.Α.:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Δημιουργήστε ένα βασικό διάγραμμα διασποράς για να δείξετε τη σχέση μεταξύ της τιμής ανά λίβρα μελιού και της πολιτείας προέλευσής του. Κάντε τον άξονα `y` αρκετά ψηλό ώστε να εμφανίζονται όλες οι πολιτείες:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Τώρα, δείξτε τα ίδια δεδομένα με μια χρωματική παλέτα που θυμίζει μέλι, για να δείξετε πώς εξελίσσεται η τιμή με την πάροδο των ετών. Μπορείτε να το κάνετε αυτό προσθέτοντας μια παράμετρο 'hue' για να δείξετε την αλλαγή, χρόνο με τον χρόνο:
+
+> ✅ Μάθετε περισσότερα για τις [χρωματικές παλέτες που μπορείτε να χρησιμοποιήσετε στο Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - δοκιμάστε μια όμορφη παλέτα ουράνιου τόξου!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Με αυτή την αλλαγή χρωματικής παλέτας, μπορείτε να δείτε ότι υπάρχει προφανώς μια ισχυρή πρόοδος με την πάροδο των ετών όσον αφορά την τιμή του μελιού ανά λίβρα. Πράγματι, αν κοιτάξετε ένα δείγμα δεδομένων για να το επαληθεύσετε (επιλέξτε, για παράδειγμα, την πολιτεία της Αριζόνα), μπορείτε να δείτε ένα μοτίβο αύξησης της τιμής χρόνο με τον χρόνο, με λίγες εξαιρέσεις:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Ένας άλλος τρόπος να οπτικοποιήσετε αυτή την πρόοδο είναι να χρησιμοποιήσετε το μέγεθος αντί για το χρώμα. Για χρήστες με αχρωματοψία, αυτό μπορεί να είναι μια καλύτερη επιλογή. Επεξεργαστείτε την οπτικοποίησή σας ώστε να δείξετε την αύξηση της τιμής μέσω της αύξησης της περιφέρειας των κουκκίδων:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Μπορείτε να δείτε το μέγεθος των κουκκίδων να αυξάνεται σταδιακά.
+
+
+
+Είναι αυτό μια απλή περίπτωση προσφοράς και ζήτησης; Λόγω παραγόντων όπως η κλιματική αλλαγή και η κατάρρευση αποικιών, υπάρχει λιγότερο διαθέσιμο μέλι για αγορά χρόνο με τον χρόνο, και έτσι η τιμή αυξάνεται;
+
+Για να ανακαλύψουμε μια συσχέτιση μεταξύ ορισμένων μεταβλητών αυτού του συνόλου δεδομένων, ας εξερευνήσουμε μερικά διαγράμματα γραμμών.
+
+## Διαγράμματα Γραμμών
+
+Ερώτηση: Υπάρχει σαφής αύξηση της τιμής του μελιού ανά λίβρα χρόνο με τον χρόνο; Μπορείτε να το ανακαλύψετε εύκολα δημιουργώντας ένα απλό διάγραμμα γραμμών:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Απάντηση: Ναι, με κάποιες εξαιρέσεις γύρω στο έτος 2003:
+
+
+
+✅ Επειδή το Seaborn συγκεντρώνει δεδομένα γύρω από μία γραμμή, εμφανίζει «τις πολλαπλές μετρήσεις σε κάθε τιμή x σχεδιάζοντας τον μέσο όρο και το διάστημα εμπιστοσύνης 95% γύρω από τον μέσο όρο». [Πηγή](https://seaborn.pydata.org/tutorial/relational.html). Αυτή η χρονοβόρα συμπεριφορά μπορεί να απενεργοποιηθεί προσθέτοντας `ci=None`.
+
+Ερώτηση: Λοιπόν, το 2003 μπορούμε επίσης να δούμε μια αύξηση στην προσφορά μελιού; Τι γίνεται αν κοιτάξετε τη συνολική παραγωγή χρόνο με τον χρόνο;
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Απάντηση: Όχι ακριβώς. Αν κοιτάξετε τη συνολική παραγωγή, φαίνεται ότι αυξήθηκε εκείνη τη χρονιά, παρόλο που γενικά η ποσότητα του παραγόμενου μελιού μειώνεται κατά τη διάρκεια αυτών των ετών.
+
+Ερώτηση: Σε αυτή την περίπτωση, τι θα μπορούσε να προκάλεσε αυτή την αύξηση στην τιμή του μελιού γύρω στο 2003;
+
+Για να το ανακαλύψετε, μπορείτε να εξερευνήσετε ένα πλέγμα όψεων.
+
+## Πλέγματα Όψεων
+
+Τα πλέγματα όψεων λαμβάνουν μία όψη του συνόλου δεδομένων σας (στην περίπτωσή μας, μπορείτε να επιλέξετε το 'έτος' για να αποφύγετε την παραγωγή υπερβολικά πολλών όψεων). Το Seaborn μπορεί στη συνέχεια να δημιουργήσει ένα διάγραμμα για καθεμία από αυτές τις όψεις των επιλεγμένων συντεταγμένων x και y για πιο εύκολη οπτική σύγκριση. Ξεχωρίζει το 2003 σε αυτό το είδος σύγκρισης;
+
+Δημιουργήστε ένα πλέγμα όψεων συνεχίζοντας να χρησιμοποιείτε το `relplot`, όπως συνιστάται από την [τεκμηρίωση του Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+Σε αυτή την οπτικοποίηση, μπορείτε να συγκρίνετε την απόδοση ανά αποικία και τον αριθμό των αποικιών χρόνο με τον χρόνο, δίπλα-δίπλα, με το περιτύλιγμα να έχει οριστεί στο 3 για τις στήλες:
+
+
+
+Για αυτό το σύνολο δεδομένων, τίποτα ιδιαίτερο δεν ξεχωρίζει όσον αφορά τον αριθμό των αποικιών και την απόδοσή τους, χρόνο με τον χρόνο και πολιτεία με πολιτεία. Υπάρχει διαφορετικός τρόπος να βρείτε μια συσχέτιση μεταξύ αυτών των δύο μεταβλητών;
+
+## Διπλά Διαγράμματα Γραμμών
+
+Δοκιμάστε ένα διάγραμμα πολλαπλών γραμμών, τοποθετώντας δύο διαγράμματα γραμμών το ένα πάνω στο άλλο, χρησιμοποιώντας το `despine` του Seaborn για να αφαιρέσετε τις πάνω και δεξιές γραμμές, και χρησιμοποιώντας το `ax.twinx` [που προέρχεται από το Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Το Twinx επιτρέπει σε ένα διάγραμμα να μοιράζεται τον άξονα x και να εμφανίζει δύο άξονες y. Επομένως, εμφανίστε την απόδοση ανά αποικία και τον αριθμό των αποικιών, τοποθετημένα το ένα πάνω στο άλλο:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Ενώ τίποτα δεν ξεχωρίζει ιδιαίτερα γύρω στο έτος 2003, αυτό μας επιτρέπει να κλείσουμε το μάθημα με μια πιο αισιόδοξη νότα: ενώ υπάρχει συνολικά μια μείωση στον αριθμό των αποικιών, ο αριθμός των αποικιών σταθεροποιείται, ακόμα κι αν η απόδοση ανά αποικία μειώνεται.
+
+Πάμε, μέλισσες, πάμε!
+
+🐝❤️
+## 🚀 Πρόκληση
+
+Σε αυτό το μάθημα, μάθατε λίγο περισσότερα για άλλες χρήσεις διαγραμμάτων διασποράς και πλεγμάτων γραμμών, συμπεριλαμβανομένων των πλεγμάτων όψεων. Προκαλέστε τον εαυτό σας να δημιουργήσει ένα πλέγμα όψεων χρησιμοποιώντας ένα διαφορετικό σύνολο δεδομένων, ίσως κάποιο που χρησιμοποιήσατε πριν από αυτά τα μαθήματα. Σημειώστε πόσο χρόνο χρειάζονται για να δημιουργηθούν και πόσο προσεκτικοί πρέπει να είστε σχετικά με το πόσα πλέγματα χρειάζεται να σχεδιάσετε χρησιμοποιώντας αυτές τις τεχνικές.
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Τα διαγράμματα γραμμών μπορούν να είναι απλά ή αρκετά περίπλοκα. Κάντε λίγη ανάγνωση στην [τεκμηρίωση του Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) σχετικά με τους διάφορους τρόπους με τους οποίους μπορείτε να τα δημιουργήσετε. Προσπαθήστε να βελτιώσετε τα διαγράμματα γραμμών που δημιουργήσατε σε αυτό το μάθημα με άλλες μεθόδους που αναφέρονται στην τεκμηρίωση.
+## Εργασία
+
+[Βουτήξτε στην κυψέλη](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/el/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..bb1c734b
--- /dev/null
+++ b/translations/el/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Βουτήξτε στην κυψέλη
+
+## Οδηγίες
+
+Σε αυτό το μάθημα αρχίσατε να εξετάζετε ένα σύνολο δεδομένων σχετικά με τις μέλισσες και την παραγωγή μελιού τους κατά τη διάρκεια μιας περιόδου που σημειώθηκαν απώλειες στον πληθυσμό των μελισσών συνολικά. Εξετάστε πιο βαθιά αυτό το σύνολο δεδομένων και δημιουργήστε ένα notebook που να αφηγείται την ιστορία της υγείας του πληθυσμού των μελισσών, ανά πολιτεία και ανά έτος. Ανακαλύπτετε κάτι ενδιαφέρον σε αυτό το σύνολο δεδομένων;
+
+## Κριτήρια Αξιολόγησης
+
+| Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------- | ---------------------------------------- |
+| Παρουσιάζεται ένα notebook με μια ιστορία που περιλαμβάνει τουλάχιστον τρία διαφορετικά γραφήματα που δείχνουν πτυχές του συνόλου δεδομένων, ανά πολιτεία και ανά έτος | Το notebook στερείται ενός από αυτά τα στοιχεία | Το notebook στερείται δύο από αυτά τα στοιχεία |
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/el/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..4a28d693
--- /dev/null
+++ b/translations/el/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Δημιουργία Σημαντικών Οπτικοποιήσεων
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Σημαντικές Οπτικοποιήσεις - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+> "Αν βασανίσεις τα δεδομένα αρκετά, θα ομολογήσουν οτιδήποτε" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Μία από τις βασικές δεξιότητες ενός επιστήμονα δεδομένων είναι η ικανότητα να δημιουργεί μια σημαντική οπτικοποίηση δεδομένων που βοηθά στην απάντηση ερωτήσεων. Πριν οπτικοποιήσετε τα δεδομένα σας, πρέπει να βεβαιωθείτε ότι έχουν καθαριστεί και προετοιμαστεί, όπως κάνατε στα προηγούμενα μαθήματα. Μετά από αυτό, μπορείτε να αρχίσετε να αποφασίζετε πώς να παρουσιάσετε καλύτερα τα δεδομένα.
+
+Σε αυτό το μάθημα, θα εξετάσετε:
+
+1. Πώς να επιλέξετε τον σωστό τύπο γραφήματος
+2. Πώς να αποφύγετε παραπλανητικά γραφήματα
+3. Πώς να δουλέψετε με χρώματα
+4. Πώς να διαμορφώσετε τα γραφήματά σας για ευανάγνωστοτητα
+5. Πώς να δημιουργήσετε λύσεις με κινούμενα ή 3D γραφήματα
+6. Πώς να δημιουργήσετε μια δημιουργική οπτικοποίηση
+
+## [Προ-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Επιλέξτε τον σωστό τύπο γραφήματος
+
+Στα προηγούμενα μαθήματα, πειραματιστήκατε με τη δημιουργία όλων των ειδών ενδιαφέρουσες οπτικοποιήσεις δεδομένων χρησιμοποιώντας Matplotlib και Seaborn για γραφήματα. Γενικά, μπορείτε να επιλέξετε τον [σωστό τύπο γραφήματος](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) για την ερώτηση που θέτετε χρησιμοποιώντας τον παρακάτω πίνακα:
+
+| Χρειάζεστε να: | Πρέπει να χρησιμοποιήσετε: |
+| -------------------------- | ------------------------------- |
+| Δείξετε τάσεις δεδομένων με την πάροδο του χρόνου | Γραμμή |
+| Συγκρίνετε κατηγορίες | Μπάρα, Πίτα |
+| Συγκρίνετε σύνολα | Πίτα, Σωρευτική Μπάρα |
+| Δείξετε σχέσεις | Scatter, Γραμμή, Facet, Διπλή Γραμμή |
+| Δείξετε κατανομές | Scatter, Ιστόγραμμα, Κουτί |
+| Δείξετε αναλογίες | Πίτα, Donut, Waffle |
+
+> ✅ Ανάλογα με τη σύνθεση των δεδομένων σας, μπορεί να χρειαστεί να τα μετατρέψετε από κείμενο σε αριθμητικά για να υποστηρίξετε ένα συγκεκριμένο γράφημα.
+
+## Αποφύγετε την παραπλάνηση
+
+Ακόμα κι αν ένας επιστήμονας δεδομένων είναι προσεκτικός στην επιλογή του σωστού γραφήματος για τα σωστά δεδομένα, υπάρχουν πολλοί τρόποι με τους οποίους τα δεδομένα μπορούν να παρουσιαστούν με τρόπο που να αποδεικνύει ένα σημείο, συχνά εις βάρος της αλήθειας των δεδομένων. Υπάρχουν πολλά παραδείγματα παραπλανητικών γραφημάτων και πληροφοριακών γραφημάτων!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Πώς Ψεύδονται τα Γραφήματα")
+
+> 🎥 Κάντε κλικ στην εικόνα παραπάνω για μια ομιλία συνεδρίου σχετικά με παραπλανητικά γραφήματα
+
+Αυτό το γράφημα αντιστρέφει τον άξονα X για να δείξει το αντίθετο της αλήθειας, βάσει ημερομηνίας:
+
+
+
+[Αυτό το γράφημα](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) είναι ακόμα πιο παραπλανητικό, καθώς το μάτι τραβιέται προς τα δεξιά για να συμπεράνει ότι, με την πάροδο του χρόνου, τα κρούσματα COVID έχουν μειωθεί στις διάφορες κομητείες. Στην πραγματικότητα, αν κοιτάξετε προσεκτικά τις ημερομηνίες, θα διαπιστώσετε ότι έχουν αναδιαταχθεί για να δώσουν αυτήν την παραπλανητική πτωτική τάση.
+
+
+
+Αυτό το διαβόητο παράδειγμα χρησιμοποιεί χρώμα ΚΑΙ έναν αναστραμμένο άξονα Y για να παραπλανήσει: αντί να συμπεράνει κανείς ότι οι θάνατοι από όπλα αυξήθηκαν μετά την ψήφιση νομοθεσίας φιλικής προς τα όπλα, στην πραγματικότητα το μάτι ξεγελιέται να πιστεύει ότι συνέβη το αντίθετο:
+
+
+
+Αυτό το παράξενο γράφημα δείχνει πώς η αναλογία μπορεί να χειραγωγηθεί, με ξεκαρδιστικό αποτέλεσμα:
+
+
+
+Η σύγκριση του ασύγκριτου είναι ακόμα ένα ύπουλο κόλπο. Υπάρχει ένας [υπέροχος ιστότοπος](https://tylervigen.com/spurious-correlations) γεμάτος με 'ψευδείς συσχετίσεις' που εμφανίζουν 'γεγονότα' που συσχετίζουν πράγματα όπως το ποσοστό διαζυγίων στο Maine και την κατανάλωση μαργαρίνης. Μια ομάδα στο Reddit συλλέγει επίσης τις [άσχημες χρήσεις](https://www.reddit.com/r/dataisugly/top/?t=all) των δεδομένων.
+
+Είναι σημαντικό να κατανοήσουμε πόσο εύκολα μπορεί να ξεγελαστεί το μάτι από παραπλανητικά γραφήματα. Ακόμα κι αν η πρόθεση του επιστήμονα δεδομένων είναι καλή, η επιλογή ενός κακού τύπου γραφήματος, όπως ένα γράφημα πίτας που δείχνει πάρα πολλές κατηγορίες, μπορεί να είναι παραπλανητική.
+
+## Χρώμα
+
+Είδατε στο γράφημα 'Florida gun violence' παραπάνω πώς το χρώμα μπορεί να προσφέρει ένα επιπλέον επίπεδο νοήματος στα γραφήματα, ειδικά σε αυτά που δεν έχουν σχεδιαστεί χρησιμοποιώντας βιβλιοθήκες όπως το Matplotlib και το Seaborn, οι οποίες διαθέτουν διάφορες εγκεκριμένες βιβλιοθήκες χρωμάτων και παλέτες. Αν φτιάχνετε ένα γράφημα χειροκίνητα, κάντε μια μικρή μελέτη της [θεωρίας χρωμάτων](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Να έχετε υπόψη σας, όταν σχεδιάζετε γραφήματα, ότι η προσβασιμότητα είναι μια σημαντική πτυχή της οπτικοποίησης. Μερικοί από τους χρήστες σας μπορεί να έχουν αχρωματοψία - εμφανίζεται το γράφημά σας καλά για χρήστες με προβλήματα όρασης;
+
+Να είστε προσεκτικοί όταν επιλέγετε χρώματα για το γράφημά σας, καθώς το χρώμα μπορεί να μεταφέρει νοήματα που ίσως δεν σκοπεύατε. Οι 'ροζ κυρίες' στο γράφημα 'ύψους' παραπάνω μεταφέρουν μια ξεκάθαρα 'θηλυκή' αποδιδόμενη σημασία που προσθέτει στην παραδοξότητα του ίδιου του γραφήματος.
+
+Ενώ η [σημασία των χρωμάτων](https://colormatters.com/color-symbolism/the-meanings-of-colors) μπορεί να είναι διαφορετική σε διάφορα μέρη του κόσμου και τείνει να αλλάζει ανάλογα με την απόχρωσή τους, γενικά οι σημασίες των χρωμάτων περιλαμβάνουν:
+
+| Χρώμα | Σημασία |
+| ------ | ------------------- |
+| κόκκινο | δύναμη |
+| μπλε | εμπιστοσύνη, πίστη |
+| κίτρινο | ευτυχία, προσοχή |
+| πράσινο | οικολογία, τύχη, φθόνος |
+| μωβ | ευτυχία |
+| πορτοκαλί | ζωντάνια |
+
+Αν σας ανατεθεί να δημιουργήσετε ένα γράφημα με προσαρμοσμένα χρώματα, βεβαιωθείτε ότι τα γραφήματά σας είναι προσβάσιμα και ότι το χρώμα που επιλέγετε συμπίπτει με το νόημα που προσπαθείτε να μεταφέρετε.
+
+## Διαμόρφωση των γραφημάτων σας για ευανάγνωστοτητα
+
+Τα γραφήματα δεν είναι σημαντικά αν δεν είναι ευανάγνωστα! Αφιερώστε λίγο χρόνο για να εξετάσετε τη διαμόρφωση του πλάτους και του ύψους του γραφήματός σας ώστε να κλιμακώνονται καλά με τα δεδομένα σας. Αν μια μεταβλητή (όπως όλες οι 50 πολιτείες) πρέπει να εμφανιστεί, δείξτε τις κάθετα στον άξονα Y αν είναι δυνατόν, ώστε να αποφύγετε ένα γράφημα που απαιτεί οριζόντια κύλιση.
+
+Επισημάνετε τους άξονές σας, παρέχετε έναν θρύλο αν είναι απαραίτητο και προσφέρετε αναδυόμενες πληροφορίες για καλύτερη κατανόηση των δεδομένων.
+
+Αν τα δεδομένα σας είναι κείμενο και εκτενή στον άξονα X, μπορείτε να γωνιάσετε το κείμενο για καλύτερη ευανάγνωστοτητα. Το [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) προσφέρει 3D σχεδιασμό, αν τα δεδομένα σας το υποστηρίζουν. Μπορούν να παραχθούν εξελιγμένες οπτικοποιήσεις δεδομένων χρησιμοποιώντας `mpl_toolkits.mplot3d`.
+
+
+
+## Κινούμενα και 3D γραφήματα
+
+Μερικές από τις καλύτερες οπτικοποιήσεις δεδομένων σήμερα είναι κινούμενες. Η Shirley Wu έχει εκπληκτικές δημιουργίες με D3, όπως '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', όπου κάθε λουλούδι είναι μια οπτικοποίηση μιας ταινίας. Ένα άλλο παράδειγμα για τον Guardian είναι το 'bussed out', μια διαδραστική εμπειρία που συνδυάζει οπτικοποιήσεις με Greensock και D3, καθώς και ένα άρθρο σε μορφή scrollytelling για να δείξει πώς η Νέα Υόρκη αντιμετωπίζει το πρόβλημα των αστέγων, στέλνοντας ανθρώπους εκτός πόλης.
+
+
+
+> "Bussed Out: Πώς η Αμερική Μετακινεί τους Άστεγους" από [τον Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Οπτικοποιήσεις από Nadieh Bremer & Shirley Wu
+
+Αν και αυτό το μάθημα δεν είναι αρκετό για να διδάξει σε βάθος αυτές τις ισχυρές βιβλιοθήκες οπτικοποίησης, δοκιμάστε το D3 σε μια εφαρμογή Vue.js χρησιμοποιώντας μια βιβλιοθήκη για να εμφανίσετε μια οπτικοποίηση του βιβλίου "Επικίνδυνες Σχέσεις" ως ένα κινούμενο κοινωνικό δίκτυο.
+
+> "Les Liaisons Dangereuses" είναι ένα επιστολικό μυθιστόρημα, ή ένα μυθιστόρημα που παρουσιάζεται ως σειρά επιστολών. Γραμμένο το 1782 από τον Choderlos de Laclos, αφηγείται την ιστορία των μοχθηρών, ηθικά χρεοκοπημένων κοινωνικών ελιγμών δύο αντιμαχόμενων πρωταγωνιστών της γαλλικής αριστοκρατίας στα τέλη του 18ου αιώνα, του Vicomte de Valmont και της Marquise de Merteuil. Και οι δύο βρίσκουν το τέλος τους, αλλά όχι χωρίς να προκαλέσουν μεγάλη κοινωνική ζημιά. Το μυθιστόρημα ξεδιπλώνεται ως μια σειρά επιστολών γραμμένων σε διάφορους ανθρώπους στον κύκλο τους, σχεδιάζοντας εκδίκηση ή απλώς για να προκαλέσουν προβλήματα. Δημιουργήστε μια οπτικοποίηση αυτών των επιστολών για να ανακαλύψετε τους κύριους πρωταγωνιστές της αφήγησης, οπτικά.
+
+Θα ολοκληρώσετε μια εφαρμογή ιστού που θα εμφανίζει μια κινούμενη προβολή αυτού του κοινωνικού δικτύου. Χρησιμοποιεί μια βιβλιοθήκη που δημιουργήθηκε για να δημιουργήσει μια [οπτικοποίηση ενός δικτύου](https://github.com/emiliorizzo/vue-d3-network) χρησιμοποιώντας Vue.js και D3. Όταν η εφαρμογή λειτουργεί, μπορείτε να μετακινήσετε τους κόμβους στην οθόνη για να ανακατέψετε τα δεδομένα.
+
+
+
+## Έργο: Δημιουργήστε ένα γράφημα για να δείξετε ένα δίκτυο χρησιμοποιώντας D3.js
+
+> Αυτός ο φάκελος μαθήματος περιλαμβάνει έναν φάκελο `solution` όπου μπορείτε να βρείτε το ολοκληρωμένο έργο, για αναφορά.
+
+1. Ακολουθήστε τις οδηγίες στο αρχείο README.md στη ρίζα του φακέλου εκκίνησης. Βεβαιωθείτε ότι έχετε NPM και Node.js εγκατεστημένα στον υπολογιστή σας πριν εγκαταστήσετε τις εξαρτήσεις του έργου σας.
+
+2. Ανοίξτε τον φάκελο `starter/src`. Θα βρείτε έναν φάκελο `assets` όπου υπάρχει ένα αρχείο .json με όλες τις επιστολές του μυθιστορήματος, αριθμημένες, με σημειώσεις 'to' και 'from'.
+
+3. Ολοκληρώστε τον κώδικα στο `components/Nodes.vue` για να ενεργοποιήσετε την οπτικοποίηση. Αναζητήστε τη μέθοδο που ονομάζεται `createLinks()` και προσθέστε την ακόλουθη εμφωλευμένη επανάληψη.
+
+Διατρέξτε το αντικείμενο .json για να καταγράψετε τα δεδομένα 'to' και 'from' για τις επιστολές και να δημιουργήσετε το αντικείμενο `links` ώστε η βιβλιοθήκη οπτικοποίησης να μπορεί να το καταναλώσει:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Εκτελέστε την εφαρμογή σας από το τερματικό (npm run serve) και απολαύστε την οπτικοποίηση!
+
+## 🚀 Πρόκληση
+
+Κάντε μια περιήγηση στο διαδίκτυο για να ανακαλύψετε παραπλανητικές οπτικοποιήσεις. Πώς ξεγελά ο συγγραφέας τον χρήστη και είναι σκόπιμο; Δοκιμάστε να διορθώσετε τις οπτικοποιήσεις για να δείξετε πώς πρέπει να φαίνονται.
+
+## [Κουίζ Μετά τη Διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Διαβάστε τα παρακάτω άρθρα σχετικά με παραπλανητικές οπτικοποιήσεις δεδομένων:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Δείτε αυτές τις ενδιαφέρουσες οπτικοποιήσεις για ιστορικά αντικείμενα και τεχνουργήματα:
+
+https://handbook.pubpub.org/
+
+Διαβάστε αυτό το άρθρο για το πώς η κινούμενη εικόνα μπορεί να βελτιώσει τις οπτικοποιήσεις σας:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Εργασία
+
+[Δημιουργήστε τη δική σας προσαρμοσμένη οπτικοποίηση](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε κάθε προσπάθεια για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/el/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..49f78ac8
--- /dev/null
+++ b/translations/el/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Δημιουργήστε τη δική σας προσαρμοσμένη οπτικοποίηση
+
+## Οδηγίες
+
+Χρησιμοποιώντας το δείγμα κώδικα αυτού του έργου για τη δημιουργία ενός κοινωνικού δικτύου, δημιουργήστε δικά σας δεδομένα που απεικονίζουν τις κοινωνικές σας αλληλεπιδράσεις. Μπορείτε να χαρτογραφήσετε τη χρήση σας στα μέσα κοινωνικής δικτύωσης ή να φτιάξετε ένα διάγραμμα των μελών της οικογένειάς σας. Δημιουργήστε μια ενδιαφέρουσα εφαρμογή ιστού που παρουσιάζει μια μοναδική οπτικοποίηση ενός κοινωνικού δικτύου.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | --- |
+Ένα αποθετήριο GitHub παρουσιάζεται με κώδικα που λειτουργεί σωστά (δοκιμάστε να το αναπτύξετε ως στατική εφαρμογή ιστού) και περιλαμβάνει ένα σχολιασμένο README που εξηγεί το έργο | Το αποθετήριο δεν λειτουργεί σωστά ή δεν είναι καλά τεκμηριωμένο | Το αποθετήριο δεν λειτουργεί σωστά και δεν είναι καλά τεκμηριωμένο
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/el/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..76519ee2
--- /dev/null
+++ b/translations/el/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Έργο οπτικοποίησης δεδομένων Dangerous Liaisons
+
+Για να ξεκινήσετε, πρέπει να βεβαιωθείτε ότι έχετε εγκατεστημένα το NPM και το Node στον υπολογιστή σας. Εγκαταστήστε τις εξαρτήσεις (npm install) και στη συνέχεια εκτελέστε το έργο τοπικά (npm run serve):
+
+## Ρύθμιση έργου
+```
+npm install
+```
+
+### Μεταγλώττιση και άμεση ανανέωση για ανάπτυξη
+```
+npm run serve
+```
+
+### Μεταγλώττιση και ελαχιστοποίηση για παραγωγή
+```
+npm run build
+```
+
+### Έλεγχος και διόρθωση αρχείων
+```
+npm run lint
+```
+
+### Προσαρμογή ρυθμίσεων
+Δείτε [Αναφορά Ρυθμίσεων](https://cli.vuejs.org/config/).
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/el/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..73eff4f7
--- /dev/null
+++ b/translations/el/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Έργο οπτικοποίησης δεδομένων Dangerous Liaisons
+
+Για να ξεκινήσετε, πρέπει να βεβαιωθείτε ότι έχετε εγκατεστημένα το NPM και το Node στον υπολογιστή σας. Εγκαταστήστε τις εξαρτήσεις (npm install) και στη συνέχεια εκτελέστε το έργο τοπικά (npm run serve):
+
+## Ρύθμιση έργου
+```
+npm install
+```
+
+### Μεταγλώττιση και άμεση ανανέωση για ανάπτυξη
+```
+npm run serve
+```
+
+### Μεταγλώττιση και ελαχιστοποίηση για παραγωγή
+```
+npm run build
+```
+
+### Έλεγχος και διόρθωση αρχείων
+```
+npm run lint
+```
+
+### Προσαρμογή ρυθμίσεων
+Δείτε [Αναφορά Ρυθμίσεων](https://cli.vuejs.org/config/).
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης AI [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/el/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..245474f4
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,228 @@
+
+# Οπτικοποίηση Ποσοτήτων
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Οπτικοποίηση Ποσοτήτων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Σε αυτό το μάθημα θα εξερευνήσετε πώς να χρησιμοποιήσετε κάποιες από τις πολλές διαθέσιμες βιβλιοθήκες πακέτων R για να μάθετε πώς να δημιουργείτε ενδιαφέρουσες οπτικοποιήσεις γύρω από την έννοια της ποσότητας. Χρησιμοποιώντας ένα καθαρισμένο σύνολο δεδομένων για τα πουλιά της Μινεσότα, μπορείτε να μάθετε πολλά ενδιαφέροντα στοιχεία για την τοπική άγρια ζωή.
+## [Προ-μάθημα κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Παρατηρήστε το άνοιγμα φτερών με το ggplot2
+Μια εξαιρετική βιβλιοθήκη για τη δημιουργία τόσο απλών όσο και σύνθετων γραφημάτων και διαγραμμάτων διαφόρων ειδών είναι το [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Σε γενικές γραμμές, η διαδικασία σχεδίασης δεδομένων χρησιμοποιώντας αυτές τις βιβλιοθήκες περιλαμβάνει την αναγνώριση των τμημάτων του dataframe που θέλετε να στοχεύσετε, την εκτέλεση τυχόν μετασχηματισμών στα δεδομένα που είναι απαραίτητοι, την ανάθεση τιμών στους άξονες x και y, την απόφαση για το είδος του γραφήματος που θα εμφανιστεί και στη συνέχεια την εμφάνιση του γραφήματος.
+
+Το `ggplot2` είναι ένα σύστημα για τη δηλωτική δημιουργία γραφικών, βασισμένο στη Γραμματική των Γραφικών. Η [Γραμματική των Γραφικών](https://en.wikipedia.org/wiki/Ggplot2) είναι ένα γενικό σχήμα για την οπτικοποίηση δεδομένων που διασπά τα γραφήματα σε σημασιολογικά στοιχεία όπως κλίμακες και επίπεδα. Με άλλα λόγια, η ευκολία δημιουργίας γραφημάτων και διαγραμμάτων για μονομεταβλητά ή πολυμεταβλητά δεδομένα με λίγο κώδικα καθιστά το `ggplot2` το πιο δημοφιλές πακέτο για οπτικοποιήσεις στο R. Ο χρήστης λέει στο `ggplot2` πώς να αντιστοιχίσει τις μεταβλητές στις αισθητικές παραμέτρους, τα γραφικά στοιχεία που θα χρησιμοποιηθούν, και το `ggplot2` αναλαμβάνει τα υπόλοιπα.
+
+> ✅ Γράφημα = Δεδομένα + Αισθητική + Γεωμετρία
+> - Δεδομένα αναφέρονται στο σύνολο δεδομένων
+> - Αισθητική υποδεικνύει τις μεταβλητές που θα μελετηθούν (μεταβλητές x και y)
+> - Γεωμετρία αναφέρεται στον τύπο του γραφήματος (γραμμικό διάγραμμα, ραβδόγραμμα κ.λπ.)
+
+Επιλέξτε την καλύτερη γεωμετρία (τύπο γραφήματος) ανάλογα με τα δεδομένα σας και την ιστορία που θέλετε να διηγηθείτε μέσω του γραφήματος.
+
+> - Για ανάλυση τάσεων: γραμμικό, στήλες
+> - Για σύγκριση τιμών: ραβδόγραμμα, στήλες, πίτα, διάγραμμα διασποράς
+> - Για να δείξετε πώς τα μέρη σχετίζονται με το σύνολο: πίτα
+> - Για να δείξετε την κατανομή δεδομένων: διάγραμμα διασποράς, ραβδόγραμμα
+> - Για να δείξετε σχέσεις μεταξύ τιμών: γραμμικό, διάγραμμα διασποράς, φούσκα
+
+✅ Μπορείτε επίσης να δείτε αυτό το περιγραφικό [cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) για το ggplot2.
+
+## Δημιουργήστε ένα γραμμικό διάγραμμα για τις τιμές ανοίγματος φτερών των πουλιών
+
+Ανοίξτε την κονσόλα R και εισάγετε το σύνολο δεδομένων.
+> Σημείωση: Το σύνολο δεδομένων είναι αποθηκευμένο στη ρίζα αυτού του αποθετηρίου στον φάκελο `/data`.
+
+Ας εισάγουμε το σύνολο δεδομένων και να παρατηρήσουμε την κεφαλή (τις πρώτες 5 γραμμές) των δεδομένων.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Η κεφαλή των δεδομένων έχει έναν συνδυασμό κειμένου και αριθμών:
+
+| | Όνομα | Επιστημονικό Όνομα | Κατηγορία | Τάξη | Οικογένεια | Γένος | Κατάσταση Διατήρησης | Ελάχιστο Μήκος | Μέγιστο Μήκος | Ελάχιστη Μάζα Σώματος | Μέγιστη Μάζα Σώματος | Ελάχιστο Άνοιγμα Φτερών | Μέγιστο Άνοιγμα Φτερών |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Μαυροκοιλιά πάπια | Dendrocygna autumnalis | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Καστανόχρωμη πάπια | Dendrocygna bicolor | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Χήνα χιονιού | Anser caerulescens | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Χήνα του Ross | Anser rossii | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Μεγαλόλευκη χήνα | Anser albifrons | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Ας ξεκινήσουμε σχεδιάζοντας κάποια από τα αριθμητικά δεδομένα χρησιμοποιώντας ένα βασικό γραμμικό διάγραμμα. Υποθέστε ότι θέλετε μια εικόνα του μέγιστου ανοίγματος φτερών για αυτά τα ενδιαφέροντα πουλιά.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Εδώ, εγκαθιστάτε το πακέτο `ggplot2` και στη συνέχεια το εισάγετε στον χώρο εργασίας χρησιμοποιώντας την εντολή `library("ggplot2")`. Για να σχεδιάσετε οποιοδήποτε διάγραμμα στο ggplot, χρησιμοποιείται η συνάρτηση `ggplot()` και καθορίζετε το σύνολο δεδομένων, τις μεταβλητές x και y ως χαρακτηριστικά. Σε αυτή την περίπτωση, χρησιμοποιούμε τη συνάρτηση `geom_line()` καθώς σκοπεύουμε να σχεδιάσουμε ένα γραμμικό διάγραμμα.
+
+
+
+Τι παρατηρείτε αμέσως; Φαίνεται να υπάρχει τουλάχιστον μία ακραία τιμή - αυτό είναι αρκετά μεγάλο άνοιγμα φτερών! Ένα άνοιγμα φτερών άνω των 2000 εκατοστών ισοδυναμεί με πάνω από 20 μέτρα - υπάρχουν Πτερόδακτυλοι που περιφέρονται στη Μινεσότα; Ας ερευνήσουμε.
+
+Παρόλο που θα μπορούσατε να κάνετε μια γρήγορη ταξινόμηση στο Excel για να βρείτε αυτές τις ακραίες τιμές, οι οποίες πιθανότατα είναι τυπογραφικά λάθη, συνεχίστε τη διαδικασία οπτικοποίησης δουλεύοντας μέσα από το διάγραμμα.
+
+Προσθέστε ετικέτες στον άξονα x για να δείξετε τι είδους πουλιά εξετάζονται:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Καθορίζουμε τη γωνία στο `theme` και καθορίζουμε τις ετικέτες των αξόνων x και y στα `xlab()` και `ylab()` αντίστοιχα. Το `ggtitle()` δίνει ένα όνομα στο γράφημα/διάγραμμα.
+
+
+
+Ακόμα και με την περιστροφή των ετικετών στις 45 μοίρες, υπάρχουν πάρα πολλές για να διαβαστούν. Ας δοκιμάσουμε μια διαφορετική στρατηγική: ετικέτα μόνο για τις ακραίες τιμές και τοποθέτηση των ετικετών μέσα στο διάγραμμα. Μπορείτε να χρησιμοποιήσετε ένα διάγραμμα διασποράς για να δημιουργήσετε περισσότερο χώρο για την επισήμανση:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Τι συμβαίνει εδώ; Χρησιμοποιήσατε τη συνάρτηση `geom_point()` για να σχεδιάσετε σημεία διασποράς. Με αυτό, προσθέσατε ετικέτες για τα πουλιά που είχαν `MaxWingspan > 500` και επίσης αποκρύψατε τις ετικέτες στον άξονα x για να αποσυμφορήσετε το διάγραμμα.
+
+Τι ανακαλύπτετε;
+
+
+
+## Φιλτράρετε τα δεδομένα σας
+
+Τόσο ο Αμερικανικός Αετός όσο και το Γεράκι της Πεδιάδας, ενώ πιθανότατα είναι πολύ μεγάλα πουλιά, φαίνεται να έχουν λανθασμένες ετικέτες, με ένα επιπλέον 0 να έχει προστεθεί στο μέγιστο άνοιγμα φτερών τους. Είναι απίθανο να συναντήσετε έναν Αμερικανικό Αετό με άνοιγμα φτερών 25 μέτρων, αλλά αν συμβεί, παρακαλώ ενημερώστε μας! Ας δημιουργήσουμε ένα νέο dataframe χωρίς αυτές τις δύο ακραίες τιμές:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Δημιουργήσαμε ένα νέο dataframe `birds_filtered` και στη συνέχεια σχεδιάσαμε ένα διάγραμμα διασποράς. Φιλτράροντας τις ακραίες τιμές, τα δεδομένα σας είναι τώρα πιο συνεκτικά και κατανοητά.
+
+
+
+Τώρα που έχουμε ένα καθαρότερο σύνολο δεδομένων τουλάχιστον όσον αφορά το άνοιγμα φτερών, ας ανακαλύψουμε περισσότερα για αυτά τα πουλιά.
+
+Ενώ τα γραμμικά και τα διαγράμματα διασποράς μπορούν να εμφανίσουν πληροφορίες σχετικά με τις τιμές δεδομένων και τις κατανομές τους, θέλουμε να σκεφτούμε τις τιμές που ενυπάρχουν σε αυτό το σύνολο δεδομένων. Θα μπορούσατε να δημιουργήσετε οπτικοποιήσεις για να απαντήσετε στις ακόλουθες ερωτήσεις σχετικά με την ποσότητα:
+
+> Πόσες κατηγορίες πουλιών υπάρχουν και ποιοι είναι οι αριθμοί τους;
+> Πόσα πουλιά είναι εξαφανισμένα, απειλούμενα, σπάνια ή κοινά;
+> Πόσα υπάρχουν από τα διάφορα γένη και τάξεις στην ορολογία του Linnaeus;
+## Εξερευνήστε ραβδογράμματα
+
+Τα ραβδογράμματα είναι πρακτικά όταν χρειάζεται να δείξετε ομαδοποιήσεις δεδομένων. Ας εξερευνήσουμε τις κατηγορίες πουλιών που υπάρχουν σε αυτό το σύνολο δεδομένων για να δούμε ποια είναι η πιο κοινή ανά αριθμό.
+Ας δημιουργήσουμε ένα ραβδόγραμμα με φιλτραρισμένα δεδομένα.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+Στο παρακάτω απόσπασμα, εγκαθιστούμε τα πακέτα [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) και [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) για να βοηθήσουμε στη διαχείριση και ομαδοποίηση δεδομένων προκειμένου να σχεδιάσουμε ένα στοίβαγμα ραβδογράμματος. Πρώτα, ομαδοποιείτε τα δεδομένα ανά `Category` του πουλιού και στη συνέχεια συνοψίζετε τις στήλες `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Στη συνέχεια, σχεδιάζετε το ραβδόγραμμα χρησιμοποιώντας το πακέτο `ggplot2` και καθορίζετε τα χρώματα για τις διαφορετικές κατηγορίες και τις ετικέτες.
+
+
+
+Αυτό το ραβδόγραμμα, ωστόσο, είναι δυσανάγνωστο επειδή υπάρχουν πάρα πολλά μη ομαδοποιημένα δεδομένα. Χρειάζεται να επιλέξετε μόνο τα δεδομένα που θέλετε να σχεδιάσετε, οπότε ας δούμε το μήκος των πουλιών με βάση την κατηγορία τους.
+
+Φιλτράρετε τα δεδομένα σας ώστε να περιλαμβάνουν μόνο την κατηγορία του πουλιού.
+
+Επειδή υπάρχουν πολλές κατηγορίες, μπορείτε να εμφανίσετε αυτό το διάγραμμα κάθετα και να προσαρμόσετε το ύψος του για να ληφθούν υπόψη όλα τα δεδομένα:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Πρώτα μετράτε μοναδικές τιμές στη στήλη `Category` και στη συνέχεια τις ταξινομείτε σε ένα νέο dataframe `birds_count`. Αυτά τα ταξινομημένα δεδομένα στη συνέχεια λαμβάνονται υπόψη στο ίδιο επίπεδο ώστε να σχεδιαστούν με ταξινομημένο τρόπο. Χρησιμοποιώντας το `ggplot2` σχεδιάζετε στη συνέχεια τα δεδομένα σε ένα ραβδόγραμμα. Το `coord_flip()` σχεδιάζει οριζόντιες μπάρες.
+
+
+
+Αυτό το ραβδόγραμμα δείχνει μια καλή εικόνα του αριθμού των πουλιών σε κάθε κατηγορία. Με μια ματιά, βλέπετε ότι ο μεγαλύτερος αριθμός πουλιών σε αυτή την περιοχή ανήκει στην κατηγορία Πάπιες/Χήνες/Υδρόβια. Η Μινεσότα είναι η "γη των 10.000 λιμνών", οπότε αυτό δεν είναι έκπληξη!
+
+✅ Δοκιμάστε μερικές άλλες μετρήσεις σε αυτό το σύνολο δεδομένων. Σας εκπλήσσει κάτι;
+
+## Σύγκριση δεδομένων
+
+Μπορείτε να δοκιμάσετε διαφορετικές συγκρίσεις ομαδοποιημένων δεδομένων δημιουργώντας νέους άξονες. Δοκιμάστε μια σύγκριση του MaxLength ενός πουλιού, με βάση την κατηγορία του:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Ομαδοποιούμε τα δεδομένα `birds_filtered` ανά `Category` και στη συνέχεια σχεδιάζουμε ένα ραβδόγραμμα.
+
+
+
+Τίποτα δεν είναι εκπληκτικό εδώ: τα κολιμπρί έχουν το μικρότερο MaxLength σε σύγκριση με τους Πελεκάνους ή τις Χήνες. Είναι καλό όταν τα δεδομένα έχουν λογική!
+
+Μπορείτε να δημιουργήσετε πιο ενδιαφέρουσες οπτικοποιήσεις ραβδογραμμάτων υπερθέτοντας δεδομένα. Ας υπερθέσουμε το Ελάχιστο και Μέγιστο Μήκος σε μια δεδομένη κατηγορία πουλιού:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Πρόκληση
+
+Αυτό το σύνολο δεδομένων για τα πουλιά προσφέρει πλούτο πληροφοριών για διαφορετικούς τύπους πουλιών μέσα σε ένα συγκεκριμένο οικοσύστημα. Ψάξτε στο διαδίκτυο και δείτε αν μπορείτε να βρείτε άλλα σύνολα δεδομένων που αφορούν πουλιά. Εξασκηθείτε στη δημιουργία γραφημάτων και διαγραμμάτων γύρω από αυτά τα πουλιά για να ανακαλύψετε γεγονότα που δεν γνωρίζατε.
+
+## [Μετά το μάθημα κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Αυτό το πρώτο μάθημα σας έδωσε κάποιες πληροφορίες για το πώς να χρησιμοποιήσετε
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/el/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..3f90069f
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Γραμμές, Διαγράμματα Σημείων και Ραβδόγραμμα
+
+## Οδηγίες
+
+Σε αυτό το μάθημα, δουλέψατε με γραφήματα γραμμών, διαγράμματα σημείων και ραβδόγραμμα για να παρουσιάσετε ενδιαφέροντα στοιχεία σχετικά με αυτό το σύνολο δεδομένων. Σε αυτή την εργασία, εξετάστε πιο βαθιά το σύνολο δεδομένων για να ανακαλύψετε ένα στοιχείο σχετικά με έναν συγκεκριμένο τύπο πουλιού. Για παράδειγμα, δημιουργήστε ένα σενάριο που οπτικοποιεί όλα τα ενδιαφέροντα δεδομένα που μπορείτε να βρείτε για τις Χήνες του Χιονιού. Χρησιμοποιήστε τα τρία παραπάνω γραφήματα για να διηγηθείτε μια ιστορία στο σημειωματάριό σας.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Παρουσιάζεται ένα σενάριο με καλές σημειώσεις, συνεκτική αφήγηση και ελκυστικά γραφήματα | Το σενάριο λείπει ένα από αυτά τα στοιχεία | Το σενάριο λείπει δύο από αυτά τα στοιχεία
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/el/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..4d3229c8
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,183 @@
+
+# Οπτικοποίηση Κατανομών
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Οπτικοποίηση Κατανομών - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Στο προηγούμενο μάθημα, μάθατε μερικά ενδιαφέροντα στοιχεία για ένα σύνολο δεδομένων σχετικά με τα πουλιά της Μινεσότα. Εντοπίσατε κάποια λανθασμένα δεδομένα οπτικοποιώντας ακραίες τιμές και εξετάσατε τις διαφορές μεταξύ κατηγοριών πουλιών με βάση το μέγιστο μήκος τους.
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Εξερεύνηση του συνόλου δεδομένων για τα πουλιά
+
+Ένας άλλος τρόπος να εμβαθύνετε στα δεδομένα είναι εξετάζοντας την κατανομή τους, δηλαδή πώς οργανώνονται τα δεδομένα κατά μήκος ενός άξονα. Ίσως, για παράδειγμα, θέλετε να μάθετε για τη γενική κατανομή, για αυτό το σύνολο δεδομένων, του μέγιστου ανοίγματος φτερών ή της μέγιστης μάζας σώματος των πουλιών της Μινεσότα.
+
+Ας ανακαλύψουμε μερικά στοιχεία για τις κατανομές των δεδομένων σε αυτό το σύνολο δεδομένων. Στην κονσόλα R, εισάγετε το `ggplot2` και τη βάση δεδομένων. Αφαιρέστε τις ακραίες τιμές από τη βάση δεδομένων όπως κάνατε στο προηγούμενο θέμα.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Όνομα | Επιστημονικό Όνομα | Κατηγορία | Τάξη | Οικογένεια | Γένος | Κατάσταση Διατήρησης | Ελάχ. Μήκος | Μέγ. Μήκος | Ελάχ. Μάζα Σώματος | Μέγ. Μάζα Σώματος | Ελάχ. Άνοιγμα Φτερών | Μέγ. Άνοιγμα Φτερών |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :--------- | :---------- | :------------------- | -----------: | ----------: | ------------------: | -----------------: | -------------------: | -------------------: |
+| 0 | Μαυροκοιλιάς σφυριχτόπαπια | Dendrocygna autumnalis | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Καστανόχρωμη σφυριχτόπαπια | Dendrocygna bicolor | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Χήνα του χιονιού | Anser caerulescens | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Χήνα του Ross | Anser rossii | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Μεγαλόσωμη λευκομέτωπη χήνα | Anser albifrons | Πάπιες/Χήνες/Υδρόβια | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Γενικά, μπορείτε να δείτε γρήγορα πώς κατανέμονται τα δεδομένα χρησιμοποιώντας ένα διάγραμμα διασποράς, όπως κάναμε στο προηγούμενο μάθημα:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Αυτό δίνει μια γενική εικόνα της κατανομής του μήκους σώματος ανά Τάξη πουλιών, αλλά δεν είναι ο βέλτιστος τρόπος για να εμφανιστούν οι πραγματικές κατανομές. Αυτή η εργασία συνήθως γίνεται με τη δημιουργία Ιστογραμμάτων.
+## Εργασία με Ιστογράμματα
+
+Το `ggplot2` προσφέρει εξαιρετικούς τρόπους για την οπτικοποίηση της κατανομής δεδομένων χρησιμοποιώντας Ιστογράμματα. Αυτός ο τύπος γραφήματος μοιάζει με γράφημα ράβδων, όπου η κατανομή φαίνεται μέσω της ανόδου και της πτώσης των ράβδων. Για να δημιουργήσετε ένα Ιστόγραμμα, χρειάζεστε αριθμητικά δεδομένα. Για να το δημιουργήσετε, μπορείτε να σχεδιάσετε ένα γράφημα ορίζοντας τον τύπο ως 'hist' για Ιστόγραμμα. Αυτό το γράφημα δείχνει την κατανομή της MaxBodyMass για όλο το εύρος αριθμητικών δεδομένων του συνόλου:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Όπως βλέπετε, τα περισσότερα από τα 400+ πουλιά σε αυτό το σύνολο δεδομένων βρίσκονται στο εύρος κάτω από 2000 για τη Μέγιστη Μάζα Σώματος. Αποκτήστε περισσότερη εικόνα για τα δεδομένα αλλάζοντας την παράμετρο `bins` σε μεγαλύτερο αριθμό, όπως 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Αυτό το γράφημα δείχνει την κατανομή με λίγο πιο λεπτομερή τρόπο. Ένα γράφημα λιγότερο προκατειλημμένο προς τα αριστερά θα μπορούσε να δημιουργηθεί διασφαλίζοντας ότι επιλέγετε μόνο δεδομένα εντός ενός συγκεκριμένου εύρους:
+
+Φιλτράρετε τα δεδομένα σας για να πάρετε μόνο τα πουλιά των οποίων η μάζα σώματος είναι κάτω από 60 και δείξτε 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Δοκιμάστε άλλα φίλτρα και σημεία δεδομένων. Για να δείτε την πλήρη κατανομή των δεδομένων, αφαιρέστε το φίλτρο `['MaxBodyMass']` για να εμφανίσετε κατανομές με ετικέτες.
+
+Το Ιστόγραμμα προσφέρει επίσης ωραίες βελτιώσεις χρωμάτων και ετικετών για να δοκιμάσετε:
+
+Δημιουργήστε ένα 2D Ιστόγραμμα για να συγκρίνετε τη σχέση μεταξύ δύο κατανομών. Ας συγκρίνουμε το `MaxBodyMass` με το `MaxLength`. Το `ggplot2` προσφέρει έναν ενσωματωμένο τρόπο να δείξει τη σύγκλιση χρησιμοποιώντας πιο φωτεινά χρώματα:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Φαίνεται να υπάρχει μια αναμενόμενη συσχέτιση μεταξύ αυτών των δύο στοιχείων κατά μήκος ενός αναμενόμενου άξονα, με ένα ιδιαίτερα ισχυρό σημείο σύγκλισης:
+
+
+
+Τα Ιστογράμματα λειτουργούν καλά από προεπιλογή για αριθμητικά δεδομένα. Τι γίνεται αν χρειαστεί να δείτε κατανομές σύμφωνα με δεδομένα κειμένου;
+## Εξερεύνηση του συνόλου δεδομένων για κατανομές χρησιμοποιώντας δεδομένα κειμένου
+
+Αυτό το σύνολο δεδομένων περιλαμβάνει επίσης καλές πληροφορίες σχετικά με την κατηγορία των πουλιών, το γένος, το είδος και την οικογένειά τους, καθώς και την κατάσταση διατήρησής τους. Ας εμβαθύνουμε σε αυτές τις πληροφορίες διατήρησης. Ποια είναι η κατανομή των πουλιών σύμφωνα με την κατάσταση διατήρησής τους;
+
+> ✅ Στο σύνολο δεδομένων, χρησιμοποιούνται αρκετά ακρωνύμια για να περιγράψουν την κατάσταση διατήρησης. Αυτά τα ακρωνύμια προέρχονται από τις [Κατηγορίες Κόκκινης Λίστας της IUCN](https://www.iucnredlist.org/), έναν οργανισμό που καταγράφει την κατάσταση των ειδών.
+>
+> - CR: Κρισίμως Κινδυνεύοντα
+> - EN: Κινδυνεύοντα
+> - EX: Εξαφανισμένα
+> - LC: Ελάχιστης Ανησυχίας
+> - NT: Σχεδόν Απειλούμενα
+> - VU: Ευάλωτα
+
+Αυτές είναι τιμές βασισμένες σε κείμενο, οπότε θα χρειαστεί να κάνετε μια μετατροπή για να δημιουργήσετε ένα Ιστόγραμμα. Χρησιμοποιώντας το dataframe `filteredBirds`, εμφανίστε την κατάσταση διατήρησης μαζί με το Ελάχιστο Άνοιγμα Φτερών. Τι παρατηρείτε;
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Δεν φαίνεται να υπάρχει καλή συσχέτιση μεταξύ του ελάχιστου ανοίγματος φτερών και της κατάστασης διατήρησης. Δοκιμάστε άλλα στοιχεία του συνόλου δεδομένων χρησιμοποιώντας αυτή τη μέθοδο. Μπορείτε να δοκιμάσετε διαφορετικά φίλτρα επίσης. Βρίσκετε κάποια συσχέτιση;
+
+## Διαγράμματα Πυκνότητας
+
+Ίσως έχετε παρατηρήσει ότι τα Ιστογράμματα που έχουμε δει μέχρι τώρα είναι "σκαλοπάτια" και δεν ρέουν ομαλά σε μια καμπύλη. Για να δείξετε ένα πιο ομαλό διάγραμμα πυκνότητας, μπορείτε να δοκιμάσετε ένα διάγραμμα πυκνότητας.
+
+Ας δουλέψουμε τώρα με διαγράμματα πυκνότητας!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Μπορείτε να δείτε πώς το διάγραμμα αντικατοπτρίζει το προηγούμενο για τα δεδομένα Ελάχιστου Ανοίγματος Φτερών· είναι απλώς λίγο πιο ομαλό. Αν θέλατε να επανεξετάσετε εκείνη τη "σκαλοπάτια" γραμμή της MaxBodyMass στο δεύτερο διάγραμμα που δημιουργήσατε, θα μπορούσατε να την εξομαλύνετε πολύ καλά αναδημιουργώντας την με αυτή τη μέθοδο:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Αν θέλατε μια ομαλή, αλλά όχι υπερβολικά ομαλή γραμμή, επεξεργαστείτε την παράμετρο `adjust`:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Διαβάστε για τις διαθέσιμες παραμέτρους για αυτόν τον τύπο διαγράμματος και πειραματιστείτε!
+
+Αυτός ο τύπος γραφήματος προσφέρει όμορφα επεξηγηματικές οπτικοποιήσεις. Με λίγες γραμμές κώδικα, για παράδειγμα, μπορείτε να δείξετε την πυκνότητα μέγιστης μάζας σώματος ανά Τάξη πουλιών:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Πρόκληση
+
+Τα Ιστογράμματα είναι ένας πιο εξελιγμένος τύπος γραφήματος από τα βασικά διαγράμματα διασποράς, ράβδων ή γραμμών. Κάντε μια αναζήτηση στο διαδίκτυο για να βρείτε καλά παραδείγματα χρήσης Ιστογραμμάτων. Πώς χρησιμοποιούνται, τι δείχνουν και σε ποιους τομείς ή πεδία έρευνας τείνουν να χρησιμοποιούνται;
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Σε αυτό το μάθημα, χρησιμοποιήσατε το `ggplot2` και αρχίσατε να δημιουργείτε πιο εξελιγμένα γραφήματα. Κάντε κάποια έρευνα για το `geom_density_2d()`, μια "συνεχή καμπύλη πιθανότητας πυκνότητας σε μία ή περισσότερες διαστάσεις". Διαβάστε [την τεκμηρίωση](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) για να κατανοήσετε πώς λειτουργεί.
+
+## Εργασία
+
+[Εφαρμόστε τις δεξιότητές σας](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/el/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..8fa4160c
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Εφαρμόστε τις δεξιότητές σας
+
+## Οδηγίες
+
+Μέχρι τώρα, έχετε εργαστεί με το σύνολο δεδομένων για τα πουλιά της Μινεσότα για να ανακαλύψετε πληροφορίες σχετικά με τις ποσότητες και την πυκνότητα πληθυσμού των πουλιών. Εξασκηθείτε στην εφαρμογή αυτών των τεχνικών δοκιμάζοντας ένα διαφορετικό σύνολο δεδομένων, ίσως από το [Kaggle](https://www.kaggle.com/). Δημιουργήστε ένα R script για να αφηγηθείτε μια ιστορία σχετικά με αυτό το σύνολο δεδομένων και βεβαιωθείτε ότι χρησιμοποιείτε ιστογράμματα κατά τη συζήτησή του.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Παρουσιάζεται ένα script με σχολιασμούς σχετικά με αυτό το σύνολο δεδομένων, συμπεριλαμβανομένης της πηγής του, και χρησιμοποιεί τουλάχιστον 5 ιστογράμματα για να ανακαλύψει γεγονότα σχετικά με τα δεδομένα. | Παρουσιάζεται ένα script με ελλιπείς σχολιασμούς ή σφάλματα. | Παρουσιάζεται ένα script χωρίς σχολιασμούς και περιλαμβάνει σφάλματα.
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/el/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..8e546f28
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,198 @@
+
+# Οπτικοποίηση Αναλογιών
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Οπτικοποίηση Αναλογιών - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Σε αυτό το μάθημα, θα χρησιμοποιήσετε ένα διαφορετικό σύνολο δεδομένων με επίκεντρο τη φύση για να οπτικοποιήσετε αναλογίες, όπως πόσα διαφορετικά είδη μανιταριών υπάρχουν σε ένα δεδομένο σύνολο δεδομένων για μανιτάρια. Ας εξερευνήσουμε αυτά τα συναρπαστικά μανιτάρια χρησιμοποιώντας ένα σύνολο δεδομένων από το Audubon που περιλαμβάνει λεπτομέρειες για 23 είδη μανιταριών με βράγχια στις οικογένειες Agaricus και Lepiota. Θα πειραματιστείτε με νόστιμες οπτικοποιήσεις όπως:
+
+- Γραφήματα πίτας 🥧
+- Γραφήματα ντόνατ 🍩
+- Γραφήματα βάφλας 🧇
+
+> 💡 Ένα πολύ ενδιαφέρον έργο που ονομάζεται [Charticulator](https://charticulator.com) από τη Microsoft Research προσφέρει μια δωρεάν διεπαφή drag and drop για οπτικοποιήσεις δεδομένων. Σε ένα από τα μαθήματά τους χρησιμοποιούν επίσης αυτό το σύνολο δεδομένων για μανιτάρια! Έτσι, μπορείτε να εξερευνήσετε τα δεδομένα και να μάθετε τη βιβλιοθήκη ταυτόχρονα: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Προ-μάθημα κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Γνωρίστε τα μανιτάρια σας 🍄
+
+Τα μανιτάρια είναι πολύ ενδιαφέροντα. Ας εισάγουμε ένα σύνολο δεδομένων για να τα μελετήσουμε:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Ένας πίνακας εμφανίζεται με εξαιρετικά δεδομένα για ανάλυση:
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Poisonous | Convex | Smooth | Brown | Bruises | Pungent | Free | Close | Narrow | Black | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+| Edible | Convex | Smooth | Yellow | Bruises | Almond | Free | Close | Broad | Black | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Grasses |
+| Edible | Bell | Smooth | White | Bruises | Anise | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Meadows |
+| Poisonous | Convex | Scaly | White | Bruises | Pungent | Free | Close | Narrow | Brown | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban
+| Edible | Convex |Smooth | Green | No Bruises| None |Free | Crowded | Broad | Black | Tapering | Equal | Smooth | Smooth | White | White | Partial | White | One | Evanescent | Brown | Abundant | Grasses
+|Edible | Convex | Scaly | Yellow | Bruises | Almond | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Numerous | Grasses
+
+Αμέσως παρατηρείτε ότι όλα τα δεδομένα είναι κειμενικά. Θα πρέπει να μετατρέψετε αυτά τα δεδομένα για να μπορέσετε να τα χρησιμοποιήσετε σε ένα γράφημα. Στην πραγματικότητα, τα περισσότερα δεδομένα αναπαρίστανται ως αντικείμενο:
+
+```r
+names(mushrooms)
+```
+
+Η έξοδος είναι:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Πάρτε αυτά τα δεδομένα και μετατρέψτε τη στήλη 'class' σε κατηγορία:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Τώρα, αν εκτυπώσετε τα δεδομένα των μανιταριών, μπορείτε να δείτε ότι έχουν ομαδοποιηθεί σε κατηγορίες σύμφωνα με την κατηγορία δηλητηριώδη/βρώσιμα:
+```r
+View(grouped)
+```
+
+| class | count |
+| --------- | --------- |
+| Edible | 4208 |
+| Poisonous| 3916 |
+
+Αν ακολουθήσετε τη σειρά που παρουσιάζεται σε αυτόν τον πίνακα για να δημιουργήσετε τις ετικέτες κατηγορίας, μπορείτε να δημιουργήσετε ένα γράφημα πίτας.
+
+## Πίτα!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Ορίστε, ένα γράφημα πίτας που δείχνει τις αναλογίες αυτών των δεδομένων σύμφωνα με αυτές τις δύο κατηγορίες μανιταριών. Είναι αρκετά σημαντικό να έχετε τη σωστή σειρά των ετικετών, ειδικά εδώ, οπότε βεβαιωθείτε ότι έχετε επαληθεύσει τη σειρά με την οποία δημιουργείται ο πίνακας ετικετών!
+
+
+
+## Ντόνατ!
+
+Ένα κάπως πιο οπτικά ενδιαφέρον γράφημα πίτας είναι το γράφημα ντόνατ, το οποίο είναι ένα γράφημα πίτας με μια τρύπα στη μέση. Ας δούμε τα δεδομένα μας χρησιμοποιώντας αυτή τη μέθοδο.
+
+Δείτε τους διάφορους βιότοπους όπου μεγαλώνουν τα μανιτάρια:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Η έξοδος είναι:
+| habitat| count |
+| --------- | --------- |
+| Grasses | 2148 |
+| Leaves| 832 |
+| Meadows | 292 |
+| Paths| 1144 |
+| Urban | 368 |
+| Waste| 192 |
+| Wood| 3148 |
+
+Εδώ, ομαδοποιείτε τα δεδομένα σας ανά βιότοπο. Υπάρχουν 7 καταγεγραμμένοι, οπότε χρησιμοποιήστε αυτούς ως ετικέτες για το γράφημα ντόνατ:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Αυτός ο κώδικας χρησιμοποιεί τις δύο βιβλιοθήκες - ggplot2 και webr. Χρησιμοποιώντας τη συνάρτηση PieDonut της βιβλιοθήκης webr, μπορούμε να δημιουργήσουμε εύκολα ένα γράφημα ντόνατ!
+
+Τα γραφήματα ντόνατ στο R μπορούν να δημιουργηθούν χρησιμοποιώντας μόνο τη βιβλιοθήκη ggplot2. Μπορείτε να μάθετε περισσότερα για αυτό [εδώ](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) και να το δοκιμάσετε μόνοι σας.
+
+Τώρα που ξέρετε πώς να ομαδοποιείτε τα δεδομένα σας και να τα εμφανίζετε ως πίτα ή ντόνατ, μπορείτε να εξερευνήσετε άλλους τύπους γραφημάτων. Δοκιμάστε ένα γράφημα βάφλας, το οποίο είναι απλώς ένας διαφορετικός τρόπος εξερεύνησης ποσοτήτων.
+
+## Βάφλες!
+
+Ένα γράφημα τύπου 'βάφλας' είναι ένας διαφορετικός τρόπος οπτικοποίησης ποσοτήτων ως δισδιάστατος πίνακας τετραγώνων. Δοκιμάστε να οπτικοποιήσετε τις διαφορετικές ποσότητες χρωμάτων καπέλων μανιταριών σε αυτό το σύνολο δεδομένων. Για να το κάνετε αυτό, πρέπει να εγκαταστήσετε μια βοηθητική βιβλιοθήκη που ονομάζεται [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) και να τη χρησιμοποιήσετε για να δημιουργήσετε την οπτικοποίησή σας:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Επιλέξτε ένα τμήμα των δεδομένων σας για ομαδοποίηση:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Δημιουργήστε ένα γράφημα βάφλας δημιουργώντας ετικέτες και στη συνέχεια ομαδοποιώντας τα δεδομένα σας:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Χρησιμοποιώντας ένα γράφημα βάφλας, μπορείτε να δείτε ξεκάθαρα τις αναλογίες χρωμάτων καπέλων σε αυτό το σύνολο δεδομένων μανιταριών. Ενδιαφέρον είναι ότι υπάρχουν πολλά μανιτάρια με πράσινα καπέλα!
+
+
+
+Σε αυτό το μάθημα, μάθατε τρεις τρόπους για να οπτικοποιήσετε αναλογίες. Πρώτα, πρέπει να ομαδοποιήσετε τα δεδομένα σας σε κατηγορίες και στη συνέχεια να αποφασίσετε ποιος είναι ο καλύτερος τρόπος για να εμφανίσετε τα δεδομένα - πίτα, ντόνατ ή βάφλα. Όλα είναι νόστιμα και προσφέρουν στον χρήστη μια άμεση εικόνα ενός συνόλου δεδομένων.
+
+## 🚀 Πρόκληση
+
+Δοκιμάστε να αναδημιουργήσετε αυτά τα νόστιμα γραφήματα στο [Charticulator](https://charticulator.com).
+
+## [Μετά το μάθημα κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Μερικές φορές δεν είναι προφανές πότε να χρησιμοποιήσετε ένα γράφημα πίτας, ντόνατ ή βάφλας. Ακολουθούν μερικά άρθρα για να διαβάσετε σχετικά με αυτό το θέμα:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Κάντε έρευνα για να βρείτε περισσότερες πληροφορίες σχετικά με αυτή τη δύσκολη απόφαση.
+
+## Εργασία
+
+[Δοκιμάστε το στο Excel](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/el/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..adbc3137
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# Οπτικοποίηση Σχέσεων: Όλα για το Μέλι 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Οπτικοποίηση Σχέσεων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Συνεχίζοντας με τη φύση ως επίκεντρο της έρευνάς μας, ας ανακαλύψουμε ενδιαφέρουσες οπτικοποιήσεις για να δείξουμε τις σχέσεις μεταξύ διαφόρων τύπων μελιού, σύμφωνα με ένα σύνολο δεδομένων που προέρχεται από το [Υπουργείο Γεωργίας των Ηνωμένων Πολιτειών](https://www.nass.usda.gov/About_NASS/index.php).
+
+Αυτό το σύνολο δεδομένων, που περιλαμβάνει περίπου 600 εγγραφές, παρουσιάζει την παραγωγή μελιού σε πολλές πολιτείες των Η.Π.Α. Για παράδειγμα, μπορείτε να εξετάσετε τον αριθμό των αποικιών, την απόδοση ανά αποικία, τη συνολική παραγωγή, τα αποθέματα, την τιμή ανά λίβρα και την αξία του παραγόμενου μελιού σε μια δεδομένη πολιτεία από το 1998 έως το 2012, με μία γραμμή ανά έτος για κάθε πολιτεία.
+
+Θα ήταν ενδιαφέρον να οπτικοποιήσουμε τη σχέση μεταξύ της παραγωγής μιας πολιτείας ανά έτος και, για παράδειγμα, της τιμής του μελιού σε αυτή την πολιτεία. Εναλλακτικά, θα μπορούσατε να οπτικοποιήσετε τη σχέση μεταξύ της απόδοσης μελιού ανά αποικία στις πολιτείες. Αυτή η χρονική περίοδος περιλαμβάνει την καταστροφική «Διαταραχή Κατάρρευσης Αποικιών» (CCD), που παρατηρήθηκε για πρώτη φορά το 2006 (http://npic.orst.edu/envir/ccd.html), καθιστώντας το ένα συγκινητικό σύνολο δεδομένων για μελέτη. 🐝
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Σε αυτό το μάθημα, μπορείτε να χρησιμοποιήσετε το ggplot2, το οποίο έχετε χρησιμοποιήσει ξανά, ως μια εξαιρετική βιβλιοθήκη για την οπτικοποίηση σχέσεων μεταξύ μεταβλητών. Ιδιαίτερα ενδιαφέρουσα είναι η χρήση των `geom_point` και `qplot` του ggplot2, που επιτρέπουν τη δημιουργία διαγραμμάτων διασποράς και γραμμών για γρήγορη οπτικοποίηση των '[στατιστικών σχέσεων](https://ggplot2.tidyverse.org/)', βοηθώντας τον επιστήμονα δεδομένων να κατανοήσει καλύτερα πώς σχετίζονται οι μεταβλητές μεταξύ τους.
+
+## Διαγράμματα Διασποράς
+
+Χρησιμοποιήστε ένα διάγραμμα διασποράς για να δείξετε πώς εξελίχθηκε η τιμή του μελιού, χρόνο με τον χρόνο, ανά πολιτεία. Το ggplot2, χρησιμοποιώντας τα `ggplot` και `geom_point`, ομαδοποιεί εύκολα τα δεδομένα ανά πολιτεία και εμφανίζει σημεία δεδομένων για κατηγορικά και αριθμητικά δεδομένα.
+
+Ας ξεκινήσουμε εισάγοντας τα δεδομένα και τη βιβλιοθήκη Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Παρατηρείτε ότι τα δεδομένα για το μέλι περιλαμβάνουν αρκετές ενδιαφέρουσες στήλες, όπως το έτος και την τιμή ανά λίβρα. Ας εξερευνήσουμε αυτά τα δεδομένα, ομαδοποιημένα ανά πολιτεία των Η.Π.Α.:
+
+| πολιτεία | αποικίες | απόδοση/αποικία | συνολική παραγωγή | αποθέματα | τιμή/λίβρα | αξία παραγωγής | έτος |
+| -------- | -------- | --------------- | ----------------- | --------- | ---------- | ------------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 | 22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Δημιουργήστε ένα βασικό διάγραμμα διασποράς για να δείξετε τη σχέση μεταξύ της τιμής ανά λίβρα μελιού και της πολιτείας προέλευσής του. Κάντε τον άξονα `y` αρκετά ψηλό ώστε να εμφανίζονται όλες οι πολιτείες:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Τώρα, δείξτε τα ίδια δεδομένα με μια χρωματική παλέτα που θυμίζει μέλι, για να δείξετε πώς εξελίσσεται η τιμή με την πάροδο των ετών. Μπορείτε να το κάνετε αυτό προσθέτοντας την παράμετρο 'scale_color_gradientn' για να δείξετε την αλλαγή, χρόνο με τον χρόνο:
+
+> ✅ Μάθετε περισσότερα για το [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - δοκιμάστε ένα όμορφο χρωματικό φάσμα ουράνιου τόξου!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Με αυτή την αλλαγή χρωματικής παλέτας, μπορείτε να δείτε ότι υπάρχει προφανώς μια ισχυρή εξέλιξη με την πάροδο των ετών όσον αφορά την τιμή του μελιού ανά λίβρα. Πράγματι, αν κοιτάξετε ένα δείγμα δεδομένων για να το επαληθεύσετε (επιλέξτε, για παράδειγμα, την Αριζόνα), μπορείτε να δείτε ένα μοτίβο αύξησης της τιμής χρόνο με τον χρόνο, με λίγες εξαιρέσεις:
+
+| πολιτεία | αποικίες | απόδοση/αποικία | συνολική παραγωγή | αποθέματα | τιμή/λίβρα | αξία παραγωγής | έτος |
+| -------- | -------- | --------------- | ----------------- | --------- | ---------- | ------------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Ένας άλλος τρόπος να οπτικοποιήσετε αυτή την εξέλιξη είναι να χρησιμοποιήσετε το μέγεθος αντί για το χρώμα. Για χρήστες με αχρωματοψία, αυτό μπορεί να είναι μια καλύτερη επιλογή. Επεξεργαστείτε την οπτικοποίησή σας ώστε να δείξετε την αύξηση της τιμής μέσω της αύξησης της περιφέρειας των κουκκίδων:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Μπορείτε να δείτε το μέγεθος των κουκκίδων να αυξάνεται σταδιακά.
+
+
+
+Είναι αυτό μια απλή περίπτωση προσφοράς και ζήτησης; Λόγω παραγόντων όπως η κλιματική αλλαγή και η κατάρρευση αποικιών, υπάρχει λιγότερο διαθέσιμο μέλι για αγορά χρόνο με τον χρόνο, και έτσι αυξάνεται η τιμή;
+
+Για να ανακαλύψουμε μια συσχέτιση μεταξύ ορισμένων μεταβλητών σε αυτό το σύνολο δεδομένων, ας εξερευνήσουμε μερικά διαγράμματα γραμμών.
+
+## Διαγράμματα Γραμμών
+
+Ερώτηση: Υπάρχει σαφής αύξηση της τιμής του μελιού ανά λίβρα χρόνο με τον χρόνο; Μπορείτε να το ανακαλύψετε πιο εύκολα δημιουργώντας ένα απλό διάγραμμα γραμμών:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Απάντηση: Ναι, με κάποιες εξαιρέσεις γύρω στο 2003:
+
+
+
+Ερώτηση: Λοιπόν, το 2003 μπορούμε επίσης να δούμε μια αύξηση στην προσφορά μελιού; Τι γίνεται αν κοιτάξετε τη συνολική παραγωγή χρόνο με τον χρόνο;
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Απάντηση: Όχι ακριβώς. Αν κοιτάξετε τη συνολική παραγωγή, φαίνεται να έχει αυξηθεί εκείνη τη χρονιά, παρόλο που γενικά η ποσότητα του παραγόμενου μελιού μειώνεται κατά τη διάρκεια αυτών των ετών.
+
+Ερώτηση: Σε αυτή την περίπτωση, τι θα μπορούσε να έχει προκαλέσει αυτή την αύξηση στην τιμή του μελιού γύρω στο 2003;
+
+Για να το ανακαλύψετε, μπορείτε να εξερευνήσετε ένα πλέγμα όψεων.
+
+## Πλέγματα Όψεων
+
+Τα πλέγματα όψεων λαμβάνουν μία όψη του συνόλου δεδομένων σας (στην περίπτωσή μας, μπορείτε να επιλέξετε το 'έτος' για να αποφύγετε την παραγωγή υπερβολικά πολλών όψεων). Το Seaborn μπορεί στη συνέχεια να δημιουργήσει ένα διάγραμμα για καθεμία από αυτές τις όψεις των επιλεγμένων συντεταγμένων x και y για πιο εύκολη οπτική σύγκριση. Ξεχωρίζει το 2003 σε αυτό το είδος σύγκρισης;
+
+Δημιουργήστε ένα πλέγμα όψεων χρησιμοποιώντας το `facet_wrap`, όπως συνιστά η [τεκμηρίωση του ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+Σε αυτή την οπτικοποίηση, μπορείτε να συγκρίνετε την απόδοση ανά αποικία και τον αριθμό των αποικιών χρόνο με τον χρόνο, δίπλα-δίπλα, με το περιτύλιγμα να έχει οριστεί στις 3 στήλες:
+
+
+
+Για αυτό το σύνολο δεδομένων, τίποτα ιδιαίτερο δεν ξεχωρίζει όσον αφορά τον αριθμό των αποικιών και την απόδοσή τους, χρόνο με τον χρόνο και πολιτεία με πολιτεία. Υπάρχει διαφορετικός τρόπος να βρείτε μια συσχέτιση μεταξύ αυτών των δύο μεταβλητών;
+
+## Διπλά Διαγράμματα Γραμμών
+
+Δοκιμάστε ένα διάγραμμα πολλαπλών γραμμών, τοποθετώντας δύο διαγράμματα γραμμών το ένα πάνω στο άλλο, χρησιμοποιώντας τις `par` και `plot` συναρτήσεις της R. Θα σχεδιάσουμε το έτος στον άξονα x και θα εμφανίσουμε δύο άξονες y. Έτσι, εμφανίστε την απόδοση ανά αποικία και τον αριθμό των αποικιών, τοποθετημένα το ένα πάνω στο άλλο:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Ενώ τίποτα δεν τραβάει την προσοχή γύρω στο 2003, αυτό μας επιτρέπει να κλείσουμε το μάθημα με μια πιο αισιόδοξη νότα: ενώ υπάρχει συνολικά μείωση στον αριθμό των αποικιών, ο αριθμός των αποικιών σταθεροποιείται, ακόμα κι αν η απόδοση ανά αποικία μειώνεται.
+
+Πάμε, μέλισσες, πάμε!
+
+🐝❤️
+## 🚀 Πρόκληση
+
+Σε αυτό το μάθημα, μάθατε περισσότερα για άλλες χρήσεις διαγραμμάτων διασποράς και πλεγμάτων γραμμών, συμπεριλαμβανομένων των πλεγμάτων όψεων. Προκαλέστε τον εαυτό σας να δημιουργήσετε ένα πλέγμα όψεων χρησιμοποιώντας ένα διαφορετικό σύνολο δεδομένων, ίσως κάποιο που χρησιμοποιήσατε πριν από αυτά τα μαθήματα. Σημειώστε πόσο χρόνο χρειάζονται για να δημιουργηθούν και πόσο προσεκτικοί πρέπει να είστε σχετικά με το πόσα πλέγματα χρειάζεται να σχεδιάσετε χρησιμοποιώντας αυτές τις τεχνικές.
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Τα διαγράμματα γραμμών μπορούν να είναι απλά ή αρκετά περίπλοκα. Κάντε λίγη ανάγνωση στην [τεκμηρίωση του ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) σχετικά με τους διάφορους τρόπους που μπορείτε να τα δημιουργήσετε. Προσπαθήστε να βελτιώσετε τα διαγράμματα γραμμών που δημιουργήσατε σε αυτό το μάθημα με άλλες μεθόδους που αναφέρονται στην τεκμηρίωση.
+## Εργασία
+
+[Εξερευνήστε την κυψέλη](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/el/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..8dbc456f
--- /dev/null
+++ b/translations/el/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Δημιουργία Σημαντικών Οπτικοποιήσεων
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Σημαντικές Οπτικοποιήσεις - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+> "Αν βασανίσεις τα δεδομένα αρκετά, θα ομολογήσουν οτιδήποτε" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Μία από τις βασικές δεξιότητες ενός επιστήμονα δεδομένων είναι η ικανότητα να δημιουργεί μια σημαντική οπτικοποίηση δεδομένων που βοηθά στην απάντηση ερωτήσεων. Πριν οπτικοποιήσετε τα δεδομένα σας, πρέπει να βεβαιωθείτε ότι έχουν καθαριστεί και προετοιμαστεί, όπως κάνατε στα προηγούμενα μαθήματα. Μετά από αυτό, μπορείτε να αρχίσετε να αποφασίζετε πώς να παρουσιάσετε καλύτερα τα δεδομένα.
+
+Σε αυτό το μάθημα, θα εξετάσετε:
+
+1. Πώς να επιλέξετε τον σωστό τύπο γραφήματος
+2. Πώς να αποφύγετε παραπλανητικά γραφήματα
+3. Πώς να δουλέψετε με χρώμα
+4. Πώς να διαμορφώσετε τα γραφήματά σας για ευανάγνωστοτητα
+5. Πώς να δημιουργήσετε λύσεις γραφημάτων με animation ή 3D
+6. Πώς να δημιουργήσετε μια δημιουργική οπτικοποίηση
+
+## [Προ-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Επιλέξτε τον σωστό τύπο γραφήματος
+
+Στα προηγούμενα μαθήματα, πειραματιστήκατε με τη δημιουργία όλων των ειδών ενδιαφέρουσες οπτικοποιήσεις δεδομένων χρησιμοποιώντας Matplotlib και Seaborn για γραφήματα. Γενικά, μπορείτε να επιλέξετε τον [σωστό τύπο γραφήματος](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) για την ερώτηση που θέτετε χρησιμοποιώντας αυτόν τον πίνακα:
+
+| Χρειάζεστε να: | Πρέπει να χρησιμοποιήσετε: |
+| -------------------------- | ------------------------------- |
+| Δείξετε τάσεις δεδομένων με την πάροδο του χρόνου | Γραμμή |
+| Συγκρίνετε κατηγορίες | Μπάρα, Πίτα |
+| Συγκρίνετε σύνολα | Πίτα, Σωρευτική Μπάρα |
+| Δείξετε σχέσεις | Scatter, Γραμμή, Facet, Διπλή Γραμμή |
+| Δείξετε κατανομές | Scatter, Ιστόγραμμα, Κουτί |
+| Δείξετε αναλογίες | Πίτα, Donut, Waffle |
+
+> ✅ Ανάλογα με τη σύνθεση των δεδομένων σας, μπορεί να χρειαστεί να τα μετατρέψετε από κείμενο σε αριθμητικά για να υποστηρίξετε έναν συγκεκριμένο τύπο γραφήματος.
+
+## Αποφύγετε την παραπλάνηση
+
+Ακόμα κι αν ένας επιστήμονας δεδομένων είναι προσεκτικός στην επιλογή του σωστού γραφήματος για τα σωστά δεδομένα, υπάρχουν πολλοί τρόποι με τους οποίους τα δεδομένα μπορούν να παρουσιαστούν με τρόπο που να αποδεικνύει ένα σημείο, συχνά εις βάρος της αλήθειας των δεδομένων. Υπάρχουν πολλά παραδείγματα παραπλανητικών γραφημάτων και infographics!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "Πώς Ψεύδονται τα Γραφήματα")
+
+> 🎥 Κάντε κλικ στην εικόνα παραπάνω για μια ομιλία συνεδρίου σχετικά με παραπλανητικά γραφήματα
+
+Αυτό το γράφημα αντιστρέφει τον άξονα X για να δείξει το αντίθετο της αλήθειας, βάσει ημερομηνίας:
+
+
+
+[Αυτό το γράφημα](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) είναι ακόμα πιο παραπλανητικό, καθώς το μάτι τραβιέται προς τα δεξιά για να συμπεράνει ότι, με την πάροδο του χρόνου, τα κρούσματα COVID έχουν μειωθεί στις διάφορες κομητείες. Στην πραγματικότητα, αν κοιτάξετε προσεκτικά τις ημερομηνίες, θα διαπιστώσετε ότι έχουν αναδιαταχθεί για να δώσουν αυτήν την παραπλανητική πτωτική τάση.
+
+
+
+Αυτό το διαβόητο παράδειγμα χρησιμοποιεί χρώμα ΚΑΙ έναν αναστραμμένο άξονα Y για να παραπλανήσει: αντί να συμπεράνουμε ότι οι θάνατοι από όπλα αυξήθηκαν μετά την ψήφιση νομοθεσίας φιλικής προς τα όπλα, στην πραγματικότητα το μάτι ξεγελιέται να πιστεύει το αντίθετο:
+
+
+
+Αυτό το παράξενο γράφημα δείχνει πώς η αναλογία μπορεί να χειραγωγηθεί, με ξεκαρδιστικό αποτέλεσμα:
+
+
+
+Η σύγκριση του ασύγκριτου είναι ακόμα ένα ύπουλο κόλπο. Υπάρχει ένας [υπέροχος ιστότοπος](https://tylervigen.com/spurious-correlations) γεμάτος με 'ψευδείς συσχετίσεις' που εμφανίζουν 'γεγονότα' που συσχετίζουν πράγματα όπως το ποσοστό διαζυγίων στο Maine και την κατανάλωση μαργαρίνης. Μια ομάδα στο Reddit συλλέγει επίσης τις [άσχημες χρήσεις](https://www.reddit.com/r/dataisugly/top/?t=all) των δεδομένων.
+
+Είναι σημαντικό να κατανοήσουμε πόσο εύκολα το μάτι μπορεί να ξεγελαστεί από παραπλανητικά γραφήματα. Ακόμα κι αν η πρόθεση του επιστήμονα δεδομένων είναι καλή, η επιλογή ενός κακού τύπου γραφήματος, όπως ένα γράφημα πίτας που δείχνει πάρα πολλές κατηγορίες, μπορεί να είναι παραπλανητική.
+
+## Χρώμα
+
+Είδατε στο γράφημα 'βίας με όπλα στη Φλόριντα' παραπάνω πώς το χρώμα μπορεί να προσφέρει ένα επιπλέον επίπεδο νοήματος στα γραφήματα, ειδικά σε αυτά που δεν έχουν σχεδιαστεί χρησιμοποιώντας βιβλιοθήκες όπως ggplot2 και RColorBrewer που διαθέτουν διάφορες εγκεκριμένες βιβλιοθήκες χρωμάτων και παλέτες. Αν φτιάχνετε ένα γράφημα χειροκίνητα, κάντε μια μικρή μελέτη της [θεωρίας χρωμάτων](https://colormatters.com/color-and-design/basic-color-theory)
+
+> ✅ Να είστε ενήμεροι, όταν σχεδιάζετε γραφήματα, ότι η προσβασιμότητα είναι μια σημαντική πτυχή της οπτικοποίησης. Μερικοί από τους χρήστες σας μπορεί να έχουν αχρωματοψία - εμφανίζεται το γράφημά σας καλά για χρήστες με προβλήματα όρασης;
+
+Να είστε προσεκτικοί όταν επιλέγετε χρώματα για το γράφημά σας, καθώς το χρώμα μπορεί να μεταφέρει νοήματα που ίσως δεν σκοπεύατε. Οι 'ροζ κυρίες' στο γράφημα 'ύψους' παραπάνω μεταφέρουν μια έντονα 'θηλυκή' αποδιδόμενη σημασία που προσθέτει στην παραδοξότητα του ίδιου του γραφήματος.
+
+Ενώ [η σημασία των χρωμάτων](https://colormatters.com/color-symbolism/the-meanings-of-colors) μπορεί να είναι διαφορετική σε διαφορετικά μέρη του κόσμου και τείνει να αλλάζει ανάλογα με την απόχρωσή τους, γενικά οι σημασίες των χρωμάτων περιλαμβάνουν:
+
+| Χρώμα | Σημασία |
+| ------ | ------------------- |
+| κόκκινο | δύναμη |
+| μπλε | εμπιστοσύνη, πίστη |
+| κίτρινο | ευτυχία, προσοχή |
+| πράσινο | οικολογία, τύχη, φθόνος |
+| μωβ | ευτυχία |
+| πορτοκαλί | ζωντάνια |
+
+Αν σας ανατεθεί να δημιουργήσετε ένα γράφημα με προσαρμοσμένα χρώματα, βεβαιωθείτε ότι τα γραφήματά σας είναι προσβάσιμα και ότι το χρώμα που επιλέγετε συμπίπτει με τη σημασία που προσπαθείτε να μεταφέρετε.
+
+## Διαμόρφωση των γραφημάτων σας για ευανάγνωστοτητα
+
+Τα γραφήματα δεν είναι σημαντικά αν δεν είναι ευανάγνωστα! Αφιερώστε λίγο χρόνο για να εξετάσετε τη διαμόρφωση του πλάτους και του ύψους του γραφήματος ώστε να ταιριάζει καλά με τα δεδομένα σας. Αν μια μεταβλητή (όπως όλες οι 50 πολιτείες) πρέπει να εμφανιστεί, δείξτε τις κάθετα στον άξονα Y αν είναι δυνατόν, ώστε να αποφύγετε ένα γράφημα που απαιτεί οριζόντια κύλιση.
+
+Επισημάνετε τους άξονες σας, παρέχετε έναν θρύλο αν είναι απαραίτητο και προσφέρετε tooltips για καλύτερη κατανόηση των δεδομένων.
+
+Αν τα δεδομένα σας είναι κείμενο και εκτενή στον άξονα X, μπορείτε να γωνιάσετε το κείμενο για καλύτερη ευανάγνωστοτητα. Το [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) προσφέρει 3D σχεδιασμό, αν τα δεδομένα σας το υποστηρίζουν. Μπορούν να παραχθούν εξελιγμένες οπτικοποιήσεις δεδομένων χρησιμοποιώντας το.
+
+
+
+## Animation και 3D απεικόνιση γραφημάτων
+
+Μερικές από τις καλύτερες οπτικοποιήσεις δεδομένων σήμερα είναι κινούμενες. Η Shirley Wu έχει εκπληκτικές δημιουργίες με D3, όπως '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', όπου κάθε λουλούδι είναι μια οπτικοποίηση μιας ταινίας. Ένα άλλο παράδειγμα για τον Guardian είναι το 'bussed out', μια διαδραστική εμπειρία που συνδυάζει οπτικοποιήσεις με Greensock και D3 καθώς και ένα άρθρο σε μορφή scrollytelling για να δείξει πώς η Νέα Υόρκη διαχειρίζεται το πρόβλημα των αστέγων της, στέλνοντας ανθρώπους εκτός πόλης.
+
+
+
+> "Bussed Out: Πώς η Αμερική Μετακινεί τους Άστεγους" από [τον Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Οπτικοποιήσεις από Nadieh Bremer & Shirley Wu
+
+Αν και αυτό το μάθημα δεν είναι αρκετό για να διδάξει σε βάθος αυτές τις ισχυρές βιβλιοθήκες οπτικοποίησης, δοκιμάστε να χρησιμοποιήσετε το D3 σε μια εφαρμογή Vue.js χρησιμοποιώντας μια βιβλιοθήκη για να εμφανίσετε μια οπτικοποίηση του βιβλίου "Επικίνδυνες Σχέσεις" ως ένα κινούμενο κοινωνικό δίκτυο.
+
+> "Les Liaisons Dangereuses" είναι ένα επιστολικό μυθιστόρημα, ή ένα μυθιστόρημα που παρουσιάζεται ως μια σειρά επιστολών. Γραμμένο το 1782 από τον Choderlos de Laclos, αφηγείται την ιστορία των μοχθηρών, ηθικά χρεοκοπημένων κοινωνικών ελιγμών δύο αντιμαχόμενων πρωταγωνιστών της γαλλικής αριστοκρατίας στα τέλη του 18ου αιώνα, του Vicomte de Valmont και της Marquise de Merteuil. Και οι δύο συναντούν την καταστροφή τους στο τέλος, αλλά όχι χωρίς να προκαλέσουν μεγάλη κοινωνική ζημιά. Το μυθιστόρημα ξεδιπλώνεται ως μια σειρά επιστολών γραμμένων σε διάφορους ανθρώπους στους κύκλους τους, σχεδιάζοντας εκδίκηση ή απλώς για να προκαλέσουν προβλήματα. Δημιουργήστε μια οπτικοποίηση αυτών των επιστολών για να ανακαλύψετε τους κύριους πρωταγωνιστές της αφήγησης, οπτικά.
+
+Θα ολοκληρώσετε μια εφαρμογή ιστού που θα εμφανίζει μια κινούμενη προβολή αυτού του κοινωνικού δικτύου. Χρησιμοποιεί μια βιβλιοθήκη που δημιουργήθηκε για να δημιουργήσει μια [οπτικοποίηση ενός δικτύου](https://github.com/emiliorizzo/vue-d3-network) χρησιμοποιώντας Vue.js και D3. Όταν η εφαρμογή τρέχει, μπορείτε να μετακινήσετε τους κόμβους στην οθόνη για να ανακατέψετε τα δεδομένα.
+
+
+
+## Έργο: Δημιουργήστε ένα γράφημα για να δείξετε ένα δίκτυο χρησιμοποιώντας D3.js
+
+> Αυτός ο φάκελος μαθήματος περιλαμβάνει έναν φάκελο `solution` όπου μπορείτε να βρείτε το ολοκληρωμένο έργο, για αναφορά.
+
+1. Ακολουθήστε τις οδηγίες στο αρχείο README.md στον φάκελο εκκίνησης. Βεβαιωθείτε ότι έχετε NPM και Node.js εγκατεστημένα στον υπολογιστή σας πριν εγκαταστήσετε τις εξαρτήσεις του έργου σας.
+
+2. Ανοίξτε τον φάκελο `starter/src`. Θα βρείτε έναν φάκελο `assets` όπου υπάρχει ένα αρχείο .json με όλες τις επιστολές από το μυθιστόρημα, αριθμημένες, με σημειώσεις 'to' και 'from'.
+
+3. Ολοκληρώστε τον κώδικα στο `components/Nodes.vue` για να ενεργοποιήσετε την οπτικοποίηση. Αναζητήστε τη μέθοδο που ονομάζεται `createLinks()` και προσθέστε την ακόλουθη εμφωλευμένη επανάληψη.
+
+Διατρέξτε το αντικείμενο .json για να καταγράψετε τα δεδομένα 'to' και 'from' για τις επιστολές και να δημιουργήσετε το αντικείμενο `links` ώστε η βιβλιοθήκη οπτικοποίησης να μπορεί να το καταναλώσει:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Τρέξτε την εφαρμογή σας από το τερματικό (npm run serve) και απολαύστε την οπτικοποίηση!
+
+## 🚀 Πρόκληση
+
+Κάντε μια περιήγηση στο διαδίκτυο για να ανακαλύψετε παραπλανητικές οπτικοποιήσεις. Πώς ξεγελά ο συγγραφέας τον χρήστη και είναι σκόπιμο; Δοκιμάστε να διορθώσετε τις οπτικοποιήσεις για να δείξετε πώς θα έπρεπε να φαίνονται.
+
+## [Κουίζ Μετά τη Διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Ακολουθούν μερικά άρθρα για να διαβάσετε σχετικά με παραπλανητικές οπτικοποιήσεις δεδομένων:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Δείτε αυτές τις ενδιαφέρουσες οπτικοποιήσεις για ιστορικά αντικείμενα και τεχνουργήματα:
+
+https://handbook.pubpub.org/
+
+Διαβάστε αυτό το άρθρο σχετικά με το πώς η κίνηση μπορεί να ενισχύσει τις οπτικοποιήσεις σας:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Εργασία
+
+[Δημιουργήστε τη δική σας προσαρμοσμένη οπτικοποίηση](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/3-Data-Visualization/README.md b/translations/el/3-Data-Visualization/README.md
new file mode 100644
index 00000000..ec2d4ccd
--- /dev/null
+++ b/translations/el/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# Οπτικοποιήσεις
+
+
+> Φωτογραφία από Jenna Lee στο Unsplash
+
+Η οπτικοποίηση δεδομένων είναι μία από τις πιο σημαντικές εργασίες ενός επιστήμονα δεδομένων. Μια εικόνα αξίζει όσο χίλιες λέξεις, και μια οπτικοποίηση μπορεί να σας βοηθήσει να εντοπίσετε κάθε είδους ενδιαφέροντα στοιχεία στα δεδομένα σας, όπως αιχμές, ακραίες τιμές, ομαδοποιήσεις, τάσεις και πολλά άλλα, που μπορούν να σας βοηθήσουν να κατανοήσετε την ιστορία που προσπαθούν να σας πουν τα δεδομένα σας.
+
+Σε αυτά τα πέντε μαθήματα, θα εξερευνήσετε δεδομένα από τη φύση και θα δημιουργήσετε ενδιαφέρουσες και όμορφες οπτικοποιήσεις χρησιμοποιώντας διάφορες τεχνικές.
+
+| Αριθμός Θέματος | Θέμα | Συνδεδεμένο Μάθημα | Συγγραφέας |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | Οπτικοποίηση ποσοτήτων | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Οπτικοποίηση κατανομών | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Οπτικοποίηση αναλογιών | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Οπτικοποίηση σχέσεων | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Δημιουργία Σημαντικών Οπτικοποιήσεων | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Πιστώσεις
+
+Αυτά τα μαθήματα οπτικοποίησης γράφτηκαν με 🌸 από [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) και [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Τα δεδομένα για την παραγωγή μελιού στις ΗΠΑ προέρχονται από το έργο της Jessica Li στο [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). Τα [δεδομένα](https://usda.library.cornell.edu/concern/publications/rn301137d) προέρχονται από το [Υπουργείο Γεωργίας των Ηνωμένων Πολιτειών](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Τα δεδομένα για τα μανιτάρια προέρχονται επίσης από το [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) και έχουν αναθεωρηθεί από τον Hatteras Dunton. Αυτό το σύνολο δεδομένων περιλαμβάνει περιγραφές υποθετικών δειγμάτων που αντιστοιχούν σε 23 είδη μανιταριών με ελάσματα από τις οικογένειες Agaricus και Lepiota. Τα δεδομένα προέρχονται από τον Οδηγό Πεδίου της Audubon Society για τα Μανιτάρια της Βόρειας Αμερικής (1981). Αυτό το σύνολο δεδομένων δωρίστηκε στο UCI ML το 1987.
+
+🦆 Τα δεδομένα για τα πουλιά της Μινεσότα προέρχονται από το [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) και συλλέχθηκαν από τη [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) από τη Hannah Collins.
+
+Όλα αυτά τα σύνολα δεδομένων είναι αδειοδοτημένα ως [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/el/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..10ff6f40
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Εισαγωγή στον Κύκλο Ζωής της Επιστήμης Δεδομένων
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Εισαγωγή στον Κύκλο Ζωής της Επιστήμης Δεδομένων - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+## [Προ-Διάλεξης Κουίζ](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+Σε αυτό το σημείο πιθανότατα έχετε συνειδητοποιήσει ότι η επιστήμη δεδομένων είναι μια διαδικασία. Αυτή η διαδικασία μπορεί να χωριστεί σε 5 στάδια:
+
+- Συλλογή
+- Επεξεργασία
+- Ανάλυση
+- Επικοινωνία
+- Συντήρηση
+
+Αυτό το μάθημα επικεντρώνεται σε 3 μέρη του κύκλου ζωής: συλλογή, επεξεργασία και συντήρηση.
+
+
+> Φωτογραφία από [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Συλλογή
+
+Το πρώτο στάδιο του κύκλου ζωής είναι πολύ σημαντικό, καθώς τα επόμενα στάδια εξαρτώνται από αυτό. Στην ουσία, είναι δύο στάδια συνδυασμένα σε ένα: απόκτηση δεδομένων και ορισμός του σκοπού και των προβλημάτων που πρέπει να αντιμετωπιστούν.
+Ο ορισμός των στόχων του έργου απαιτεί βαθύτερη κατανόηση του προβλήματος ή της ερώτησης. Πρώτα, πρέπει να εντοπίσουμε και να αποκτήσουμε πρόσβαση σε αυτούς που χρειάζονται λύση στο πρόβλημά τους. Αυτοί μπορεί να είναι ενδιαφερόμενοι σε μια επιχείρηση ή χορηγοί του έργου, οι οποίοι μπορούν να βοηθήσουν στον εντοπισμό του ποιος ή τι θα ωφεληθεί από αυτό το έργο, καθώς και τι και γιατί το χρειάζονται. Ένας καλά καθορισμένος στόχος πρέπει να είναι μετρήσιμος και ποσοτικοποιήσιμος για να ορίσει ένα αποδεκτό αποτέλεσμα.
+
+Ερωτήσεις που μπορεί να κάνει ένας επιστήμονας δεδομένων:
+- Έχει προσεγγιστεί αυτό το πρόβλημα στο παρελθόν; Τι ανακαλύφθηκε;
+- Είναι ο σκοπός και ο στόχος κατανοητοί από όλους τους εμπλεκόμενους;
+- Υπάρχει ασάφεια και πώς μπορεί να μειωθεί;
+- Ποιοι είναι οι περιορισμοί;
+- Πώς θα μπορούσε να μοιάζει το τελικό αποτέλεσμα;
+- Πόσοι πόροι (χρόνος, άνθρωποι, υπολογιστικοί) είναι διαθέσιμοι;
+
+Στη συνέχεια, ακολουθεί ο εντοπισμός, η συλλογή και, τέλος, η εξερεύνηση των δεδομένων που απαιτούνται για την επίτευξη αυτών των καθορισμένων στόχων. Σε αυτό το βήμα της απόκτησης, οι επιστήμονες δεδομένων πρέπει επίσης να αξιολογήσουν την ποσότητα και την ποιότητα των δεδομένων. Αυτό απαιτεί κάποια εξερεύνηση δεδομένων για να επιβεβαιωθεί ότι τα δεδομένα που έχουν αποκτηθεί θα υποστηρίξουν την επίτευξη του επιθυμητού αποτελέσματος.
+
+Ερωτήσεις που μπορεί να κάνει ένας επιστήμονας δεδομένων σχετικά με τα δεδομένα:
+- Ποια δεδομένα είναι ήδη διαθέσιμα σε μένα;
+- Ποιος είναι ο κάτοχος αυτών των δεδομένων;
+- Ποια είναι τα ζητήματα απορρήτου;
+- Έχω αρκετά δεδομένα για να λύσω αυτό το πρόβλημα;
+- Είναι τα δεδομένα αποδεκτής ποιότητας για αυτό το πρόβλημα;
+- Αν ανακαλύψω πρόσθετες πληροφορίες μέσω αυτών των δεδομένων, πρέπει να εξετάσουμε το ενδεχόμενο αλλαγής ή επαναπροσδιορισμού των στόχων;
+
+## Επεξεργασία
+
+Το στάδιο της επεξεργασίας στον κύκλο ζωής επικεντρώνεται στην ανακάλυψη μοτίβων στα δεδομένα καθώς και στη μοντελοποίηση. Ορισμένες τεχνικές που χρησιμοποιούνται σε αυτό το στάδιο απαιτούν στατιστικές μεθόδους για την αποκάλυψη των μοτίβων. Συνήθως, αυτό θα ήταν μια κουραστική εργασία για έναν άνθρωπο με ένα μεγάλο σύνολο δεδομένων και θα βασιστεί σε υπολογιστές για να επιταχύνει τη διαδικασία. Αυτό το στάδιο είναι επίσης το σημείο όπου η επιστήμη δεδομένων και η μηχανική μάθηση διασταυρώνονται. Όπως μάθατε στο πρώτο μάθημα, η μηχανική μάθηση είναι η διαδικασία δημιουργίας μοντέλων για την κατανόηση των δεδομένων. Τα μοντέλα είναι μια αναπαράσταση της σχέσης μεταξύ μεταβλητών στα δεδομένα που βοηθούν στην πρόβλεψη αποτελεσμάτων.
+
+Συνηθισμένες τεχνικές που χρησιμοποιούνται σε αυτό το στάδιο καλύπτονται στο πρόγραμμα σπουδών ML for Beginners. Ακολουθήστε τους συνδέσμους για να μάθετε περισσότερα για αυτές:
+
+- [Κατηγοριοποίηση](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Οργάνωση δεδομένων σε κατηγορίες για πιο αποδοτική χρήση.
+- [Ομαδοποίηση](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Ομαδοποίηση δεδομένων σε παρόμοιες ομάδες.
+- [Παλινδρόμηση](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Καθορισμός των σχέσεων μεταξύ μεταβλητών για πρόβλεψη ή εκτίμηση τιμών.
+
+## Συντήρηση
+
+Στο διάγραμμα του κύκλου ζωής, μπορεί να παρατηρήσατε ότι η συντήρηση βρίσκεται ανάμεσα στη συλλογή και την επεξεργασία. Η συντήρηση είναι μια συνεχής διαδικασία διαχείρισης, αποθήκευσης και ασφάλειας των δεδομένων καθ' όλη τη διάρκεια ενός έργου και πρέπει να λαμβάνεται υπόψη σε όλη τη διάρκεια του έργου.
+
+### Αποθήκευση Δεδομένων
+
+Οι αποφάσεις για το πώς και πού αποθηκεύονται τα δεδομένα μπορούν να επηρεάσουν το κόστος αποθήκευσης καθώς και την απόδοση της ταχύτητας πρόσβασης στα δεδομένα. Τέτοιες αποφάσεις δεν λαμβάνονται πιθανότατα μόνο από έναν επιστήμονα δεδομένων, αλλά μπορεί να χρειαστεί να κάνουν επιλογές για το πώς να εργαστούν με τα δεδομένα με βάση τον τρόπο αποθήκευσής τους.
+
+Ορισμένες πτυχές των σύγχρονων συστημάτων αποθήκευσης δεδομένων που μπορούν να επηρεάσουν αυτές τις επιλογές:
+
+**Εντός εγκαταστάσεων vs εκτός εγκαταστάσεων vs δημόσιο ή ιδιωτικό cloud**
+
+Η αποθήκευση εντός εγκαταστάσεων αναφέρεται στη διαχείριση των δεδομένων στον δικό σας εξοπλισμό, όπως η κατοχή ενός διακομιστή με σκληρούς δίσκους που αποθηκεύουν τα δεδομένα, ενώ η αποθήκευση εκτός εγκαταστάσεων βασίζεται σε εξοπλισμό που δεν σας ανήκει, όπως ένα κέντρο δεδομένων. Το δημόσιο cloud είναι μια δημοφιλής επιλογή για την αποθήκευση δεδομένων που δεν απαιτεί γνώση του πώς ή πού ακριβώς αποθηκεύονται τα δεδομένα, ενώ το δημόσιο αναφέρεται σε μια ενιαία υποδομή που μοιράζονται όλοι οι χρήστες του cloud. Ορισμένοι οργανισμοί έχουν αυστηρές πολιτικές ασφαλείας που απαιτούν πλήρη πρόσβαση στον εξοπλισμό όπου φιλοξενούνται τα δεδομένα και βασίζονται σε ένα ιδιωτικό cloud που παρέχει τις δικές του υπηρεσίες cloud. Θα μάθετε περισσότερα για τα δεδομένα στο cloud σε [μεταγενέστερα μαθήματα](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Ψυχρά vs θερμά δεδομένα**
+
+Όταν εκπαιδεύετε τα μοντέλα σας, μπορεί να χρειαστείτε περισσότερα δεδομένα εκπαίδευσης. Αν είστε ικανοποιημένοι με το μοντέλο σας, περισσότερα δεδομένα θα φτάσουν για να εξυπηρετήσουν τον σκοπό του μοντέλου. Σε κάθε περίπτωση, το κόστος αποθήκευσης και πρόσβασης στα δεδομένα θα αυξηθεί όσο συσσωρεύετε περισσότερα. Ο διαχωρισμός των σπάνια χρησιμοποιούμενων δεδομένων, γνωστών ως ψυχρά δεδομένα, από τα συχνά προσπελάσιμα θερμά δεδομένα μπορεί να είναι μια φθηνότερη επιλογή αποθήκευσης δεδομένων μέσω υλικού ή λογισμικού υπηρεσιών. Αν τα ψυχρά δεδομένα χρειαστεί να προσπελαστούν, μπορεί να χρειαστεί λίγος περισσότερος χρόνος για την ανάκτησή τους σε σύγκριση με τα θερμά δεδομένα.
+
+### Διαχείριση Δεδομένων
+
+Καθώς εργάζεστε με δεδομένα, μπορεί να ανακαλύψετε ότι ορισμένα από αυτά χρειάζονται καθαρισμό χρησιμοποιώντας κάποιες από τις τεχνικές που καλύπτονται στο μάθημα που επικεντρώνεται στην [προετοιμασία δεδομένων](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) για τη δημιουργία ακριβών μοντέλων. Όταν φτάνουν νέα δεδομένα, θα χρειαστούν τις ίδιες εφαρμογές για να διατηρηθεί η συνέπεια στην ποιότητα. Ορισμένα έργα θα περιλαμβάνουν τη χρήση ενός αυτοματοποιημένου εργαλείου για καθαρισμό, συγκέντρωση και συμπίεση πριν τα δεδομένα μεταφερθούν στην τελική τους τοποθεσία. Το Azure Data Factory είναι ένα παράδειγμα ενός από αυτά τα εργαλεία.
+
+### Ασφάλεια Δεδομένων
+
+Ένας από τους κύριους στόχους της ασφάλειας δεδομένων είναι να διασφαλιστεί ότι όσοι εργάζονται με αυτά έχουν τον έλεγχο του τι συλλέγεται και σε ποιο πλαίσιο χρησιμοποιείται. Η διατήρηση της ασφάλειας των δεδομένων περιλαμβάνει τον περιορισμό της πρόσβασης μόνο σε όσους τη χρειάζονται, την τήρηση τοπικών νόμων και κανονισμών, καθώς και τη διατήρηση ηθικών προτύπων, όπως καλύπτεται στο [μάθημα ηθικής](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Ορισμένα πράγματα που μπορεί να κάνει μια ομάδα με γνώμονα την ασφάλεια:
+- Επιβεβαίωση ότι όλα τα δεδομένα είναι κρυπτογραφημένα
+- Παροχή πληροφοριών στους πελάτες για το πώς χρησιμοποιούνται τα δεδομένα τους
+- Αφαίρεση πρόσβασης στα δεδομένα από όσους έχουν αποχωρήσει από το έργο
+- Επιτρέπεται μόνο σε συγκεκριμένα μέλη του έργου να τροποποιούν τα δεδομένα
+
+## 🚀 Πρόκληση
+
+Υπάρχουν πολλές εκδοχές του Κύκλου Ζωής της Επιστήμης Δεδομένων, όπου κάθε βήμα μπορεί να έχει διαφορετικά ονόματα και αριθμό σταδίων, αλλά θα περιέχει τις ίδιες διαδικασίες που αναφέρονται σε αυτό το μάθημα.
+
+Εξερευνήστε τον [Κύκλο Ζωής της Διαδικασίας Ομάδας Επιστήμης Δεδομένων](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) και το [Διατομεακό Πρότυπο Διαδικασίας για Εξόρυξη Δεδομένων](https://www.datascience-pm.com/crisp-dm-2/). Ονομάστε 3 ομοιότητες και διαφορές μεταξύ των δύο.
+
+|Διαδικασία Ομάδας Επιστήμης Δεδομένων (TDSP)|Διατομεακό Πρότυπο Διαδικασίας για Εξόρυξη Δεδομένων (CRISP-DM)|
+|--|--|
+| |  |
+| Εικόνα από [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Εικόνα από [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Μετά-Διάλεξης Κουίζ](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Η εφαρμογή του Κύκλου Ζωής της Επιστήμης Δεδομένων περιλαμβάνει πολλαπλούς ρόλους και εργασίες, όπου κάποιοι μπορεί να επικεντρώνονται σε συγκεκριμένα μέρη κάθε σταδίου. Η Διαδικασία Ομάδας Επιστήμης Δεδομένων παρέχει μερικούς πόρους που εξηγούν τους τύπους ρόλων και εργασιών που μπορεί να έχει κάποιος σε ένα έργο.
+
+* [Ρόλοι και εργασίες στη Διαδικασία Ομάδας Επιστήμης Δεδομένων](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Εκτέλεση εργασιών επιστήμης δεδομένων: εξερεύνηση, μοντελοποίηση και ανάπτυξη](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Εργασία
+
+[Αξιολόγηση ενός Συνόλου Δεδομένων](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/el/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..4566818a
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,37 @@
+
+# Αξιολόγηση ενός Συνόλου Δεδομένων
+
+Ένας πελάτης έχει προσεγγίσει την ομάδα σας για βοήθεια στη διερεύνηση των εποχιακών συνηθειών δαπανών των πελατών ταξί στη Νέα Υόρκη.
+
+Θέλουν να μάθουν: **Οι επιβάτες των κίτρινων ταξί στη Νέα Υόρκη δίνουν μεγαλύτερα φιλοδωρήματα στους οδηγούς τον χειμώνα ή το καλοκαίρι;**
+
+Η ομάδα σας βρίσκεται στο στάδιο [Capturing](Readme.md#Capturing) του Κύκλου Ζωής της Επιστήμης Δεδομένων και εσείς είστε υπεύθυνοι για τη διαχείριση του συνόλου δεδομένων. Σας έχει δοθεί ένα σημειωματάριο και [δεδομένα](../../../../data/taxi.csv) για εξερεύνηση.
+
+Σε αυτόν τον φάκελο υπάρχει ένα [σημειωματάριο](notebook.ipynb) που χρησιμοποιεί Python για τη φόρτωση δεδομένων ταξιδιών κίτρινων ταξί από την [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Μπορείτε επίσης να ανοίξετε το αρχείο δεδομένων ταξί σε επεξεργαστή κειμένου ή λογισμικό υπολογιστικών φύλλων όπως το Excel.
+
+## Οδηγίες
+
+- Αξιολογήστε αν τα δεδομένα σε αυτό το σύνολο μπορούν να βοηθήσουν στην απάντηση της ερώτησης.
+- Εξερευνήστε τον [κατάλογο NYC Open Data](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Εντοπίστε ένα επιπλέον σύνολο δεδομένων που θα μπορούσε να είναι χρήσιμο για την απάντηση της ερώτησης του πελάτη.
+- Γράψτε 3 ερωτήσεις που θα θέτατε στον πελάτη για περισσότερη διευκρίνιση και καλύτερη κατανόηση του προβλήματος.
+
+Ανατρέξτε στο [λεξικό του συνόλου δεδομένων](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) και στον [οδηγό χρήστη](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) για περισσότερες πληροφορίες σχετικά με τα δεδομένα.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | ---
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/el/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..4779f834
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,60 @@
+
+# Ο Κύκλος Ζωής της Επιστήμης Δεδομένων: Ανάλυση
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Κύκλος Ζωής της Επιστήμης Δεδομένων: Ανάλυση - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+## Ερωτηματολόγιο Πριν το Μάθημα
+
+## [Ερωτηματολόγιο Πριν το Μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Η ανάλυση στον κύκλο ζωής των δεδομένων επιβεβαιώνει ότι τα δεδομένα μπορούν να απαντήσουν στις ερωτήσεις που έχουν τεθεί ή να λύσουν ένα συγκεκριμένο πρόβλημα. Αυτό το βήμα μπορεί επίσης να επικεντρωθεί στην επιβεβαίωση ότι ένα μοντέλο αντιμετωπίζει σωστά αυτές τις ερωτήσεις και προβλήματα. Το μάθημα αυτό επικεντρώνεται στην Εξερευνητική Ανάλυση Δεδομένων (Exploratory Data Analysis ή EDA), η οποία περιλαμβάνει τεχνικές για τον καθορισμό χαρακτηριστικών και σχέσεων μέσα στα δεδομένα και μπορεί να χρησιμοποιηθεί για την προετοιμασία των δεδομένων για μοντελοποίηση.
+
+Θα χρησιμοποιήσουμε ένα παράδειγμα συνόλου δεδομένων από το [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) για να δείξουμε πώς μπορεί να εφαρμοστεί αυτό με τη χρήση της Python και της βιβλιοθήκης Pandas. Αυτό το σύνολο δεδομένων περιέχει έναν αριθμό κοινών λέξεων που βρίσκονται σε email, ενώ οι πηγές αυτών των email είναι ανώνυμες. Χρησιμοποιήστε το [notebook](notebook.ipynb) σε αυτόν τον φάκελο για να ακολουθήσετε.
+
+## Εξερευνητική Ανάλυση Δεδομένων
+
+Η φάση συλλογής του κύκλου ζωής είναι εκεί όπου αποκτώνται τα δεδομένα καθώς και τα προβλήματα και οι ερωτήσεις που τίθενται, αλλά πώς μπορούμε να ξέρουμε ότι τα δεδομένα μπορούν να υποστηρίξουν το τελικό αποτέλεσμα;
+Θυμηθείτε ότι ένας επιστήμονας δεδομένων μπορεί να θέσει τις εξής ερωτήσεις όταν αποκτά τα δεδομένα:
+- Έχω αρκετά δεδομένα για να λύσω αυτό το πρόβλημα;
+- Είναι τα δεδομένα αποδεκτής ποιότητας για αυτό το πρόβλημα;
+- Αν ανακαλύψω επιπλέον πληροφορίες μέσω αυτών των δεδομένων, πρέπει να εξετάσουμε το ενδεχόμενο να αλλάξουμε ή να επαναπροσδιορίσουμε τους στόχους;
+Η Εξερευνητική Ανάλυση Δεδομένων είναι η διαδικασία εξοικείωσης με τα δεδομένα και μπορεί να χρησιμοποιηθεί για να απαντήσει σε αυτές τις ερωτήσεις, καθώς και να εντοπίσει τις προκλήσεις που προκύπτουν από τη χρήση του συνόλου δεδομένων. Ας επικεντρωθούμε σε μερικές από τις τεχνικές που χρησιμοποιούνται για την επίτευξη αυτού.
+
+## Προφίλ Δεδομένων, Περιγραφική Στατιστική και Pandas
+Πώς αξιολογούμε αν έχουμε αρκετά δεδομένα για να λύσουμε αυτό το πρόβλημα; Το προφίλ δεδομένων μπορεί να συνοψίσει και να συγκεντρώσει κάποιες γενικές πληροφορίες για το σύνολο δεδομένων μας μέσω τεχνικών περιγραφικής στατιστικής. Το προφίλ δεδομένων μας βοηθά να κατανοήσουμε τι είναι διαθέσιμο σε εμάς, ενώ η περιγραφική στατιστική μας βοηθά να κατανοήσουμε πόσα πράγματα είναι διαθέσιμα σε εμάς.
+
+Σε μερικά από τα προηγούμενα μαθήματα, έχουμε χρησιμοποιήσει το Pandas για να παρέχουμε περιγραφική στατιστική με τη λειτουργία [`describe()`]( https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Παρέχει τον αριθμό, τις μέγιστες και ελάχιστες τιμές, τον μέσο όρο, την τυπική απόκλιση και τα ποσοστιαία σημεία στα αριθμητικά δεδομένα. Χρησιμοποιώντας περιγραφική στατιστική όπως η λειτουργία `describe()` μπορεί να σας βοηθήσει να αξιολογήσετε πόσα δεδομένα έχετε και αν χρειάζεστε περισσότερα.
+
+## Δειγματοληψία και Ερωτήματα
+Η εξερεύνηση όλων των δεδομένων σε ένα μεγάλο σύνολο μπορεί να είναι πολύ χρονοβόρα και συνήθως είναι μια εργασία που αφήνεται στους υπολογιστές. Ωστόσο, η δειγματοληψία είναι ένα χρήσιμο εργαλείο για την κατανόηση των δεδομένων και μας επιτρέπει να έχουμε μια καλύτερη εικόνα του τι περιέχει το σύνολο δεδομένων και τι αντιπροσωπεύει. Με ένα δείγμα, μπορείτε να εφαρμόσετε πιθανότητες και στατιστική για να καταλήξετε σε γενικά συμπεράσματα για τα δεδομένα σας. Παρόλο που δεν υπάρχει καθορισμένος κανόνας για το πόσα δεδομένα πρέπει να δειγματοληπτήσετε, είναι σημαντικό να σημειωθεί ότι όσο περισσότερα δεδομένα δειγματοληπτήσετε, τόσο πιο ακριβής θα είναι η γενίκευση που μπορείτε να κάνετε για τα δεδομένα.
+Το Pandas διαθέτει τη λειτουργία [`sample()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) στη βιβλιοθήκη του, όπου μπορείτε να περάσετε ένα όρισμα για το πόσα τυχαία δείγματα θέλετε να λάβετε και να χρησιμοποιήσετε.
+
+Η γενική υποβολή ερωτημάτων στα δεδομένα μπορεί να σας βοηθήσει να απαντήσετε σε γενικές ερωτήσεις και θεωρίες που μπορεί να έχετε. Σε αντίθεση με τη δειγματοληψία, τα ερωτήματα σας επιτρέπουν να έχετε έλεγχο και να επικεντρώνεστε σε συγκεκριμένα μέρη των δεδομένων για τα οποία έχετε ερωτήσεις.
+Η λειτουργία [`query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) στη βιβλιοθήκη Pandas σας επιτρέπει να επιλέξετε στήλες και να λάβετε απλές απαντήσεις για τα δεδομένα μέσω των γραμμών που ανακτώνται.
+
+## Εξερεύνηση με Οπτικοποιήσεις
+Δεν χρειάζεται να περιμένετε μέχρι τα δεδομένα να καθαριστούν και να αναλυθούν πλήρως για να αρχίσετε να δημιουργείτε οπτικοποιήσεις. Στην πραγματικότητα, η ύπαρξη μιας οπτικής αναπαράστασης κατά την εξερεύνηση μπορεί να βοηθήσει στον εντοπισμό μοτίβων, σχέσεων και προβλημάτων στα δεδομένα. Επιπλέον, οι οπτικοποιήσεις παρέχουν ένα μέσο επικοινωνίας με όσους δεν ασχολούνται με τη διαχείριση των δεδομένων και μπορούν να αποτελέσουν μια ευκαιρία για να μοιραστείτε και να διευκρινίσετε επιπλέον ερωτήσεις που δεν αντιμετωπίστηκαν στη φάση συλλογής. Ανατρέξτε στην [ενότητα για τις Οπτικοποιήσεις](../../../../../../../../../3-Data-Visualization) για να μάθετε περισσότερα σχετικά με δημοφιλείς τρόπους εξερεύνησης μέσω οπτικοποιήσεων.
+
+## Εξερεύνηση για τον Εντοπισμό Ασυνεπειών
+Όλα τα θέματα αυτού του μαθήματος μπορούν να βοηθήσουν στον εντοπισμό ελλιπών ή ασυνεπών τιμών, αλλά το Pandas παρέχει λειτουργίες για να ελέγξετε μερικές από αυτές. Οι λειτουργίες [isna() ή isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) μπορούν να ελέγξουν για ελλιπείς τιμές. Ένα σημαντικό κομμάτι της εξερεύνησης αυτών των τιμών μέσα στα δεδομένα σας είναι να εξερευνήσετε γιατί κατέληξαν έτσι εξαρχής. Αυτό μπορεί να σας βοηθήσει να αποφασίσετε ποιες [ενέργειες να λάβετε για να τις επιλύσετε](/2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Ερωτηματολόγιο Πριν το Μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Εργασία
+
+[Εξερεύνηση για Απαντήσεις](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/el/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..9c8b4300
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Εξερεύνηση για απαντήσεις
+
+Αυτή είναι η συνέχεια της [εργασίας](../14-Introduction/assignment.md) του προηγούμενου μαθήματος, όπου ρίξαμε μια σύντομη ματιά στο σύνολο δεδομένων. Τώρα θα εξετάσουμε τα δεδομένα πιο αναλυτικά.
+
+Και πάλι, η ερώτηση που θέλει να απαντηθεί ο πελάτης είναι: **Οι επιβάτες των κίτρινων ταξί στη Νέα Υόρκη δίνουν μεγαλύτερα φιλοδωρήματα στους οδηγούς τον χειμώνα ή το καλοκαίρι;**
+
+Η ομάδα σας βρίσκεται στο στάδιο της [Ανάλυσης](README.md) του Κύκλου Ζωής της Επιστήμης Δεδομένων, όπου είστε υπεύθυνοι για την εξερευνητική ανάλυση δεδομένων στο σύνολο δεδομένων. Σας έχει δοθεί ένα σημειωματάριο και ένα σύνολο δεδομένων που περιλαμβάνει 200 συναλλαγές ταξί από τον Ιανουάριο και τον Ιούλιο του 2019.
+
+## Οδηγίες
+
+Σε αυτόν τον φάκελο υπάρχει ένα [σημειωματάριο](assignment.ipynb) και δεδομένα από την [Επιτροπή Ταξί & Λιμουζινών](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Ανατρέξτε στο [λεξικό του συνόλου δεδομένων](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) και στον [οδηγό χρήστη](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) για περισσότερες πληροφορίες σχετικά με τα δεδομένα.
+
+Χρησιμοποιήστε κάποιες από τις τεχνικές αυτού του μαθήματος για να κάνετε τη δική σας Εξερευνητική Ανάλυση Δεδομένων (EDA) στο σημειωματάριο (προσθέστε κελιά αν θέλετε) και απαντήστε στις παρακάτω ερωτήσεις:
+
+- Ποιοι άλλοι παράγοντες στα δεδομένα θα μπορούσαν να επηρεάσουν το ποσό του φιλοδωρήματος;
+- Ποιοι στήλες είναι πιθανό να μην χρειαστούν για να απαντηθούν οι ερωτήσεις του πελάτη;
+- Με βάση όσα έχουν παρασχεθεί μέχρι στιγμής, φαίνεται να υπάρχουν ενδείξεις εποχικής συμπεριφοράς στα φιλοδωρήματα;
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | ---
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/16-communication/README.md b/translations/el/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..ff79145c
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,202 @@
+
+# Ο Κύκλος Ζωής της Επιστήμης Δεδομένων: Επικοινωνία
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Κύκλος Ζωής της Επιστήμης Δεδομένων: Επικοινωνία - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+## [Προ-Διάλεξη Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Δοκιμάστε τις γνώσεις σας για το τι θα ακολουθήσει με το Προ-Διάλεξη Κουίζ παραπάνω!
+
+# Εισαγωγή
+
+### Τι είναι η Επικοινωνία;
+Ας ξεκινήσουμε αυτό το μάθημα ορίζοντας τι σημαίνει να επικοινωνούμε. **Η επικοινωνία είναι η μετάδοση ή ανταλλαγή πληροφοριών.** Οι πληροφορίες μπορεί να είναι ιδέες, σκέψεις, συναισθήματα, μηνύματα, κρυφά σήματα, δεδομένα – οτιδήποτε θέλει ένας **_αποστολέας_** (κάποιος που στέλνει πληροφορίες) να κατανοήσει ένας **_δέκτης_** (κάποιος που λαμβάνει πληροφορίες). Σε αυτό το μάθημα, θα αναφερόμαστε στους αποστολείς ως επικοινωνητές και στους δέκτες ως κοινό.
+
+### Επικοινωνία Δεδομένων & Αφήγηση
+Κατανοούμε ότι όταν επικοινωνούμε, ο στόχος είναι να μεταδώσουμε ή να ανταλλάξουμε πληροφορίες. Αλλά όταν επικοινωνούμε δεδομένα, ο στόχος σας δεν πρέπει να είναι απλώς να μεταφέρετε αριθμούς στο κοινό σας. Ο στόχος σας πρέπει να είναι να επικοινωνήσετε μια ιστορία που βασίζεται στα δεδομένα σας – η αποτελεσματική επικοινωνία δεδομένων και η αφήγηση είναι αλληλένδετες. Το κοινό σας είναι πιο πιθανό να θυμάται μια ιστορία που λέτε, παρά έναν αριθμό που δίνετε. Αργότερα σε αυτό το μάθημα, θα εξετάσουμε μερικούς τρόπους με τους οποίους μπορείτε να χρησιμοποιήσετε την αφήγηση για να επικοινωνήσετε τα δεδομένα σας πιο αποτελεσματικά.
+
+### Τύποι Επικοινωνίας
+Κατά τη διάρκεια αυτού του μαθήματος θα συζητηθούν δύο διαφορετικοί τύποι επικοινωνίας: Μονομερής Επικοινωνία και Διμερής Επικοινωνία.
+
+**Μονομερής επικοινωνία** συμβαίνει όταν ένας αποστολέας στέλνει πληροφορίες σε έναν δέκτη, χωρίς καμία ανατροφοδότηση ή απάντηση. Βλέπουμε παραδείγματα μονομερούς επικοινωνίας καθημερινά – σε μαζικά email, όταν οι ειδήσεις μεταδίδουν τις πιο πρόσφατες ιστορίες ή ακόμα και όταν εμφανίζεται μια τηλεοπτική διαφήμιση και σας ενημερώνει γιατί το προϊόν τους είναι εξαιρετικό. Σε κάθε μία από αυτές τις περιπτώσεις, ο αποστολέας δεν επιδιώκει ανταλλαγή πληροφοριών. Επιδιώκει μόνο να μεταδώσει ή να παραδώσει πληροφορίες.
+
+**Διμερής επικοινωνία** συμβαίνει όταν όλα τα εμπλεκόμενα μέρη ενεργούν τόσο ως αποστολείς όσο και ως δέκτες. Ένας αποστολέας ξεκινά επικοινωνώντας με έναν δέκτη, και ο δέκτης παρέχει ανατροφοδότηση ή απάντηση. Η διμερής επικοινωνία είναι αυτό που παραδοσιακά σκεφτόμαστε όταν μιλάμε για επικοινωνία. Συνήθως σκεφτόμαστε ανθρώπους που συμμετέχουν σε μια συζήτηση – είτε αυτοπροσώπως, είτε μέσω τηλεφωνικής κλήσης, κοινωνικών μέσων ή μηνύματος κειμένου.
+
+Όταν επικοινωνείτε δεδομένα, θα υπάρξουν περιπτώσεις όπου θα χρησιμοποιείτε μονομερή επικοινωνία (σκεφτείτε την παρουσίαση σε ένα συνέδριο ή σε μια μεγάλη ομάδα όπου δεν θα γίνουν ερωτήσεις αμέσως μετά) και θα υπάρξουν περιπτώσεις όπου θα χρησιμοποιείτε διμερή επικοινωνία (σκεφτείτε τη χρήση δεδομένων για να πείσετε μερικούς ενδιαφερόμενους για υποστήριξη ή να πείσετε έναν συνάδελφο ότι πρέπει να αφιερωθεί χρόνος και προσπάθεια για να δημιουργηθεί κάτι νέο).
+
+# Αποτελεσματική Επικοινωνία
+
+### Οι Ευθύνες σας ως Επικοινωνητής
+Όταν επικοινωνείτε, είναι δική σας δουλειά να βεβαιωθείτε ότι οι δέκτες σας λαμβάνουν τις πληροφορίες που θέλετε να λάβουν. Όταν επικοινωνείτε δεδομένα, δεν θέλετε απλώς οι δέκτες σας να λαμβάνουν αριθμούς, θέλετε να λαμβάνουν μια ιστορία που βασίζεται στα δεδομένα σας. Ένας καλός επικοινωνητής δεδομένων είναι ένας καλός αφηγητής.
+
+Πώς λέτε μια ιστορία με δεδομένα; Υπάρχουν άπειροι τρόποι – αλλά παρακάτω είναι 6 που θα συζητήσουμε σε αυτό το μάθημα.
+1. Κατανοήστε το Κοινό σας, το Μέσο σας και τη Μέθοδο Επικοινωνίας σας
+2. Ξεκινήστε με το Τέλος στο Μυαλό
+3. Προσεγγίστε το σαν μια Πραγματική Ιστορία
+4. Χρησιμοποιήστε Σημαντικές Λέξεις και Φράσεις
+5. Χρησιμοποιήστε Συναίσθημα
+
+Κάθε μία από αυτές τις στρατηγικές εξηγείται με περισσότερες λεπτομέρειες παρακάτω.
+
+### 1. Κατανοήστε το Κοινό σας, το Κανάλι σας και τη Μέθοδο Επικοινωνίας σας
+Ο τρόπος που επικοινωνείτε με μέλη της οικογένειας είναι πιθανό να διαφέρει από τον τρόπο που επικοινωνείτε με τους φίλους σας. Πιθανότατα χρησιμοποιείτε διαφορετικές λέξεις και φράσεις που είναι πιο πιθανό να κατανοήσουν οι άνθρωποι με τους οποίους μιλάτε. Θα πρέπει να ακολουθήσετε την ίδια προσέγγιση όταν επικοινωνείτε δεδομένα. Σκεφτείτε σε ποιον επικοινωνείτε. Σκεφτείτε τους στόχους τους και το πλαίσιο που έχουν γύρω από την κατάσταση που τους εξηγείτε.
+
+Μπορείτε πιθανότατα να ομαδοποιήσετε το μεγαλύτερο μέρος του κοινού σας σε μια κατηγορία. Σε ένα άρθρο του _Harvard Business Review_, “[Πώς να Πείτε μια Ιστορία με Δεδομένα](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/),” ο Στρατηγικός της Dell, Jim Stikeleather, προσδιορίζει πέντε κατηγορίες κοινού.
+
+ - **Αρχάριος**: πρώτη επαφή με το θέμα, αλλά δεν θέλει υπεραπλούστευση
+ - **Γενικός**: έχει επίγνωση του θέματος, αλλά αναζητά μια επισκόπηση και
+ κύρια θέματα
+ - **Διευθυντικός**: σε βάθος, εφαρμόσιμη κατανόηση των λεπτομερειών και
+ των αλληλεπιδράσεων με πρόσβαση σε λεπτομέρειες
+ - **Ειδικός**: περισσότερη εξερεύνηση και ανακάλυψη και λιγότερη αφήγηση με
+ μεγάλη λεπτομέρεια
+ - **Διευθυντικό Στέλεχος**: έχει χρόνο μόνο για να κατανοήσει τη σημασία και
+ τα συμπεράσματα των πιθανών αποτελεσμάτων
+
+Αυτές οι κατηγορίες μπορούν να καθοδηγήσουν τον τρόπο που παρουσιάζετε δεδομένα στο κοινό σας.
+
+Εκτός από το να σκέφτεστε την κατηγορία του κοινού σας, θα πρέπει επίσης να λάβετε υπόψη το κανάλι που χρησιμοποιείτε για να επικοινωνήσετε με το κοινό σας. Η προσέγγισή σας θα πρέπει να είναι ελαφρώς διαφορετική αν γράφετε ένα σημείωμα ή email σε σχέση με το να έχετε μια συνάντηση ή να παρουσιάζετε σε ένα συνέδριο.
+
+Πέρα από την κατανόηση του κοινού σας, είναι επίσης κρίσιμο να γνωρίζετε πώς θα επικοινωνήσετε μαζί τους (χρησιμοποιώντας μονομερή επικοινωνία ή διμερή).
+
+Αν επικοινωνείτε με ένα κυρίως Αρχάριο κοινό και χρησιμοποιείτε μονομερή επικοινωνία, πρέπει πρώτα να εκπαιδεύσετε το κοινό και να του δώσετε το κατάλληλο πλαίσιο. Στη συνέχεια, πρέπει να τους παρουσιάσετε τα δεδομένα σας και να τους πείτε τι σημαίνουν και γιατί έχουν σημασία. Σε αυτή την περίπτωση, ίσως θέλετε να εστιάσετε έντονα στη σαφήνεια, επειδή το κοινό σας δεν θα μπορεί να σας κάνει άμεσες ερωτήσεις.
+
+Αν επικοινωνείτε με ένα κυρίως Διευθυντικό κοινό και χρησιμοποιείτε διμερή επικοινωνία, πιθανότατα δεν θα χρειαστεί να εκπαιδεύσετε το κοινό σας ή να του παρέχετε πολύ πλαίσιο. Ίσως μπορείτε να περάσετε κατευθείαν στη συζήτηση των δεδομένων που έχετε συλλέξει και γιατί έχουν σημασία. Σε αυτό το σενάριο, όμως, θα πρέπει να εστιάσετε στο χρονοδιάγραμμα και στον έλεγχο της παρουσίασής σας. Όταν χρησιμοποιείτε διμερή επικοινωνία (ειδικά με ένα Διευθυντικό κοινό που αναζητά μια "εφαρμόσιμη κατανόηση των λεπτομερειών και των αλληλεπιδράσεων με πρόσβαση σε λεπτομέρειες") μπορεί να προκύψουν ερωτήσεις κατά τη διάρκεια της αλληλεπίδρασής σας που μπορεί να οδηγήσουν τη συζήτηση σε μια κατεύθυνση που δεν σχετίζεται με την ιστορία που προσπαθείτε να πείτε. Όταν συμβεί αυτό, μπορείτε να δράσετε και να επαναφέρετε τη συζήτηση στην ιστορία σας.
+
+### 2. Ξεκινήστε με το Τέλος στο Μυαλό
+Το να ξεκινάτε με το τέλος στο μυαλό σημαίνει να κατανοείτε τα επιθυμητά συμπεράσματα για το κοινό σας πριν αρχίσετε να επικοινωνείτε μαζί τους. Το να είστε προσεκτικοί σχετικά με το τι θέλετε το κοινό σας να αποκομίσει εκ των προτέρων μπορεί να σας βοηθήσει να δημιουργήσετε μια ιστορία που μπορεί να ακολουθήσει το κοινό σας. Το να ξεκινάτε με το τέλος στο μυαλό είναι κατάλληλο τόσο για μονομερή όσο και για διμερή επικοινωνία.
+
+Πώς ξεκινάτε με το τέλος στο μυαλό; Πριν επικοινωνήσετε τα δεδομένα σας, γράψτε τα βασικά σας συμπεράσματα. Στη συνέχεια, κάθε βήμα της διαδικασίας καθώς προετοιμάζετε την ιστορία που θέλετε να πείτε με τα δεδομένα σας, ρωτήστε τον εαυτό σας, "Πώς ενσωματώνεται αυτό στην ιστορία που λέω;"
+
+Να είστε προσεκτικοί – ενώ το να ξεκινάτε με το τέλος στο μυαλό είναι ιδανικό, δεν θέλετε να επικοινωνείτε μόνο τα δεδομένα που υποστηρίζουν τα επιθυμητά σας συμπεράσματα. Αυτό ονομάζεται Επιλεκτική Παρουσίαση, η οποία συμβαίνει όταν ένας επικοινωνητής επικοινωνεί μόνο δεδομένα που υποστηρίζουν το σημείο που προσπαθεί να κάνει και αγνοεί όλα τα άλλα δεδομένα.
+
+Αν όλα τα δεδομένα που συλλέξατε υποστηρίζουν σαφώς τα επιθυμητά σας συμπεράσματα, εξαιρετικά. Αλλά αν υπάρχουν δεδομένα που συλλέξατε που δεν υποστηρίζουν τα συμπεράσματά σας ή ακόμα και υποστηρίζουν ένα επιχείρημα ενάντια στα βασικά σας συμπεράσματα, θα πρέπει να επικοινωνήσετε αυτά τα δεδομένα επίσης. Αν συμβεί αυτό, να είστε ειλικρινείς με το κοινό σας και να τους ενημερώσετε γιατί επιλέγετε να παραμείνετε στην ιστορία σας, παρόλο που όλα τα δεδομένα δεν την υποστηρίζουν απαραίτητα.
+
+### 3. Προσεγγίστε το σαν μια Πραγματική Ιστορία
+Μια παραδοσιακή ιστορία συμβαίνει σε 5 Φάσεις. Μπορεί να έχετε ακούσει αυτές τις φάσεις να εκφράζονται ως Εισαγωγή, Αύξηση Δράσης, Κορύφωση, Πτώση Δράσης και Επίλυση. Ή πιο εύκολα να θυμάστε: Πλαίσιο, Σύγκρουση, Κορύφωση, Κλείσιμο, Συμπέρασμα. Όταν επικοινωνείτε τα δεδομένα σας και την ιστορία σας, μπορείτε να ακολουθήσετε μια παρόμοια προσέγγιση.
+
+Μπορείτε να ξεκινήσετε με το πλαίσιο, να θέσετε τη σκηνή και να βεβαιωθείτε ότι το κοινό σας είναι στην ίδια σελίδα. Στη συνέχεια, εισάγετε τη σύγκρουση. Γιατί χρειάστηκε να συλλέξετε αυτά τα δεδομένα; Ποια προβλήματα προσπαθούσατε να λύσετε; Μετά από αυτό, η κορύφωση. Ποια είναι τα δεδομένα; Τι σημαίνουν τα δεδομένα; Ποιες λύσεις μας λένε τα δεδομένα ότι χρειαζόμαστε; Στη συνέχεια, φτάνετε στο κλείσιμο, όπου μπορείτε να επαναλάβετε το πρόβλημα και τις προτεινόμενες λύσεις. Τέλος, φτάνουμε στο συμπέρασμα, όπου μπορείτε να συνοψίσετε τα βασικά σας συμπεράσματα και τα επόμενα βήματα που προτείνετε να πάρει η ομάδα.
+
+### 4. Χρησιμοποιήστε Σημαντικές Λέξεις και Φράσεις
+Αν συνεργαζόμασταν σε ένα προϊόν και σας έλεγα "Οι χρήστες μας χρειάζονται πολύ χρόνο για να εγγραφούν στην πλατφόρμα μας," πόσο χρόνο θα εκτιμούσατε ότι είναι αυτός ο "πολύς χρόνος"; Μια ώρα; Μια εβδομάδα; Είναι δύσκολο να γνωρίζετε. Τι θα γινόταν αν το έλεγα σε ολόκληρο το κοινό; Ο καθένας στο κοινό μπορεί να καταλήξει σε διαφορετική ιδέα για το πόσο χρόνο χρειάζονται οι χρήστες για να εγγραφούν στην πλατφόρμα μας.
+
+Αντίθετα, τι θα γινόταν αν έλεγα "Οι χρήστες μας χρειάζονται, κατά μέσο όρο, 3 λεπτά για να εγγραφούν και να εγγραφούν στην πλατφόρμα μας."
+
+Αυτό το μήνυμα είναι πιο σαφές. Όταν επικοινωνείτε δεδομένα, μπορεί να είναι εύκολο να σκεφτείτε ότι όλοι στο κοινό σας σκέφτονται όπως εσείς. Αλλά αυτό δεν συμβαίνει πάντα. Η σαφήνεια γύρω από τα δεδομένα σας και τι σημαίνουν είναι μία από τις ευθύνες σας ως επικοινωνητής. Αν τα δεδομένα ή η ιστορία σας δεν είναι σαφή, το κοινό σας θα δυσκολευτεί να ακολουθήσει και είναι λιγότερο πιθανό να κατανοήσει τα βασικά σας συμπεράσματα.
+
+Μπορείτε να επικοινωνήσετε δεδομένα πιο καθαρά όταν χρησιμοποιείτε σημαντικές λέξεις και φράσεις, αντί για ασαφείς. Παρακάτω είναι μερικά παραδείγματα.
+
+ - Είχαμε μια *εντυπωσιακή* χρονιά!
+ - Ένα άτομο μπορεί να σκεφτεί ότι εντυπωσιακό σημαίνει αύξηση 2% - 3% στα έσοδα, και ένα άλλο άτομο μπορεί να σκεφτεί ότι σημαίνει αύξηση 50% - 60%.
+ - Τα ποσοστά επιτυχίας των χρηστών μας αυξήθηκαν *δραματικά*.
+ - Πόσο μεγάλη είναι μια δραματική αύξηση;
+ - Αυτή η προσπάθεια θα απαιτήσει *σημαντική* προσπάθεια.
+ - Πόση προσπάθεια είναι σημαντική;
+
+Η χρήση ασαφών λέξεων μπορεί να είναι χρήσιμη ως εισαγωγή σε περισσότερα δεδομένα που έρχονται ή ως σύνοψη της ιστορίας που μόλις είπατε. Αλλά σκεφτείτε να βεβαιωθείτε ότι κάθε μέρος της παρουσίασής σας είναι σαφές για το κοινό σας.
+
+### 5. Χρησιμοποιήστε Συναίσθημα
+Το συναίσθημα είναι κλειδί στην αφήγηση. Είναι ακόμα πιο σημαντικό όταν λέτε μια ιστορία με δεδομένα. Όταν επικοινωνείτε δεδομένα, όλα επικεντρώνονται στα συμπεράσματα που θέλετε να έχει το κοινό σας. Όταν προκαλείτε ένα συναίσθημα στο κοινό, το βοηθά να ταυτιστεί και το κάνει πιο πιθανό να δράσει. Το συναίσθημα επίσης αυξάνει την πιθανότητα το κοινό να θυμάται το μήνυμά σας.
+
+Ίσως το έχετε συναντήσει αυτό πριν με τηλεοπτικές διαφημίσεις. Ορισμένες διαφημίσεις είναι πολύ σοβαρές και χρησιμοποιούν ένα λυπηρό συναίσθημα για να συνδεθούν με το κοινό τους και να κάνουν τα
+Στη συνάντηση, ο Emerson αφιερώνει 5 λεπτά εξηγώντας γιατί η χαμηλή βαθμολογία στο κατάστημα εφαρμογών είναι κακή, 10 λεπτά εξηγώντας τη διαδικασία έρευνας και πώς εντοπίστηκαν οι τάσεις, 10 λεπτά εξετάζοντας ορισμένα από τα πρόσφατα παράπονα πελατών και τα τελευταία 5 λεπτά αναφέροντας επιφανειακά τις 2 πιθανές λύσεις.
+
+Ήταν αυτός ένας αποτελεσματικός τρόπος για τον Emerson να επικοινωνήσει κατά τη διάρκεια αυτής της συνάντησης;
+
+Κατά τη διάρκεια της συνάντησης, ένας επικεφαλής της εταιρείας επικεντρώθηκε στα 10 λεπτά των παραπόνων πελατών που παρουσίασε ο Emerson. Μετά τη συνάντηση, αυτά τα παράπονα ήταν το μόνο πράγμα που θυμόταν αυτός ο επικεφαλής της ομάδας. Ένας άλλος επικεφαλής της εταιρείας επικεντρώθηκε κυρίως στην περιγραφή της διαδικασίας έρευνας από τον Emerson. Ο τρίτος επικεφαλής της εταιρείας θυμόταν τις λύσεις που πρότεινε ο Emerson, αλλά δεν ήταν σίγουρος πώς αυτές οι λύσεις θα μπορούσαν να υλοποιηθούν.
+
+Στην παραπάνω κατάσταση, μπορείτε να δείτε ότι υπήρχε ένα σημαντικό χάσμα μεταξύ αυτού που ήθελε ο Emerson να μεταδώσει στους επικεφαλής της ομάδας και αυτού που τελικά αποκόμισαν από τη συνάντηση. Παρακάτω παρατίθεται μια άλλη προσέγγιση που θα μπορούσε να εξετάσει ο Emerson.
+
+Πώς θα μπορούσε ο Emerson να βελτιώσει αυτή την προσέγγιση;
+Πλαίσιο, Σύγκρουση, Κορύφωση, Κλείσιμο, Συμπέρασμα
+**Πλαίσιο** - Ο Emerson θα μπορούσε να αφιερώσει τα πρώτα 5 λεπτά για να εισαγάγει ολόκληρη την κατάσταση και να βεβαιωθεί ότι οι επικεφαλής της ομάδας κατανοούν πώς τα προβλήματα επηρεάζουν κρίσιμες μετρήσεις για την εταιρεία, όπως τα έσοδα.
+
+Θα μπορούσε να παρουσιαστεί ως εξής: "Αυτή τη στιγμή, η βαθμολογία της εφαρμογής μας στο κατάστημα εφαρμογών είναι 2.5. Οι βαθμολογίες στο κατάστημα εφαρμογών είναι κρίσιμες για τη Βελτιστοποίηση Καταστήματος Εφαρμογών, η οποία επηρεάζει πόσοι χρήστες βλέπουν την εφαρμογή μας στις αναζητήσεις και πώς η εφαρμογή μας εκλαμβάνεται από τους δυνητικούς χρήστες. Και φυσικά, ο αριθμός των χρηστών που έχουμε συνδέεται άμεσα με τα έσοδα."
+
+**Σύγκρουση** Ο Emerson θα μπορούσε στη συνέχεια να μιλήσει για τα επόμενα 5 λεπτά σχετικά με τη σύγκρουση.
+
+Θα μπορούσε να παρουσιαστεί ως εξής: "Οι χρήστες υποβάλλουν 42% περισσότερα παράπονα και αναφορές σφαλμάτων τα Σαββατοκύριακα. Οι πελάτες που υποβάλλουν ένα παράπονο που μένει αναπάντητο για πάνω από 48 ώρες είναι 32% λιγότερο πιθανό να δώσουν στην εφαρμογή μας βαθμολογία πάνω από 2 στο κατάστημα εφαρμογών. Η βελτίωση της βαθμολογίας της εφαρμογής μας στο κατάστημα εφαρμογών σε 4 θα βελτίωνε την ορατότητά μας κατά 20-30%, κάτι που προβλέπω ότι θα αύξανε τα έσοδα κατά 10%." Φυσικά, ο Emerson θα πρέπει να είναι έτοιμος να δικαιολογήσει αυτούς τους αριθμούς.
+
+**Κορύφωση** Αφού θέσει τα θεμέλια, ο Emerson θα μπορούσε στη συνέχεια να προχωρήσει στην Κορύφωση για περίπου 5 λεπτά.
+
+Ο Emerson θα μπορούσε να παρουσιάσει τις προτεινόμενες λύσεις, να εξηγήσει πώς αυτές οι λύσεις θα αντιμετωπίσουν τα προβλήματα που περιγράφηκαν, πώς αυτές οι λύσεις θα μπορούσαν να ενσωματωθούν στις υπάρχουσες ροές εργασίας, πόσο κοστίζουν οι λύσεις, ποια θα ήταν η απόδοση της επένδυσης (ROI) των λύσεων και ίσως να δείξει μερικά στιγμιότυπα οθόνης ή wireframes για το πώς θα φαίνονταν οι λύσεις αν υλοποιούνταν. Ο Emerson θα μπορούσε επίσης να μοιραστεί μαρτυρίες από χρήστες που χρειάστηκαν πάνω από 48 ώρες για να λάβουν απάντηση στο παράπονό τους, καθώς και μια μαρτυρία από έναν τρέχοντα εκπρόσωπο εξυπηρέτησης πελατών της εταιρείας που έχει σχόλια για το τρέχον σύστημα διαχείρισης αιτημάτων.
+
+**Κλείσιμο** Τώρα ο Emerson μπορεί να αφιερώσει 5 λεπτά επαναλαμβάνοντας τα προβλήματα που αντιμετωπίζει η εταιρεία, να επανεξετάσει τις προτεινόμενες λύσεις και να ανακεφαλαιώσει γιατί αυτές οι λύσεις είναι οι κατάλληλες.
+
+**Συμπέρασμα** Επειδή πρόκειται για μια συνάντηση με λίγους ενδιαφερόμενους όπου θα χρησιμοποιηθεί αμφίδρομη επικοινωνία, ο Emerson θα μπορούσε στη συνέχεια να σχεδιάσει να αφήσει 10 λεπτά για ερωτήσεις, ώστε να βεβαιωθεί ότι οτιδήποτε ήταν ασαφές για τους επικεφαλής της ομάδας μπορεί να διευκρινιστεί πριν τελειώσει η συνάντηση.
+
+Αν ο Emerson ακολουθούσε την προσέγγιση #2, είναι πολύ πιο πιθανό οι επικεφαλής της ομάδας να αποκομίσουν από τη συνάντηση ακριβώς αυτό που ο Emerson ήθελε να μεταδώσει – ότι ο τρόπος με τον οποίο αντιμετωπίζονται τα παράπονα και τα σφάλματα θα μπορούσε να βελτιωθεί και ότι υπάρχουν 2 λύσεις που θα μπορούσαν να εφαρμοστούν για να γίνει αυτή η βελτίωση πραγματικότητα.
+
+# Συμπέρασμα
+### Περίληψη βασικών σημείων
+- Η επικοινωνία είναι η μετάδοση ή ανταλλαγή πληροφοριών.
+- Όταν επικοινωνείτε δεδομένα, ο στόχος σας δεν πρέπει να είναι απλώς να μεταφέρετε αριθμούς στο κοινό σας. Ο στόχος σας πρέπει να είναι να επικοινωνήσετε μια ιστορία που βασίζεται στα δεδομένα σας.
+- Υπάρχουν 2 τύποι επικοινωνίας, Μονόδρομη Επικοινωνία (οι πληροφορίες μεταδίδονται χωρίς πρόθεση απάντησης) και Αμφίδρομη Επικοινωνία (οι πληροφορίες μεταδίδονται αμφίδρομα).
+- Υπάρχουν πολλές στρατηγικές που μπορείτε να χρησιμοποιήσετε για να αφηγηθείτε μια ιστορία με τα δεδομένα σας. Οι 5 στρατηγικές που εξετάσαμε είναι:
+ - Κατανοήστε το Κοινό σας, το Μέσο σας και τη Μέθοδο Επικοινωνίας σας
+ - Ξεκινήστε με το Τέλος στο Μυαλό
+ - Προσεγγίστε το σαν μια Πραγματική Ιστορία
+ - Χρησιμοποιήστε Σημαντικές Λέξεις και Φράσεις
+ - Χρησιμοποιήστε Συναίσθημα
+
+### Προτεινόμενοι Πόροι για Αυτοδιδασκαλία
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Κουίζ μετά τη Διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Αναθεωρήστε όσα μόλις μάθατε με το Κουίζ μετά τη Διάλεξη παραπάνω!
+
+## Εργασία
+
+[Έρευνα Αγοράς](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/el/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..59ae671f
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Πείτε μια ιστορία
+
+## Οδηγίες
+
+Η Επιστήμη Δεδομένων αφορά την αφήγηση ιστοριών. Επιλέξτε οποιοδήποτε σύνολο δεδομένων και γράψτε ένα σύντομο κείμενο για μια ιστορία που θα μπορούσατε να διηγηθείτε με βάση αυτό. Τι ελπίζετε ότι μπορεί να αποκαλύψει το σύνολο δεδομένων σας; Τι θα κάνετε αν οι αποκαλύψεις του αποδειχθούν προβληματικές; Τι θα συμβεί αν τα δεδομένα σας δεν αποκαλύπτουν εύκολα τα μυστικά τους; Σκεφτείτε τα σενάρια που μπορεί να παρουσιάσει το σύνολο δεδομένων σας και καταγράψτε τα.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+
+Παρουσιάζεται ένα δοκίμιο μιας σελίδας σε μορφή .doc, όπου το σύνολο δεδομένων εξηγείται, τεκμηριώνεται, αποδίδεται και παρουσιάζεται μια συνεκτική ιστορία με λεπτομερή παραδείγματα από τα δεδομένα.| Παρουσιάζεται ένα συντομότερο δοκίμιο σε λιγότερο λεπτομερή μορφή | Το δοκίμιο υστερεί σε κάποιο από τα παραπάνω στοιχεία.
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/4-Data-Science-Lifecycle/README.md b/translations/el/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..8f84f9ad
--- /dev/null
+++ b/translations/el/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Ο Κύκλος Ζωής της Επιστήμης Δεδομένων
+
+
+> Φωτογραφία από Headway στο Unsplash
+
+Σε αυτά τα μαθήματα, θα εξερευνήσετε ορισμένες πτυχές του κύκλου ζωής της Επιστήμης Δεδομένων, συμπεριλαμβανομένης της ανάλυσης και της επικοινωνίας γύρω από τα δεδομένα.
+
+### Θέματα
+
+1. [Εισαγωγή](14-Introduction/README.md)
+2. [Ανάλυση](15-analyzing/README.md)
+3. [Επικοινωνία](16-communication/README.md)
+
+### Συντελεστές
+
+Αυτά τα μαθήματα γράφτηκαν με ❤️ από τον [Jalen McGee](https://twitter.com/JalenMCG) και την [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/el/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..03628be0
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# Εισαγωγή στην Επιστήμη Δεδομένων στο Cloud
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Επιστήμη Δεδομένων στο Cloud: Εισαγωγή - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+
+Σε αυτό το μάθημα, θα μάθετε τις βασικές αρχές του Cloud, θα δείτε γιατί μπορεί να είναι ενδιαφέρον να χρησιμοποιήσετε υπηρεσίες Cloud για να εκτελέσετε τα έργα επιστήμης δεδομένων σας και θα εξετάσουμε μερικά παραδείγματα έργων επιστήμης δεδομένων που εκτελούνται στο Cloud.
+
+## [Προ-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Τι είναι το Cloud;
+
+Το Cloud, ή Υπολογιστική στο Cloud, είναι η παροχή μιας ευρείας γκάμας υπηρεσιών υπολογιστικής με πληρωμή ανά χρήση, που φιλοξενούνται σε μια υποδομή μέσω του διαδικτύου. Οι υπηρεσίες περιλαμβάνουν λύσεις όπως αποθήκευση, βάσεις δεδομένων, δικτύωση, λογισμικό, αναλυτικά δεδομένα και έξυπνες υπηρεσίες.
+
+Συνήθως διακρίνουμε το Δημόσιο, Ιδιωτικό και Υβριδικό Cloud ως εξής:
+
+* Δημόσιο Cloud: ένα δημόσιο Cloud ανήκει και λειτουργεί από έναν τρίτο πάροχο υπηρεσιών Cloud, ο οποίος παρέχει τους πόρους υπολογιστικής του μέσω του διαδικτύου στο κοινό.
+* Ιδιωτικό Cloud: αναφέρεται σε πόρους υπολογιστικής στο Cloud που χρησιμοποιούνται αποκλειστικά από μια επιχείρηση ή οργανισμό, με υπηρεσίες και υποδομή που διατηρούνται σε ιδιωτικό δίκτυο.
+* Υβριδικό Cloud: το υβριδικό Cloud είναι ένα σύστημα που συνδυάζει δημόσια και ιδιωτικά Clouds. Οι χρήστες επιλέγουν ένα κέντρο δεδομένων στις εγκαταστάσεις τους, ενώ επιτρέπουν στα δεδομένα και τις εφαρμογές να εκτελούνται σε ένα ή περισσότερα δημόσια Clouds.
+
+Οι περισσότερες υπηρεσίες υπολογιστικής στο Cloud εμπίπτουν σε τρεις κατηγορίες: Υποδομή ως Υπηρεσία (IaaS), Πλατφόρμα ως Υπηρεσία (PaaS) και Λογισμικό ως Υπηρεσία (SaaS).
+
+* Υποδομή ως Υπηρεσία (IaaS): οι χρήστες νοικιάζουν μια υποδομή IT όπως διακομιστές και εικονικές μηχανές (VMs), αποθήκευση, δίκτυα, λειτουργικά συστήματα.
+* Πλατφόρμα ως Υπηρεσία (PaaS): οι χρήστες νοικιάζουν ένα περιβάλλον για ανάπτυξη, δοκιμή, παράδοση και διαχείριση εφαρμογών λογισμικού. Οι χρήστες δεν χρειάζεται να ανησυχούν για τη ρύθμιση ή τη διαχείριση της υποδομής που απαιτείται για την ανάπτυξη.
+* Λογισμικό ως Υπηρεσία (SaaS): οι χρήστες αποκτούν πρόσβαση σε εφαρμογές λογισμικού μέσω του διαδικτύου, κατά παραγγελία και συνήθως με βάση συνδρομή. Οι χρήστες δεν χρειάζεται να ανησυχούν για τη φιλοξενία και τη διαχείριση της εφαρμογής λογισμικού, της υποδομής ή της συντήρησης, όπως αναβαθμίσεις λογισμικού και επιδιορθώσεις ασφαλείας.
+
+Μερικοί από τους μεγαλύτερους παρόχους Cloud είναι το Amazon Web Services, το Google Cloud Platform και το Microsoft Azure.
+
+## Γιατί να επιλέξετε το Cloud για Επιστήμη Δεδομένων;
+
+Οι προγραμματιστές και οι επαγγελματίες IT επιλέγουν να δουλέψουν με το Cloud για πολλούς λόγους, όπως οι εξής:
+
+* Καινοτομία: μπορείτε να ενισχύσετε τις εφαρμογές σας ενσωματώνοντας καινοτόμες υπηρεσίες που δημιουργούνται από τους παρόχους Cloud απευθείας στις εφαρμογές σας.
+* Ευελιξία: πληρώνετε μόνο για τις υπηρεσίες που χρειάζεστε και μπορείτε να επιλέξετε από μια ευρεία γκάμα υπηρεσιών. Συνήθως πληρώνετε ανάλογα με τη χρήση και προσαρμόζετε τις υπηρεσίες σας σύμφωνα με τις εξελισσόμενες ανάγκες σας.
+* Προϋπολογισμός: δεν χρειάζεται να κάνετε αρχικές επενδύσεις για την αγορά υλικού και λογισμικού, τη ρύθμιση και τη λειτουργία κέντρων δεδομένων στις εγκαταστάσεις σας, και μπορείτε απλά να πληρώνετε για ό,τι χρησιμοποιείτε.
+* Κλιμάκωση: οι πόροι σας μπορούν να κλιμακωθούν ανάλογα με τις ανάγκες του έργου σας, πράγμα που σημαίνει ότι οι εφαρμογές σας μπορούν να χρησιμοποιούν περισσότερη ή λιγότερη υπολογιστική ισχύ, αποθήκευση και εύρος ζώνης, προσαρμοζόμενες σε εξωτερικούς παράγοντες οποιαδήποτε στιγμή.
+* Παραγωγικότητα: μπορείτε να εστιάσετε στην επιχείρησή σας αντί να ξοδεύετε χρόνο σε εργασίες που μπορούν να διαχειριστούν άλλοι, όπως η διαχείριση κέντρων δεδομένων.
+* Αξιοπιστία: η Υπολογιστική στο Cloud προσφέρει διάφορους τρόπους για συνεχή δημιουργία αντιγράφων ασφαλείας των δεδομένων σας και μπορείτε να δημιουργήσετε σχέδια ανάκαμψης από καταστροφές για να διατηρήσετε την επιχείρηση και τις υπηρεσίες σας σε λειτουργία, ακόμα και σε περιόδους κρίσης.
+* Ασφάλεια: μπορείτε να επωφεληθείτε από πολιτικές, τεχνολογίες και ελέγχους που ενισχύουν την ασφάλεια του έργου σας.
+
+Αυτοί είναι μερικοί από τους πιο συνηθισμένους λόγους για τους οποίους οι άνθρωποι επιλέγουν να χρησιμοποιούν υπηρεσίες Cloud. Τώρα που έχουμε μια καλύτερη κατανόηση του τι είναι το Cloud και ποια είναι τα κύρια οφέλη του, ας δούμε πιο συγκεκριμένα τις δουλειές των επιστημόνων δεδομένων και των προγραμματιστών που εργάζονται με δεδομένα, και πώς το Cloud μπορεί να τους βοηθήσει με διάφορες προκλήσεις που μπορεί να αντιμετωπίσουν:
+
+* Αποθήκευση μεγάλων ποσοτήτων δεδομένων: αντί να αγοράζετε, να διαχειρίζεστε και να προστατεύετε μεγάλους διακομιστές, μπορείτε να αποθηκεύετε τα δεδομένα σας απευθείας στο Cloud, με λύσεις όπως το Azure Cosmos DB, το Azure SQL Database και το Azure Data Lake Storage.
+* Ενσωμάτωση δεδομένων: η ενσωμάτωση δεδομένων είναι ένα βασικό μέρος της Επιστήμης Δεδομένων, που σας επιτρέπει να κάνετε τη μετάβαση από τη συλλογή δεδομένων στη λήψη δράσεων. Με τις υπηρεσίες ενσωμάτωσης δεδομένων που προσφέρονται στο Cloud, μπορείτε να συλλέγετε, να μετασχηματίζετε και να ενσωματώνετε δεδομένα από διάφορες πηγές σε μια ενιαία αποθήκη δεδομένων, με το Data Factory.
+* Επεξεργασία δεδομένων: η επεξεργασία μεγάλων ποσοτήτων δεδομένων απαιτεί πολλή υπολογιστική ισχύ, και δεν έχουν όλοι πρόσβαση σε μηχανές αρκετά ισχυρές για αυτό, γι' αυτό πολλοί επιλέγουν να αξιοποιήσουν απευθείας την τεράστια υπολογιστική ισχύ του Cloud για να εκτελέσουν και να αναπτύξουν τις λύσεις τους.
+* Χρήση υπηρεσιών ανάλυσης δεδομένων: υπηρεσίες Cloud όπως το Azure Synapse Analytics, το Azure Stream Analytics και το Azure Databricks σας βοηθούν να μετατρέψετε τα δεδομένα σας σε χρήσιμες πληροφορίες.
+* Χρήση υπηρεσιών Μηχανικής Μάθησης και ευφυΐας δεδομένων: αντί να ξεκινήσετε από το μηδέν, μπορείτε να χρησιμοποιήσετε αλγόριθμους μηχανικής μάθησης που προσφέρονται από τον πάροχο Cloud, με υπηρεσίες όπως το AzureML. Μπορείτε επίσης να χρησιμοποιήσετε γνωστικές υπηρεσίες όπως μετατροπή ομιλίας σε κείμενο, κείμενο σε ομιλία, υπολογιστική όραση και άλλα.
+
+## Παραδείγματα Επιστήμης Δεδομένων στο Cloud
+
+Ας κάνουμε αυτό πιο απτό εξετάζοντας μερικά σενάρια.
+
+### Ανάλυση συναισθημάτων στα μέσα κοινωνικής δικτύωσης σε πραγματικό χρόνο
+Θα ξεκινήσουμε με ένα σενάριο που μελετάται συχνά από άτομα που ξεκινούν με τη μηχανική μάθηση: ανάλυση συναισθημάτων στα μέσα κοινωνικής δικτύωσης σε πραγματικό χρόνο.
+
+Ας πούμε ότι διαχειρίζεστε έναν ιστότοπο ειδήσεων και θέλετε να αξιοποιήσετε ζωντανά δεδομένα για να κατανοήσετε ποιο περιεχόμενο θα μπορούσε να ενδιαφέρει τους αναγνώστες σας. Για να μάθετε περισσότερα σχετικά με αυτό, μπορείτε να δημιουργήσετε ένα πρόγραμμα που εκτελεί ανάλυση συναισθημάτων σε πραγματικό χρόνο για δεδομένα από δημοσιεύσεις στο Twitter, σε θέματα που είναι σχετικά με τους αναγνώστες σας.
+
+Οι βασικοί δείκτες που θα εξετάσετε είναι ο όγκος των tweets σε συγκεκριμένα θέματα (hashtags) και τα συναισθήματα, που καθορίζονται χρησιμοποιώντας εργαλεία ανάλυσης που εκτελούν ανάλυση συναισθημάτων γύρω από τα καθορισμένα θέματα.
+
+Τα βήματα που απαιτούνται για τη δημιουργία αυτού του έργου είναι τα εξής:
+
+* Δημιουργία ενός κέντρου συμβάντων για τη συλλογή δεδομένων από το Twitter
+* Ρύθμιση και εκκίνηση μιας εφαρμογής πελάτη Twitter, η οποία θα καλεί τα APIs ροής του Twitter
+* Δημιουργία μιας εργασίας Stream Analytics
+* Καθορισμός της εισόδου και του ερωτήματος της εργασίας
+* Δημιουργία ενός σημείου εξόδου και καθορισμός της εξόδου της εργασίας
+* Εκκίνηση της εργασίας
+
+Για να δείτε τη διαδικασία πλήρως, επισκεφθείτε την [τεκμηρίωση](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Ανάλυση επιστημονικών άρθρων
+Ας πάρουμε ένα άλλο παράδειγμα ενός έργου που δημιουργήθηκε από τον [Dmitry Soshnikov](http://soshnikov.com), έναν από τους συγγραφείς αυτού του προγράμματος σπουδών.
+
+Ο Dmitry δημιούργησε ένα εργαλείο που αναλύει άρθρα σχετικά με τον COVID. Εξετάζοντας αυτό το έργο, θα δείτε πώς μπορείτε να δημιουργήσετε ένα εργαλείο που εξάγει γνώση από επιστημονικά άρθρα, αποκτά πληροφορίες και βοηθά τους ερευνητές να περιηγηθούν σε μεγάλες συλλογές άρθρων με αποτελεσματικό τρόπο.
+
+Ας δούμε τα διάφορα βήματα που χρησιμοποιήθηκαν για αυτό:
+* Εξαγωγή και προεπεξεργασία πληροφοριών με [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* Χρήση του [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) για παράλληλη επεξεργασία
+* Αποθήκευση και ερώτηση πληροφοριών με [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* Δημιουργία ενός διαδραστικού πίνακα ελέγχου για εξερεύνηση και οπτικοποίηση δεδομένων χρησιμοποιώντας το Power BI
+
+Για να δείτε τη διαδικασία πλήρως, επισκεφθείτε το [blog του Dmitry](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Όπως βλέπετε, μπορούμε να αξιοποιήσουμε τις υπηρεσίες Cloud με πολλούς τρόπους για να εκτελέσουμε Επιστήμη Δεδομένων.
+
+## Υποσημείωση
+
+Πηγές:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Κουίζ Μετά τη Διάλεξη
+
+[Κουίζ μετά τη διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Εργασία
+
+[Έρευνα Αγοράς](assignment.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/el/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..7da3dc2d
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Έρευνα Αγοράς
+
+## Οδηγίες
+
+Σε αυτό το μάθημα μάθατε ότι υπάρχουν αρκετοί σημαντικοί πάροχοι cloud. Κάντε μια έρευνα αγοράς για να ανακαλύψετε τι μπορεί να προσφέρει ο καθένας στον Επιστήμονα Δεδομένων. Είναι οι προσφορές συγκρίσιμες; Γράψτε μια εργασία που να περιγράφει τις προσφορές τριών ή περισσότερων από αυτούς τους παρόχους cloud.
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Μια εργασία μιας σελίδας περιγράφει τις προσφορές τριών παρόχων cloud για την επιστήμη δεδομένων και τις διαφοροποιεί μεταξύ τους. | Παρουσιάζεται μια πιο σύντομη εργασία | Παρουσιάζεται μια εργασία χωρίς να ολοκληρωθεί η ανάλυση
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/el/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..7da1d9a3
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,337 @@
+
+# Επιστήμη Δεδομένων στο Cloud: Η μέθοδος "Low code/No code"
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Επιστήμη Δεδομένων στο Cloud: Low Code - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Πίνακας περιεχομένων:
+
+- [Επιστήμη Δεδομένων στο Cloud: Η μέθοδος "Low code/No code"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Κουίζ πριν το μάθημα](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Εισαγωγή](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Τι είναι το Azure Machine Learning;](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Το Πρόγραμμα Πρόβλεψης Καρδιακής Ανεπάρκειας:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Το Σύνολο Δεδομένων Καρδιακής Ανεπάρκειας:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Εκπαίδευση μοντέλου με Low code/No code στο Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Δημιουργία χώρου εργασίας Azure ML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Πόροι Υπολογισμού](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Επιλογή κατάλληλων επιλογών για τους πόρους υπολογισμού](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Δημιουργία υπολογιστικού cluster](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Φόρτωση του συνόλου δεδομένων](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Εκπαίδευση με Low code/No Code μέσω AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Ανάπτυξη μοντέλου με Low code/No Code και κατανάλωση endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Ανάπτυξη μοντέλου](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Κατανάλωση endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Πρόκληση](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Κουίζ μετά το μάθημα](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Ανασκόπηση & Αυτομελέτη](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Εργασία](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Κουίζ πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Εισαγωγή
+### 1.1 Τι είναι το Azure Machine Learning;
+
+Η πλατφόρμα Azure cloud περιλαμβάνει πάνω από 200 προϊόντα και υπηρεσίες cloud σχεδιασμένες για να σας βοηθήσουν να υλοποιήσετε νέες λύσεις. Οι επιστήμονες δεδομένων καταναλώνουν πολύ χρόνο εξερευνώντας και προεπεξεργάζοντας δεδομένα, δοκιμάζοντας διάφορους αλγόριθμους εκπαίδευσης μοντέλων για να παράγουν ακριβή μοντέλα. Αυτές οι εργασίες είναι χρονοβόρες και συχνά κάνουν αναποτελεσματική χρήση ακριβού υλικού υπολογισμού.
+
+Το [Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) είναι μια πλατφόρμα βασισμένη στο cloud για τη δημιουργία και λειτουργία λύσεων μηχανικής μάθησης στο Azure. Περιλαμβάνει μια ευρεία γκάμα χαρακτηριστικών και δυνατοτήτων που βοηθούν τους επιστήμονες δεδομένων να προετοιμάσουν δεδομένα, να εκπαιδεύσουν μοντέλα, να δημοσιεύσουν υπηρεσίες πρόβλεψης και να παρακολουθήσουν τη χρήση τους. Το πιο σημαντικό είναι ότι αυξάνει την αποτελεσματικότητά τους αυτοματοποιώντας πολλές από τις χρονοβόρες εργασίες που σχετίζονται με την εκπαίδευση μοντέλων και τους επιτρέπει να χρησιμοποιούν πόρους υπολογισμού βασισμένους στο cloud που κλιμακώνονται αποτελεσματικά, για να χειρίζονται μεγάλους όγκους δεδομένων με κόστος μόνο όταν χρησιμοποιούνται.
+
+Το Azure ML παρέχει όλα τα εργαλεία που χρειάζονται οι προγραμματιστές και οι επιστήμονες δεδομένων για τις ροές εργασίας μηχανικής μάθησης. Αυτά περιλαμβάνουν:
+
+- **Azure Machine Learning Studio**: μια διαδικτυακή πύλη στο Azure Machine Learning για επιλογές low-code και no-code για εκπαίδευση μοντέλων, ανάπτυξη, αυτοματοποίηση, παρακολούθηση και διαχείριση πόρων. Το studio ενσωματώνεται με το Azure Machine Learning SDK για μια απρόσκοπτη εμπειρία.
+- **Jupyter Notebooks**: γρήγορη πρωτοτυποποίηση και δοκιμή μοντέλων ML.
+- **Azure Machine Learning Designer**: επιτρέπει τη δημιουργία πειραμάτων με drag-n-drop και την ανάπτυξη pipelines σε περιβάλλον low-code.
+- **Αυτοματοποιημένο περιβάλλον μηχανικής μάθησης (AutoML)**: αυτοματοποιεί επαναληπτικές εργασίες ανάπτυξης μοντέλων μηχανικής μάθησης, επιτρέποντας τη δημιουργία μοντέλων ML με υψηλή κλίμακα, αποτελεσματικότητα και παραγωγικότητα, διατηρώντας παράλληλα την ποιότητα του μοντέλου.
+- **Επισήμανση δεδομένων**: ένα εργαλείο υποβοηθούμενης ML για αυτόματη επισήμανση δεδομένων.
+- **Επέκταση μηχανικής μάθησης για το Visual Studio Code**: παρέχει ένα πλήρες περιβάλλον ανάπτυξης για τη δημιουργία και διαχείριση έργων ML.
+- **CLI μηχανικής μάθησης**: παρέχει εντολές για τη διαχείριση πόρων Azure ML από τη γραμμή εντολών.
+- **Ενσωμάτωση με πλαίσια ανοιχτού κώδικα** όπως PyTorch, TensorFlow, Scikit-learn και πολλά άλλα για εκπαίδευση, ανάπτυξη και διαχείριση της διαδικασίας μηχανικής μάθησης από άκρο σε άκρο.
+- **MLflow**: μια βιβλιοθήκη ανοιχτού κώδικα για τη διαχείριση του κύκλου ζωής των πειραμάτων μηχανικής μάθησης. Το **MLFlow Tracking** είναι ένα στοιχείο του MLflow που καταγράφει και παρακολουθεί τις μετρήσεις εκτέλεσης εκπαίδευσης και τα αρχεία μοντέλων, ανεξάρτητα από το περιβάλλον του πειράματος.
+
+### 1.2 Το Πρόγραμμα Πρόβλεψης Καρδιακής Ανεπάρκειας:
+
+Δεν υπάρχει αμφιβολία ότι η δημιουργία και η ανάπτυξη προγραμμάτων είναι ο καλύτερος τρόπος για να δοκιμάσετε τις δεξιότητες και τις γνώσεις σας. Σε αυτό το μάθημα, θα εξερευνήσουμε δύο διαφορετικούς τρόπους δημιουργίας ενός προγράμματος επιστήμης δεδομένων για την πρόβλεψη καρδιακής ανεπάρκειας στο Azure ML Studio, μέσω Low code/No code και μέσω του Azure ML SDK, όπως φαίνεται στο παρακάτω σχήμα:
+
+
+
+Κάθε μέθοδος έχει τα δικά της πλεονεκτήματα και μειονεκτήματα. Η μέθοδος Low code/No code είναι ευκολότερη για να ξεκινήσετε, καθώς περιλαμβάνει αλληλεπίδραση με ένα GUI (Γραφικό Περιβάλλον Χρήστη), χωρίς να απαιτείται προηγούμενη γνώση κώδικα. Αυτή η μέθοδος επιτρέπει γρήγορη δοκιμή της βιωσιμότητας του προγράμματος και τη δημιουργία POC (Proof Of Concept). Ωστόσο, καθώς το πρόγραμμα μεγαλώνει και πρέπει να είναι έτοιμο για παραγωγή, δεν είναι εφικτό να δημιουργούνται πόροι μέσω GUI. Χρειάζεται να αυτοματοποιήσουμε προγραμματιστικά τα πάντα, από τη δημιουργία πόρων έως την ανάπτυξη ενός μοντέλου. Εδώ είναι που η γνώση του Azure ML SDK γίνεται κρίσιμη.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Εξειδίκευση στον κώδικα | Δεν απαιτείται | Απαιτείται |
+| Χρόνος ανάπτυξης | Γρήγορος και εύκολος | Εξαρτάται από την εξειδίκευση στον κώδικα |
+| Έτοιμο για παραγωγή | Όχι | Ναι |
+
+### 1.3 Το Σύνολο Δεδομένων Καρδιακής Ανεπάρκειας:
+
+Οι καρδιαγγειακές παθήσεις (CVDs) είναι η νούμερο 1 αιτία θανάτου παγκοσμίως, αντιπροσωπεύοντας το 31% όλων των θανάτων. Περιβαλλοντικοί και συμπεριφορικοί παράγοντες κινδύνου, όπως η χρήση καπνού, η ανθυγιεινή διατροφή και η παχυσαρκία, η σωματική αδράνεια και η επιβλαβής χρήση αλκοόλ, μπορούν να χρησιμοποιηθούν ως χαρακτηριστικά για μοντέλα εκτίμησης. Η δυνατότητα εκτίμησης της πιθανότητας ανάπτυξης CVD θα μπορούσε να είναι πολύ χρήσιμη για την πρόληψη επιθέσεων σε άτομα υψηλού κινδύνου.
+
+Το Kaggle έχει διαθέσει δημόσια ένα [σύνολο δεδομένων καρδιακής ανεπάρκειας](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data), το οποίο θα χρησιμοποιήσουμε για αυτό το πρόγραμμα. Μπορείτε να κατεβάσετε το σύνολο δεδομένων τώρα. Πρόκειται για ένα σύνολο δεδομένων σε μορφή πίνακα με 13 στήλες (12 χαρακτηριστικά και 1 μεταβλητή στόχου) και 299 γραμμές.
+
+| | Όνομα μεταβλητής | Τύπος | Περιγραφή | Παράδειγμα |
+|----|---------------------------|------------------|---------------------------------------------------------|-------------------|
+| 1 | age | αριθμητικός | ηλικία του ασθενούς | 25 |
+| 2 | anaemia | boolean | Μείωση ερυθρών αιμοσφαιρίων ή αιμοσφαιρίνης | 0 ή 1 |
+| 3 | creatinine_phosphokinase | αριθμητικός | Επίπεδο του ενζύμου CPK στο αίμα | 542 |
+| 4 | diabetes | boolean | Αν ο ασθενής έχει διαβήτη | 0 ή 1 |
+| 5 | ejection_fraction | αριθμητικός | Ποσοστό αίματος που φεύγει από την καρδιά σε κάθε συστολή | 45 |
+| 6 | high_blood_pressure | boolean | Αν ο ασθενής έχει υπέρταση | 0 ή 1 |
+| 7 | platelets | αριθμητικός | Αιμοπετάλια στο αίμα | 149000 |
+| 8 | serum_creatinine | αριθμητικός | Επίπεδο κρεατινίνης στον ορό του αίματος | 0.5 |
+| 9 | serum_sodium | αριθμητικός | Επίπεδο νατρίου στον ορό του αίματος | jun |
+| 10 | sex | boolean | γυναίκα ή άνδρας | 0 ή 1 |
+| 11 | smoking | boolean | Αν ο ασθενής καπνίζει | 0 ή 1 |
+| 12 | time | αριθμητικός | περίοδος παρακολούθησης (ημέρες) | 4 |
+|----|---------------------------|------------------|---------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Target] | boolean | αν ο ασθενής πεθάνει κατά την περίοδο παρακολούθησης | 0 ή 1 |
+
+Αφού έχετε το σύνολο δεδομένων, μπορούμε να ξεκινήσουμε το πρόγραμμα στο Azure.
+
+## 2. Εκπαίδευση μοντέλου με Low code/No code στο Azure ML Studio
+### 2.1 Δημιουργία χώρου εργασίας Azure ML
+Για να εκπαιδεύσετε ένα μοντέλο στο Azure ML, πρέπει πρώτα να δημιουργήσετε έναν χώρο εργασίας Azure ML. Ο χώρος εργασίας είναι ο κορυφαίος πόρος για το Azure Machine Learning, παρέχοντας ένα κεντρικό σημείο για να εργαστείτε με όλα τα αντικείμενα που δημιουργείτε όταν χρησιμοποιείτε το Azure Machine Learning. Ο χώρος εργασίας διατηρεί ένα ιστορικό όλων των εκτελέσεων εκπαίδευσης, συμπεριλαμβανομένων των αρχείων καταγραφής, των μετρήσεων, των αποτελεσμάτων και ενός στιγμιότυπου των σεναρίων σας. Χρησιμοποιείτε αυτές τις πληροφορίες για να καθορίσετε ποια εκτέλεση εκπαίδευσης παράγει το καλύτερο μοντέλο. [Μάθετε περισσότερα](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Συνιστάται να χρησιμοποιείτε τον πιο ενημερωμένο περιηγητή που είναι συμβατός με το λειτουργικό σας σύστημα. Οι ακόλουθοι περιηγητές υποστηρίζονται:
+
+- Microsoft Edge (Η νέα έκδοση του Microsoft Edge, τελευταία έκδοση. Όχι το Microsoft Edge legacy)
+- Safari (τελευταία έκδοση, μόνο Mac)
+- Chrome (τελευταία έκδοση)
+- Firefox (τελευταία έκδοση)
+
+Για να χρησιμοποιήσετε το Azure Machine Learning, δημιουργήστε έναν χώρο εργασίας στη συνδρομή σας στο Azure. Μπορείτε στη συνέχεια να χρησιμοποιήσετε αυτόν τον χώρο εργασίας για να διαχειριστείτε δεδομένα, πόρους υπολογισμού, κώδικα, μοντέλα και άλλα αντικείμενα που σχετίζονται με τις εργασίες μηχανικής μάθησης.
+
+> **_ΣΗΜΕΙΩΣΗ:_** Η συνδρομή σας στο Azure θα χρεωθεί ένα μικρό ποσό για την αποθήκευση δεδομένων όσο υπάρχει ο χώρος εργασίας Azure Machine Learning στη συνδρομή σας, γι' αυτό συνιστούμε να διαγράψετε τον χώρο εργασίας Azure Machine Learning όταν δεν τον χρησιμοποιείτε πλέον.
+
+1. Συνδεθείτε στο [Azure portal](https://ms.portal.azure.com/) χρησιμοποιώντας τα διαπιστευτήρια Microsoft που σχετίζονται με τη συνδρομή σας στο Azure.
+2. Επιλέξτε **+Create a resource**
+
+ 
+
+ Αναζητήστε το Machine Learning και επιλέξτε το πλακίδιο Machine Learning
+
+ 
+
+ Πατήστε το κουμπί δημιουργίας
+
+ 
+
+ Συμπληρώστε τις ρυθμίσεις ως εξής:
+ - Συνδρομή: Η συνδρομή σας στο Azure
+ - Ομάδα πόρων: Δημιουργήστε ή επιλέξτε μια ομάδα πόρων
+ - Όνομα χώρου εργασίας: Εισάγετε ένα μοναδικό όνομα για τον χώρο εργασίας σας
+ - Περιοχή: Επιλέξτε τη γεωγραφική περιοχή που είναι πιο κοντά σας
+ - Λογαριασμός αποθήκευσης: Σημειώστε τον προεπιλεγμένο νέο λογαριασμό αποθήκευσης που θα δημιουργηθεί για τον χώρο εργασίας σας
+ - Key vault: Σημειώστε το προεπιλεγμένο νέο key vault που θα δημιουργηθεί για τον χώρο εργασίας σας
+ - Application insights: Σημειώστε τον προεπιλεγμένο νέο πόρο application insights που θα δημιουργηθεί για τον χώρο εργασίας σας
+ - Container registry: Κανένα (θα δημιουργηθεί αυτόματα την πρώτη φορά που θα αναπτύξετε ένα μοντέλο σε container)
+
+ 
+
+ - Πατήστε το κουμπί create + review και στη συνέχεια το κουμπί create
+3. Περιμένετε να δημιουργηθεί ο χώρος εργασίας σας (αυτό μπορεί να πάρει λίγα λεπτά). Στη συνέχεια, μεταβείτε σε αυτόν μέσω του portal. Μπορείτε να τον βρείτε μέσω της υπηρεσίας Machine Learning του Azure.
+4. Στη σελίδα Overview του χώρου εργασίας σας, εκκινήστε το Azure Machine Learning studio (ή ανοίξτε μια νέα καρτέλα περιηγητή και μεταβείτε στο https://ml.azure.com), και συνδεθείτε στο Azure Machine Learning studio χρησιμοποιώντας τον λογαριασμό σας Microsoft. Εάν σας ζητηθεί, επιλέξτε τον κατάλογο και τη συνδρομή σας στο Azure, καθώς και τον χώρο εργασίας σας στο Azure Machine Learning.
+
+
+
+5. Στο Azure Machine Learning studio, ενεργοποιήστε το εικονίδιο ☰ στην επάνω αριστερή γωνία για να δείτε τις διά
+- **Συνδεδεμένος Υπολογισμός**: Συνδέεται με υπάρχοντες πόρους υπολογισμού του Azure, όπως Εικονικές Μηχανές ή συστοιχίες Azure Databricks.
+
+#### 2.2.1 Επιλογή των κατάλληλων επιλογών για τους πόρους υπολογισμού σας
+
+Ορισμένοι βασικοί παράγοντες πρέπει να ληφθούν υπόψη κατά τη δημιουργία ενός πόρου υπολογισμού, καθώς αυτές οι επιλογές μπορεί να είναι κρίσιμες αποφάσεις.
+
+**Χρειάζεστε CPU ή GPU;**
+
+Η CPU (Κεντρική Μονάδα Επεξεργασίας) είναι το ηλεκτρονικό κύκλωμα που εκτελεί εντολές ενός προγράμματος υπολογιστή. Η GPU (Μονάδα Επεξεργασίας Γραφικών) είναι ένα εξειδικευμένο ηλεκτρονικό κύκλωμα που μπορεί να εκτελεί κώδικα σχετικό με γραφικά με πολύ υψηλή ταχύτητα.
+
+Η κύρια διαφορά μεταξύ της αρχιτεκτονικής CPU και GPU είναι ότι η CPU έχει σχεδιαστεί για να χειρίζεται ένα ευρύ φάσμα εργασιών γρήγορα (όπως μετριέται από την ταχύτητα ρολογιού της CPU), αλλά περιορίζεται στην ταυτόχρονη εκτέλεση πολλών εργασιών. Οι GPU έχουν σχεδιαστεί για παράλληλη επεξεργασία και επομένως είναι πολύ καλύτερες για εργασίες βαθιάς μάθησης.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Λιγότερο ακριβή | Πιο ακριβή |
+| Χαμηλότερο επίπεδο ταυτόχρονης εκτέλεσης| Υψηλότερο επίπεδο ταυτόχρονης εκτέλεσης |
+| Πιο αργή στην εκπαίδευση μοντέλων βαθιάς μάθησης | Βέλτιστη για βαθιά μάθηση |
+
+**Μέγεθος Συστοιχίας**
+
+Οι μεγαλύτερες συστοιχίες είναι πιο ακριβές αλλά προσφέρουν καλύτερη απόκριση. Επομένως, αν έχετε χρόνο αλλά όχι αρκετά χρήματα, θα πρέπει να ξεκινήσετε με μια μικρή συστοιχία. Αντίθετα, αν έχετε χρήματα αλλά όχι πολύ χρόνο, θα πρέπει να ξεκινήσετε με μια μεγαλύτερη συστοιχία.
+
+**Μέγεθος VM**
+
+Ανάλογα με τους χρονικούς και οικονομικούς περιορισμούς σας, μπορείτε να προσαρμόσετε το μέγεθος της RAM, του δίσκου, τον αριθμό των πυρήνων και την ταχύτητα ρολογιού. Η αύξηση όλων αυτών των παραμέτρων θα είναι πιο δαπανηρή, αλλά θα οδηγήσει σε καλύτερη απόδοση.
+
+**Αποκλειστικές ή Χαμηλής Προτεραιότητας Περιπτώσεις;**
+
+Μια περίπτωση χαμηλής προτεραιότητας σημαίνει ότι είναι διακοπτόμενη: ουσιαστικά, το Microsoft Azure μπορεί να πάρει αυτούς τους πόρους και να τους αναθέσει σε άλλη εργασία, διακόπτοντας έτσι μια εργασία. Μια αποκλειστική περίπτωση, ή μη διακοπτόμενη, σημαίνει ότι η εργασία δεν θα τερματιστεί ποτέ χωρίς την άδειά σας.
+Αυτό είναι μια ακόμη εκτίμηση μεταξύ χρόνου και χρημάτων, καθώς οι διακοπτόμενες περιπτώσεις είναι λιγότερο δαπανηρές από τις αποκλειστικές.
+
+#### 2.2.2 Δημιουργία συστοιχίας υπολογισμού
+
+Στον [χώρο εργασίας Azure ML](https://ml.azure.com/) που δημιουργήσαμε νωρίτερα, μεταβείτε στην ενότητα υπολογισμού και θα μπορείτε να δείτε τους διάφορους πόρους υπολογισμού που μόλις συζητήσαμε (δηλαδή, περιπτώσεις υπολογισμού, συστοιχίες υπολογισμού, συστοιχίες πρόβλεψης και συνδεδεμένο υπολογισμό). Για αυτό το έργο, θα χρειαστούμε μια συστοιχία υπολογισμού για την εκπαίδευση του μοντέλου. Στο Studio, κάντε κλικ στο μενού "Υπολογισμός", στη συνέχεια στην καρτέλα "Συστοιχία υπολογισμού" και κάντε κλικ στο κουμπί "+ Νέο" για να δημιουργήσετε μια συστοιχία υπολογισμού.
+
+
+
+1. Επιλέξτε τις επιλογές σας: Αποκλειστική ή Χαμηλής προτεραιότητας, CPU ή GPU, μέγεθος VM και αριθμός πυρήνων (μπορείτε να διατηρήσετε τις προεπιλεγμένες ρυθμίσεις για αυτό το έργο).
+2. Κάντε κλικ στο κουμπί Επόμενο.
+
+
+
+3. Δώστε στη συστοιχία ένα όνομα υπολογισμού.
+4. Επιλέξτε τις επιλογές σας: Ελάχιστος/Μέγιστος αριθμός κόμβων, δευτερόλεπτα αδράνειας πριν από τη μείωση κλίμακας, πρόσβαση SSH. Σημειώστε ότι αν ο ελάχιστος αριθμός κόμβων είναι 0, θα εξοικονομήσετε χρήματα όταν η συστοιχία είναι αδρανής. Σημειώστε ότι όσο μεγαλύτερος είναι ο αριθμός των μέγιστων κόμβων, τόσο μικρότερος θα είναι ο χρόνος εκπαίδευσης. Ο μέγιστος αριθμός κόμβων που συνιστάται είναι 3.
+5. Κάντε κλικ στο κουμπί "Δημιουργία". Αυτό το βήμα μπορεί να διαρκέσει μερικά λεπτά.
+
+
+
+Τέλεια! Τώρα που έχουμε μια συστοιχία υπολογισμού, πρέπει να φορτώσουμε τα δεδομένα στο Azure ML Studio.
+
+### 2.3 Φόρτωση του Συνόλου Δεδομένων
+
+1. Στον [χώρο εργασίας Azure ML](https://ml.azure.com/) που δημιουργήσαμε νωρίτερα, κάντε κλικ στο "Σύνολα δεδομένων" στο αριστερό μενού και κάντε κλικ στο κουμπί "+ Δημιουργία συνόλου δεδομένων" για να δημιουργήσετε ένα σύνολο δεδομένων. Επιλέξτε την επιλογή "Από τοπικά αρχεία" και επιλέξτε το σύνολο δεδομένων Kaggle που κατεβάσαμε νωρίτερα.
+
+ 
+
+2. Δώστε στο σύνολο δεδομένων σας ένα όνομα, έναν τύπο και μια περιγραφή. Κάντε κλικ στο Επόμενο. Ανεβάστε τα δεδομένα από αρχεία. Κάντε κλικ στο Επόμενο.
+
+ 
+
+3. Στο Σχήμα, αλλάξτε τον τύπο δεδομένων σε Boolean για τα εξής χαρακτηριστικά: αναιμία, διαβήτης, υψηλή αρτηριακή πίεση, φύλο, κάπνισμα και DEATH_EVENT. Κάντε κλικ στο Επόμενο και στη συνέχεια Δημιουργία.
+
+ 
+
+Υπέροχα! Τώρα που το σύνολο δεδομένων είναι στη θέση του και η συστοιχία υπολογισμού έχει δημιουργηθεί, μπορούμε να ξεκινήσουμε την εκπαίδευση του μοντέλου!
+
+### 2.4 Εκπαίδευση με AutoML χωρίς κώδικα ή με ελάχιστο κώδικα
+
+Η παραδοσιακή ανάπτυξη μοντέλων μηχανικής μάθησης απαιτεί πολλούς πόρους, σημαντική γνώση του αντικειμένου και χρόνο για την παραγωγή και σύγκριση δεκάδων μοντέλων.
+Η αυτοματοποιημένη μηχανική μάθηση (AutoML) είναι η διαδικασία αυτοματοποίησης των χρονοβόρων, επαναληπτικών εργασιών ανάπτυξης μοντέλων μηχανικής μάθησης. Επιτρέπει σε επιστήμονες δεδομένων, αναλυτές και προγραμματιστές να δημιουργούν μοντέλα ML με μεγάλη κλίμακα, αποδοτικότητα και παραγωγικότητα, διατηρώντας παράλληλα την ποιότητα του μοντέλου. Μειώνει τον χρόνο που απαιτείται για την παραγωγή μοντέλων ML έτοιμων για παραγωγή, με μεγάλη ευκολία και αποδοτικότητα. [Μάθετε περισσότερα](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. Στον [χώρο εργασίας Azure ML](https://ml.azure.com/) που δημιουργήσαμε νωρίτερα, κάντε κλικ στο "Αυτοματοποιημένη ML" στο αριστερό μενού και επιλέξτε το σύνολο δεδομένων που μόλις ανεβάσατε. Κάντε κλικ στο Επόμενο.
+
+ 
+
+2. Εισαγάγετε ένα νέο όνομα πειράματος, τη στήλη στόχο (DEATH_EVENT) και τη συστοιχία υπολογισμού που δημιουργήσαμε. Κάντε κλικ στο Επόμενο.
+
+ 
+
+3. Επιλέξτε "Ταξινόμηση" και κάντε κλικ στο Τέλος. Αυτό το βήμα μπορεί να διαρκέσει από 30 λεπτά έως 1 ώρα, ανάλογα με το μέγεθος της συστοιχίας υπολογισμού σας.
+
+ 
+
+4. Μόλις ολοκληρωθεί η εκτέλεση, κάντε κλικ στην καρτέλα "Αυτοματοποιημένη ML", κάντε κλικ στην εκτέλεσή σας και κάντε κλικ στον Αλγόριθμο στην κάρτα "Περίληψη καλύτερου μοντέλου".
+
+ 
+
+Εδώ μπορείτε να δείτε μια λεπτομερή περιγραφή του καλύτερου μοντέλου που δημιούργησε το AutoML. Μπορείτε επίσης να εξερευνήσετε άλλα μοντέλα που δημιουργήθηκαν στην καρτέλα Μοντέλα. Αφιερώστε λίγα λεπτά για να εξερευνήσετε τα μοντέλα στην επιλογή Επεξηγήσεις (προεπισκόπηση). Αφού επιλέξετε το μοντέλο που θέλετε να χρησιμοποιήσετε (εδώ θα επιλέξουμε το καλύτερο μοντέλο που επιλέχθηκε από το AutoML), θα δούμε πώς μπορούμε να το αναπτύξουμε.
+
+## 3. Ανάπτυξη μοντέλου χωρίς κώδικα ή με ελάχιστο κώδικα και κατανάλωση τελικού σημείου
+### 3.1 Ανάπτυξη μοντέλου
+
+Η διεπαφή αυτοματοποιημένης μηχανικής μάθησης σας επιτρέπει να αναπτύξετε το καλύτερο μοντέλο ως υπηρεσία ιστού σε λίγα βήματα. Η ανάπτυξη είναι η ενσωμάτωση του μοντέλου ώστε να μπορεί να κάνει προβλέψεις με βάση νέα δεδομένα και να εντοπίζει πιθανούς τομείς ευκαιρίας. Για αυτό το έργο, η ανάπτυξη σε μια υπηρεσία ιστού σημαίνει ότι οι ιατρικές εφαρμογές θα μπορούν να καταναλώνουν το μοντέλο για να κάνουν ζωντανές προβλέψεις για τον κίνδυνο των ασθενών τους να υποστούν καρδιακή προσβολή.
+
+Στην περιγραφή του καλύτερου μοντέλου, κάντε κλικ στο κουμπί "Ανάπτυξη".
+
+
+
+15. Δώστε του ένα όνομα, μια περιγραφή, τύπο υπολογισμού (Azure Container Instance), ενεργοποιήστε τον έλεγχο ταυτότητας και κάντε κλικ στο Ανάπτυξη. Αυτό το βήμα μπορεί να διαρκέσει περίπου 20 λεπτά για να ολοκληρωθεί. Η διαδικασία ανάπτυξης περιλαμβάνει διάφορα βήματα, όπως την εγγραφή του μοντέλου, τη δημιουργία πόρων και τη διαμόρφωσή τους για την υπηρεσία ιστού. Εμφανίζεται ένα μήνυμα κατάστασης κάτω από την Κατάσταση ανάπτυξης. Επιλέξτε Ανανέωση περιοδικά για να ελέγξετε την κατάσταση ανάπτυξης. Είναι αναπτυγμένο και σε λειτουργία όταν η κατάσταση είναι "Υγιές".
+
+
+
+16. Μόλις αναπτυχθεί, κάντε κλικ στην καρτέλα Τελικό σημείο και κάντε κλικ στο τελικό σημείο που μόλις αναπτύξατε. Εδώ μπορείτε να βρείτε όλες τις λεπτομέρειες που πρέπει να γνωρίζετε για το τελικό σημείο.
+
+
+
+Καταπληκτικά! Τώρα που έχουμε ένα μοντέλο αναπτυγμένο, μπορούμε να ξεκινήσουμε την κατανάλωση του τελικού σημείου.
+
+### 3.2 Κατανάλωση τελικού σημείου
+
+Κάντε κλικ στην καρτέλα "Κατανάλωση". Εδώ μπορείτε να βρείτε το REST τελικό σημείο και ένα σενάριο Python στην επιλογή κατανάλωσης. Αφιερώστε λίγο χρόνο για να διαβάσετε τον κώδικα Python.
+
+Αυτό το σενάριο μπορεί να εκτελεστεί απευθείας από τον τοπικό σας υπολογιστή και θα καταναλώσει το τελικό σας σημείο.
+
+
+
+Αφιερώστε λίγο χρόνο για να ελέγξετε αυτές τις 2 γραμμές κώδικα:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+Η μεταβλητή `url` είναι το REST τελικό σημείο που βρίσκεται στην καρτέλα κατανάλωσης και η μεταβλητή `api_key` είναι το πρωτεύον κλειδί που βρίσκεται επίσης στην καρτέλα κατανάλωσης (μόνο στην περίπτωση που έχετε ενεργοποιήσει τον έλεγχο ταυτότητας). Έτσι το σενάριο μπορεί να καταναλώσει το τελικό σημείο.
+
+18. Εκτελώντας το σενάριο, θα πρέπει να δείτε την ακόλουθη έξοδο:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Αυτό σημαίνει ότι η πρόβλεψη για καρδιακή ανεπάρκεια για τα δεδομένα που δόθηκαν είναι αληθής. Αυτό έχει νόημα, επειδή αν κοιτάξετε πιο προσεκτικά τα δεδομένα που δημιουργούνται αυτόματα στο σενάριο, όλα είναι στο 0 και ψευδή από προεπιλογή. Μπορείτε να αλλάξετε τα δεδομένα με το ακόλουθο δείγμα εισόδου:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Το σενάριο θα πρέπει να επιστρέψει:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Συγχαρητήρια! Μόλις καταναλώσατε το μοντέλο που αναπτύξατε και το εκπαιδεύσατε στο Azure ML!
+
+> **_ΣΗΜΕΙΩΣΗ:_** Μόλις ολοκληρώσετε το έργο, μην ξεχάσετε να διαγράψετε όλους τους πόρους.
+## 🚀 Πρόκληση
+
+Κοιτάξτε προσεκτικά τις εξηγήσεις και τις λεπτομέρειες του μοντέλου που δημιούργησε το AutoML για τα κορυφαία μοντέλα. Προσπαθήστε να κατανοήσετε γιατί το καλύτερο μοντέλο είναι καλύτερο από τα άλλα. Ποιοι αλγόριθμοι συγκρίθηκαν; Ποιες είναι οι διαφορές μεταξύ τους; Γιατί το καλύτερο αποδίδει καλύτερα σε αυτή την περίπτωση;
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Σε αυτό το μάθημα, μάθατε πώς να εκπαιδεύετε, να αναπτύσσετε και να καταναλώνετε ένα μοντέλο για την πρόβλεψη του κινδύνου καρδιακής ανεπάρκειας με έναν τρόπο χωρίς κώδικα ή με ελάχιστο κώδικα στο cloud. Αν δεν το έχετε κάνει ακόμα, εμβαθύνετε στις εξηγήσεις του μοντέλου που δημιούργησε το AutoML για τα κορυφαία μοντέλα και προσπαθήστε να κατανοήσετε γιατί το καλύτερο μοντέλο είναι καλύτερο από τα άλλα.
+
+Μπορείτε να προχωρήσετε περισσότερο στην αυτοματοποιημένη μηχανική μάθηση χωρίς κώδικα ή με ελάχιστο κώδικα διαβάζοντας αυτή την [τεκμηρίωση](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Εργασία
+
+[Έργο Επιστήμης Δεδομένων χωρίς κώδικα ή με ελάχιστο κώδικα στο Azure ML](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/el/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..3650e081
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Έργο Επιστήμης Δεδομένων με Χαμηλό ή Καθόλου Κώδικα στο Azure ML
+
+## Οδηγίες
+
+Είδαμε πώς να χρησιμοποιούμε την πλατφόρμα Azure ML για να εκπαιδεύσουμε, να αναπτύξουμε και να καταναλώσουμε ένα μοντέλο με τρόπο που απαιτεί χαμηλό ή καθόλου κώδικα. Τώρα, αναζητήστε κάποια δεδομένα που θα μπορούσατε να χρησιμοποιήσετε για να εκπαιδεύσετε ένα άλλο μοντέλο, να το αναπτύξετε και να το καταναλώσετε. Μπορείτε να αναζητήσετε σύνολα δεδομένων στο [Kaggle](https://kaggle.com) και στα [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Κριτήρια Αξιολόγησης
+
+| Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση |
+|-----------|----------|-------------------|
+|Κατά τη μεταφόρτωση των δεδομένων φροντίσατε να αλλάξετε τον τύπο των χαρακτηριστικών αν ήταν απαραίτητο. Επίσης, καθαρίσατε τα δεδομένα αν χρειαζόταν. Εκτελέσατε εκπαίδευση σε ένα σύνολο δεδομένων μέσω AutoML και ελέγξατε τις εξηγήσεις του μοντέλου. Αναπτύξατε το καλύτερο μοντέλο και μπορέσατε να το καταναλώσετε. | Κατά τη μεταφόρτωση των δεδομένων φροντίσατε να αλλάξετε τον τύπο των χαρακτηριστικών αν ήταν απαραίτητο. Εκτελέσατε εκπαίδευση σε ένα σύνολο δεδομένων μέσω AutoML, αναπτύξατε το καλύτερο μοντέλο και μπορέσατε να το καταναλώσετε. | Έχετε αναπτύξει το καλύτερο μοντέλο που εκπαιδεύτηκε από το AutoML και μπορέσατε να το καταναλώσετε. |
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/el/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..9998b50a
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,263 @@
+
+# Επιστήμη Δεδομένων στο Cloud: Η προσέγγιση "Azure ML SDK"
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Επιστήμη Δεδομένων στο Cloud: Azure ML SDK - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Πίνακας περιεχομένων:
+
+- [Επιστήμη Δεδομένων στο Cloud: Η προσέγγιση "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Προ-Διάλεξης Κουίζ](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Εισαγωγή](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Τι είναι το Azure ML SDK;](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Εισαγωγή στο έργο πρόβλεψης καρδιακής ανεπάρκειας και το σύνολο δεδομένων](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Εκπαίδευση μοντέλου με το Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Δημιουργία ενός Azure ML workspace](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Δημιουργία υπολογιστικής μονάδας](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Φόρτωση του συνόλου δεδομένων](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Δημιουργία Σημειωματάριων](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Εκπαίδευση μοντέλου](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Ρύθμιση Workspace, πειράματος, υπολογιστικού cluster και συνόλου δεδομένων](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 Ρύθμιση AutoML και εκπαίδευση](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Ανάπτυξη μοντέλου και κατανάλωση endpoint με το Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Αποθήκευση του καλύτερου μοντέλου](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Ανάπτυξη μοντέλου](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Κατανάλωση endpoint](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Πρόκληση](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Μετα-Διάλεξης Κουίζ](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Ανασκόπηση & Αυτομελέτη](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Εργασία](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Προ-Διάλεξης Κουίζ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Εισαγωγή
+
+### 1.1 Τι είναι το Azure ML SDK;
+
+Οι επιστήμονες δεδομένων και οι προγραμματιστές AI χρησιμοποιούν το Azure Machine Learning SDK για να δημιουργήσουν και να εκτελέσουν ροές εργασίας μηχανικής μάθησης με την υπηρεσία Azure Machine Learning. Μπορείτε να αλληλεπιδράσετε με την υπηρεσία σε οποιοδήποτε περιβάλλον Python, όπως Jupyter Notebooks, Visual Studio Code ή το αγαπημένο σας IDE Python.
+
+Κύριοι τομείς του SDK περιλαμβάνουν:
+
+- Εξερεύνηση, προετοιμασία και διαχείριση του κύκλου ζωής των συνόλων δεδομένων που χρησιμοποιούνται σε πειράματα μηχανικής μάθησης.
+- Διαχείριση πόρων cloud για παρακολούθηση, καταγραφή και οργάνωση των πειραμάτων μηχανικής μάθησης.
+- Εκπαίδευση μοντέλων είτε τοπικά είτε χρησιμοποιώντας πόρους cloud, συμπεριλαμβανομένης της εκπαίδευσης μοντέλων με επιτάχυνση GPU.
+- Χρήση αυτοματοποιημένης μηχανικής μάθησης, η οποία δέχεται παραμέτρους ρύθμισης και δεδομένα εκπαίδευσης. Επαναλαμβάνει αυτόματα αλγόριθμους και ρυθμίσεις υπερπαραμέτρων για να βρει το καλύτερο μοντέλο για προβλέψεις.
+- Ανάπτυξη web services για τη μετατροπή των εκπαιδευμένων μοντέλων σας σε RESTful υπηρεσίες που μπορούν να καταναλωθούν σε οποιαδήποτε εφαρμογή.
+
+[Μάθετε περισσότερα για το Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Στο [προηγούμενο μάθημα](../18-Low-Code/README.md), είδαμε πώς να εκπαιδεύσουμε, να αναπτύξουμε και να καταναλώσουμε ένα μοντέλο με τρόπο Low code/No code. Χρησιμοποιήσαμε το σύνολο δεδομένων καρδιακής ανεπάρκειας για να δημιουργήσουμε ένα μοντέλο πρόβλεψης καρδιακής ανεπάρκειας. Σε αυτό το μάθημα, θα κάνουμε ακριβώς το ίδιο πράγμα αλλά χρησιμοποιώντας το Azure Machine Learning SDK.
+
+
+
+### 1.2 Εισαγωγή στο έργο πρόβλεψης καρδιακής ανεπάρκειας και το σύνολο δεδομένων
+
+Δείτε [εδώ](../18-Low-Code/README.md) την εισαγωγή στο έργο πρόβλεψης καρδιακής ανεπάρκειας και το σύνολο δεδομένων.
+
+## 2. Εκπαίδευση μοντέλου με το Azure ML SDK
+### 2.1 Δημιουργία ενός Azure ML workspace
+
+Για απλότητα, θα εργαστούμε σε ένα jupyter notebook. Αυτό σημαίνει ότι έχετε ήδη ένα Workspace και μια υπολογιστική μονάδα. Εάν έχετε ήδη Workspace, μπορείτε να μεταβείτε απευθείας στην ενότητα 2.3 Δημιουργία Σημειωματάριων.
+
+Εάν όχι, ακολουθήστε τις οδηγίες στην ενότητα **2.1 Δημιουργία ενός Azure ML workspace** στο [προηγούμενο μάθημα](../18-Low-Code/README.md) για να δημιουργήσετε ένα workspace.
+
+### 2.2 Δημιουργία υπολογιστικής μονάδας
+
+Στο [Azure ML workspace](https://ml.azure.com/) που δημιουργήσαμε νωρίτερα, μεταβείτε στο μενού υπολογισμού και θα δείτε τους διάφορους διαθέσιμους πόρους υπολογισμού.
+
+
+
+Ας δημιουργήσουμε μια υπολογιστική μονάδα για να προμηθεύσουμε ένα jupyter notebook.
+1. Κάντε κλικ στο κουμπί + Νέο.
+2. Δώστε ένα όνομα στην υπολογιστική σας μονάδα.
+3. Επιλέξτε τις επιλογές σας: CPU ή GPU, μέγεθος VM και αριθμό πυρήνων.
+4. Κάντε κλικ στο κουμπί Δημιουργία.
+
+Συγχαρητήρια, μόλις δημιουργήσατε μια υπολογιστική μονάδα! Θα χρησιμοποιήσουμε αυτήν την υπολογιστική μονάδα για να δημιουργήσουμε ένα Σημειωματάριο στην ενότητα [Δημιουργία Σημειωματάριων](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Φόρτωση του συνόλου δεδομένων
+Ανατρέξτε στο [προηγούμενο μάθημα](../18-Low-Code/README.md) στην ενότητα **2.3 Φόρτωση του συνόλου δεδομένων** εάν δεν έχετε ανεβάσει ακόμα το σύνολο δεδομένων.
+
+### 2.4 Δημιουργία Σημειωματάριων
+
+> **_ΣΗΜΕΙΩΣΗ:_** Για το επόμενο βήμα μπορείτε είτε να δημιουργήσετε ένα νέο σημειωματάριο από την αρχή, είτε να ανεβάσετε το [σημειωματάριο που δημιουργήσαμε](notebook.ipynb) στο Azure ML Studio σας. Για να το ανεβάσετε, απλώς κάντε κλικ στο μενού "Notebook" και ανεβάστε το σημειωματάριο.
+
+Τα σημειωματάρια είναι ένα πολύ σημαντικό μέρος της διαδικασίας επιστήμης δεδομένων. Μπορούν να χρησιμοποιηθούν για την Εξερευνητική Ανάλυση Δεδομένων (EDA), την εκπαίδευση ενός μοντέλου σε υπολογιστικό cluster, ή την ανάπτυξη ενός endpoint σε cluster πρόβλεψης.
+
+Για να δημιουργήσετε ένα Σημειωματάριο, χρειαζόμαστε έναν υπολογιστικό κόμβο που εξυπηρετεί την παρουσία του jupyter notebook. Επιστρέψτε στο [Azure ML workspace](https://ml.azure.com/) και κάντε κλικ στις Υπολογιστικές Μονάδες. Στη λίστα των υπολογιστικών μονάδων θα πρέπει να δείτε την [υπολογιστική μονάδα που δημιουργήσαμε νωρίτερα](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. Στην ενότητα Εφαρμογές, κάντε κλικ στην επιλογή Jupyter.
+2. Τσεκάρετε το κουτί "Ναι, καταλαβαίνω" και κάντε κλικ στο κουμπί Συνέχεια.
+
+3. Αυτό θα ανοίξει μια νέα καρτέλα του προγράμματος περιήγησης με την παρουσία του jupyter notebook σας όπως φαίνεται παρακάτω. Κάντε κλικ στο κουμπί "Νέο" για να δημιουργήσετε ένα σημειωματάριο.
+
+
+
+Τώρα που έχουμε ένα Σημειωματάριο, μπορούμε να ξεκινήσουμε την εκπαίδευση του μοντέλου με το Azure ML SDK.
+
+### 2.5 Εκπαίδευση μοντέλου
+
+Πρώτα απ' όλα, αν έχετε οποιαδήποτε αμφιβολία, ανατρέξτε στην [τεκμηρίωση του Azure ML SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Περιέχει όλες τις απαραίτητες πληροφορίες για να κατανοήσετε τις ενότητες που θα δούμε σε αυτό το μάθημα.
+
+#### 2.5.1 Ρύθμιση Workspace, πειράματος, υπολογιστικού cluster και συνόλου δεδομένων
+
+Πρέπει να φορτώσετε το `workspace` από το αρχείο ρύθμισης χρησιμοποιώντας τον παρακάτω κώδικα:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Αυτό επιστρέφει ένα αντικείμενο τύπου `Workspace` που αντιπροσωπεύει το workspace. Στη συνέχεια, πρέπει να δημιουργήσετε ένα `experiment` χρησιμοποιώντας τον παρακάτω κώδικα:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Για να λάβετε ή να δημιουργήσετε ένα πείραμα από ένα workspace, ζητάτε το πείραμα χρησιμοποιώντας το όνομα του πειράματος. Το όνομα του πειράματος πρέπει να είναι 3-36 χαρακτήρες, να ξεκινά με γράμμα ή αριθμό και να περιέχει μόνο γράμματα, αριθμούς, υπογραμμίσεις και παύλες. Εάν το πείραμα δεν βρεθεί στο workspace, δημιουργείται ένα νέο πείραμα.
+
+Τώρα πρέπει να δημιουργήσετε ένα υπολογιστικό cluster για την εκπαίδευση χρησιμοποιώντας τον παρακάτω κώδικα. Σημειώστε ότι αυτό το βήμα μπορεί να διαρκέσει μερικά λεπτά.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Μπορείτε να λάβετε το σύνολο δεδομένων από το workspace χρησιμοποιώντας το όνομα του συνόλου δεδομένων με τον εξής τρόπο:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 Ρύθμιση AutoML και εκπαίδευση
+
+Για να ρυθμίσετε τη διαμόρφωση AutoML, χρησιμοποιήστε την [κλάση AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Όπως περιγράφεται στην τεκμηρίωση, υπάρχουν πολλές παράμετροι με τις οποίες μπορείτε να πειραματιστείτε. Για αυτό το έργο, θα χρησιμοποιήσουμε τις εξής παραμέτρους:
+
+- `experiment_timeout_minutes`: Ο μέγιστος χρόνος (σε λεπτά) που επιτρέπεται να εκτελεστεί το πείραμα πριν σταματήσει αυτόματα και γίνουν διαθέσιμα τα αποτελέσματα.
+- `max_concurrent_iterations`: Ο μέγιστος αριθμός ταυτόχρονων επαναλήψεων εκπαίδευσης που επιτρέπονται για το πείραμα.
+- `primary_metric`: Η κύρια μέτρηση που χρησιμοποιείται για τον καθορισμό της κατάστασης του πειράματος.
+- `compute_target`: Ο υπολογιστικός στόχος του Azure Machine Learning για την εκτέλεση του πειράματος AutoML.
+- `task`: Ο τύπος της εργασίας που θα εκτελεστεί. Οι τιμές μπορεί να είναι 'classification', 'regression' ή 'forecasting' ανάλογα με τον τύπο του προβλήματος AutoML που θα λυθεί.
+- `training_data`: Τα δεδομένα εκπαίδευσης που θα χρησιμοποιηθούν στο πείραμα. Πρέπει να περιέχουν χαρακτηριστικά εκπαίδευσης και μια στήλη ετικετών (προαιρετικά μια στήλη βαρών δειγμάτων).
+- `label_column_name`: Το όνομα της στήλης ετικετών.
+- `path`: Η πλήρης διαδρομή προς τον φάκελο έργου του Azure Machine Learning.
+- `enable_early_stopping`: Εάν θα ενεργοποιηθεί η πρόωρη διακοπή εάν η βαθμολογία δεν βελτιώνεται βραχυπρόθεσμα.
+- `featurization`: Δείκτης για το αν το βήμα χαρακτηριστικοποίησης πρέπει να γίνει αυτόματα ή όχι, ή αν πρέπει να χρησιμοποιηθεί προσαρμοσμένη χαρακτηριστικοποίηση.
+- `debug_log`: Το αρχείο καταγραφής για την εγγραφή πληροφοριών αποσφαλμάτωσης.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Τώρα που έχετε ρυθμίσει τη διαμόρφωση σας, μπορείτε να εκπαιδεύσετε το μοντέλο χρησιμοποιώντας τον παρακάτω κώδικα. Αυτό το βήμα μπορεί να διαρκέσει έως και μία ώρα ανάλογα με το μέγεθος του cluster σας.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Μπορείτε να εκτελέσετε το widget RunDetails για να δείτε τα διάφορα πειράματα.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Ανάπτυξη μοντέλου και κατανάλωση endpoint με το Azure ML SDK
+
+### 3.1 Αποθήκευση του καλύτερου μοντέλου
+
+Το `remote_run` είναι ένα αντικείμενο τύπου [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Αυτό το αντικείμενο περιέχει τη μέθοδο `get_output()` που επιστρέφει την καλύτερη εκτέλεση και το αντίστοιχο εκπαιδευμένο μοντέλο.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Μπορείτε να δείτε τις παραμέτρους που χρησιμοποιήθηκαν για το καλύτερο μοντέλο απλώς εκτυπώνοντας το fitted_model και να δείτε τις ιδιότητες του καλύτερου μοντέλου χρησιμοποιώντας τη μέθοδο [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Τώρα καταχωρίστε το μοντέλο με τη μέθοδο [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Ανάπτυξη μοντέλου
+
+Αφού αποθηκευτεί το καλύτερο μοντέλο, μπορούμε να το αναπτύξουμε με την κλάση [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). Το InferenceConfig αντιπροσωπεύει τις ρυθμίσεις διαμόρφωσης για ένα προσαρμοσμένο περιβάλλον που χρησιμοποιείται για την ανάπτυξη. Η κλάση [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) αντιπροσωπεύει ένα μοντέλο μηχανικής μάθησης που έχει αναπτυχθεί ως endpoint υπηρεσίας web σε Azure Container Instances. Μια αναπτυγμένη υπηρεσία δημιουργείται από ένα μοντέλο, ένα script και σχετικά αρχεία. Η προκύπτουσα υπηρεσία web είναι ένα ισορροπημένο HTTP endpoint με
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Αυτό θα πρέπει να επιστρέψει `'{"result": [false]}'`. Αυτό σημαίνει ότι τα δεδομένα ασθενούς που στείλαμε στο endpoint δημιούργησαν την πρόβλεψη `false`, που σημαίνει ότι αυτό το άτομο δεν είναι πιθανό να υποστεί καρδιακή προσβολή.
+
+Συγχαρητήρια! Μόλις καταναλώσατε το μοντέλο που αναπτύχθηκε και εκπαιδεύτηκε στο Azure ML με το Azure ML SDK!
+
+> **_ΣΗΜΕΙΩΣΗ:_** Όταν ολοκληρώσετε το έργο, μην ξεχάσετε να διαγράψετε όλους τους πόρους.
+
+## 🚀 Πρόκληση
+
+Υπάρχουν πολλά άλλα πράγματα που μπορείτε να κάνετε μέσω του SDK, δυστυχώς, δεν μπορούμε να τα καλύψουμε όλα σε αυτό το μάθημα. Αλλά καλά νέα, η εκμάθηση του πώς να περιηγείστε στη τεκμηρίωση του SDK μπορεί να σας πάει πολύ μακριά μόνοι σας. Ρίξτε μια ματιά στην τεκμηρίωση του Azure ML SDK και βρείτε την κλάση `Pipeline` που σας επιτρέπει να δημιουργείτε pipelines. Ένα Pipeline είναι μια συλλογή βημάτων που μπορούν να εκτελεστούν ως μια ροή εργασίας.
+
+**ΥΠΟΔΕΙΞΗ:** Μεταβείτε στην [τεκμηρίωση του SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) και πληκτρολογήστε λέξεις-κλειδιά στη γραμμή αναζήτησης όπως "Pipeline". Θα πρέπει να δείτε την κλάση `azureml.pipeline.core.Pipeline` στα αποτελέσματα αναζήτησης.
+
+## [Κουίζ μετά το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Σε αυτό το μάθημα, μάθατε πώς να εκπαιδεύετε, να αναπτύσσετε και να καταναλώνετε ένα μοντέλο για την πρόβλεψη του κινδύνου καρδιακής ανεπάρκειας με το Azure ML SDK στο cloud. Ελέγξτε αυτήν την [τεκμηρίωση](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) για περισσότερες πληροφορίες σχετικά με το Azure ML SDK. Δοκιμάστε να δημιουργήσετε το δικό σας μοντέλο με το Azure ML SDK.
+
+## Εργασία
+
+[Έργο Επιστήμης Δεδομένων χρησιμοποιώντας το Azure ML SDK](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/el/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..e4023b19
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Έργο Επιστήμης Δεδομένων χρησιμοποιώντας το Azure ML SDK
+
+## Οδηγίες
+
+Είδαμε πώς να χρησιμοποιήσουμε την πλατφόρμα Azure ML για να εκπαιδεύσουμε, να αναπτύξουμε και να καταναλώσουμε ένα μοντέλο με το Azure ML SDK. Τώρα ψάξτε για κάποια δεδομένα που θα μπορούσατε να χρησιμοποιήσετε για να εκπαιδεύσετε ένα άλλο μοντέλο, να το αναπτύξετε και να το καταναλώσετε. Μπορείτε να αναζητήσετε σύνολα δεδομένων στο [Kaggle](https://kaggle.com) και [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Κριτήρια Αξιολόγησης
+
+| Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση |
+|-----------|----------|-------------------|
+|Κατά τη δημιουργία της AutoML Configuration, εξετάσατε την τεκμηρίωση του SDK για να δείτε ποια παραμέτρους θα μπορούσατε να χρησιμοποιήσετε. Εκτελέσατε εκπαίδευση σε ένα σύνολο δεδομένων μέσω AutoML χρησιμοποιώντας το Azure ML SDK και ελέγξατε τις εξηγήσεις του μοντέλου. Αναπτύξατε το καλύτερο μοντέλο και καταφέρατε να το καταναλώσετε μέσω του Azure ML SDK. | Εκτελέσατε εκπαίδευση σε ένα σύνολο δεδομένων μέσω AutoML χρησιμοποιώντας το Azure ML SDK και ελέγξατε τις εξηγήσεις του μοντέλου. Αναπτύξατε το καλύτερο μοντέλο και καταφέρατε να το καταναλώσετε μέσω του Azure ML SDK. | Εκτελέσατε εκπαίδευση σε ένα σύνολο δεδομένων μέσω AutoML χρησιμοποιώντας το Azure ML SDK. Αναπτύξατε το καλύτερο μοντέλο και καταφέρατε να το καταναλώσετε μέσω του Azure ML SDK. |
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης AI [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/5-Data-Science-In-Cloud/README.md b/translations/el/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..fb8edeec
--- /dev/null
+++ b/translations/el/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Επιστήμη Δεδομένων στο Cloud
+
+
+
+> Φωτογραφία από [Jelleke Vanooteghem](https://unsplash.com/@ilumire) στο [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Όταν πρόκειται για την επιστήμη δεδομένων με μεγάλα δεδομένα, το cloud μπορεί να αλλάξει τα δεδομένα. Στα επόμενα τρία μαθήματα, θα δούμε τι είναι το cloud και γιατί μπορεί να είναι πολύ χρήσιμο. Θα εξερευνήσουμε επίσης ένα σύνολο δεδομένων για καρδιακή ανεπάρκεια και θα δημιουργήσουμε ένα μοντέλο για να βοηθήσουμε στην εκτίμηση της πιθανότητας κάποιος να έχει καρδιακή ανεπάρκεια. Θα χρησιμοποιήσουμε τη δύναμη του cloud για να εκπαιδεύσουμε, να αναπτύξουμε και να χρησιμοποιήσουμε ένα μοντέλο με δύο διαφορετικούς τρόπους. Ο ένας τρόπος είναι χρησιμοποιώντας μόνο το περιβάλλον χρήστη με μια προσέγγιση "Low code/No code", και ο άλλος τρόπος είναι χρησιμοποιώντας το Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Θέματα
+
+1. [Γιατί να χρησιμοποιήσετε το Cloud για την Επιστήμη Δεδομένων;](17-Introduction/README.md)
+2. [Επιστήμη Δεδομένων στο Cloud: Η προσέγγιση "Low code/No code"](18-Low-Code/README.md)
+3. [Επιστήμη Δεδομένων στο Cloud: Η προσέγγιση "Azure ML SDK"](19-Azure/README.md)
+
+### Συντελεστές
+Αυτά τα μαθήματα γράφτηκαν με ☁️ και 💕 από [Maud Levy](https://twitter.com/maudstweets) και [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Τα δεδομένα για το έργο Πρόβλεψης Καρδιακής Ανεπάρκειας προέρχονται από τον [
+Larxel](https://www.kaggle.com/andrewmvd) στο [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Είναι αδειοδοτημένα υπό την [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη γλώσσα του θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/el/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..f3c24498
--- /dev/null
+++ b/translations/el/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,136 @@
+
+# Επιστήμη Δεδομένων στον Πραγματικό Κόσμο
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Επιστήμη Δεδομένων στον Πραγματικό Κόσμο - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Φτάνουμε σχεδόν στο τέλος αυτού του ταξιδιού μάθησης!
+
+Ξεκινήσαμε με ορισμούς της επιστήμης δεδομένων και της ηθικής, εξερευνήσαμε διάφορα εργαλεία και τεχνικές για ανάλυση και οπτικοποίηση δεδομένων, ανασκοπήσαμε τον κύκλο ζωής της επιστήμης δεδομένων και εξετάσαμε πώς να κλιμακώσουμε και να αυτοματοποιήσουμε τις ροές εργασίας της επιστήμης δεδομένων με υπηρεσίες υπολογιστικού νέφους. Οπότε, ίσως αναρωτιέστε: _"Πώς ακριβώς μπορώ να συνδέσω όλες αυτές τις γνώσεις με πραγματικά περιβάλλοντα;"_
+
+Σε αυτό το μάθημα, θα εξερευνήσουμε εφαρμογές της επιστήμης δεδομένων στον πραγματικό κόσμο σε διάφορους κλάδους και θα εμβαθύνουμε σε συγκεκριμένα παραδείγματα στους τομείς της έρευνας, των ψηφιακών ανθρωπιστικών επιστημών και της βιωσιμότητας. Θα δούμε ευκαιρίες για φοιτητικά έργα και θα ολοκληρώσουμε με χρήσιμους πόρους για να συνεχίσετε το ταξίδι μάθησής σας!
+
+## Ερωτηματολόγιο Πριν το Μάθημα
+
+[Ερωτηματολόγιο πριν το μάθημα](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Επιστήμη Δεδομένων + Βιομηχανία
+
+Χάρη στη δημοκρατικοποίηση της Τεχνητής Νοημοσύνης, οι προγραμματιστές βρίσκουν πλέον πιο εύκολο να σχεδιάζουν και να ενσωματώνουν αποφάσεις που βασίζονται στην ΤΝ και πληροφορίες που βασίζονται σε δεδομένα στις εμπειρίες χρηστών και στις ροές εργασίας ανάπτυξης. Ακολουθούν μερικά παραδείγματα για το πώς η επιστήμη δεδομένων "εφαρμόζεται" σε πραγματικές εφαρμογές στη βιομηχανία:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) - χρησιμοποίησε την επιστήμη δεδομένων για να συσχετίσει όρους αναζήτησης με τάσεις γρίπης. Παρόλο που η προσέγγιση είχε αδυναμίες, ανέδειξε τις δυνατότητες (και τις προκλήσεις) των προβλέψεων υγειονομικής περίθαλψης που βασίζονται σε δεδομένα.
+
+ * [Προβλέψεις Διαδρομών UPS](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - εξηγεί πώς η UPS χρησιμοποιεί την επιστήμη δεδομένων και τη μηχανική μάθηση για να προβλέψει βέλτιστες διαδρομές παράδοσης, λαμβάνοντας υπόψη τις καιρικές συνθήκες, τα μοτίβα κυκλοφορίας, τις προθεσμίες παράδοσης και άλλα.
+
+ * [Οπτικοποίηση Διαδρομών Ταξί στη Νέα Υόρκη](http://chriswhong.github.io/nyctaxi/) - δεδομένα που συλλέχθηκαν μέσω [Νόμων Ελευθερίας Πληροφοριών](https://chriswhong.com/open-data/foil_nyc_taxi/) βοήθησαν στην οπτικοποίηση μιας ημέρας στη ζωή των ταξί της Νέας Υόρκης, βοηθώντας μας να κατανοήσουμε πώς κινούνται στην πολυσύχναστη πόλη, τα έσοδά τους και τη διάρκεια των διαδρομών σε κάθε 24ωρη περίοδο.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - χρησιμοποιεί δεδομένα (για τοποθεσίες παραλαβής & αποβίβασης, διάρκεια διαδρομής, προτιμώμενες διαδρομές κ.λπ.) που συλλέγονται από εκατομμύρια διαδρομές Uber *καθημερινά* για να δημιουργήσει ένα εργαλείο ανάλυσης δεδομένων που βοηθά στη διαμόρφωση τιμών, την ασφάλεια, την ανίχνευση απάτης και τις αποφάσεις πλοήγησης.
+
+ * [Αναλυτική στον Αθλητισμό](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - εστιάζει στην _προβλεπτική ανάλυση_ (ανάλυση ομάδων και παικτών - σκεφτείτε το [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - και διαχείριση φιλάθλων) και στην _οπτικοποίηση δεδομένων_ (πίνακες ελέγχου ομάδων & φιλάθλων, παιχνίδια κ.λπ.) με εφαρμογές όπως η ανίχνευση ταλέντων, ο στοιχηματισμός στον αθλητισμό και η διαχείριση αποθεμάτων/χώρων.
+
+ * [Επιστήμη Δεδομένων στις Τράπεζες](https://data-flair.training/blogs/data-science-in-banking/) - αναδεικνύει την αξία της επιστήμης δεδομένων στον χρηματοοικονομικό τομέα με εφαρμογές που κυμαίνονται από τη μοντελοποίηση κινδύνου και την ανίχνευση απάτης, έως την τμηματοποίηση πελατών, την πρόβλεψη σε πραγματικό χρόνο και τα συστήματα συστάσεων. Η προβλεπτική ανάλυση οδηγεί επίσης σε κρίσιμα μέτρα όπως οι [πιστωτικές βαθμολογίες](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Επιστήμη Δεδομένων στην Υγειονομική Περίθαλψη](https://data-flair.training/blogs/data-science-in-healthcare/) - αναδεικνύει εφαρμογές όπως η ιατρική απεικόνιση (π.χ., MRI, ακτινογραφίες, αξονικές τομογραφίες), η γονιδιωματική (αλληλούχιση DNA), η ανάπτυξη φαρμάκων (αξιολόγηση κινδύνου, πρόβλεψη επιτυχίας), η προβλεπτική ανάλυση (φροντίδα ασθενών & εφοδιαστική), η παρακολούθηση & πρόληψη ασθενειών κ.λπ.
+
+ Πηγή Εικόνας: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Η εικόνα δείχνει άλλους τομείς και παραδείγματα εφαρμογής τεχνικών επιστήμης δεδομένων. Θέλετε να εξερευνήσετε άλλες εφαρμογές; Δείτε την ενότητα [Ανασκόπηση & Αυτομελέτη](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) παρακάτω.
+
+## Επιστήμη Δεδομένων + Έρευνα
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Επιστήμη Δεδομένων & Έρευνα - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Ενώ οι εφαρμογές στον πραγματικό κόσμο συχνά εστιάζουν σε περιπτώσεις χρήσης στη βιομηχανία σε μεγάλη κλίμακα, οι εφαρμογές και τα έργα _έρευνας_ μπορούν να είναι χρήσιμα από δύο οπτικές:
+
+* _ευκαιρίες καινοτομίας_ - εξερεύνηση ταχείας δημιουργίας πρωτοτύπων προηγμένων εννοιών και δοκιμή εμπειριών χρήστη για εφαρμογές επόμενης γενιάς.
+* _προκλήσεις υλοποίησης_ - διερεύνηση πιθανών βλαβών ή ακούσιων συνεπειών των τεχνολογιών επιστήμης δεδομένων σε πραγματικά περιβάλλοντα.
+
+Για φοιτητές, αυτά τα ερευνητικά έργα μπορούν να προσφέρουν τόσο ευκαιρίες μάθησης όσο και συνεργασίας, βελτιώνοντας την κατανόησή σας για το θέμα και διευρύνοντας την επίγνωσή σας και τη συμμετοχή σας με σχετικούς ανθρώπους ή ομάδες που εργάζονται σε τομείς ενδιαφέροντος. Πώς μοιάζουν λοιπόν τα ερευνητικά έργα και πώς μπορούν να έχουν αντίκτυπο;
+
+Ας δούμε ένα παράδειγμα - τη [Μελέτη Gender Shades του MIT](http://gendershades.org/overview.html) από την Joy Buolamwini (MIT Media Labs) με μια [υποδειγματική ερευνητική εργασία](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) που συνυπογράφεται με την Timnit Gebru (τότε στη Microsoft Research) και εστιάζει σε:
+
+ * **Τι:** Ο στόχος του ερευνητικού έργου ήταν να _αξιολογήσει την προκατάληψη που υπάρχει στους αλγορίθμους και τα σύνολα δεδομένων ανάλυσης προσώπου_ με βάση το φύλο και τον τύπο δέρματος.
+ * **Γιατί:** Η ανάλυση προσώπου χρησιμοποιείται σε τομείς όπως η επιβολή του νόμου, η ασφάλεια αεροδρομίων, τα συστήματα πρόσληψης και άλλα - περιβάλλοντα όπου οι ανακριβείς ταξινομήσεις (π.χ., λόγω προκατάληψης) μπορούν να προκαλέσουν οικονομικές και κοινωνικές βλάβες στα επηρεαζόμενα άτομα ή ομάδες. Η κατανόηση (και η εξάλειψη ή μετριασμός) των προκαταλήψεων είναι το κλειδί για τη δικαιοσύνη στη χρήση.
+ * **Πώς:** Οι ερευνητές αναγνώρισαν ότι τα υπάρχοντα σημεία αναφοράς χρησιμοποιούσαν κυρίως άτομα με ανοιχτόχρωμο δέρμα και δημιούργησαν ένα νέο σύνολο δεδομένων (1000+ εικόνες) που ήταν _πιο ισορροπημένο_ ως προς το φύλο και τον τύπο δέρματος. Το σύνολο δεδομένων χρησιμοποιήθηκε για την αξιολόγηση της ακρίβειας τριών προϊόντων ταξινόμησης φύλου (από Microsoft, IBM & Face++).
+
+Τα αποτελέσματα έδειξαν ότι, αν και η συνολική ακρίβεια ταξινόμησης ήταν καλή, υπήρχε αξιοσημείωτη διαφορά στα ποσοστά σφάλματος μεταξύ διαφόρων υποομάδων - με **λανθασμένη αναγνώριση φύλου** να είναι υψηλότερη για γυναίκες ή άτομα με πιο σκούρους τύπους δέρματος, κάτι που υποδηλώνει προκατάληψη.
+
+**Κύρια Αποτελέσματα:** Αυξήθηκε η επίγνωση ότι η επιστήμη δεδομένων χρειάζεται πιο _αντιπροσωπευτικά σύνολα δεδομένων_ (ισορροπημένες υποομάδες) και πιο _συμπεριληπτικές ομάδες_ (ποικίλα υπόβαθρα) για να αναγνωρίσει και να εξαλείψει ή να μετριάσει τέτοιες προκαταλήψεις νωρίτερα στις λύσεις ΤΝ. Τέτοιες ερευνητικές προσπάθειες είναι επίσης καθοριστικές για τον καθορισμό αρχών και πρακτικών για _υπεύθυνη ΤΝ_ από πολλές οργανώσεις, ώστε να βελτιωθεί η δικαιοσύνη στα προϊόντα και τις διαδικασίες ΤΝ τους.
+
+**Θέλετε να μάθετε για σχετικές ερευνητικές προσπάθειες στη Microsoft;**
+
+* Δείτε τα [Ερευνητικά Έργα της Microsoft](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) στην Τεχνητή Νοημοσύνη.
+* Εξερευνήστε φοιτητικά έργα από το [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Δείτε το έργο [Fairlearn](https://fairlearn.org/) και τις πρωτοβουλίες [Υπεύθυνης ΤΝ](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6).
+
+## Επιστήμη Δεδομένων + Ανθρωπιστικές Επιστήμες
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Επιστήμη Δεδομένων & Ψηφιακές Ανθρωπιστικές Επιστήμες - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+Οι Ψηφιακές Ανθρωπιστικές Επιστήμες [έχουν οριστεί](https://digitalhumanities.stanford.edu/about-dh-stanford) ως "μια συλλογή πρακτικών και προσεγγίσεων που συνδυάζουν υπολογιστικές μεθόδους με ανθρωπιστική έρευνα". [Έργα του Stanford](https://digitalhumanities.stanford.edu/projects) όπως το _"rebooting history"_ και το _"poetic thinking"_ δείχνουν τη σύνδεση μεταξύ [Ψηφιακών Ανθρωπιστικών Επιστημών και Επιστήμης Δεδομένων](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - τονίζοντας τεχνικές όπως η ανάλυση δικτύων, η οπτικοποίηση πληροφοριών, η χωρική και κειμενική ανάλυση που μπορούν να μας βοηθήσουν να επανεξετάσουμε ιστορικά και λογοτεχνικά σύνολα δεδομένων για να αντλήσουμε νέες γνώσεις και προοπτικές.
+
+*Θέλετε να εξερευνήσετε και να επεκτείνετε ένα έργο σε αυτόν τον τομέα;*
+
+Δείτε το ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - ένα εξαιρετικό παράδειγμα από την [Jen Looper](https://twitter.com/jenlooper) που ρωτά πώς μπορούμε να χρησιμοποιήσουμε την επιστήμη δεδομένων για να επανεξετάσουμε γνωστή ποίηση και να επαναξιολογήσουμε τη σημασία της και τη συμβολή της συγγραφέως σε νέα πλαίσια. Για παράδειγμα, _μπορούμε να προβλέψουμε την εποχή κατά την οποία γράφτηκε ένα ποίημα αναλύοντας τον τόνο ή το συναίσθημά του_ - και τι μας λέει αυτό για την ψυχική κατάσταση της συγγραφέως κατά τη σχετική περίοδο;
+
+Για να απαντήσουμε σε αυτή την ερώτηση, ακολουθούμε τα βήματα του κύκλου ζωής της επιστήμης δεδομένων:
+ * [`Απόκτηση Δεδομένων`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - για τη συλλογή ενός σχετικού συνόλου δεδομένων για ανάλυση. Οι επιλογές περιλαμβάνουν τη χρήση ενός API (π.χ., [Poetry DB API](https://poetrydb.org/index.html)) ή την εξαγωγή δεδομένων από ιστοσελίδες (π.χ., [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) χρησιμοποιώντας εργαλεία όπως το [Scrapy](https://scrapy.org/).
+ * [`Καθαρισμός Δεδομένων`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - εξηγεί πώς μπορεί να μορφοποιηθεί, να καθαριστεί και να απλοποιηθεί το κείμενο χρησιμοποιώντας βασικά εργαλεία όπως το Visual Studio Code και το Microsoft Excel.
+ * [`Ανάλυση Δεδομένων`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - εξηγεί πώς μπορούμε τώρα να εισάγουμε το σύνολο δεδομένων σε "Notebooks" για ανάλυση χρησιμοποιώντας πακέτα Python (όπως pandas, numpy και matplotlib) για την οργάνωση και την οπτικοποίηση των δεδομένων.
+ * [`Ανάλυση Συναισθημάτων`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - εξηγεί πώς μπορούμε να ενσωμα
+**Το έργο Planetary Computer βρίσκεται επί του παρόντος σε προεπισκόπηση (από τον Σεπτέμβριο του 2021)** - δείτε πώς μπορείτε να ξεκινήσετε να συμβάλλετε σε λύσεις βιωσιμότητας χρησιμοποιώντας την επιστήμη δεδομένων.
+
+* [Ζητήστε πρόσβαση](https://planetarycomputer.microsoft.com/account/request) για να ξεκινήσετε την εξερεύνηση και να συνδεθείτε με άλλους.
+* [Εξερευνήστε την τεκμηρίωση](https://planetarycomputer.microsoft.com/docs/overview/about) για να κατανοήσετε τα υποστηριζόμενα σύνολα δεδομένων και APIs.
+* Εξερευνήστε εφαρμογές όπως το [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) για έμπνευση σχετικά με ιδέες εφαρμογών.
+
+Σκεφτείτε πώς μπορείτε να χρησιμοποιήσετε την οπτικοποίηση δεδομένων για να αποκαλύψετε ή να ενισχύσετε σχετικές πληροφορίες σε τομείς όπως η κλιματική αλλαγή και η αποψίλωση των δασών. Ή σκεφτείτε πώς οι πληροφορίες μπορούν να χρησιμοποιηθούν για τη δημιουργία νέων εμπειριών χρήστη που παρακινούν αλλαγές συμπεριφοράς για μια πιο βιώσιμη ζωή.
+
+## Επιστήμη Δεδομένων + Φοιτητές
+
+Έχουμε μιλήσει για εφαρμογές στον πραγματικό κόσμο στη βιομηχανία και την έρευνα και έχουμε εξερευνήσει παραδείγματα εφαρμογών επιστήμης δεδομένων στις ψηφιακές ανθρωπιστικές επιστήμες και τη βιωσιμότητα. Πώς λοιπόν μπορείτε να αναπτύξετε τις δεξιότητές σας και να μοιραστείτε την τεχνογνωσία σας ως αρχάριοι στην επιστήμη δεδομένων;
+
+Ακολουθούν μερικά παραδείγματα φοιτητικών έργων επιστήμης δεδομένων για να σας εμπνεύσουν.
+
+* [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) με [έργα](https://github.com/msr-ds3) στο GitHub που εξερευνούν θέματα όπως:
+ - [Ρατσιστική Μεροληψία στη Χρήση Βίας από την Αστυνομία](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Αξιοπιστία του Συστήματος Μετρό της Νέας Υόρκης](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [Ψηφιοποίηση Υλικού Πολιτισμού: Εξερεύνηση κοινωνικοοικονομικών κατανομών στο Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - από την [Ornella Altunyan](https://twitter.com/ornelladotcom) και την ομάδα της στο Claremont, χρησιμοποιώντας [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Πρόκληση
+
+Αναζητήστε άρθρα που προτείνουν έργα επιστήμης δεδομένων φιλικά προς αρχάριους - όπως [αυτές οι 50 θεματικές περιοχές](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) ή [αυτές οι 21 ιδέες έργων](https://www.intellspot.com/data-science-project-ideas) ή [αυτά τα 16 έργα με πηγαίο κώδικα](https://data-flair.training/blogs/data-science-project-ideas/) που μπορείτε να αναλύσετε και να ανασυνθέσετε. Και μην ξεχάσετε να γράψετε στο blog για τα ταξίδια μάθησής σας και να μοιραστείτε τις γνώσεις σας μαζί μας.
+
+## Κουίζ Μετά τη Διάλεξη
+
+[Κουίζ μετά τη διάλεξη](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Ανασκόπηση & Αυτομελέτη
+
+Θέλετε να εξερευνήσετε περισσότερες περιπτώσεις χρήσης; Ακολουθούν μερικά σχετικά άρθρα:
+* [17 Εφαρμογές και Παραδείγματα Επιστήμης Δεδομένων](https://builtin.com/data-science/data-science-applications-examples) - Ιούλιος 2021
+* [11 Εκπληκτικές Εφαρμογές Επιστήμης Δεδομένων στον Πραγματικό Κόσμο](https://myblindbird.com/data-science-applications-real-world/) - Μάιος 2021
+* [Η Επιστήμη Δεδομένων στον Πραγματικό Κόσμο](https://towardsdatascience.com/data-science-in-the-real-world/home) - Συλλογή Άρθρων
+* Επιστήμη Δεδομένων σε: [Εκπαίδευση](https://data-flair.training/blogs/data-science-in-education/), [Γεωργία](https://data-flair.training/blogs/data-science-in-agriculture/), [Χρηματοοικονομικά](https://data-flair.training/blogs/data-science-in-finance/), [Ταινίες](https://data-flair.training/blogs/data-science-at-movies/) & άλλα.
+
+## Εργασία
+
+[Εξερευνήστε Ένα Σύνολο Δεδομένων του Planetary Computer](assignment.md)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/el/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..110aaf85
--- /dev/null
+++ b/translations/el/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Εξερεύνηση ενός Συνόλου Δεδομένων του Planetary Computer
+
+## Οδηγίες
+
+Σε αυτό το μάθημα, μιλήσαμε για διάφορους τομείς εφαρμογής της επιστήμης δεδομένων - με λεπτομερή ανάλυση παραδειγμάτων που σχετίζονται με την έρευνα, τη βιωσιμότητα και τις ψηφιακές ανθρωπιστικές επιστήμες. Σε αυτήν την εργασία, θα εξερευνήσετε ένα από αυτά τα παραδείγματα πιο αναλυτικά και θα εφαρμόσετε κάποιες από τις γνώσεις σας σχετικά με τις οπτικοποιήσεις και την ανάλυση δεδομένων για να εξαγάγετε πληροφορίες σχετικά με δεδομένα βιωσιμότητας.
+
+Το έργο [Planetary Computer](https://planetarycomputer.microsoft.com/) διαθέτει σύνολα δεδομένων και APIs που μπορούν να προσπελαστούν με έναν λογαριασμό - ζητήστε έναν λογαριασμό για πρόσβαση αν θέλετε να δοκιμάσετε το επιπλέον βήμα της εργασίας. Ο ιστότοπος παρέχει επίσης τη λειτουργία [Explorer](https://planetarycomputer.microsoft.com/explore), την οποία μπορείτε να χρησιμοποιήσετε χωρίς να δημιουργήσετε λογαριασμό.
+
+`Βήματα:`
+Η διεπαφή Explorer (που φαίνεται στο στιγμιότυπο οθόνης παρακάτω) σας επιτρέπει να επιλέξετε ένα σύνολο δεδομένων (από τις διαθέσιμες επιλογές), μια προκαθορισμένη ερώτηση (για φιλτράρισμα δεδομένων) και μια επιλογή απεικόνισης (για τη δημιουργία μιας σχετικής οπτικοποίησης). Σε αυτήν την εργασία, η αποστολή σας είναι:
+
+ 1. Διαβάστε την [τεκμηρίωση του Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - κατανοήστε τις επιλογές.
+ 2. Εξερευνήστε τον [Κατάλογο](https://planetarycomputer.microsoft.com/catalog) συνόλων δεδομένων - μάθετε τον σκοπό του καθενός.
+ 3. Χρησιμοποιήστε το Explorer - επιλέξτε ένα σύνολο δεδομένων που σας ενδιαφέρει, επιλέξτε μια σχετική ερώτηση και επιλογή απεικόνισης.
+
+
+
+`Η Αποστολή σας:`
+Μελετήστε τώρα την οπτικοποίηση που δημιουργείται στον περιηγητή και απαντήστε στα εξής:
+ * Ποια _χαρακτηριστικά_ έχει το σύνολο δεδομένων;
+ * Ποιες _πληροφορίες_ ή αποτελέσματα παρέχει η οπτικοποίηση;
+ * Ποιες είναι οι _επιπτώσεις_ αυτών των πληροφοριών στους στόχους βιωσιμότητας του έργου;
+ * Ποιες είναι οι _περιορισμοί_ της οπτικοποίησης (δηλαδή, ποια πληροφορία δεν λάβατε;)
+ * Αν μπορούσατε να αποκτήσετε τα ακατέργαστα δεδομένα, ποιες _εναλλακτικές οπτικοποιήσεις_ θα δημιουργούσατε και γιατί;
+
+`Επιπλέον Πόντοι:`
+Κάντε αίτηση για λογαριασμό - και συνδεθείτε όταν γίνει αποδεκτή.
+ * Χρησιμοποιήστε την επιλογή _Launch Hub_ για να ανοίξετε τα ακατέργαστα δεδομένα σε ένα Notebook.
+ * Εξερευνήστε τα δεδομένα διαδραστικά και υλοποιήστε τις εναλλακτικές οπτικοποιήσεις που σκεφτήκατε.
+ * Αναλύστε τώρα τις προσαρμοσμένες οπτικοποιήσεις σας - καταφέρατε να εξαγάγετε τις πληροφορίες που σας έλειπαν προηγουμένως;
+
+## Κριτήρια Αξιολόγησης
+
+Εξαιρετικό | Επαρκές | Χρειάζεται Βελτίωση
+--- | --- | -- |
+Απαντήθηκαν και οι πέντε βασικές ερωτήσεις. Ο μαθητής προσδιόρισε ξεκάθαρα πώς οι τρέχουσες και εναλλακτικές οπτικοποιήσεις θα μπορούσαν να παρέχουν πληροφορίες για τους στόχους ή τα αποτελέσματα βιωσιμότητας.| Ο μαθητής απάντησε τουλάχιστον στις 3 πρώτες ερωτήσεις με μεγάλη λεπτομέρεια, δείχνοντας ότι είχε πρακτική εμπειρία με το Explorer.| Ο μαθητής δεν απάντησε σε πολλές ερωτήσεις ή παρείχε ανεπαρκείς λεπτομέρειες - δείχνοντας ότι δεν έγινε ουσιαστική προσπάθεια για την εργασία.|
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/6-Data-Science-In-Wild/README.md b/translations/el/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..a55a25d2
--- /dev/null
+++ b/translations/el/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Επιστήμη Δεδομένων στην Πράξη
+
+Πραγματικές εφαρμογές της επιστήμης δεδομένων σε διάφορους κλάδους.
+
+### Θέματα
+
+1. [Επιστήμη Δεδομένων στον Πραγματικό Κόσμο](20-Real-World-Examples/README.md)
+
+### Συντελεστές
+
+Γραμμένο με ❤️ από τη [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/CODE_OF_CONDUCT.md b/translations/el/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..a8651502
--- /dev/null
+++ b/translations/el/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Κώδικας Δεοντολογίας Ανοιχτού Κώδικα της Microsoft
+
+Αυτό το έργο έχει υιοθετήσει τον [Κώδικα Δεοντολογίας Ανοιχτού Κώδικα της Microsoft](https://opensource.microsoft.com/codeofconduct/).
+
+Πόροι:
+
+- [Κώδικας Δεοντολογίας Ανοιχτού Κώδικα της Microsoft](https://opensource.microsoft.com/codeofconduct/)
+- [Συχνές Ερωτήσεις για τον Κώδικα Δεοντολογίας](https://opensource.microsoft.com/codeofconduct/faq/)
+- Επικοινωνήστε με [opencode@microsoft.com](mailto:opencode@microsoft.com) για ερωτήσεις ή ανησυχίες
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/CONTRIBUTING.md b/translations/el/CONTRIBUTING.md
new file mode 100644
index 00000000..176250d9
--- /dev/null
+++ b/translations/el/CONTRIBUTING.md
@@ -0,0 +1,21 @@
+
+# Συμβολή
+
+Αυτό το έργο καλωσορίζει συνεισφορές και προτάσεις. Οι περισσότερες συνεισφορές απαιτούν να συμφωνήσετε με μια Συμφωνία Άδειας Χρήσης Συνεισφορέα (CLA), δηλώνοντας ότι έχετε το δικαίωμα και πράγματι παραχωρείτε σε εμάς τα δικαιώματα να χρησιμοποιούμε τη συνεισφορά σας. Για λεπτομέρειες, επισκεφθείτε τη διεύθυνση https://cla.microsoft.com.
+
+Όταν υποβάλετε ένα αίτημα pull, ένα CLA-bot θα καθορίσει αυτόματα εάν χρειάζεται να παρέχετε μια CLA και θα διαμορφώσει το PR κατάλληλα (π.χ., ετικέτα, σχόλιο). Απλώς ακολουθήστε τις οδηγίες που παρέχονται από το bot. Θα χρειαστεί να το κάνετε αυτό μόνο μία φορά για όλα τα αποθετήρια που χρησιμοποιούν τη CLA μας.
+
+Αυτό το έργο έχει υιοθετήσει τον [Κώδικα Δεοντολογίας Ανοιχτού Κώδικα της Microsoft](https://opensource.microsoft.com/codeofconduct/). Για περισσότερες πληροφορίες, δείτε τις [Συχνές Ερωτήσεις για τον Κώδικα Δεοντολογίας](https://opensource.microsoft.com/codeofconduct/faq/) ή επικοινωνήστε με [opencode@microsoft.com](mailto:opencode@microsoft.com) για οποιεσδήποτε επιπλέον ερωτήσεις ή σχόλια.
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/README.md b/translations/el/README.md
new file mode 100644
index 00000000..377bd77b
--- /dev/null
+++ b/translations/el/README.md
@@ -0,0 +1,163 @@
+
+# Επιστήμη Δεδομένων για Αρχάριους - Ένα Πρόγραμμα Σπουδών
+
+Azure Cloud Advocates στη Microsoft είναι στην ευχάριστη θέση να προσφέρουν ένα πρόγραμμα σπουδών 10 εβδομάδων και 20 μαθημάτων για την Επιστήμη Δεδομένων. Κάθε μάθημα περιλαμβάνει κουίζ πριν και μετά το μάθημα, γραπτές οδηγίες για την ολοκλήρωση του μαθήματος, μια λύση και μια εργασία. Η προσέγγισή μας, που βασίζεται σε έργα, σας επιτρέπει να μαθαίνετε δημιουργώντας, μια αποδεδειγμένη μέθοδος για να εδραιώσετε νέες δεξιότητες.
+
+**Ευχαριστίες στους συγγραφείς μας:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Ιδιαίτερες ευχαριστίες 🙏 στους [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) συγγραφείς, κριτές και συνεισφέροντες περιεχομένου,** όπως οι Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Επιστήμη Δεδομένων για Αρχάριους - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+## Ανακοίνωση - Νέο Πρόγραμμα Σπουδών για Γενετική Τεχνητή Νοημοσύνη μόλις κυκλοφόρησε!
+
+Μόλις κυκλοφορήσαμε ένα πρόγραμμα σπουδών 12 μαθημάτων για τη γενετική τεχνητή νοημοσύνη. Μάθετε θέματα όπως:
+
+- δημιουργία και βελτιστοποίηση προτροπών
+- δημιουργία εφαρμογών κειμένου και εικόνας
+- εφαρμογές αναζήτησης
+
+Όπως πάντα, περιλαμβάνονται μαθήματα, εργασίες, έλεγχοι γνώσεων και προκλήσεις.
+
+Δείτε το:
+
+> https://aka.ms/genai-beginners
+
+# Είστε φοιτητής;
+
+Ξεκινήστε με τους παρακάτω πόρους:
+
+- [Σελίδα Κόμβου Φοιτητών](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Σε αυτή τη σελίδα, θα βρείτε πόρους για αρχάριους, πακέτα φοιτητών και ακόμη και τρόπους για να αποκτήσετε δωρεάν κουπόνι πιστοποίησης. Αυτή είναι μια σελίδα που αξίζει να προσθέσετε στους σελιδοδείκτες σας και να ελέγχετε τακτικά, καθώς το περιεχόμενο αλλάζει τουλάχιστον μηνιαία.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Γίνετε μέλος μιας παγκόσμιας κοινότητας φοιτητών πρεσβευτών, αυτό μπορεί να είναι ο δρόμος σας προς τη Microsoft.
+
+# Ξεκινώντας
+
+> **Καθηγητές**: έχουμε [συμπεριλάβει κάποιες προτάσεις](for-teachers.md) για το πώς να χρησιμοποιήσετε αυτό το πρόγραμμα σπουδών. Θα θέλαμε πολύ τα σχόλιά σας [στο φόρουμ συζητήσεων μας](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Φοιτητές](https://aka.ms/student-page)**: για να χρησιμοποιήσετε αυτό το πρόγραμμα σπουδών μόνοι σας, κάντε fork ολόκληρο το αποθετήριο και ολοκληρώστε τις ασκήσεις μόνοι σας, ξεκινώντας με ένα κουίζ πριν το μάθημα. Στη συνέχεια, διαβάστε το μάθημα και ολοκληρώστε τις υπόλοιπες δραστηριότητες. Προσπαθήστε να δημιουργήσετε τα έργα κατανοώντας τα μαθήματα αντί να αντιγράφετε τον κώδικα λύσης. Ωστόσο, αυτός ο κώδικας είναι διαθέσιμος στους φακέλους /solutions σε κάθε μάθημα που βασίζεται σε έργα. Μια άλλη ιδέα θα ήταν να σχηματίσετε μια ομάδα μελέτης με φίλους και να περάσετε το περιεχόμενο μαζί. Για περαιτέρω μελέτη, προτείνουμε το [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Γνωρίστε την Ομάδα
+
+[](https://youtu.be/8mzavjQSMM4 "Προωθητικό βίντεο")
+
+**Gif από** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Κάντε κλικ στην παραπάνω εικόνα για ένα βίντεο σχετικά με το έργο και τους ανθρώπους που το δημιούργησαν!
+
+## Παιδαγωγική
+
+Επιλέξαμε δύο παιδαγωγικές αρχές κατά τη δημιουργία αυτού του προγράμματος σπουδών: να διασφαλίσουμε ότι βασίζεται σε έργα και ότι περιλαμβάνει συχνά κουίζ. Μέχρι το τέλος αυτής της σειράς, οι φοιτητές θα έχουν μάθει βασικές αρχές της επιστήμης δεδομένων, συμπεριλαμβανομένων ηθικών εννοιών, προετοιμασίας δεδομένων, διαφορετικών τρόπων εργασίας με δεδομένα, οπτικοποίησης δεδομένων, ανάλυσης δεδομένων, πραγματικών περιπτώσεων χρήσης της επιστήμης δεδομένων και πολλά άλλα.
+
+Επιπλέον, ένα κουίζ χαμηλού ρίσκου πριν από το μάθημα θέτει την πρόθεση του φοιτητή να μάθει ένα θέμα, ενώ ένα δεύτερο κουίζ μετά το μάθημα διασφαλίζει περαιτέρω την απομνημόνευση. Αυτό το πρόγραμμα σπουδών σχεδιάστηκε για να είναι ευέλικτο και διασκεδαστικό και μπορεί να ολοκληρωθεί ολόκληρο ή εν μέρει. Τα έργα ξεκινούν μικρά και γίνονται όλο και πιο περίπλοκα μέχρι το τέλος του κύκλου των 10 εβδομάδων.
+
+> Βρείτε τον [Κώδικα Συμπεριφοράς](CODE_OF_CONDUCT.md), [Οδηγίες Συνεισφοράς](CONTRIBUTING.md), [Οδηγίες Μετάφρασης](TRANSLATIONS.md). Περιμένουμε τα εποικοδομητικά σας σχόλια!
+
+## Κάθε μάθημα περιλαμβάνει:
+
+- Προαιρετικό σκίτσο
+- Προαιρετικό συμπληρωματικό βίντεο
+- Κουίζ προθέρμανσης πριν το μάθημα
+- Γραπτό μάθημα
+- Για μαθήματα που βασίζονται σε έργα, οδηγίες βήμα προς βήμα για την κατασκευή του έργου
+- Έλεγχοι γνώσεων
+- Μια πρόκληση
+- Συμπληρωματική ανάγνωση
+- Εργασία
+- Κουίζ μετά το μάθημα
+
+> **Σημείωση για τα κουίζ**: Όλα τα κουίζ βρίσκονται στον φάκελο Quiz-App, συνολικά 40 κουίζ με τρεις ερωτήσεις το καθένα. Συνδέονται μέσα από τα μαθήματα, αλλά η εφαρμογή κουίζ μπορεί να εκτελεστεί τοπικά ή να αναπτυχθεί στο Azure. Ακολουθήστε τις οδηγίες στον φάκελο `quiz-app`. Σταδιακά μεταφράζονται.
+
+## Μαθήματα
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Επιστήμη Δεδομένων για Αρχάριους: Οδικός Χάρτης - _Σκίτσο από [@nitya](https://twitter.com/nitya)_ |
+
+| Αριθμός Μαθήματος | Θέμα | Ομαδοποίηση Μαθημάτων | Στόχοι Μάθησης | Συνδεδεμένο Μάθημα | Συγγραφέας |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Ορισμός της Επιστήμης Δεδομένων | [Εισαγωγή](1-Introduction/README.md) | Μάθετε τις βασικές έννοιες πίσω από την επιστήμη δεδομένων και πώς σχετίζεται με την τεχνητή νοημοσύνη, τη μηχανική μάθηση και τα μεγάλα δεδομένα. | [μάθημα](1-Introduction/01-defining-data-science/README.md) [βίντεο](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Ηθική στην Επιστήμη Δεδομένων | [Εισαγωγή](1-Introduction/README.md) | Έννοιες, Προκλήσεις & Πλαίσια Ηθικής Δεδομένων. | [μάθημα](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Ορισμός των Δεδομένων | [Εισαγωγή](1-Introduction/README.md) | Πώς ταξινομούνται τα δεδομένα και ποιες είναι οι κοινές πηγές τους. | [μάθημα](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Εισαγωγή στις Στατιστικές & Πιθανότητες | [Εισαγωγή](1-Introduction/README.md) | Οι μαθηματικές τεχνικές της πιθανότητας και των στατιστικών για την κατανόηση των δεδομένων. | [μάθημα](1-Introduction/04-stats-and-probability/README.md) [βίντεο](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Εργασία με Σχεσιακά Δεδομένα | [Εργασία με Δεδομένα](2-Working-With-Data/README.md) | Εισαγωγή στα σχεσιακά δεδομένα και τα βασικά της εξερεύνησης και ανάλυσης σχεσιακών δεδομένων με τη Δομημένη Γλώσσα Ερωτημάτων, γνωστή και ως SQL. | [μάθημα](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Εργασία με Δεδομένα NoSQL | [Εργασία με Δεδομένα](2-Working-With-Data/README.md) | Εισαγωγή στα μη σχεσιακά δεδομένα, τους διάφορους τύπους τους και τα βασικά της εξερεύνησης και ανάλυσης βάσεων δεδομένων εγγράφων. | [μάθημα](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Εργασία με Python | [Εργασία με Δεδομένα](2-Working-With-Data/README.md) | Βασικά στοιχεία χρήσης της Python για την εξερεύνηση δεδομένων με βιβλιοθήκες όπως η Pandas. Συνιστάται θεμελιώδης κατανόηση του προγραμματισμού Python. | [μάθημα](2-Working-With-Data/07-python/README.md) [βίντεο](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Προετοιμασία Δεδομένων | [Εργασία με Δεδομένα](2-Working-With-Data/README.md) | Θέματα σχετικά με τεχνικές καθαρισμού και μετασχηματισμού δεδομένων για την αντιμετώπιση προκλήσεων όπως ελλιπή, ανακριβή ή ατελή δεδομένα. | [μάθημα](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Οπτικοποίηση Ποσοτήτων | [Οπτικοποίηση Δεδομένων](3-Data-Visualization/README.md) | Μάθετε πώς να χρησιμοποιείτε το Matplotlib για να οπτικοποιήσετε δεδομένα πουλιών 🦆 | [μάθημα](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Οπτικοποίηση Κατανομών Δεδομένων | [Οπτικοποίηση Δεδομένων](3-Data-Visualization/README.md) | Οπτικοποίηση παρατηρήσεων και τάσεων μέσα σε ένα διάστημα. | [μάθημα](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Οπτικοποίηση Αναλογιών | [Οπτικοποίηση Δεδομένων](3-Data-Visualization/README.md) | Οπτικοποίηση διακριτών και ομαδοποιημένων ποσοστών. | [μάθημα](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Οπτικοποίηση Σχέσεων | [Οπτικοποίηση Δεδομένων](3-Data-Visualization/README.md) | Οπτικοποίηση συνδέσεων και συσχετίσεων μεταξύ συνόλων δεδομένων και των μεταβλητών τους. | [μάθημα](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Σημαντικές Οπτικοποιήσεις | [Οπτικοποίηση Δεδομένων](3-Data-Visualization/README.md) | Τεχνικές και καθοδήγηση για τη δημιουργία οπτικοποιήσεων που είναι χρήσιμες για την αποτελεσματική επίλυση προβλημάτων και την εξαγωγή πληροφοριών. | [μάθημα](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Εισαγωγή στον Κύκλο Ζωής της Επιστήμης Δεδομένων | [Κύκλος Ζωής](4-Data-Science-Lifecycle/README.md) | Εισαγωγή στον κύκλο ζωής της επιστήμης δεδομένων και το πρώτο του βήμα, την απόκτηση και εξαγωγή δεδομένων. | [μάθημα](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Ανάλυση | [Κύκλος Ζωής](4-Data-Science-Lifecycle/README.md) | Αυτή η φάση του κύκλου ζωής της επιστήμης δεδομένων επικεντρώνεται σε τεχνικές ανάλυσης δεδομένων. | [μάθημα](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Επικοινωνία | [Κύκλος Ζωής](4-Data-Science-Lifecycle/README.md) | Αυτή η φάση του κύκλου ζωής της επιστήμης δεδομένων επικεντρώνεται στην παρουσίαση των πληροφοριών από τα δεδομένα με τρόπο που να διευκολύνει την κατανόηση από τους υπεύθυνους λήψης αποφάσεων. | [μάθημα](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Επιστήμη Δεδομένων στο Cloud | [Cloud Data](5-Data-Science-In-Cloud/README.md) | Αυτή η σειρά μαθημάτων εισάγει την επιστήμη δεδομένων στο cloud και τα οφέλη της. | [μάθημα](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) και [Maud](https://twitter.com/maudstweets) |
+| 18 | Επιστήμη Δεδομένων στο Cloud | [Cloud Data](5-Data-Science-In-Cloud/README.md) | Εκπαίδευση μοντέλων χρησιμοποιώντας εργαλεία Low Code. | [μάθημα](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) και [Maud](https://twitter.com/maudstweets) |
+| 19 | Επιστήμη Δεδομένων στο Cloud | [Cloud Data](5-Data-Science-In-Cloud/README.md) | Ανάπτυξη μοντέλων με το Azure Machine Learning Studio. | [μάθημα](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) και [Maud](https://twitter.com/maudstweets) |
+| 20 | Επιστήμη Δεδομένων στον Πραγματικό Κόσμο | [In the Wild](6-Data-Science-In-Wild/README.md) | Έργα επιστήμης δεδομένων στον πραγματικό κόσμο. | [μάθημα](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Ακολουθήστε αυτά τα βήματα για να ανοίξετε αυτό το δείγμα σε ένα Codespace:
+1. Κάντε κλικ στο μενού Code και επιλέξτε την επιλογή Open with Codespaces.
+2. Επιλέξτε + New codespace στο κάτω μέρος του παραθύρου.
+Για περισσότερες πληροφορίες, δείτε την [τεκμηρίωση του GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Ακολουθήστε αυτά τα βήματα για να ανοίξετε αυτό το αποθετήριο σε ένα container χρησιμοποιώντας τον τοπικό σας υπολογιστή και το VSCode με την επέκταση VS Code Remote - Containers:
+
+1. Αν είναι η πρώτη φορά που χρησιμοποιείτε container ανάπτυξης, βεβαιωθείτε ότι το σύστημά σας πληροί τις προϋποθέσεις (π.χ. έχετε εγκατεστημένο το Docker) στην [τεκμηρίωση για την έναρξη](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+Για να χρησιμοποιήσετε αυτό το αποθετήριο, μπορείτε είτε να το ανοίξετε σε έναν απομονωμένο όγκο Docker:
+
+**Σημείωση**: Στο παρασκήνιο, αυτό θα χρησιμοποιήσει την εντολή Remote-Containers: **Clone Repository in Container Volume...** για να κλωνοποιήσει τον πηγαίο κώδικα σε έναν όγκο Docker αντί για το τοπικό σύστημα αρχείων. [Όγκοι](https://docs.docker.com/storage/volumes/) είναι ο προτιμώμενος μηχανισμός για τη διατήρηση δεδομένων container.
+
+Ή να ανοίξετε μια τοπικά κλωνοποιημένη ή κατεβασμένη έκδοση του αποθετηρίου:
+
+- Κλωνοποιήστε αυτό το αποθετήριο στο τοπικό σας σύστημα αρχείων.
+- Πατήστε F1 και επιλέξτε την εντολή **Remote-Containers: Open Folder in Container...**.
+- Επιλέξτε το κλωνοποιημένο αντίγραφο αυτού του φακέλου, περιμένετε να ξεκινήσει το container και δοκιμάστε το.
+
+## Πρόσβαση εκτός σύνδεσης
+
+Μπορείτε να εκτελέσετε αυτήν την τεκμηρίωση εκτός σύνδεσης χρησιμοποιώντας το [Docsify](https://docsify.js.org/#/). Κλωνοποιήστε αυτό το αποθετήριο, [εγκαταστήστε το Docsify](https://docsify.js.org/#/quickstart) στον τοπικό σας υπολογιστή και, στη ρίζα του αποθετηρίου, πληκτρολογήστε `docsify serve`. Ο ιστότοπος θα εξυπηρετείται στη θύρα 3000 του localhost σας: `localhost:3000`.
+
+> Σημείωση, τα notebooks δεν θα εμφανίζονται μέσω του Docsify, οπότε όταν χρειάζεται να εκτελέσετε ένα notebook, κάντε το ξεχωριστά στο VS Code χρησιμοποιώντας έναν πυρήνα Python.
+
+## Ζητείται Βοήθεια!
+
+Αν θέλετε να μεταφράσετε όλο ή μέρος του προγράμματος σπουδών, παρακαλούμε ακολουθήστε τον [οδηγό μεταφράσεων](TRANSLATIONS.md).
+
+## Άλλα Προγράμματα Σπουδών
+
+Η ομάδα μας δημιουργεί και άλλα προγράμματα σπουδών! Δείτε:
+
+- [Generative AI for Beginners](https://aka.ms/genai-beginners)
+- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative AI with Java](https://aka.ms/genaijava)
+- [AI for Beginners](https://aka.ms/ai-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [IoT for Beginners](https://aka.ms/iot-beginners)
+- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/SECURITY.md b/translations/el/SECURITY.md
new file mode 100644
index 00000000..5cd8ea37
--- /dev/null
+++ b/translations/el/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Ασφάλεια
+
+Η Microsoft λαμβάνει σοβαρά υπόψη την ασφάλεια των προϊόντων και υπηρεσιών λογισμικού της, συμπεριλαμβανομένων όλων των αποθετηρίων πηγαίου κώδικα που διαχειρίζεται μέσω των οργανισμών της στο GitHub, όπως [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) και [τους οργανισμούς μας στο GitHub](https://opensource.microsoft.com/).
+
+Αν πιστεύετε ότι έχετε εντοπίσει μια ευπάθεια ασφαλείας σε οποιοδήποτε αποθετήριο που ανήκει στη Microsoft και πληροί [τον ορισμό της Microsoft για μια ευπάθεια ασφαλείας](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), παρακαλούμε να την αναφέρετε όπως περιγράφεται παρακάτω.
+
+## Αναφορά Θεμάτων Ασφαλείας
+
+**Παρακαλούμε μην αναφέρετε ευπάθειες ασφαλείας μέσω δημόσιων θεμάτων στο GitHub.**
+
+Αντίθετα, αναφέρετέ τις στο Microsoft Security Response Center (MSRC) στη διεύθυνση [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Αν προτιμάτε να υποβάλετε χωρίς να συνδεθείτε, στείλτε email στο [secure@microsoft.com](mailto:secure@microsoft.com). Αν είναι δυνατόν, κρυπτογραφήστε το μήνυμά σας με το PGP κλειδί μας· μπορείτε να το κατεβάσετε από τη σελίδα [Microsoft Security Response Center PGP Key](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Θα πρέπει να λάβετε απάντηση εντός 24 ωρών. Αν για κάποιο λόγο δεν λάβετε, παρακαλούμε να ακολουθήσετε με email για να βεβαιωθείτε ότι λάβαμε το αρχικό σας μήνυμα. Πρόσθετες πληροφορίες μπορείτε να βρείτε στη διεύθυνση [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Παρακαλούμε να συμπεριλάβετε τις παρακάτω πληροφορίες (όσο περισσότερες μπορείτε να παρέχετε) για να μας βοηθήσετε να κατανοήσουμε καλύτερα τη φύση και την έκταση του πιθανού ζητήματος:
+
+ * Τύπος ζητήματος (π.χ. buffer overflow, SQL injection, cross-site scripting, κ.λπ.)
+ * Πλήρη μονοπάτια των αρχείων πηγαίου κώδικα που σχετίζονται με την εκδήλωση του ζητήματος
+ * Η τοποθεσία του επηρεαζόμενου πηγαίου κώδικα (tag/branch/commit ή άμεσο URL)
+ * Οποιαδήποτε ειδική διαμόρφωση απαιτείται για την αναπαραγωγή του ζητήματος
+ * Βήμα-βήμα οδηγίες για την αναπαραγωγή του ζητήματος
+ * Proof-of-concept ή exploit code (αν είναι δυνατόν)
+ * Επίδραση του ζητήματος, συμπεριλαμβανομένου του τρόπου με τον οποίο ένας επιτιθέμενος μπορεί να εκμεταλλευτεί το ζήτημα
+
+Αυτές οι πληροφορίες θα μας βοηθήσουν να αξιολογήσουμε την αναφορά σας πιο γρήγορα.
+
+Αν αναφέρετε για ένα bug bounty, πιο ολοκληρωμένες αναφορές μπορούν να συμβάλουν σε υψηλότερη ανταμοιβή. Επισκεφθείτε τη σελίδα [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty) για περισσότερες λεπτομέρειες σχετικά με τα ενεργά προγράμματά μας.
+
+## Προτιμώμενες Γλώσσες
+
+Προτιμούμε όλες οι επικοινωνίες να γίνονται στα Αγγλικά.
+
+## Πολιτική
+
+Η Microsoft ακολουθεί την αρχή της [Συντονισμένης Αποκάλυψης Ευπαθειών](https://www.microsoft.com/en-us/msrc/cvd).
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/SUPPORT.md b/translations/el/SUPPORT.md
new file mode 100644
index 00000000..79cead7b
--- /dev/null
+++ b/translations/el/SUPPORT.md
@@ -0,0 +1,26 @@
+
+# Υποστήριξη
+## Πώς να αναφέρετε προβλήματα και να λάβετε βοήθεια
+
+Αυτό το έργο χρησιμοποιεί το GitHub Issues για την παρακολούθηση σφαλμάτων και αιτημάτων λειτουργιών. Παρακαλούμε αναζητήστε τα υπάρχοντα
+προβλήματα πριν αναφέρετε νέα, ώστε να αποφύγετε διπλές καταχωρήσεις. Για νέα προβλήματα, αναφέρετε το σφάλμα ή
+το αίτημα λειτουργίας σας ως νέο ζήτημα.
+
+Για βοήθεια και ερωτήσεις σχετικά με τη χρήση αυτού του έργου, αναφέρετε ένα ζήτημα.
+
+## Πολιτική Υποστήριξης της Microsoft
+
+Η υποστήριξη για αυτό το αποθετήριο περιορίζεται στους πόρους που αναφέρονται παραπάνω.
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/docs/_sidebar.md b/translations/el/docs/_sidebar.md
new file mode 100644
index 00000000..3f5824b8
--- /dev/null
+++ b/translations/el/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Εισαγωγή
+ - [Ορισμός της Επιστήμης Δεδομένων](../1-Introduction/01-defining-data-science/README.md)
+ - [Ηθική στην Επιστήμη Δεδομένων](../1-Introduction/02-ethics/README.md)
+ - [Ορισμός των Δεδομένων](../1-Introduction/03-defining-data/README.md)
+ - [Πιθανότητες και Στατιστική](../1-Introduction/04-stats-and-probability/README.md)
+- Εργασία με Δεδομένα
+ - [Σχεσιακές Βάσεις Δεδομένων](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Μη Σχεσιακές Βάσεις Δεδομένων](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Προετοιμασία Δεδομένων](../2-Working-With-Data/08-data-preparation/README.md)
+- Οπτικοποίηση Δεδομένων
+ - [Οπτικοποίηση Ποσοτήτων](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Οπτικοποίηση Κατανομών](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Οπτικοποίηση Αναλογιών](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Οπτικοποίηση Σχέσεων](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Ουσιαστικές Οπτικοποιήσεις](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Κύκλος Ζωής της Επιστήμης Δεδομένων
+ - [Εισαγωγή](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Ανάλυση](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Επικοινωνία](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Επιστήμη Δεδομένων στο Cloud
+ - [Εισαγωγή](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Επιστήμη Δεδομένων στην Πράξη
+ - [Επιστήμη Δεδομένων στην Πράξη](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Αποποίηση Ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/for-teachers.md b/translations/el/for-teachers.md
new file mode 100644
index 00000000..74c3585c
--- /dev/null
+++ b/translations/el/for-teachers.md
@@ -0,0 +1,78 @@
+
+## Για Εκπαιδευτικούς
+
+Θα θέλατε να χρησιμοποιήσετε αυτό το πρόγραμμα σπουδών στην τάξη σας; Μη διστάσετε!
+
+Στην πραγματικότητα, μπορείτε να το χρησιμοποιήσετε απευθείας μέσα στο GitHub, χρησιμοποιώντας το GitHub Classroom.
+
+Για να το κάνετε αυτό, κάντε fork αυτό το repo. Θα χρειαστεί να δημιουργήσετε ένα repo για κάθε μάθημα, οπότε θα χρειαστεί να εξαγάγετε κάθε φάκελο σε ξεχωριστό repo. Με αυτόν τον τρόπο, το [GitHub Classroom](https://classroom.github.com/classrooms) μπορεί να αναγνωρίσει κάθε μάθημα ξεχωριστά.
+
+Αυτές οι [πλήρεις οδηγίες](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) θα σας δώσουν μια ιδέα για το πώς να οργανώσετε την τάξη σας.
+
+## Χρήση του repo όπως είναι
+
+Αν θέλετε να χρησιμοποιήσετε αυτό το repo όπως είναι, χωρίς να χρησιμοποιήσετε το GitHub Classroom, αυτό είναι επίσης εφικτό. Θα χρειαστεί να επικοινωνήσετε με τους μαθητές σας για να τους καθοδηγήσετε σχετικά με το ποιο μάθημα να δουλέψουν μαζί.
+
+Σε μια διαδικτυακή μορφή (Zoom, Teams ή άλλο), μπορείτε να δημιουργήσετε ομάδες εργασίας για τα κουίζ και να καθοδηγήσετε τους μαθητές ώστε να προετοιμαστούν για τη μάθηση. Στη συνέχεια, προσκαλέστε τους μαθητές να συμμετάσχουν στα κουίζ και να υποβάλουν τις απαντήσεις τους ως 'issues' σε συγκεκριμένη ώρα. Μπορείτε να κάνετε το ίδιο και με τις εργασίες, αν θέλετε οι μαθητές να συνεργαστούν ανοιχτά.
+
+Αν προτιμάτε μια πιο ιδιωτική μορφή, ζητήστε από τους μαθητές σας να κάνουν fork το πρόγραμμα σπουδών, μάθημα προς μάθημα, στα δικά τους ιδιωτικά repos στο GitHub και να σας δώσουν πρόσβαση. Έπειτα, μπορούν να ολοκληρώσουν τα κουίζ και τις εργασίες ιδιωτικά και να σας τα υποβάλουν μέσω issues στο repo της τάξης σας.
+
+Υπάρχουν πολλοί τρόποι για να κάνετε αυτό να λειτουργήσει σε μια διαδικτυακή τάξη. Παρακαλούμε ενημερώστε μας τι λειτουργεί καλύτερα για εσάς!
+
+## Περιλαμβάνονται σε αυτό το πρόγραμμα σπουδών:
+
+20 μαθήματα, 40 κουίζ και 20 εργασίες. Σημειώσεις με σκίτσα συνοδεύουν τα μαθήματα για οπτικούς μαθητές. Πολλά μαθήματα είναι διαθέσιμα τόσο σε Python όσο και σε R και μπορούν να ολοκληρωθούν χρησιμοποιώντας Jupyter notebooks στο VS Code. Μάθετε περισσότερα για το πώς να οργανώσετε την τάξη σας για να χρησιμοποιήσετε αυτήν την τεχνολογική στοίβα: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Όλες οι σημειώσεις με σκίτσα, συμπεριλαμβανομένου ενός μεγάλου αφίσας, βρίσκονται [σε αυτόν τον φάκελο](../../sketchnotes).
+
+Ολόκληρο το πρόγραμμα σπουδών είναι διαθέσιμο [ως PDF](../../pdf/readme.pdf).
+
+Μπορείτε επίσης να εκτελέσετε αυτό το πρόγραμμα σπουδών ως ανεξάρτητο, φιλικό προς offline web site χρησιμοποιώντας το [Docsify](https://docsify.js.org/#/). [Εγκαταστήστε το Docsify](https://docsify.js.org/#/quickstart) στον τοπικό σας υπολογιστή και, στη ρίζα του τοπικού αντιγράφου αυτού του repo, πληκτρολογήστε `docsify serve`. Ο ιστότοπος θα εξυπηρετηθεί στην πόρτα 3000 του localhost σας: `localhost:3000`.
+
+Μια φιλική προς offline έκδοση του προγράμματος σπουδών θα ανοίξει ως ανεξάρτητη ιστοσελίδα: https://localhost:3000
+
+Τα μαθήματα είναι οργανωμένα σε 6 μέρη:
+
+- 1: Εισαγωγή
+ - 1: Ορισμός της Επιστήμης Δεδομένων
+ - 2: Ηθική
+ - 3: Ορισμός των Δεδομένων
+ - 4: Επισκόπηση Πιθανοτήτων και Στατιστικής
+- 2: Εργασία με Δεδομένα
+ - 5: Σχεσιακές Βάσεις Δεδομένων
+ - 6: Μη Σχεσιακές Βάσεις Δεδομένων
+ - 7: Python
+ - 8: Προετοιμασία Δεδομένων
+- 3: Οπτικοποίηση Δεδομένων
+ - 9: Οπτικοποίηση Ποσοτήτων
+ - 10: Οπτικοποίηση Κατανομών
+ - 11: Οπτικοποίηση Αναλογιών
+ - 12: Οπτικοποίηση Σχέσεων
+ - 13: Σημαντικές Οπτικοποιήσεις
+- 4: Κύκλος Ζωής της Επιστήμης Δεδομένων
+ - 14: Εισαγωγή
+ - 15: Ανάλυση
+ - 16: Επικοινωνία
+- 5: Επιστήμη Δεδομένων στο Cloud
+ - 17: Εισαγωγή
+ - 18: Επιλογές Χαμηλού Κώδικα
+ - 19: Azure
+- 6: Επιστήμη Δεδομένων στην Πράξη
+ - 20: Επισκόπηση
+
+## Παρακαλούμε δώστε μας τις σκέψεις σας!
+
+Θέλουμε να κάνουμε αυτό το πρόγραμμα σπουδών να λειτουργήσει για εσάς και τους μαθητές σας. Παρακαλούμε δώστε μας σχόλια στους πίνακες συζητήσεων! Μη διστάσετε να δημιουργήσετε μια περιοχή τάξης στους πίνακες συζητήσεων για τους μαθητές σας.
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν σφάλματα ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/quiz-app/README.md b/translations/el/quiz-app/README.md
new file mode 100644
index 00000000..3e397032
--- /dev/null
+++ b/translations/el/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Κουίζ
+
+Αυτά τα κουίζ είναι τα κουίζ πριν και μετά τις διαλέξεις για το πρόγραμμα σπουδών επιστήμης δεδομένων στο https://aka.ms/datascience-beginners
+
+## Προσθήκη ενός μεταφρασμένου συνόλου κουίζ
+
+Προσθέστε μια μετάφραση κουίζ δημιουργώντας αντίστοιχες δομές κουίζ στους φακέλους `assets/translations`. Τα αρχικά κουίζ βρίσκονται στον φάκελο `assets/translations/en`. Τα κουίζ είναι χωρισμένα σε διάφορες ομάδες. Βεβαιωθείτε ότι ευθυγραμμίζετε την αρίθμηση με τη σωστή ενότητα κουίζ. Υπάρχουν συνολικά 40 κουίζ σε αυτό το πρόγραμμα σπουδών, με την αρίθμηση να ξεκινά από το 0.
+
+Αφού επεξεργαστείτε τις μεταφράσεις, επεξεργαστείτε το αρχείο `index.js` στον φάκελο της μετάφρασης για να εισάγετε όλα τα αρχεία ακολουθώντας τις συμβάσεις στον φάκελο `en`.
+
+Επεξεργαστείτε το αρχείο `index.js` στον φάκελο `assets/translations` για να εισάγετε τα νέα μεταφρασμένα αρχεία.
+
+Στη συνέχεια, επεξεργαστείτε το αναπτυσσόμενο μενού στο `App.vue` αυτής της εφαρμογής για να προσθέσετε τη γλώσσα σας. Ταιριάξτε τη συντομογραφία της γλώσσας με το όνομα του φακέλου για τη γλώσσα σας.
+
+Τέλος, επεξεργαστείτε όλους τους συνδέσμους κουίζ στα μεταφρασμένα μαθήματα, εάν υπάρχουν, για να συμπεριλάβετε αυτήν τη μετάφραση ως παράμετρο ερωτήματος: `?loc=fr`, για παράδειγμα.
+
+## Ρύθμιση έργου
+
+```
+npm install
+```
+
+### Μεταγλώττιση και αυτόματη ανανέωση για ανάπτυξη
+
+```
+npm run serve
+```
+
+### Μεταγλώττιση και ελαχιστοποίηση για παραγωγή
+
+```
+npm run build
+```
+
+### Έλεγχος και διόρθωση αρχείων
+
+```
+npm run lint
+```
+
+### Προσαρμογή ρυθμίσεων
+
+Δείτε [Αναφορά Ρυθμίσεων](https://cli.vuejs.org/config/).
+
+Ευχαριστίες: Ευχαριστούμε την αρχική έκδοση αυτής της εφαρμογής κουίζ: https://github.com/arpan45/simple-quiz-vue
+
+## Ανάπτυξη στο Azure
+
+Ακολουθεί ένας οδηγός βήμα προς βήμα για να ξεκινήσετε:
+
+1. Κλωνοποιήστε ένα GitHub Repository
+Βεβαιωθείτε ότι ο κώδικας της στατικής εφαρμογής ιστού σας βρίσκεται στο αποθετήριο GitHub σας. Κλωνοποιήστε αυτό το αποθετήριο.
+
+2. Δημιουργήστε μια Στατική Εφαρμογή Ιστού στο Azure
+- Δημιουργήστε έναν [λογαριασμό Azure](http://azure.microsoft.com)
+- Μεταβείτε στο [Azure portal](https://portal.azure.com)
+- Κάντε κλικ στο “Create a resource” και αναζητήστε “Static Web App”.
+- Κάντε κλικ στο “Create”.
+
+3. Διαμορφώστε τη Στατική Εφαρμογή Ιστού
+- Βασικά:
+ - Συνδρομή: Επιλέξτε τη συνδρομή σας στο Azure.
+ - Ομάδα Πόρων: Δημιουργήστε μια νέα ομάδα πόρων ή χρησιμοποιήστε μια υπάρχουσα.
+ - Όνομα: Δώστε ένα όνομα για τη στατική εφαρμογή ιστού σας.
+ - Περιοχή: Επιλέξτε την περιοχή που είναι πιο κοντά στους χρήστες σας.
+
+- #### Λεπτομέρειες Ανάπτυξης:
+ - Πηγή: Επιλέξτε “GitHub”.
+ - Λογαριασμός GitHub: Εξουσιοδοτήστε το Azure να έχει πρόσβαση στον λογαριασμό σας στο GitHub.
+ - Οργάνωση: Επιλέξτε την οργάνωση σας στο GitHub.
+ - Αποθετήριο: Επιλέξτε το αποθετήριο που περιέχει τη στατική εφαρμογή ιστού σας.
+ - Κλάδος: Επιλέξτε τον κλάδο από τον οποίο θέλετε να αναπτύξετε.
+
+- #### Λεπτομέρειες Δόμησης:
+ - Προεπιλογές Δόμησης: Επιλέξτε το πλαίσιο στο οποίο είναι χτισμένη η εφαρμογή σας (π.χ., React, Angular, Vue, κ.λπ.).
+ - Τοποθεσία Εφαρμογής: Καθορίστε τον φάκελο που περιέχει τον κώδικα της εφαρμογής σας (π.χ., / αν βρίσκεται στη ρίζα).
+ - Τοποθεσία API: Εάν έχετε API, καθορίστε την τοποθεσία του (προαιρετικό).
+ - Τοποθεσία Εξόδου: Καθορίστε τον φάκελο όπου δημιουργείται η έξοδος της δόμησης (π.χ., build ή dist).
+
+4. Ανασκόπηση και Δημιουργία
+Ανασκοπήστε τις ρυθμίσεις σας και κάντε κλικ στο “Create”. Το Azure θα ρυθμίσει τους απαραίτητους πόρους και θα δημιουργήσει ένα αρχείο ροής εργασιών GitHub Actions στο αποθετήριό σας.
+
+5. Ροή Εργασιών GitHub Actions
+Το Azure θα δημιουργήσει αυτόματα ένα αρχείο ροής εργασιών GitHub Actions στο αποθετήριό σας (.github/workflows/azure-static-web-apps-.yml). Αυτή η ροή εργασιών θα διαχειρίζεται τη δόμηση και την ανάπτυξη.
+
+6. Παρακολούθηση της Ανάπτυξης
+Μεταβείτε στην καρτέλα “Actions” στο αποθετήριο σας στο GitHub.
+Θα πρέπει να δείτε μια ροή εργασιών να εκτελείται. Αυτή η ροή εργασιών θα δομήσει και θα αναπτύξει τη στατική εφαρμογή ιστού σας στο Azure.
+Μόλις ολοκληρωθεί η ροή εργασιών, η εφαρμογή σας θα είναι ζωντανή στη διεύθυνση URL που παρέχεται από το Azure.
+
+### Παράδειγμα Αρχείου Ροής Εργασιών
+
+Ακολουθεί ένα παράδειγμα του αρχείου ροής εργασιών GitHub Actions:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Πρόσθετοι Πόροι
+- [Τεκμηρίωση Azure Static Web Apps](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [Τεκμηρίωση GitHub Actions](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/el/sketchnotes/README.md b/translations/el/sketchnotes/README.md
new file mode 100644
index 00000000..23d4bcd4
--- /dev/null
+++ b/translations/el/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Βρείτε όλα τα sketchnotes εδώ!
+
+## Πιστώσεις
+
+Nitya Narasimhan, καλλιτέχνης
+
+
+
+---
+
+**Αποποίηση ευθύνης**:
+Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης [Co-op Translator](https://github.com/Azure/co-op-translator). Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτοματοποιημένες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/01-defining-data-science/README.md b/translations/fi/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..edae3d4b
--- /dev/null
+++ b/translations/fi/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,124 @@
+
+# Määritellään datatiede
+
+|  ](../../sketchnotes/01-Definitions.png) |
+| :----------------------------------------------------------------------------------------------------: |
+| Datatieteen määritelmä - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+[](https://youtu.be/beZ7Mb_oz9I)
+
+## [Esiluento-kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/0)
+
+## Mitä data on?
+Arjessamme olemme jatkuvasti datan ympäröimiä. Teksti, jota luet juuri nyt, on dataa. Ystäviesi puhelinnumerolista älypuhelimessasi on dataa, samoin kuin kellossasi näkyvä nykyinen aika. Ihmisinä käsittelemme luonnostaan dataa esimerkiksi laskemalla rahojamme tai kirjoittamalla kirjeitä ystävillemme.
+
+Tietokoneiden myötä datasta tuli kuitenkin paljon tärkeämpää. Tietokoneiden päätehtävä on suorittaa laskutoimituksia, mutta ne tarvitsevat dataa toimiakseen. Siksi meidän on ymmärrettävä, miten tietokoneet tallentavat ja käsittelevät dataa.
+
+Internetin myötä tietokoneiden rooli datan käsittelylaitteina kasvoi. Jos mietit asiaa, käytämme nykyään tietokoneita yhä enemmän datan käsittelyyn ja viestintään kuin varsinaisiin laskutoimituksiin. Kun kirjoitamme sähköpostia ystävälle tai etsimme tietoa internetistä, luomme, tallennamme, siirrämme ja käsittelemme dataa.
+> Muistatko, milloin viimeksi käytit tietokonetta varsinaiseen laskemiseen?
+
+## Mitä on datatiede?
+
+[Wikipedian](https://en.wikipedia.org/wiki/Data_science) mukaan **datatiede** määritellään *tieteelliseksi alaksi, joka käyttää tieteellisiä menetelmiä tiedon ja oivallusten hankkimiseen rakenteisesta ja rakenteettomasta datasta sekä soveltaa näitä oivalluksia monilla eri sovellusalueilla*.
+
+Tämä määritelmä korostaa seuraavia datatieteen tärkeitä piirteitä:
+
+* Datatieteen päätavoite on **hankkia tietoa** datasta, toisin sanoen **ymmärtää** dataa, löytää piilotettuja yhteyksiä ja luoda **malleja**.
+* Datatiede käyttää **tieteellisiä menetelmiä**, kuten todennäköisyyslaskentaa ja tilastotiedettä. Kun termi *datatiede* otettiin ensimmäistä kertaa käyttöön, jotkut väittivät, että se oli vain uusi hieno nimi tilastotieteelle. Nykyään on selvää, että ala on paljon laajempi.
+* Hankittua tietoa tulisi soveltaa tuottamaan **käytännön oivalluksia**, eli käytännöllisiä näkemyksiä, joita voidaan hyödyntää todellisissa liiketoimintatilanteissa.
+* Meidän tulisi pystyä käsittelemään sekä **rakenteista** että **rakenteetonta** dataa. Palaamme myöhemmin kurssilla keskustelemaan eri datatyypeistä.
+* **Sovellusalue** on tärkeä käsite, ja datatieteilijöillä on usein oltava ainakin jonkin verran asiantuntemusta ongelma-alueesta, esimerkiksi rahoituksesta, lääketieteestä tai markkinoinnista.
+
+> Toinen tärkeä datatieteen osa-alue on se, että se tutkii, miten dataa voidaan kerätä, tallentaa ja käsitellä tietokoneilla. Vaikka tilastotiede antaa meille matemaattiset perusteet, datatiede soveltaa matemaattisia käsitteitä saadakseen todellisia oivalluksia datasta.
+
+Yksi tapa (liitetty [Jim Grayhin](https://en.wikipedia.org/wiki/Jim_Gray_(computer_scientist))) tarkastella datatiedettä on pitää sitä erillisenä tieteen paradigmana:
+* **Empiirinen**, jossa luotamme pääasiassa havaintoihin ja kokeiden tuloksiin
+* **Teoreettinen**, jossa uudet käsitteet syntyvät olemassa olevasta tieteellisestä tiedosta
+* **Laskennallinen**, jossa löydämme uusia periaatteita laskennallisten kokeiden avulla
+* **Dataohjautuva**, jossa löydämme suhteita ja kuvioita datasta
+
+## Muita läheisiä aloja
+
+Koska data on kaikkialla, myös datatiede on laaja ala, joka koskettaa monia muita tieteenaloja.
+
+## Datatyypit
+
+Kuten jo mainitsimme, dataa on kaikkialla. Meidän tarvitsee vain tallentaa se oikealla tavalla! On hyödyllistä erottaa toisistaan **rakenteinen** ja **rakenteeton** data. Ensimmäinen on tyypillisesti esitetty hyvin jäsennellyssä muodossa, usein taulukkona tai useina taulukoina, kun taas jälkimmäinen on vain kokoelma tiedostoja. Joskus voimme myös puhua **puolistrukturoidusta** datasta, jolla on jonkinlainen rakenne, joka voi vaihdella suuresti.
+
+| Rakenteinen | Puolistrukturoitu | Rakenteeton |
+| -------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------- | ------------------------------------ |
+| Lista ihmisistä ja heidän puhelinnumeroistaan | Wikipedian sivut linkkeineen | Encyclopedia Britannican teksti |
+| Rakennuksen kaikkien huoneiden lämpötila joka minuutti viimeisen 20 vuoden ajalta | Tieteellisten artikkelien kokoelma JSON-muodossa, sisältäen kirjoittajat, julkaisupäivän ja tiivistelmän | Yrityksen asiakirjojen tiedostokansio |
+| Rakennukseen saapuvien ihmisten ikä- ja sukupuolitiedot | Internet-sivut | Valvontakameran raakavideomateriaali |
+
+## Mistä dataa saa?
+
+Datalla on lukemattomia mahdollisia lähteitä, eikä kaikkia voi listata! Mainitaan kuitenkin joitakin tyypillisiä paikkoja, joista dataa voi saada:
+
+* **Rakenteinen**
+ - **Esineiden internet** (IoT), mukaan lukien erilaiset sensorit, kuten lämpötila- tai paineanturit, tuottavat paljon hyödyllistä dataa. Esimerkiksi, jos toimistorakennus on varustettu IoT-sensoreilla, voimme automaattisesti ohjata lämmitystä ja valaistusta kustannusten minimoimiseksi.
+ - **Kyselyt**, joita pyydämme käyttäjiä täyttämään esimerkiksi ostoksen jälkeen tai verkkosivustolla vierailun jälkeen.
+ - **Käyttäytymisanalyysi** voi auttaa meitä ymmärtämään esimerkiksi, kuinka syvälle käyttäjä menee sivustolla ja mikä on tyypillinen syy sivustolta poistumiseen.
+* **Rakenteeton**
+ - **Tekstit** voivat olla rikas oivallusten lähde, kuten yleinen **tunnelmapisteytys** tai avainsanojen ja semanttisen merkityksen poimiminen.
+ - **Kuvat** tai **videot**. Valvontakameran videoita voidaan käyttää liikenteen arvioimiseen ja ihmisten tiedottamiseen mahdollisista ruuhkista.
+ - Verkkopalvelimen **lokitiedostot** voivat auttaa ymmärtämään, mitkä sivuston sivut ovat suosituimpia ja kuinka kauan niillä viivytään.
+* **Puolistrukturoitu**
+ - **Sosiaalisen verkoston** graafit voivat olla loistavia tietolähteitä käyttäjien persoonallisuuksista ja potentiaalisesta tehokkuudesta tiedon levittämisessä.
+ - Kun meillä on joukko valokuvia juhlista, voimme yrittää poimia **ryhmädynamiikkaa** rakentamalla graafin ihmisistä, jotka ottavat kuvia yhdessä.
+
+Kun tunnet erilaiset mahdolliset datalähteet, voit miettiä erilaisia skenaarioita, joissa datatieteen tekniikoita voidaan soveltaa tilanteen ymmärtämiseksi paremmin ja liiketoimintaprosessien parantamiseksi.
+
+## Mitä datalla voi tehdä?
+
+Datatieteessä keskitymme seuraaviin datan käsittelyn vaiheisiin:
+
+Tietenkin, riippuen itse datasta, jotkin vaiheet voivat puuttua (esim. kun data on jo tietokannassa tai kun mallin koulutusta ei tarvita), tai jotkin vaiheet voivat toistua useita kertoja (kuten datan käsittely).
+
+## Digitalisaatio ja digitaalinen transformaatio
+
+Viimeisen vuosikymmenen aikana monet yritykset ovat alkaneet ymmärtää datan merkityksen liiketoimintapäätösten tekemisessä. Jotta datatieteen periaatteita voidaan soveltaa liiketoiminnan johtamiseen, on ensin kerättävä dataa, eli muutettava liiketoimintaprosessit digitaaliseen muotoon. Tätä kutsutaan **digitalisaatioksi**. Datatieteen tekniikoiden soveltaminen tähän dataan päätöksenteon ohjaamiseksi voi johtaa merkittäviin tuottavuuden kasvuun (tai jopa liiketoiminnan suunnanmuutokseen), jota kutsutaan **digitaaliseksi transformaatioksi**.
+
+Otetaan esimerkki. Oletetaan, että meillä on datatieteen kurssi (kuten tämä), jonka toimitamme verkossa opiskelijoille, ja haluamme käyttää datatiedettä sen parantamiseen. Miten voimme tehdä sen?
+
+Voimme aloittaa kysymällä "Mitä voidaan digitalisoida?" Yksinkertaisin tapa olisi mitata, kuinka kauan jokaisella opiskelijalla kestää suorittaa kukin moduuli, ja mitata hankittu tieto antamalla monivalintatesti kunkin moduulin lopussa. Laskemalla keskimääräisen suoritusajan kaikille opiskelijoille voimme selvittää, mitkä moduulit aiheuttavat eniten vaikeuksia opiskelijoille, ja työskennellä niiden yksinkertaistamiseksi.
+Voit väittää, että tämä lähestymistapa ei ole ihanteellinen, koska moduulit voivat olla eripituisia. On luultavasti oikeudenmukaisempaa jakaa aika moduulin pituudella (merkkien lukumäärällä) ja verrata näitä arvoja sen sijaan.
+Kun alamme analysoida monivalintakokeiden tuloksia, voimme yrittää selvittää, mitkä käsitteet ovat opiskelijoille vaikeita ymmärtää, ja käyttää tätä tietoa sisällön parantamiseen. Tämän saavuttamiseksi meidän on suunniteltava kokeet siten, että jokainen kysymys liittyy tiettyyn käsitteeseen tai tietokokonaisuuteen.
+
+Jos haluamme mennä vielä pidemmälle, voimme piirtää kaavion, jossa kunkin moduulin suorittamiseen käytetty aika asetetaan vastakkain opiskelijoiden ikäryhmien kanssa. Saatamme huomata, että joillekin ikäryhmille moduulin suorittaminen vie suhteettoman kauan tai että opiskelijat keskeyttävät ennen sen suorittamista. Tämä voi auttaa meitä antamaan ikäsuosituksia moduulille ja vähentämään ihmisten tyytymättömyyttä väärien odotusten vuoksi.
+
+## 🚀 Haaste
+
+Tässä haasteessa yritämme löytää Data Science -alaan liittyviä käsitteitä tarkastelemalla tekstejä. Otamme Wikipedia-artikkelin Data Sciencesta, lataamme ja käsittelemme tekstin, ja rakennamme sitten sanapilven, joka näyttää tältä:
+
+
+
+Vieraile tiedostossa [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') lukeaksesi koodin läpi. Voit myös suorittaa koodin ja nähdä, kuinka se tekee kaikki datamuunnokset reaaliajassa.
+
+> Jos et tiedä, miten suorittaa koodia Jupyter Notebookissa, tutustu [tähän artikkeliin](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Tehtävät
+
+* **Tehtävä 1**: Muokkaa yllä olevaa koodia löytääksesi liittyviä käsitteitä **Big Data**- ja **Machine Learning** -aloille.
+* **Tehtävä 2**: [Pohdi Data Science -skenaarioita](assignment.md)
+
+## Kiitokset
+
+Tämän oppitunnin on kirjoittanut ♥️:lla [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/01-defining-data-science/assignment.md b/translations/fi/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..6bbfb0d4
--- /dev/null
+++ b/translations/fi/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Tehtävä: Tieteenalojen skenaariot
+
+Tässä ensimmäisessä tehtävässä pyydämme sinua pohtimaan joitakin tosielämän prosesseja tai ongelmia eri ongelma-alueilla ja sitä, kuinka voit parantaa niitä käyttämällä tieteenalan prosessia. Mieti seuraavia kysymyksiä:
+
+1. Mitä dataa voit kerätä?
+1. Kuinka keräisit sen?
+1. Kuinka tallentaisit datan? Kuinka suurta data todennäköisesti on?
+1. Mitä oivalluksia tästä datasta voisi saada? Mitä päätöksiä voisimme tehdä datan perusteella?
+
+Yritä miettiä 3 erilaista ongelmaa/prosessia ja kuvaile yllä olevat kohdat jokaiselle ongelma-alueelle.
+
+Tässä on joitakin ongelma-alueita ja ongelmia, jotka voivat auttaa sinua pääsemään alkuun:
+
+1. Kuinka voit käyttää dataa parantaaksesi lasten koulutusta kouluissa?
+1. Kuinka voit käyttää dataa pandemian aikaisen rokotuksen hallintaan?
+1. Kuinka voit käyttää dataa varmistaaksesi, että olet tuottelias työssäsi?
+
+## Ohjeet
+
+Täytä seuraava taulukko (korvaa ehdotetut ongelma-alueet omillasi tarvittaessa):
+
+| Ongelma-alue | Ongelma | Mitä dataa kerätä | Kuinka tallentaa data | Mitä oivalluksia/päätöksiä voimme tehdä |
+|--------------|---------|-------------------|-----------------------|-----------------------------------------|
+| Koulutus | | | | |
+| Rokotus | | | | |
+| Tuottavuus | | | | |
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+On onnistuttu tunnistamaan järkevät datalähteet, datan tallennustavat ja mahdolliset päätökset/oivallukset kaikille ongelma-alueille | Joitakin ratkaisun osa-alueita ei ole kuvattu yksityiskohtaisesti, datan tallennusta ei ole käsitelty, vähintään 2 ongelma-aluetta on kuvattu | Vain osia dataratkaisusta on kuvattu, vain yksi ongelma-alue on käsitelty.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/fi/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..5df6558e
--- /dev/null
+++ b/translations/fi/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Tehtävä: Data Science -skenaariot
+
+Tässä ensimmäisessä tehtävässä pyydämme sinua pohtimaan joitakin tosielämän prosesseja tai ongelmia eri ongelma-alueilla ja sitä, miten voit parantaa niitä Data Science -prosessin avulla. Mieti seuraavia kysymyksiä:
+
+1. Mitä dataa voit kerätä?
+1. Miten keräisit sen?
+1. Miten tallentaisit datan? Kuinka suurta data todennäköisesti on?
+1. Mitä oivalluksia tästä datasta voisi saada? Mitä päätöksiä voisimme tehdä datan perusteella?
+
+Yritä miettiä 3 erilaista ongelmaa/prosessia ja kuvaile yllä olevat kohdat jokaiselle ongelma-alueelle.
+
+Tässä on joitakin ongelma-alueita ja ongelmia, jotka voivat auttaa sinua pääsemään alkuun:
+
+1. Miten voit käyttää dataa parantaaksesi lasten koulutusta kouluissa?
+1. Miten voit käyttää dataa pandemian aikana rokotusten hallintaan?
+1. Miten voit käyttää dataa varmistaaksesi, että olet tuottelias työssäsi?
+
+## Ohjeet
+
+Täytä seuraava taulukko (korvaa ehdotetut ongelma-alueet omillasi tarvittaessa):
+
+| Ongelma-alue | Ongelma | Mitä dataa kerätä | Miten tallentaa data | Mitä oivalluksia/päätöksiä voimme tehdä |
+|--------------|---------|-------------------|-----------------------|-----------------------------------------|
+| Koulutus | Yliopistossa luennoilla on yleensä alhainen osallistumisprosentti, ja meillä on hypoteesi, että opiskelijat, jotka osallistuvat luennoille, pärjäävät keskimäärin paremmin kokeissa. Haluamme kannustaa osallistumista ja testata hypoteesia. | Voimme seurata osallistumista luokassa otettujen valvontakamerakuvien avulla tai seuraamalla opiskelijoiden mobiililaitteiden bluetooth/wifi-osoitteita luokassa. Kokeiden tiedot ovat jo saatavilla yliopiston tietokannassa. | Jos seuraamme valvontakamerakuvia, meidän täytyy tallentaa muutama (5-10) valokuva luennon aikana (jäsentämätön data) ja käyttää tekoälyä opiskelijoiden kasvojen tunnistamiseen (muuntaa data jäsenneltyyn muotoon). | Voimme laskea keskimääräiset osallistumistiedot jokaiselle opiskelijalle ja nähdä, onko sillä korrelaatiota koetulosten kanssa. Puhumme korrelaatiosta tarkemmin [todennäköisyys ja tilastot](../../04-stats-and-probability/README.md) -osiossa. Kannustaaksemme opiskelijoiden osallistumista voimme julkaista viikoittaisen osallistumisluokituksen koulun portaalissa ja arpoa palkintoja parhaiten osallistuneiden kesken. |
+| Rokotus | | | | |
+| Tuottavuus | | | | |
+
+> *Annamme vain yhden vastauksen esimerkkinä, jotta saat käsityksen siitä, mitä tältä tehtävältä odotetaan.*
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+On kyetty tunnistamaan järkevät datalähteet, datan tallennustavat ja mahdolliset päätökset/oivallukset kaikille ongelma-alueille | Joitakin ratkaisun osa-alueita ei ole kuvattu yksityiskohtaisesti, datan tallennusta ei ole käsitelty, vähintään 2 ongelma-aluetta on kuvattu | Vain osia dataratkaisusta on kuvattu, vain yksi ongelma-alue on käsitelty.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/02-ethics/README.md b/translations/fi/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..e643a702
--- /dev/null
+++ b/translations/fi/1-Introduction/02-ethics/README.md
@@ -0,0 +1,258 @@
+
+# Johdanto datan etiikkaan
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Datan etiikka - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Me kaikki olemme datan kansalaisia, jotka elävät dataistuneessa maailmassa.
+
+Markkinatrendit kertovat, että vuoteen 2022 mennessä yksi kolmesta suuresta organisaatiosta ostaa ja myy dataansa verkossa [markkinapaikkojen ja pörssien](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) kautta. **Sovelluskehittäjinä** meidän on helpompaa ja edullisempaa integroida dataan perustuvia oivalluksia ja algoritmeihin perustuvaa automaatiota päivittäisiin käyttäjäkokemuksiin. Mutta kun tekoälystä tulee yhä yleisempää, meidän on myös ymmärrettävä mahdolliset haitat, joita syntyy tällaisten algoritmien [aseistamisesta](https://www.youtube.com/watch?v=TQHs8SA1qpk) suuressa mittakaavassa.
+
+Trendit osoittavat myös, että vuoteen 2025 mennessä tuotamme ja kulutamme yli [180 zettatavua](https://www.statista.com/statistics/871513/worldwide-data-created/) dataa. **Data-analyytikkoina** tämä antaa meille ennennäkemättömän pääsyn henkilökohtaisiin tietoihin. Tämä tarkoittaa, että voimme rakentaa käyttäjien käyttäytymisprofiileja ja vaikuttaa päätöksentekoon tavoilla, jotka luovat [illuusion vapaasta valinnasta](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), samalla kun saatamme ohjata käyttäjiä kohti meille suotuisia lopputuloksia. Tämä herättää myös laajempia kysymyksiä datan yksityisyydestä ja käyttäjien suojelusta.
+
+Datan etiikka on nyt _välttämätön suojakaide_ data-analytiikassa ja -insinöörityössä, auttaen meitä minimoimaan mahdolliset haitat ja tahattomat seuraukset datalähtöisistä toimistamme. [Gartnerin tekoälyn hypekäyrä](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) tunnistaa digietiikan, vastuullisen tekoälyn ja tekoälyn hallinnan keskeisiksi trendeiksi, jotka ohjaavat suurempia megatrendejä, kuten tekoälyn _demokratisointia_ ja _teollistamista_.
+
+
+
+Tässä oppitunnissa tutkimme kiehtovaa datan etiikan aluetta - peruskäsitteistä ja haasteista tapaustutkimuksiin ja soveltaviin tekoälykonsepteihin, kuten hallintoon, jotka auttavat luomaan eettisen kulttuurin dataa ja tekoälyä käsittelevissä tiimeissä ja organisaatioissa.
+
+## [Esiluentavisa](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Perusmääritelmät
+
+Aloitetaan ymmärtämällä peruskäsitteet.
+
+Sana "etiikka" tulee [kreikan sanasta "ethikos"](https://en.wikipedia.org/wiki/Ethics) (ja sen juuresta "ethos"), joka tarkoittaa _luonnetta tai moraalista olemusta_.
+
+**Etiikka** käsittelee yhteisiä arvoja ja moraalisia periaatteita, jotka ohjaavat käyttäytymistämme yhteiskunnassa. Etiikka ei perustu lakeihin, vaan yleisesti hyväksyttyihin normeihin siitä, mikä on "oikein vs. väärin". Kuitenkin eettiset näkökohdat voivat vaikuttaa yritysten hallintokäytäntöihin ja hallituksen säädöksiin, jotka luovat enemmän kannustimia noudattamiselle.
+
+**Datan etiikka** on [uusi etiikan haara](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), joka "tutkii ja arvioi moraalisia ongelmia, jotka liittyvät _dataan, algoritmeihin ja vastaaviin käytäntöihin_". Tässä **"data"** keskittyy toimiin, jotka liittyvät datan luomiseen, tallentamiseen, kuratointiin, käsittelyyn, levittämiseen, jakamiseen ja käyttöön, **"algoritmit"** keskittyvät tekoälyyn, agenteihin, koneoppimiseen ja robotteihin, ja **"käytännöt"** keskittyvät aiheisiin, kuten vastuulliseen innovointiin, ohjelmointiin, hakkerointiin ja eettisiin koodeihin.
+
+**Soveltava etiikka** on [moraalisten näkökohtien käytännön soveltamista](https://en.wikipedia.org/wiki/Applied_ethics). Se on prosessi, jossa aktiivisesti tutkitaan eettisiä kysymyksiä _todellisen maailman toimien, tuotteiden ja prosessien_ yhteydessä ja toteutetaan korjaavia toimenpiteitä, jotta nämä pysyvät linjassa määriteltyjen eettisten arvojemme kanssa.
+
+**Eettinen kulttuuri** tarkoittaa [_soveltavan etiikan operationalisointia_](https://hbr.org/2019/05/how-to-design-an-ethical-organization) varmistaakseen, että eettiset periaatteemme ja käytäntömme otetaan käyttöön johdonmukaisesti ja skaalautuvasti koko organisaatiossa. Onnistuneet eettiset kulttuurit määrittelevät organisaation laajuiset eettiset periaatteet, tarjoavat merkityksellisiä kannustimia noudattamiselle ja vahvistavat eettisiä normeja rohkaisemalla ja korostamalla toivottuja käyttäytymismalleja organisaation kaikilla tasoilla.
+
+## Etiikan käsitteet
+
+Tässä osiossa käsittelemme käsitteitä, kuten **yhteiset arvot** (periaatteet) ja **eettiset haasteet** (ongelmat) datan etiikassa - ja tutkimme **tapaustutkimuksia**, jotka auttavat ymmärtämään näitä käsitteitä todellisissa konteksteissa.
+
+### 1. Etiikan periaatteet
+
+Jokainen datan etiikkastrategia alkaa määrittelemällä _eettiset periaatteet_ - "yhteiset arvot", jotka kuvaavat hyväksyttäviä käyttäytymismalleja ja ohjaavat noudattavia toimia data- ja tekoälyprojekteissamme. Voit määritellä nämä yksilö- tai tiimitasolla. Useimmat suuret organisaatiot kuitenkin laativat nämä _eettisen tekoälyn_ missiolausekkeessa tai viitekehyksessä, joka määritellään yritystasolla ja jota sovelletaan johdonmukaisesti kaikissa tiimeissä.
+
+**Esimerkki:** Microsoftin [Vastuullisen tekoälyn](https://www.microsoft.com/en-us/ai/responsible-ai) missiolauseke kuuluu: _"Olemme sitoutuneet edistämään tekoälyä eettisten periaatteiden pohjalta, jotka asettavat ihmiset etusijalle"_ - tunnistaen kuusi eettistä periaatetta alla olevassa viitekehyksessä:
+
+
+
+Tutkitaan lyhyesti näitä periaatteita. _Läpinäkyvyys_ ja _vastuullisuus_ ovat perustavanlaatuisia arvoja, joiden päälle muut periaatteet rakentuvat - aloitetaan siis niistä:
+
+* [**Vastuullisuus**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) tekee käytännön toteuttajista _vastuullisia_ data- ja tekoälytoiminnoistaan sekä näiden eettisten periaatteiden noudattamisesta.
+* [**Läpinäkyvyys**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) varmistaa, että data- ja tekoälytoimet ovat _ymmärrettäviä_ (tulkittavia) käyttäjille, selittäen päätösten taustalla olevat syyt ja tarkoitukset.
+* [**Reiluus**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) keskittyy varmistamaan, että tekoäly kohtelee _kaikkia ihmisiä_ oikeudenmukaisesti, käsitellen mahdollisia järjestelmällisiä tai piileviä sosio-teknisiä vinoumia datassa ja järjestelmissä.
+* [**Luotettavuus ja turvallisuus**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) varmistaa, että tekoäly toimii _johdonmukaisesti_ määriteltyjen arvojen mukaisesti, minimoiden mahdolliset haitat tai tahattomat seuraukset.
+* [**Yksityisyys ja turvallisuus**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) liittyy datan alkuperän ymmärtämiseen ja _datan yksityisyyden ja siihen liittyvien suojatoimien_ tarjoamiseen käyttäjille.
+* [**Osallistavuus**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) tarkoittaa tekoälyratkaisujen suunnittelua tarkoituksella, mukauttamalla ne vastaamaan _laajaa joukkoa ihmisten tarpeita_ ja kykyjä.
+
+> 🚨 Mieti, mikä voisi olla sinun datan etiikan missiolausekkeesi. Tutki muiden organisaatioiden eettisiä tekoälyviitekehyksiä - tässä esimerkkejä [IBM:ltä](https://www.ibm.com/cloud/learn/ai-ethics), [Googlelta](https://ai.google/principles) ja [Facebookilta](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Mitä yhteisiä arvoja niillä on? Miten nämä periaatteet liittyvät tekoälytuotteeseen tai -alaan, jolla ne toimivat?
+
+### 2. Etiikan haasteet
+
+Kun eettiset periaatteet on määritelty, seuraava askel on arvioida data- ja tekoälytoimiamme nähdäksemme, ovatko ne linjassa näiden yhteisten arvojen kanssa. Mieti toimiasi kahdessa kategoriassa: _datan kerääminen_ ja _algoritmien suunnittelu_.
+
+Datan keräämisessä toimet liittyvät todennäköisesti **henkilökohtaisiin tietoihin** tai henkilön tunnistettaviin tietoihin (PII), jotka koskevat tunnistettavissa olevia eläviä yksilöitä. Tämä sisältää [monenlaisia ei-henkilökohtaisia tietoja](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), jotka _yhdessä_ voivat tunnistaa yksilön. Eettiset haasteet voivat liittyä _datan yksityisyyteen_, _datan omistajuuteen_ ja aiheisiin, kuten _tietoinen suostumus_ ja _käyttäjien immateriaalioikeudet_.
+
+Algoritmien suunnittelussa toimet liittyvät **datan keräämiseen ja kuratointiin**, ja niiden käyttämiseen **datamallien** kouluttamiseen ja käyttöönottoon, jotka ennustavat tuloksia tai automatisoivat päätöksiä todellisissa konteksteissa. Eettisiä haasteita voi syntyä _datan vinoumista_, _datan laadun_ ongelmista, _epäreiluudesta_ ja _vääristymistä_ algoritmeissa - mukaan lukien joitakin järjestelmällisiä ongelmia.
+
+Molemmissa tapauksissa eettiset haasteet korostavat alueita, joissa toimintamme saattaa olla ristiriidassa yhteisten arvojemme kanssa. Näiden huolenaiheiden havaitsemiseksi, lieventämiseksi, minimoimiseksi tai poistamiseksi meidän on esitettävä moraalisia "kyllä/ei"-kysymyksiä toimistamme ja toteutettava tarvittavat korjaavat toimenpiteet. Katsotaanpa joitakin eettisiä haasteita ja niihin liittyviä moraalisia kysymyksiä:
+
+#### 2.1 Datan omistajuus
+
+Datan kerääminen sisältää usein henkilökohtaisia tietoja, jotka voivat tunnistaa datan kohteet. [Datan omistajuus](https://permission.io/blog/data-ownership) koskee _kontrollia_ ja [_käyttäjien oikeuksia_](https://permission.io/blog/data-ownership) liittyen datan luomiseen, käsittelyyn ja levittämiseen.
+
+Moraalisia kysymyksiä, joita meidän on esitettävä:
+ * Kuka omistaa datan? (käyttäjä vai organisaatio)
+ * Mitä oikeuksia datan kohteilla on? (esim. pääsy, poistaminen, siirrettävyys)
+ * Mitä oikeuksia organisaatioilla on? (esim. korjata haitallisia käyttäjäarvioita)
+
+#### 2.2 Tietoinen suostumus
+
+[Tietoinen suostumus](https://legaldictionary.net/informed-consent/) määrittelee käyttäjien toiminnan (kuten datan keräämisen) hyväksymisen _täydellä ymmärryksellä_ asiaankuuluvista faktoista, mukaan lukien tarkoitus, mahdolliset riskit ja vaihtoehdot.
+
+Kysymyksiä, joita on tutkittava:
+ * Antoiko käyttäjä (datan kohde) luvan datan keräämiseen ja käyttöön?
+ * Ymmärsikö käyttäjä, mihin tarkoitukseen data kerättiin?
+ * Ymmärsikö käyttäjä osallistumisensa mahdolliset riskit?
+
+#### 2.3 Immateriaalioikeudet
+
+[Immateriaalioikeudet](https://en.wikipedia.org/wiki/Intellectual_property) viittaavat aineettomiin luomuksiin, jotka ovat ihmisen aloitteellisuuden tulosta ja joilla voi olla _taloudellista arvoa_ yksilöille tai yrityksille.
+
+Kysymyksiä, joita on tutkittava:
+ * Sisältääkö kerätty data taloudellista arvoa käyttäjälle tai yritykselle?
+ * Onko **käyttäjällä** immateriaalioikeuksia tässä?
+ * Onko **organisaatiolla** immateriaalioikeuksia tässä?
+ * Jos nämä oikeudet ovat olemassa, miten suojelemme niitä?
+
+#### 2.4 Datan yksityisyys
+
+[Datan yksityisyys](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) tai tietosuoja viittaa käyttäjän yksityisyyden säilyttämiseen ja käyttäjän identiteetin suojaamiseen henkilön tunnistettavien tietojen osalta.
+
+Kysymyksiä, joita on tutkittava:
+ * Onko käyttäjien (henkilökohtainen) data suojattu hakkereilta ja vuodoilta?
+ * Onko käyttäjien data vain valtuutettujen käyttäjien ja kontekstien saatavilla?
+ * Säilytetäänkö käyttäjien anonymiteetti, kun dataa jaetaan tai levitetään?
+ * Voidaanko käyttäjä tunnistaa uudelleen anonymisoiduista datasetistä?
+
+#### 2.5 Oikeus tulla unohdetuksi
+
+[Oikeus tulla unohdetuksi](https://en.wikipedia.org/wiki/Right_to_be_forgotten) tai [oikeus tietojen poistamiseen](https://www.gdpreu.org/right-to-be-forgotten/) tarjoaa käyttäjille lisäsuojaa henkilökohtaisille tiedoille. Se antaa käyttäjille oikeuden pyytää henkilökohtaisten tietojen poistamista Internet-hauista ja muista sijainneista _tietyissä olosuhteissa_ - mahdollistaen uuden alun verkossa ilman, että menneitä toimia pidetään heitä vastaan.
+
+Kysymyksiä, joita on tutkittava:
+ * Salliko järjestelmä datan kohteiden pyytää tietojen poistamista?
+ * Pitäisikö käyttäjän suostumuksen peruuttamisen laukaista automaattinen poistaminen?
+ * Kerättiinkö data ilman suostumusta tai laittomin keinoin?
+ * Olemmeko noudattaneet hallituksen säädöksiä datan yksityisyydestä?
+
+#### 2.6 Datasetin vinoumat
+
+Datasetin tai [keräysvinouman](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) ongelma liittyy _epäedustavan_ datan alijoukon valintaan algoritmien kehittämiseen, mikä voi johtaa mahdolliseen epäoikeudenmukaisuuteen tuloksissa eri ryhmille. Vinoumat voivat olla esimerkiksi valinta- tai otantavinoumia, vapaaehtoisuusvinoumia ja instrumenttivinoumia.
+
+Kysymyksiä, joita on tutkittava:
+ * Rekrytoimmeko edustavan joukon datan kohteita?
+ * Testasimmeko kerättyä tai kuratoitua datasettiä eri vinoumien varalta?
+ * Voimmeko lieventää tai poistaa havaittuja vinoumia?
+
+#### 2.7 Datan laatu
+
+
+[Algorithminen oikeudenmukaisuus](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) tarkastelee, syrjiikö algoritmin suunnittelu systemaattisesti tiettyjä datan kohderyhmiä, mikä voi johtaa [mahdollisiin haittoihin](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) _resurssien jakamisessa_ (kun resursseja evätään tai pidätetään kyseiseltä ryhmältä) ja _palvelun laadussa_ (kun tekoäly ei ole yhtä tarkka joillekin alaryhmille kuin muille).
+
+Kysymyksiä, joita tässä kannattaa pohtia:
+ * Arvioimmeko mallin tarkkuutta eri alaryhmien ja olosuhteiden osalta?
+ * Tutkimmeko järjestelmää mahdollisten haittojen (esim. stereotypioiden) osalta?
+ * Voimmeko muokata dataa tai kouluttaa malleja uudelleen haittojen vähentämiseksi?
+
+Tutustu resursseihin, kuten [AI Fairness -tarkistuslistoihin](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), oppiaksesi lisää.
+
+#### 2.9 Vääristely
+
+[Datavääristely](https://www.sciencedirect.com/topics/computer-science/misrepresentation) tarkoittaa sitä, että kysytään, viestimmekö rehellisesti raportoidusta datasta saadut oivallukset harhaanjohtavalla tavalla tukemaan haluttua narratiivia.
+
+Kysymyksiä, joita tässä kannattaa pohtia:
+ * Raportoimmeko puutteellista tai epätarkkaa dataa?
+ * Visualisoimmeko dataa tavalla, joka johtaa harhaanjohtaviin johtopäätöksiin?
+ * Käytämmekö valikoivia tilastollisia tekniikoita manipuloidaksemme tuloksia?
+ * Onko olemassa vaihtoehtoisia selityksiä, jotka voivat tarjota erilaisen johtopäätöksen?
+
+#### 2.10 Vapaa valinta
+[Vapaan valinnan illuusio](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) syntyy, kun järjestelmän "valinta-arkkitehtuurit" käyttävät päätöksentekoalgoritmeja ohjaamaan ihmisiä kohti haluttua lopputulosta samalla, kun heille näennäisesti annetaan vaihtoehtoja ja kontrollia. Nämä [pimeät kuviot](https://www.darkpatterns.org/) voivat aiheuttaa sosiaalisia ja taloudellisia haittoja käyttäjille. Koska käyttäjien päätökset vaikuttavat käyttäytymisprofiileihin, nämä toimet voivat mahdollisesti ohjata tulevia valintoja ja vahvistaa tai laajentaa haittojen vaikutusta.
+
+Kysymyksiä, joita tässä kannattaa pohtia:
+ * Ymmärsikö käyttäjä valinnan tekemisen seuraukset?
+ * Oliko käyttäjä tietoinen (vaihtoehtoisista) valinnoista ja niiden eduista ja haitoista?
+ * Voiko käyttäjä myöhemmin peruuttaa automatisoidun tai ohjatun valinnan?
+
+### 3. Tapaustutkimukset
+
+Eettisten haasteiden asettaminen todellisiin konteksteihin auttaa ymmärtämään mahdollisia haittoja ja seurauksia yksilöille ja yhteiskunnalle, kun eettisiä rikkomuksia ei huomioida.
+
+Tässä muutamia esimerkkejä:
+
+| Eettinen haaste | Tapaustutkimus |
+|--- |--- |
+| **Tietoinen suostumus** | 1972 - [Tuskegeen kuppatutkimus](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afrikkalaisamerikkalaisille miehille luvattiin ilmainen lääkärinhoito, _mutta heitä petettiin_ tutkijoiden toimesta, jotka eivät kertoneet diagnoosista tai hoidon saatavuudesta. Monet kuolivat, ja heidän kumppaninsa tai lapsensa kärsivät; tutkimus kesti 40 vuotta. |
+| **Dataprivaatisuus** | 2007 - [Netflixin datapalkinto](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) tarjosi tutkijoille _10 miljoonaa anonymisoitua elokuva-arvostelua 50 000 asiakkaalta_ parantaakseen suositusalgoritmeja. Tutkijat pystyivät kuitenkin yhdistämään anonymisoidun datan henkilökohtaisesti tunnistettavaan dataan _ulkoisista tietokannoista_ (esim. IMDb-kommentit), mikä käytännössä "de-anonymisoi" joitakin Netflixin tilaajia.|
+| **Keräysbias** | 2013 - Bostonin kaupunki [kehitti Street Bump -sovelluksen](https://www.boston.gov/transportation/street-bump), joka antoi kansalaisille mahdollisuuden raportoida kuoppia, tarjoten kaupungille parempaa tietoa teiden korjaamiseksi. Kuitenkin [alemman tulotason ryhmillä oli vähemmän pääsyä autoihin ja puhelimiin](https://hbr.org/2013/04/the-hidden-biases-in-big-data), mikä teki heidän tieongelmansa näkymättömiksi sovelluksessa. Kehittäjät tekivät yhteistyötä akateemikkojen kanssa _tasapuolisen pääsyn ja digitaalisten kuilujen_ ratkaisemiseksi oikeudenmukaisuuden nimissä. |
+| **Algoritminen oikeudenmukaisuus** | 2018 - MIT:n [Gender Shades -tutkimus](http://gendershades.org/overview.html) arvioi sukupuolen luokitteluun tarkoitettujen tekoälytuotteiden tarkkuutta, paljastaen puutteita naisten ja värillisten henkilöiden osalta. [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) näytti tarjoavan vähemmän luottoa naisille kuin miehille. Molemmat osoittivat algoritmisen biasin aiheuttamia sosioekonomisia haittoja.|
+| **Datavääristely** | 2020 - Georgian [terveysosasto julkaisi COVID-19-kaavioita](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), jotka näyttivät harhaanjohtavan kansalaisia vahvistettujen tapausten trendeistä käyttämällä ei-kronologista järjestystä x-akselilla. Tämä havainnollistaa vääristelyä visualisointikikkojen avulla. |
+| **Vapaan valinnan illuusio** | 2020 - Oppimissovellus [ABCmouse maksoi 10 miljoonaa dollaria FTC:n valituksen sovittelusta](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), jossa vanhemmat joutuivat maksamaan tilauksista, joita he eivät voineet peruuttaa. Tämä havainnollistaa pimeitä kuvioita valinta-arkkitehtuureissa, joissa käyttäjiä ohjattiin mahdollisesti haitallisiin valintoihin. |
+| **Dataprivaatisuus ja käyttäjän oikeudet** | 2021 - Facebookin [datavuoto](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) paljasti 530 miljoonan käyttäjän tiedot, mikä johti 5 miljardin dollarin sovitteluun FTC:n kanssa. Se kuitenkin kieltäytyi ilmoittamasta käyttäjille vuodosta, mikä rikkoi käyttäjän oikeuksia datan läpinäkyvyyden ja saatavuuden osalta. |
+
+Haluatko tutkia lisää tapaustutkimuksia? Tutustu näihin resursseihin:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - eettisiä dilemmoja eri toimialoilla.
+* [Data Science Ethics -kurssi](https://www.coursera.org/learn/data-science-ethics#syllabus) - merkittäviä tapaustutkimuksia.
+* [Missä asiat ovat menneet pieleen](https://deon.drivendata.org/examples/) - Deon-tarkistuslista esimerkkien kanssa.
+
+> 🚨 Mieti tapaustutkimuksia, joita olet nähnyt – oletko kokenut tai ollut osallisena vastaavassa eettisessä haasteessa elämässäsi? Voitko keksiä ainakin yhden muun tapaustutkimuksen, joka havainnollistaa jotakin tässä osiossa käsitellyistä eettisistä haasteista?
+
+## Soveltava etiikka
+
+Olemme puhuneet etiikan käsitteistä, haasteista ja tapaustutkimuksista todellisissa konteksteissa. Mutta miten pääsemme alkuun eettisten periaatteiden ja käytäntöjen _soveltamisessa_ projekteissamme? Ja miten _operationalisoimme_ nämä käytännöt paremman hallinnan saavuttamiseksi? Tutkitaan joitakin käytännön ratkaisuja:
+
+### 1. Ammattikoodit
+
+Ammattikoodit tarjoavat yhden vaihtoehdon organisaatioille "kannustaa" jäseniä tukemaan eettisiä periaatteitaan ja missiotaan. Koodit ovat _moraalisia ohjeita_ ammatilliselle käyttäytymiselle, jotka auttavat työntekijöitä tai jäseniä tekemään päätöksiä, jotka ovat linjassa organisaation periaatteiden kanssa. Ne ovat vain niin hyviä kuin jäsenten vapaaehtoinen noudattaminen; monet organisaatiot tarjoavat kuitenkin lisäpalkintoja ja -rangaistuksia motivoidakseen jäseniä noudattamaan koodia.
+
+Esimerkkejä:
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (luotu 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (vuodesta 1993)
+
+> 🚨 Kuulutko ammatilliseen insinööri- tai data science -organisaatioon? Tutki heidän sivustoaan nähdäksesi, määrittelevätkö he ammattikoodin. Mitä tämä kertoo heidän eettisistä periaatteistaan? Miten he "kannustavat" jäseniä noudattamaan koodia?
+
+### 2. Etiikan tarkistuslistat
+
+Vaikka ammattikoodit määrittelevät vaaditun _eettisen käyttäytymisen_ ammattilaisilta, niillä [on tunnettuja rajoituksia](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) täytäntöönpanossa, erityisesti suurissa projekteissa. Sen sijaan monet data science -asiantuntijat [suosittelevat tarkistuslistoja](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), jotka voivat **yhdistää periaatteet käytäntöihin** määrätietoisemmilla ja toiminnallisemmilla tavoilla.
+
+Tarkistuslistat muuttavat kysymykset "kyllä/ei"-tehtäviksi, jotka voidaan operationalisoida, jolloin niitä voidaan seurata osana standardeja tuotteen julkaisutyönkulkuja.
+
+Esimerkkejä:
+ * [Deon](https://deon.drivendata.org/) - yleiskäyttöinen dataetiikan tarkistuslista, joka on luotu [teollisuuden suosituksista](https://deon.drivendata.org/#checklist-citations) ja sisältää komentorivityökalun helppoa integrointia varten.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - tarjoaa yleistä ohjeistusta tietojen käsittelykäytännöistä oikeudellisista ja sosiaalisista näkökulmista.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - tekoälyasiantuntijoiden luoma tukemaan oikeudenmukaisuustarkistusten käyttöönottoa ja integrointia tekoälyn kehityssykleihin.
+ * [22 kysymystä datan ja tekoälyn etiikasta](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - avoimempi kehys, joka on suunniteltu eettisten kysymysten alustavaan tutkimiseen suunnittelussa, toteutuksessa ja organisaatiokonteksteissa.
+
+### 3. Etiikan sääntely
+
+Etiikka tarkoittaa yhteisten arvojen määrittämistä ja oikean tekemistä _vapaaehtoisesti_. **Noudattaminen** tarkoittaa _lain seuraamista_ silloin ja siellä, missä se on määritelty. **Hallinto** kattaa laajemmin kaikki tavat, joilla organisaatiot toimivat eettisten periaatteiden täytäntöönpanemiseksi ja määriteltyjen lakien noudattamiseksi.
+
+Nykyään hallinto ilmenee organisaatioissa kahdella tavalla. Ensinnäkin kyse on **eettisten tekoälyperiaatteiden** määrittämisestä ja käytäntöjen luomisesta niiden käyttöönoton operationalisoimiseksi kaikissa organisaation tekoälyyn liittyvissä projekteissa. Toiseksi kyse on kaikkien hallituksen määrittelemien **datansuojelusäädösten** noudattamisesta niillä alueilla, joilla organisaatio toimii.
+
+Esimerkkejä datansuojelusta ja yksityisyyden sääntelystä:
+
+ * `1974`, [Yhdysvaltain Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - säätelee _liittovaltion hallituksen_ henkilökohtaisen tiedon keräämistä, käyttöä ja julkistamista.
+ * `1996`, [Yhdysvaltain Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - suojaa henkilökohtaisia terveystietoja.
+ * `1998`, [Yhdysvaltain Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - suojaa alle 13-vuotiaiden lasten tietosuojaa.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - tarjoaa käyttäjän oikeuksia, datansuojaa ja yksityisyyttä.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) antaa kuluttajille enemmän _oikeuksia_ heidän (henkilökohtaisiin) tietoihinsa.
+ * `2021`, Kiinan [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) juuri hyväksytty, luoden yhden maailman vahvimmista verkkotietosuojelusäädöksistä.
+
+> 🚨 Euroopan unionin määrittelemä GDPR (General Data Protection Regulation) on edelleen yksi vaikutusvaltaisimmista datan yksityisyyden sääntelyistä. Tiesitkö, että se myös määrittelee [8 käyttäjän oikeutta](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) suojaamaan kansalaisten digitaalista yksityisyyttä ja henkilökohtaisia tietoja? Opi, mitä nämä ovat ja miksi ne ovat tärkeitä.
+
+### 4. Etiikan kulttuuri
+
+Huomaa, että _lain noudattamisen_ (tehdä tarpeeksi täyttääkseen "lain kirjaimen") ja [systeemisten ongelmien](https://www.coursera.org/learn/data-science-ethics/home/week/4) (kuten jäykistyminen, tiedon epäsymmetria ja jakautumisen epäoikeudenmukaisuus) käsittelyn välillä on edelleen aineeton kuilu, joka voi nopeuttaa tekoälyn aseistamista.
+
+Jälkimmäinen vaatii [yhteistyöhön perustuvia lähestymistapoja etiikan kulttuurien määrittämiseen](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), jotka rakentavat emotionaalisia yhteyksiä ja johdonmukaisia yhteisiä arvoja _organisaatioiden välillä_ teollisuudessa. Tämä vaatii enemmän [formalisoituja dataetiikan kulttuureja](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) organisaatioissa – mahdollistaen _kenelle tahansa_ [vetää Andon-köyttä](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (nostaa eettisiä huolenaiheita prosessin alkuvaiheessa) ja tehden _eettisistä arvioinneista_ (esim. rekrytoinnissa) keskeisen kriteerin tiimien muodostamisessa tekoälyprojekteissa.
+
+---
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Kertaus ja itseopiskelu
+
+Kurssit ja kirjat auttavat ymmärtämään keskeisiä etiikan käsitteitä ja haasteita, kun taas tapaustutkimukset ja työkalut auttavat soveltamaan eettisiä käytäntöjä todellisissa konteksteissa. Tässä muutamia resursseja, joista voit aloittaa.
+
+* [Machine Learning For
+* [Vastuullisen tekoälyn periaatteet](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - ilmainen oppimispolku Microsoft Learnista.
+* [Etiikka ja datatiede](https://resources.oreilly.com/examples/0636920203964) - O'Reillyn e-kirja (M. Loukides, H. Mason ym.)
+* [Datatieteen etiikka](https://www.coursera.org/learn/data-science-ethics#syllabus) - verkkokurssi Michiganin yliopistosta.
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - tapaustutkimuksia Texasin yliopistosta.
+
+# Tehtävä
+
+[Kirjoita tapaustutkimus datan etiikasta](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/02-ethics/assignment.md b/translations/fi/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..231bae0a
--- /dev/null
+++ b/translations/fi/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Kirjoita Tapaustutkimus Dataetiikasta
+
+## Ohjeet
+
+Olet oppinut erilaisista [dataetiikan haasteista](README.md#2-ethics-challenges) ja nähnyt esimerkkejä [tapaustutkimuksista](README.md#3-case-studies), jotka heijastavat dataetiikan haasteita tosielämän tilanteissa.
+
+Tässä tehtävässä kirjoitat oman tapaustutkimuksen, joka käsittelee dataetiikan haastetta omasta kokemuksestasi tai jostain tuntemastasi tosielämän tilanteesta. Seuraa vain näitä vaiheita:
+
+1. `Valitse dataetiikan haaste`. Katso [oppitunnin esimerkkejä](README.md#2-ethics-challenges) tai tutustu verkossa oleviin esimerkkeihin, kuten [Deon Checklist](https://deon.drivendata.org/examples/), saadaksesi inspiraatiota.
+
+2. `Kuvaile tosielämän esimerkki`. Mieti tilannetta, josta olet kuullut (uutisotsikot, tutkimus jne.) tai jonka olet itse kokenut (paikallinen yhteisö), jossa kyseinen haaste ilmeni. Pohdi dataetiikkaan liittyviä kysymyksiä, jotka liittyvät haasteeseen – ja keskustele mahdollisista haitoista tai tahattomista seurauksista, joita tästä ongelmasta voi aiheutua. Bonuspisteitä: mieti mahdollisia ratkaisuja tai prosesseja, joita voitaisiin soveltaa haitallisten vaikutusten poistamiseksi tai lieventämiseksi.
+
+3. `Tarjoa lista liittyvistä resursseista`. Jaa yksi tai useampi resurssi (linkki artikkeliin, henkilökohtaiseen blogikirjoitukseen tai kuvaan, verkossa olevaan tutkimuspaperiin jne.) todistaaksesi, että tämä oli tosielämän tapahtuma. Bonuspisteitä: jaa resursseja, jotka myös osoittavat tapauksen mahdolliset haitat ja seuraukset tai korostavat positiivisia toimia, joilla pyrittiin estämään vastaavat tapaukset tulevaisuudessa.
+
+
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Yksi tai useampi dataetiikan haaste on tunnistettu.
Tapaustutkimus kuvaa selkeästi tosielämän tapahtuman, joka heijastaa kyseistä haastetta, ja tuo esiin ei-toivottuja seurauksia tai haittoja, joita se aiheutti.
Vähintään yksi linkitetty resurssi todistaa tapahtuman. | Yksi dataetiikan haaste on tunnistettu.
Vähintään yksi asiaankuuluva haitta tai seuraus on käsitelty lyhyesti.
Keskustelu on kuitenkin rajallista tai puuttuu todisteita tosielämän tapahtumasta. | Dataetiikan haaste on tunnistettu.
Kuitenkin kuvaus tai resurssit eivät riittävästi heijasta haastetta tai todista sen tosielämän tapahtumaa. |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/03-defining-data/README.md b/translations/fi/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..a1d92871
--- /dev/null
+++ b/translations/fi/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,84 @@
+
+# Määritellään dataa
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Datan määrittely - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Data on faktoja, tietoa, havaintoja ja mittauksia, joita käytetään löytöjen tekemiseen ja perusteltujen päätösten tukemiseen. Datapiste on yksittäinen datayksikkö datasetissä, joka on kokoelma datapisteitä. Datasetit voivat olla eri muodoissa ja rakenteissa, ja ne perustuvat yleensä niiden lähteeseen eli siihen, mistä data on peräisin. Esimerkiksi yrityksen kuukausitulot voivat olla taulukkolaskentatiedostossa, mutta älykellon tuntikohtaiset syketiedot voivat olla [JSON](https://stackoverflow.com/a/383699)-muodossa. On yleistä, että data-analyytikot työskentelevät erilaisten datatyyppien kanssa samassa datasetissä.
+
+Tämä oppitunti keskittyy datan tunnistamiseen ja luokitteluun sen ominaisuuksien ja lähteiden perusteella.
+
+## [Esiluentavisa](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## Miten dataa kuvataan
+
+### Raakadata
+Raakadata on dataa, joka on peräisin lähteestään alkuperäisessä muodossaan eikä sitä ole analysoitu tai järjestetty. Jotta datasetistä saataisiin selkoa, se täytyy järjestää sellaiseen muotoon, joka on ymmärrettävissä sekä ihmisille että teknologialle, jota käytetään sen jatkoanalysointiin. Datasetin rakenne kuvaa, miten se on järjestetty, ja se voidaan luokitella rakenteelliseksi, rakenteettomaksi ja puolirakenteelliseksi. Näiden rakenteiden tyypit vaihtelevat lähteen mukaan, mutta ne kuuluvat lopulta johonkin näistä kolmesta kategoriasta.
+
+### Kvantitatiivinen data
+Kvantitatiivinen data on datasetin numeerisia havaintoja, joita voidaan yleensä analysoida, mitata ja käyttää matemaattisesti. Esimerkkejä kvantitatiivisesta datasta ovat: maan väkiluku, henkilön pituus tai yrityksen neljännesvuosittaiset tulot. Lisäanalyysin avulla kvantitatiivista dataa voitaisiin käyttää esimerkiksi ilmanlaatuindeksin (AQI) kausitrendien löytämiseen tai arvioimaan ruuhka-ajan liikenteen todennäköisyyttä tavallisena työpäivänä.
+
+### Kvalitatiivinen data
+Kvalitatiivinen data, joka tunnetaan myös kategorisena datana, on dataa, jota ei voida mitata objektiivisesti kuten kvantitatiivista dataa. Se on yleensä subjektiivista dataa, joka kuvaa jonkin asian laatua, kuten tuotetta tai prosessia. Joskus kvalitatiivinen data on numeerista, mutta sitä ei yleensä käytetä matemaattisesti, kuten puhelinnumerot tai aikaleimat. Esimerkkejä kvalitatiivisesta datasta ovat: videokommentit, auton merkki ja malli tai lähimpien ystäviesi lempiväri. Kvalitatiivista dataa voitaisiin käyttää esimerkiksi ymmärtämään, mistä tuotteista kuluttajat pitävät eniten, tai tunnistamaan suosittuja avainsanoja työhakemuksista.
+
+### Rakenteellinen data
+Rakenteellinen data on dataa, joka on järjestetty riveihin ja sarakkeisiin, joissa jokaisella rivillä on sama sarakejoukko. Sarakkeet edustavat tietyn tyyppistä arvoa ja ne tunnistetaan nimellä, joka kuvaa, mitä arvo edustaa, kun taas rivit sisältävät varsinaiset arvot. Sarakkeilla on usein tiettyjä sääntöjä tai rajoituksia arvoille, jotta varmistetaan, että arvot edustavat saraketta oikein. Esimerkiksi kuvittele asiakastaulukko, jossa jokaisella rivillä täytyy olla puhelinnumero, eikä puhelinnumerot saa sisältää aakkosmerkkejä. Puhelinnumerosarakkeeseen voidaan soveltaa sääntöjä, jotta se ei koskaan ole tyhjä ja sisältää vain numeroita.
+
+Rakenteellisen datan etuna on, että se voidaan järjestää siten, että se voidaan yhdistää muuhun rakenteelliseen dataan. Koska data on kuitenkin suunniteltu järjestettäväksi tietyllä tavalla, sen rakenteen muuttaminen voi vaatia paljon työtä. Esimerkiksi jos asiakastaulukkoon lisätään sähköpostisarakke, joka ei voi olla tyhjä, täytyy selvittää, miten nämä arvot lisätään olemassa oleviin asiakasriveihin datasetissä.
+
+Esimerkkejä rakenteellisesta datasta: taulukkolaskentatiedostot, relaatiotietokannat, puhelinnumerot, tiliotteet.
+
+### Rakenteeton data
+Rakenteeton data ei yleensä sovi riveihin tai sarakkeisiin eikä sisällä muotoa tai sääntöjä, joita noudattaa. Koska rakenteettomalla datalla on vähemmän rajoituksia rakenteelleen, uuden tiedon lisääminen on helpompaa verrattuna rakenteelliseen dataan. Jos esimerkiksi anturi, joka tallentaa ilmanpaineen tietoja kahden minuutin välein, saa päivityksen, joka mahdollistaa lämpötilan mittaamisen ja tallentamisen, olemassa olevaa dataa ei tarvitse muokata, jos se on rakenteetonta. Tämä voi kuitenkin tehdä tällaisen datan analysoinnista tai tutkimisesta hitaampaa. Esimerkiksi tutkija, joka haluaa löytää anturin datasta edellisen kuukauden keskilämpötilan, mutta huomaa, että anturi on tallentanut joihinkin tietoihin "e" merkiksi siitä, että se oli rikki, mikä tarkoittaa, että data on puutteellista.
+
+Esimerkkejä rakenteettomasta datasta: tekstitiedostot, tekstiviestit, videotiedostot.
+
+### Puolirakenteellinen data
+Puolirakenteellisellä datalla on piirteitä, jotka tekevät siitä yhdistelmän rakenteellista ja rakenteetonta dataa. Se ei yleensä noudata rivi- ja sarakemuotoa, mutta se on järjestetty tavalla, jota pidetään rakenteellisena, ja se voi noudattaa kiinteää muotoa tai sääntöjä. Rakenne vaihtelee lähteiden välillä, kuten hyvin määritellystä hierarkiasta joustavampaan muotoon, joka mahdollistaa uuden tiedon helpon integroinnin. Metadata on indikaattoreita, jotka auttavat päättämään, miten data on järjestetty ja tallennettu, ja niillä on erilaisia nimiä datatyypistä riippuen. Joitakin yleisiä metadatan nimiä ovat tagit, elementit, entiteetit ja attribuutit. Esimerkiksi tyypillisessä sähköpostiviestissä on aihe, runko ja vastaanottajat, ja se voidaan järjestää sen mukaan, kenelle tai milloin se on lähetetty.
+
+Esimerkkejä puolirakenteellisestä datasta: HTML, CSV-tiedostot, JavaScript Object Notation (JSON).
+
+## Datan lähteet
+
+Datalähde on alkuperäinen sijainti, jossa data on luotu tai missä se "asuu", ja se vaihtelee sen mukaan, miten ja milloin se on kerätty. Käyttäjien tuottamaa dataa kutsutaan primääridataksi, kun taas sekundääridata tulee lähteestä, joka on kerännyt dataa yleiseen käyttöön. Esimerkiksi ryhmä tutkijoita, jotka keräävät havaintoja sademetsässä, olisi primääridataa, ja jos he päättävät jakaa sen muiden tutkijoiden kanssa, se olisi sekundääridataa niille, jotka sitä käyttävät.
+
+Tietokannat ovat yleinen lähde ja ne käyttävät tietokannan hallintajärjestelmää datan isännöintiin ja ylläpitoon, jossa käyttäjät käyttävät komentoja, joita kutsutaan kyselyiksi, datan tutkimiseen. Tiedostot datalähteinä voivat olla ääni-, kuva- ja videotiedostoja sekä taulukkolaskentatiedostoja, kuten Excel. Internetlähteet ovat yleinen sijainti datan isännöintiin, jossa tietokantoja ja tiedostoja voi löytyä. Sovellusohjelmointirajapinnat, jotka tunnetaan myös nimellä API:t, mahdollistavat ohjelmoijien luoda tapoja jakaa dataa ulkoisille käyttäjille internetin kautta, kun taas web-scraping-prosessi poimii dataa verkkosivulta. [Oppitunnit datan käsittelystä](../../../../../../../../../2-Working-With-Data) keskittyvät siihen, miten käyttää erilaisia datalähteitä.
+
+## Yhteenveto
+
+Tässä oppitunnissa opimme:
+
+- Mitä data on
+- Miten dataa kuvataan
+- Miten dataa luokitellaan ja kategorisoidaan
+- Mistä dataa voi löytää
+
+## 🚀 Haaste
+
+Kaggle on erinomainen lähde avoimille dataseteille. Käytä [dataset-hakutyökalua](https://www.kaggle.com/datasets) löytääksesi mielenkiintoisia datasettejä ja luokittele 3-5 datasettiä seuraavien kriteerien mukaan:
+
+- Onko data kvantitatiivista vai kvalitatiivista?
+- Onko data rakenteellista, rakenteetonta vai puolirakenteellista?
+
+## [Jälkiluentavisa](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Kertaus ja itseopiskelu
+
+- Tämä Microsoft Learn -yksikkö, nimeltään [Classify your Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), sisältää yksityiskohtaisen erittelyn rakenteellisesta, puolirakenteellisesta ja rakenteettomasta datasta.
+
+## Tehtävä
+
+[Datasetin luokittelu](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/03-defining-data/assignment.md b/translations/fi/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..2ba1723a
--- /dev/null
+++ b/translations/fi/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Datan luokittelu
+
+## Ohjeet
+
+Noudata tämän tehtävän ohjeita tunnistaaksesi ja luokitellaksesi datan seuraaviin datatyyppeihin:
+
+**Rakenne**: Strukturoitu, Puolistrukturoitu tai Strukturoimaton
+
+**Arvo**: Kvalitatiivinen tai Kvantitatiivinen
+
+**Lähde**: Ensisijainen tai Toissijainen
+
+1. Yritys on ostettu, ja sillä on nyt emoyhtiö. Tietojenkäsittelijät ovat saaneet emoyhtiöltä laskentataulukon, joka sisältää asiakkaiden puhelinnumerot.
+
+Rakenne:
+
+Arvo:
+
+Lähde:
+
+---
+
+2. Älykello on kerännyt käyttäjänsä syketietoja, ja raakadatan muoto on JSON.
+
+Rakenne:
+
+Arvo:
+
+Lähde:
+
+---
+
+3. Työpaikkakysely työntekijöiden moraalista, joka on tallennettu CSV-tiedostoon.
+
+Rakenne:
+
+Arvo:
+
+Lähde:
+
+---
+
+4. Astrofysiikot käyttävät tietokantaa galakseista, jotka on kerätty avaruusluotaimen avulla. Data sisältää planeettojen lukumäärän kussakin galaksissa.
+
+Rakenne:
+
+Arvo:
+
+Lähde:
+
+---
+
+5. Henkilökohtainen taloussovellus käyttää API-yhteyksiä käyttäjän taloustileihin laskeakseen hänen nettovarallisuutensa. Käyttäjä voi nähdä kaikki tapahtumansa riveinä ja sarakkeina, jotka muistuttavat laskentataulukkoa.
+
+Rakenne:
+
+Arvo:
+
+Lähde:
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Tunnistaa oikein kaikki rakenteet, arvot ja lähteet | Tunnistaa oikein 3 rakenteet, arvot ja lähteet | Tunnistaa oikein 2 tai vähemmän rakenteet, arvot ja lähteet |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/04-stats-and-probability/README.md b/translations/fi/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..3f8b3111
--- /dev/null
+++ b/translations/fi/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# Lyhyt johdatus tilastotieteeseen ja todennäköisyyksiin
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Tilastotiede ja todennäköisyydet - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Tilastotiede ja todennäköisyysteoria ovat kaksi läheisesti toisiinsa liittyvää matematiikan osa-aluetta, jotka ovat erittäin merkityksellisiä datatieteessä. On mahdollista käsitellä dataa ilman syvällistä matematiikan tuntemusta, mutta on silti parempi tuntea ainakin peruskäsitteet. Tässä esittelemme lyhyen johdannon, joka auttaa sinua pääsemään alkuun.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Todennäköisyys ja satunnaismuuttujat
+
+**Todennäköisyys** on luku välillä 0 ja 1, joka ilmaisee, kuinka todennäköinen jokin **tapahtuma** on. Se määritellään positiivisten lopputulosten (jotka johtavat tapahtumaan) lukumääränä jaettuna kaikkien lopputulosten lukumäärällä, olettaen että kaikki lopputulokset ovat yhtä todennäköisiä. Esimerkiksi, kun heitämme noppaa, todennäköisyys saada parillinen luku on 3/6 = 0.5.
+
+Kun puhumme tapahtumista, käytämme **satunnaismuuttujia**. Esimerkiksi satunnaismuuttuja, joka edustaa noppaa heitettäessä saatua lukua, voi saada arvoja välillä 1–6. Lukuja 1–6 kutsutaan **otosavaruudeksi**. Voimme puhua satunnaismuuttujan todennäköisyydestä saada tietty arvo, esimerkiksi P(X=3)=1/6.
+
+Edellisen esimerkin satunnaismuuttujaa kutsutaan **diskreetiksi**, koska sen otosavaruus on laskettavissa, eli siinä on erillisiä arvoja, jotka voidaan luetella. On myös tapauksia, joissa otosavaruus on reaaliarvojen väli tai koko reaaliarvojen joukko. Tällaisia muuttujia kutsutaan **jatkuviksi**. Hyvä esimerkki on bussin saapumisaika.
+
+## Todennäköisyysjakauma
+
+Diskreettien satunnaismuuttujien tapauksessa on helppo kuvata kunkin tapahtuman todennäköisyys funktiolla P(X). Jokaiselle otosavaruuden *S* arvolle *s* se antaa luvun välillä 0 ja 1 siten, että kaikkien P(X=s) arvojen summa kaikille tapahtumille on 1.
+
+Tunnetuin diskreetti jakauma on **tasajakauma**, jossa otosavaruudessa on N elementtiä, joista jokaisen todennäköisyys on 1/N.
+
+Jatkuvan muuttujan todennäköisyysjakauman kuvaaminen on vaikeampaa, kun arvot ovat peräisin jostain välistä [a,b] tai koko reaaliarvojen joukosta ℝ. Mietitään esimerkiksi bussin saapumisaikaa. Todellisuudessa jokaiselle tarkalle saapumisajalle *t* bussin saapumisen todennäköisyys on 0!
+
+> Nyt tiedät, että tapahtumat, joiden todennäköisyys on 0, tapahtuvat, ja vieläpä usein! Ainakin joka kerta, kun bussi saapuu!
+
+Voimme puhua vain muuttujan todennäköisyydestä osua tiettyyn arvojen väliin, esim. P(t1≤X2). Tässä tapauksessa todennäköisyysjakauma kuvataan **todennäköisyystiheysfunktiolla** p(x), siten että
+
+![P(t_1\le X1, x2, ..., xn. Voimme määritellä **keskiarvon** (tai **aritmeettisen keskiarvon**) perinteisellä tavalla (x1+x2+xn)/n. Kun kasvatamme otoksen kokoa (eli otamme rajan n→∞), saamme jakauman keskiarvon (jota kutsutaan myös **odotusarvoksi**). Merkitsemme odotusarvon **E**(x).
+
+> On osoitettavissa, että mille tahansa diskreetille jakaumalle, jonka arvot ovat {x1, x2, ..., xN} ja vastaavat todennäköisyydet p1, p2, ..., pN, odotusarvo on E(X)=x1p1+x2p2+...+xNpN.
+
+Arvojen hajonnan tunnistamiseksi voimme laskea varianssin σ2 = ∑(xi - μ)2/n, missä μ on otoksen keskiarvo. Arvoa σ kutsutaan **keskihajonnaksi**, ja σ2 kutsutaan **varianssiksi**.
+
+## Moodi, mediaani ja kvartiilit
+
+Joskus keskiarvo ei kuvaa riittävän hyvin "tyypillistä" arvoa datalle. Esimerkiksi, kun on muutama äärimmäinen arvo, jotka ovat täysin poikkeavia, ne voivat vaikuttaa keskiarvoon. Toinen hyvä indikaattori on **mediaani**, arvo, jonka alapuolella on puolet datapisteistä ja yläpuolella toinen puoli.
+
+Datajakauman ymmärtämiseksi on hyödyllistä puhua **kvartiileista**:
+
+* Ensimmäinen kvartiili, eli Q1, on arvo, jonka alapuolella on 25 % datasta
+* Kolmas kvartiili, eli Q3, on arvo, jonka alapuolella on 75 % datasta
+
+Graafisesti voimme esittää mediaanin ja kvartiilien suhteen diagrammissa, jota kutsutaan **laatikko-kaavioksi**:
+
+
+
+Tässä laskemme myös **kvartiilivälin** IQR=Q3-Q1 ja niin sanotut **poikkeamat** - arvot, jotka ovat alueen [Q1-1.5*IQR,Q3+1.5*IQR] ulkopuolella.
+
+Pienelle mahdollisten arvojen joukolle hyvä "tyypillinen" arvo on se, joka esiintyy useimmin, ja sitä kutsutaan **moodiksi**. Sitä käytetään usein kategorisessa datassa, kuten väreissä. Mietitään tilannetta, jossa meillä on kaksi ryhmää ihmisiä - osa, jotka suosivat vahvasti punaista, ja toiset, jotka suosivat sinistä. Jos koodaisimme värit numeroilla, suosikkivärin keskiarvo olisi jossain oranssin ja vihreän spektrissä, mikä ei kuvaisi kummankaan ryhmän todellista mieltymystä. Moodi olisi kuitenkin joko yksi väreistä tai molemmat värit, jos niiden kannattajien määrä on sama (tässä tapauksessa otosta kutsutaan **monimoodiseksi**).
+
+## Reaaliaikainen data
+
+Kun analysoimme tosielämän dataa, ne eivät usein ole satunnaismuuttujia siinä mielessä, että emme tee kokeita tuntemattomalla lopputuloksella. Esimerkiksi, mietitään baseball-joukkueen pelaajia ja heidän kehon tietojaan, kuten pituutta, painoa ja ikää. Nämä luvut eivät ole täysin satunnaisia, mutta voimme silti soveltaa samoja matemaattisia käsitteitä. Esimerkiksi ihmisten painojen sarjaa voidaan pitää satunnaismuuttujan arvojen sarjana. Alla on Major League Baseball -pelaajien painojen sarja [tästä datasetistä](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (mukavuuden vuoksi vain ensimmäiset 20 arvoa näytetään):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Huomio**: Katso esimerkki tämän datasetin käsittelystä [liitteenä olevasta muistikirjasta](notebook.ipynb). Tämän oppitunnin aikana on myös useita haasteita, jotka voit suorittaa lisäämällä koodia muistikirjaan. Jos et ole varma, miten käsitellä dataa, älä huoli - palaamme datan käsittelyyn Pythonilla myöhemmin. Jos et tiedä, miten suorittaa koodia Jupyter Notebookissa, katso [tämä artikkeli](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Tässä on laatikko-kaavio, joka näyttää keskiarvon, mediaanin ja kvartiilit datallemme:
+
+
+
+Koska datamme sisältää tietoa eri pelaajien **rooleista**, voimme myös tehdä laatikko-kaavion roolin mukaan - tämä antaa meille käsityksen siitä, miten parametrit eroavat roolien välillä. Tällä kertaa tarkastelemme pituutta:
+
+
+
+Tämä diagrammi viittaa siihen, että keskimäärin ensimmäisen pesän pelaajien pituus on suurempi kuin toisen pesän pelaajien pituus. Myöhemmin tässä oppitunnissa opimme, miten voimme testata tätä hypoteesia muodollisemmin ja miten voimme osoittaa, että datamme on tilastollisesti merkittävää tämän osoittamiseksi.
+
+> Kun työskentelemme tosielämän datan kanssa, oletamme, että kaikki datapisteet ovat otoksia jostain todennäköisyysjakaumasta. Tämä oletus mahdollistaa koneoppimistekniikoiden soveltamisen ja toimivien ennustemallien rakentamisen.
+
+Jotta voimme nähdä, millainen datamme jakauma on, voimme piirtää diagrammin, jota kutsutaan **histogrammiksi**. X-akselilla on eri painovälien lukumäärä (niin sanotut **binit**), ja pystyakseli näyttää, kuinka monta kertaa satunnaismuuttujan otos oli kyseisessä välissä.
+
+
+
+Tästä histogrammista näet, että kaikki arvot keskittyvät tietyn keskimääräisen painon ympärille, ja mitä kauemmas keskimääräisestä painosta mennään, sitä harvemmin kyseisen painon arvoja esiintyy. Eli on hyvin epätodennäköistä, että baseball-pelaajan paino poikkeaisi merkittävästi keskimääräisestä painosta. Painojen varianssi osoittaa, kuinka paljon painot todennäköisesti eroavat keskiarvosta.
+
+> Jos otamme muiden ihmisten painoja, jotka eivät ole baseball-liigasta, jakauma on todennäköisesti erilainen. Jakauman muoto pysyy kuitenkin samana, mutta keskiarvo ja varianssi muuttuvat. Joten jos koulutamme mallimme baseball-pelaajilla, se todennäköisesti antaa vääriä tuloksia, kun sitä sovelletaan yliopisto-opiskelijoihin, koska taustalla oleva jakauma on erilainen.
+
+## Normaalijakauma
+
+Painojen jakauma, jonka näimme yllä, on hyvin tyypillinen, ja monet tosielämän mittaukset noudattavat samaa tyyppistä jakaumaa, mutta eri keskiarvolla ja varianssilla. Tätä jakaumaa kutsutaan **normaalijakaumaksi**, ja sillä on erittäin tärkeä rooli tilastotieteessä.
+
+Normaalijakauman käyttäminen on oikea tapa luoda satunnaisia painoja potentiaalisille baseball-pelaajille. Kun tiedämme keskimääräisen painon `mean` ja keskihajonnan `std`, voimme luoda 1000 painonäytettä seuraavalla tavalla:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Jos piirrämme luotujen näytteiden histogrammin, näemme kuvan, joka on hyvin samanlainen kuin yllä esitetty. Ja jos lisäämme näytteiden määrää ja binien määrää, voimme luoda kuvan normaalijakaumasta, joka on lähempänä ihanteellista:
+
+
+
+*Normaalijakauma keskiarvolla=0 ja keskihajonnalla=1*
+
+## Luottamusvälit
+
+Kun puhumme baseball-pelaajien painoista, oletamme, että on olemassa tietty **satunnaismuuttuja W**, joka vastaa kaikkien baseball-pelaajien painojen ideaalista todennäköisyysjakaumaa (niin sanottu **populaatio**). Painojemme sarja vastaa kaikkien baseball-pelaajien alijoukkoa, jota kutsumme **otokseksi**. Mielenkiintoinen kysymys on, voimmeko tietää W:n jakauman parametrit, eli populaation keskiarvon ja varianssin?
+
+Helpoin vastaus olisi laskea otoksen keskiarvo ja varianssi. Kuitenkin voi käydä niin, että satunnainen otoksemme ei edusta tarkasti koko populaatiota. Siksi on järkevää puhua **luottamusvälistä**.
+> **Luottamusväli** on arvio populaation todellisesta keskiarvosta annetun otoksen perusteella, joka on tarkka tietyllä todennäköisyydellä (tai **luottamustasolla**).
+Oletetaan, että meillä on otos X1, ..., Xn jakaumastamme. Joka kerta, kun otamme otoksen jakaumastamme, saamme eri keskiarvon μ. Näin ollen μ voidaan pitää satunnaismuuttujana. **Luottamusväli** luottamustasolla p on arvojen pari (Lp,Rp), siten että **P**(Lp≤μ≤Rp) = p, eli todennäköisyys, että mitattu keskiarvo osuu välin sisään, on p.
+
+On tämän lyhyen johdannon ulkopuolella käsitellä yksityiskohtaisesti, miten nämä luottamusvälit lasketaan. Lisätietoja löytyy [Wikipediasta](https://en.wikipedia.org/wiki/Confidence_interval). Lyhyesti sanottuna määrittelemme lasketun otoskeskiarvon jakauman suhteessa populaation todelliseen keskiarvoon, jota kutsutaan **Studentin jakaumaksi**.
+
+> **Mielenkiintoinen fakta**: Studentin jakauma on nimetty matemaatikko William Sealy Gossetin mukaan, joka julkaisi artikkelinsa salanimellä "Student". Hän työskenteli Guinnessin panimossa, ja erään version mukaan hänen työnantajansa ei halunnut yleisön tietävän, että he käyttivät tilastollisia testejä raaka-aineiden laadun määrittämiseen.
+
+Jos haluamme arvioida populaation keskiarvon μ luottamustasolla p, meidän täytyy ottaa *(1-p)/2-prosenttipiste* Studentin jakaumasta A, joka voidaan joko hakea taulukoista tai laskea tilasto-ohjelmistojen sisäänrakennetuilla funktioilla (esim. Python, R jne.). Tällöin μ:n väli olisi X±A*D/√n, missä X on otoksen saatu keskiarvo ja D on keskihajonta.
+
+> **Huomio**: Emme myöskään käsittele tärkeää käsitettä [vapausasteet](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), joka on merkittävä Studentin jakauman yhteydessä. Voit tutustua kattavampiin tilastotieteen kirjoihin ymmärtääksesi tämän käsitteen syvällisemmin.
+
+Esimerkki painojen ja pituuksien luottamusvälin laskemisesta löytyy [liitetyistä muistikirjoista](notebook.ipynb).
+
+| p | Painon keskiarvo |
+|------|------------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Huomaa, että mitä korkeampi luottamustodennäköisyys on, sitä laajempi on luottamusväli.
+
+## Hypoteesin testaus
+
+Baseball-pelaajien aineistossamme on erilaisia pelaajarooleja, jotka voidaan tiivistää alla olevaan taulukkoon (katso [liitetty muistikirja](notebook.ipynb), jossa näytetään, miten tämä taulukko voidaan laskea):
+
+| Rooli | Pituus | Paino | Määrä |
+|-------------------|------------|------------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Voimme huomata, että ensimmäisten basemenien keskipituus on suurempi kuin toisten basemenien. Näin ollen voimme olla houkuteltuja päättelemään, että **ensimmäiset basemenit ovat pidempiä kuin toiset basemenit**.
+
+> Tätä väitettä kutsutaan **hypoteesiksi**, koska emme tiedä, onko se tosiasiallisesti totta vai ei.
+
+Kuitenkin ei ole aina selvää, voimmeko tehdä tämän johtopäätöksen. Yllä olevasta keskustelusta tiedämme, että jokaisella keskiarvolla on siihen liittyvä luottamusväli, ja näin ollen tämä ero voi olla vain tilastollinen virhe. Tarvitsemme jonkin muodollisemman tavan testata hypoteesimme.
+
+Lasketaan luottamusvälit erikseen ensimmäisten ja toisten basemenien pituuksille:
+
+| Luottamus | Ensimmäiset basemenit | Toiset basemenit |
+|-----------|-----------------------|------------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Voimme nähdä, että millään luottamustasolla välit eivät mene päällekkäin. Tämä todistaa hypoteesimme, että ensimmäiset basemenit ovat pidempiä kuin toiset basemenit.
+
+Muodollisemmin, ongelma, jota ratkaisemme, on nähdä, ovatko **kaksi todennäköisyysjakaumaa samat**, tai ainakin onko niillä samat parametrit. Riippuen jakaumasta, meidän täytyy käyttää erilaisia testejä. Jos tiedämme, että jakaumamme ovat normaalijakaumia, voimme soveltaa **[Studentin t-testiä](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+Studentin t-testissä laskemme niin sanotun **t-arvon**, joka osoittaa keskiarvojen eron ottaen huomioon varianssin. On osoitettu, että t-arvo noudattaa **Studentin jakaumaa**, mikä mahdollistaa kynnysarvon saamisen annetulle luottamustasolle **p** (tämä voidaan laskea tai katsoa numeerisista taulukoista). Sitten vertaamme t-arvoa tähän kynnysarvoon hyväksyäksemme tai hylätäksemme hypoteesin.
+
+Pythonissa voimme käyttää **SciPy**-kirjastoa, joka sisältää `ttest_ind`-funktion (monien muiden hyödyllisten tilastollisten funktioiden lisäksi!). Se laskee t-arvon puolestamme ja tekee myös käänteisen luottamustason p-arvon haun, jotta voimme vain katsoa luottamustasoa tehdäksemme johtopäätöksen.
+
+Esimerkiksi vertailumme ensimmäisten ja toisten basemenien pituuksista antaa seuraavat tulokset:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+Tässä tapauksessa p-arvo on hyvin alhainen, mikä tarkoittaa, että on vahvaa näyttöä siitä, että ensimmäiset basemenit ovat pidempiä.
+
+On myös muita hypoteeseja, joita voimme haluta testata, esimerkiksi:
+* Todistaa, että annettu otos noudattaa jotain jakaumaa. Esimerkissämme oletimme, että pituudet ovat normaalijakautuneita, mutta tämä vaatii muodollisen tilastollisen vahvistuksen.
+* Todistaa, että otoksen keskiarvo vastaa jotain ennalta määriteltyä arvoa
+* Verrata useiden otosten keskiarvoja (esim. mikä on onnellisuustasojen ero eri ikäryhmien välillä)
+
+## Suurten lukujen laki ja keskeinen raja-arvolause
+
+Yksi syy siihen, miksi normaalijakauma on niin tärkeä, on niin sanottu **keskeinen raja-arvolause**. Oletetaan, että meillä on suuri otos riippumattomia N arvoja X1, ..., XN, jotka on otettu mistä tahansa jakaumasta, jonka keskiarvo on μ ja varianssi σ2. Tällöin, kun N on riittävän suuri (toisin sanoen kun N→∞), keskiarvo ΣiXi on normaalijakautunut, keskiarvolla μ ja varianssilla σ2/N.
+
+> Toinen tapa tulkita keskeistä raja-arvolausetta on sanoa, että riippumatta jakaumasta, kun lasket minkä tahansa satunnaismuuttujan arvojen summan keskiarvon, päädyt normaalijakaumaan.
+
+Keskeisestä raja-arvolauseesta seuraa myös, että kun N→∞, otoskeskiarvon todennäköisyys olla yhtä suuri kuin μ lähestyy arvoa 1. Tätä kutsutaan **suurten lukujen laiksi**.
+
+## Kovaranssi ja korrelaatio
+
+Yksi asioista, joita data-analytiikka tekee, on löytää yhteyksiä datan välillä. Sanomme, että kaksi jonoa **korreloivat**, kun ne käyttäytyvät samankaltaisesti samaan aikaan, eli ne joko nousevat/laskevat samanaikaisesti tai toinen nousee, kun toinen laskee ja päinvastoin. Toisin sanoen, niiden välillä näyttää olevan jokin yhteys.
+
+> Korrelaatio ei välttämättä tarkoita kausaalista suhdetta kahden jonon välillä; joskus molemmat muuttujat voivat riippua jostain ulkoisesta syystä, tai voi olla puhdasta sattumaa, että kaksi jonoa korreloivat. Kuitenkin vahva matemaattinen korrelaatio on hyvä indikaatio siitä, että kaksi muuttujaa ovat jollain tavalla yhteydessä.
+
+Matemaattisesti pääkäsite, joka osoittaa kahden satunnaismuuttujan välisen yhteyden, on **kovarianssi**, joka lasketaan näin: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Laskemme molempien muuttujien poikkeaman niiden keskiarvoista ja sitten näiden poikkeamien tulon. Jos molemmat muuttujat poikkeavat yhdessä, tulo on aina positiivinen arvo, joka lisää positiivista kovarianssia. Jos molemmat muuttujat poikkeavat epäsynkronisesti (eli toinen laskee keskiarvon alapuolelle, kun toinen nousee keskiarvon yläpuolelle), saamme aina negatiivisia lukuja, jotka lisäävät negatiivista kovarianssia. Jos poikkeamat eivät ole riippuvaisia, ne summautuvat suunnilleen nollaan.
+
+Kovarianssin itseisarvo ei kerro paljon siitä, kuinka suuri korrelaatio on, koska se riippuu todellisten arvojen suuruudesta. Normalisoidaksemme sen voimme jakaa kovarianssin molempien muuttujien keskihajonnalla saadaksemme **korrelaation**. Hyvä puoli on, että korrelaatio on aina välillä [-1,1], missä 1 tarkoittaa vahvaa positiivista korrelaatiota arvojen välillä, -1 vahvaa negatiivista korrelaatiota ja 0 ei korrelaatiota lainkaan (muuttujat ovat riippumattomia).
+
+**Esimerkki**: Voimme laskea korrelaation baseball-pelaajien painojen ja pituuksien välillä yllä mainitusta aineistosta:
+```python
+print(np.corrcoef(weights,heights))
+```
+Tuloksena saamme **korrelaatiomatriisin**, joka näyttää tältä:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Korrelaatiomatriisi C voidaan laskea mille tahansa määrälle syötejonoja S1, ..., Sn. Arvo Cij on korrelaatio Si:n ja Sj:n välillä, ja diagonaalielementit ovat aina 1 (joka on myös Si:n itsekorrelaatio).
+
+Tässä tapauksessa arvo 0.53 osoittaa, että painon ja pituuden välillä on jonkin verran korrelaatiota. Voimme myös tehdä hajontakaavion yhdestä arvosta toista vastaan nähdäksesi suhteen visuaalisesti:
+
+
+
+> Lisää esimerkkejä korrelaatiosta ja kovarianssista löytyy [liitetyssä muistikirjassa](notebook.ipynb).
+
+## Yhteenveto
+
+Tässä osiossa olemme oppineet:
+
+* datan perus tilastollisia ominaisuuksia, kuten keskiarvo, varianssi, moodi ja kvartiilit
+* satunnaismuuttujien erilaisia jakaumia, mukaan lukien normaalijakauma
+* kuinka löytää korrelaatio eri ominaisuuksien välillä
+* kuinka käyttää matematiikan ja tilastotieteen välineitä hypoteesien todistamiseen
+* kuinka laskea satunnaismuuttujan luottamusvälejä annetun otoksen perusteella
+
+Vaikka tämä ei olekaan kattava lista todennäköisyyslaskennan ja tilastotieteen aiheista, sen pitäisi riittää antamaan sinulle hyvä lähtökohta tähän kurssiin.
+
+## 🚀 Haaste
+
+Käytä muistikirjan esimerkkikoodia testataksesi muita hypoteeseja:
+1. Ensimmäiset basemenit ovat vanhempia kuin toiset basemenit
+2. Ensimmäiset basemenit ovat pidempiä kuin kolmannet basemenit
+3. Shortstopit ovat pidempiä kuin toiset basemenit
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Kertaus ja itseopiskelu
+
+Todennäköisyyslaskenta ja tilastotiede on niin laaja aihe, että se ansaitsee oman kurssinsa. Jos olet kiinnostunut syventymään teoriaan, voit jatkaa lukemalla joitakin seuraavista kirjoista:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) New Yorkin yliopistosta on laatinut erinomaiset luentomuistiinpanot [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (saatavilla verkossa)
+1. [Peter ja Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[esimerkkikoodi R:ssä](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[esimerkkikoodi R:ssä](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Tehtävä
+
+[Pieni diabetes-tutkimus](assignment.md)
+
+## Kiitokset
+
+Tämän oppitunnin on kirjoittanut ♥️:lla [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/04-stats-and-probability/assignment.md b/translations/fi/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..e8eac773
--- /dev/null
+++ b/translations/fi/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Pieni diabetes-tutkimus
+
+Tässä tehtävässä työskentelemme pienen diabetespotilaiden datasetin kanssa, joka on otettu [täältä](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | IKÄ | SUKUPUOLI | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-----|-----------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## Ohjeet
+
+* Avaa [tehtävänotebook](assignment.ipynb) jupyter-notebook-ympäristössä
+* Suorita kaikki notebookissa listatut tehtävät, nimittäin:
+ * [ ] Laske kaikkien arvojen keskiarvot ja varianssit
+ * [ ] Piirrä laatikkokaaviot BMI-, BP- ja Y-arvoille sukupuolen mukaan
+ * [ ] Mikä on ikä-, sukupuoli-, BMI- ja Y-muuttujien jakauma?
+ * [ ] Testaa eri muuttujien ja sairauden etenemisen (Y) välinen korrelaatio
+ * [ ] Testaa hypoteesi, että diabeteksen etenemisen aste eroaa miesten ja naisten välillä
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Kaikki vaaditut tehtävät on suoritettu, graafisesti havainnollistettu ja selitetty | Suurin osa tehtävistä on suoritettu, mutta selitykset tai johtopäätökset graafeista ja/tai saaduista arvoista puuttuvat | Vain perusasiat, kuten keskiarvon/varianssin laskeminen ja peruskaaviot, on suoritettu, eikä datasta ole tehty johtopäätöksiä
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/1-Introduction/README.md b/translations/fi/1-Introduction/README.md
new file mode 100644
index 00000000..021e0436
--- /dev/null
+++ b/translations/fi/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Johdatus Data Scienceen
+
+
+> Kuva: Stephen Dawson palvelussa Unsplash
+
+Näissä oppitunneissa opit, miten Data Science määritellään, ja tutustut eettisiin näkökohtiin, jotka data scientistin tulee ottaa huomioon. Lisäksi opit, mitä data tarkoittaa, ja saat perustiedot tilastotieteestä ja todennäköisyyslaskennasta, jotka ovat Data Sciencen keskeisiä akateemisia aloja.
+
+### Aiheet
+
+1. [Data Sciencen määrittely](01-defining-data-science/README.md)
+2. [Data Sciencen etiikka](02-ethics/README.md)
+3. [Datan määrittely](03-defining-data/README.md)
+4. [Johdatus tilastotieteeseen ja todennäköisyyslaskentaan](04-stats-and-probability/README.md)
+
+### Tekijät
+
+Nämä oppitunnit on kirjoitettu ❤️:lla [Nitya Narasimhan](https://twitter.com/nitya) ja [Dmitry Soshnikov](https://twitter.com/shwars).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/05-relational-databases/README.md b/translations/fi/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..a05e9f0f
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Työskentely datan kanssa: Relaatiotietokannat
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Työskentely datan kanssa: Relaatiotietokannat - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Todennäköisesti olet aiemmin käyttänyt taulukkolaskentaohjelmaa tiedon tallentamiseen. Sinulla oli rivejä ja sarakkeita, joissa rivit sisälsivät tiedot (tai datan) ja sarakkeet kuvasivat tietoa (joskus kutsutaan metadataksi). Relaatiotietokanta perustuu tähän perusperiaatteeseen, jossa taulukot koostuvat riveistä ja sarakkeista, mahdollistaen tiedon jakamisen useisiin taulukoihin. Tämä mahdollistaa monimutkaisemman datan käsittelyn, päällekkäisyyksien välttämisen ja joustavuuden datan tutkimisessa. Tutustutaan relaatiotietokannan käsitteisiin.
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Kaikki alkaa taulukoista
+
+Relaatiotietokannan ydin on taulukot. Kuten taulukkolaskennassa, taulukko on kokoelma rivejä ja sarakkeita. Rivi sisältää datan tai tiedon, jonka kanssa haluamme työskennellä, kuten kaupungin nimi tai sademäärä. Sarakkeet kuvaavat tallennettavaa dataa.
+
+Aloitetaan tutkimalla taulukkoa, joka tallentaa tietoa kaupungeista. Voisimme aloittaa niiden nimellä ja maalla. Voisit tallentaa tämän taulukkoon seuraavasti:
+
+| Kaupunki | Maa |
+| -------- | ------------- |
+| Tokio | Japani |
+| Atlanta | Yhdysvallat |
+| Auckland | Uusi-Seelanti |
+
+Huomaa, että sarakenimet **kaupunki**, **maa** ja **väkiluku** kuvaavat tallennettavaa dataa, ja jokainen rivi sisältää tiedot yhdestä kaupungista.
+
+## Yhden taulukon lähestymistavan puutteet
+
+Taulukko yllä näyttää todennäköisesti melko tutulta. Lisätään nyt lisää dataa kasvavaan tietokantaamme - vuotuinen sademäärä (millimetreinä). Keskitytään vuosiin 2018, 2019 ja 2020. Jos lisäisimme tiedot Tokiosta, se voisi näyttää tältä:
+
+| Kaupunki | Maa | Vuosi | Määrä |
+| -------- | ------- | ----- | ------ |
+| Tokio | Japani | 2020 | 1690 |
+| Tokio | Japani | 2019 | 1874 |
+| Tokio | Japani | 2018 | 1445 |
+
+Mitä huomaat taulukostamme? Saatat huomata, että toistamme kaupungin nimen ja maan uudelleen ja uudelleen. Tämä voi viedä paljon tallennustilaa ja on suurelta osin tarpeetonta. Loppujen lopuksi Tokion nimi ei muutu.
+
+Kokeillaan jotain muuta. Lisätään uusia sarakkeita jokaiselle vuodelle:
+
+| Kaupunki | Maa | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokio | Japani | 1445 | 1874 | 1690 |
+| Atlanta | Yhdysvallat | 1779 | 1111 | 1683 |
+| Auckland | Uusi-Seelanti | 1386 | 942 | 1176 |
+
+Vaikka tämä välttää rivien toistamisen, se tuo mukanaan muita haasteita. Meidän pitäisi muokata taulukon rakennetta aina, kun tulee uusi vuosi. Lisäksi, kun datamme kasvaa, vuosien käyttäminen sarakkeina tekee arvojen hakemisesta ja laskemisesta hankalampaa.
+
+Tämän vuoksi tarvitsemme useita taulukoita ja suhteita. Jakamalla datan osiin voimme välttää päällekkäisyyksiä ja saada enemmän joustavuutta datan käsittelyyn.
+
+## Suhteiden käsitteet
+
+Palataan dataamme ja mietitään, miten haluamme jakaa sen. Tiedämme, että haluamme tallentaa kaupunkien nimet ja maat, joten tämä toimii todennäköisesti parhaiten yhdessä taulukossa.
+
+| Kaupunki | Maa |
+| -------- | ------------- |
+| Tokio | Japani |
+| Atlanta | Yhdysvallat |
+| Auckland | Uusi-Seelanti |
+
+Mutta ennen kuin luomme seuraavan taulukon, meidän täytyy päättää, miten viittaamme jokaiseen kaupunkiin. Tarvitsemme jonkinlaisen tunnisteen, ID:n tai (teknisessä tietokantatermistössä) pääavaimen. Pääavain on arvo, jota käytetään yhden tietyn rivin tunnistamiseen taulukossa. Vaikka tämä voisi perustua itse arvoon (voisimme käyttää kaupungin nimeä esimerkiksi), sen pitäisi lähes aina olla numero tai muu tunniste. Emme halua, että ID muuttuu koskaan, sillä se rikkoisi suhteen. Useimmissa tapauksissa pääavain tai ID on automaattisesti luotu numero.
+
+> ✅ Pääavain lyhennetään usein PK
+
+### kaupungit
+
+| city_id | Kaupunki | Maa |
+| ------- | -------- | ------------- |
+| 1 | Tokio | Japani |
+| 2 | Atlanta | Yhdysvallat |
+| 3 | Auckland | Uusi-Seelanti |
+
+> ✅ Huomaat, että käytämme termejä "id" ja "pääavain" vuorotellen tämän oppitunnin aikana. Käsitteet pätevät myös DataFrameihin, joihin tutustut myöhemmin. DataFramet eivät käytä termiä "pääavain", mutta huomaat niiden käyttäytyvän hyvin samalla tavalla.
+
+Kun kaupunkien taulukko on luotu, tallennetaan sademäärä. Sen sijaan, että toistaisimme kaupungin täydelliset tiedot, voimme käyttää ID:tä. Meidän tulisi myös varmistaa, että juuri luodulla taulukolla on *id*-sarake, sillä kaikilla taulukoilla tulisi olla ID tai pääavain.
+
+### sademäärä
+
+| rainfall_id | city_id | Vuosi | Määrä |
+| ----------- | ------- | ----- | ------ |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Huomaa **city_id**-sarake juuri luodussa **sademäärä**-taulukossa. Tämä sarake sisältää arvoja, jotka viittaavat **kaupungit**-taulukon ID:ihin. Teknisen relaatiodatan termeissä tätä kutsutaan **vierasavaimeksi**; se on pääavain toisesta taulukosta. Voit ajatella sitä viittauksena tai osoittimena. **city_id** 1 viittaa Tokioon.
+
+> [!NOTE] Vierasavain lyhennetään usein FK
+
+## Datan hakeminen
+
+Kun datamme on jaettu kahteen taulukkoon, saatat miettiä, miten sen voi hakea. Jos käytämme relaatiotietokantaa, kuten MySQL, SQL Server tai Oracle, voimme käyttää kieltä nimeltä Structured Query Language eli SQL. SQL (joskus lausutaan "sequel") on standardikieli, jota käytetään datan hakemiseen ja muokkaamiseen relaatiotietokannassa.
+
+Datan hakemiseen käytetään komentoa `SELECT`. Perusperiaatteena on, että **valitset** sarakkeet, jotka haluat nähdä, **taulukosta**, jossa ne sijaitsevat. Jos haluaisit näyttää vain kaupunkien nimet, voisit käyttää seuraavaa:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` on kohta, jossa luetellaan sarakkeet, ja `FROM` on kohta, jossa luetellaan taulukot.
+
+> [NOTE] SQL-syntaksi ei ole kirjainkoolle herkkä, eli `select` ja `SELECT` tarkoittavat samaa. Kuitenkin riippuen käyttämästäsi tietokantatyypistä sarakkeet ja taulukot voivat olla kirjainkoolle herkkiä. Tämän vuoksi on hyvä käytäntö aina käsitellä kaikkea ohjelmoinnissa kuin se olisi kirjainkoolle herkkää. Kun kirjoitat SQL-kyselyitä, yleinen tapa on kirjoittaa avainsanat kokonaan isoilla kirjaimilla.
+
+Yllä oleva kysely näyttää kaikki kaupungit. Kuvitellaan, että haluaisimme näyttää vain Uuden-Seelannin kaupungit. Tarvitsemme jonkinlaisen suodattimen. SQL-avainsana tähän on `WHERE`, eli "missä jokin on totta".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Datan yhdistäminen
+
+Tähän asti olemme hakeneet dataa yhdestä taulukosta. Nyt haluamme yhdistää datan molemmista **kaupungit**- ja **sademäärä**-taulukoista. Tämä tehdään *yhdistämällä* ne. Käytännössä luot saumakohdan kahden taulukon välille ja yhdistät arvot sarakkeesta kummastakin taulukosta.
+
+Esimerkissämme yhdistämme **city_id**-sarakkeen **sademäärä**-taulukossa **city_id**-sarakkeeseen **kaupungit**-taulukossa. Tämä yhdistää sademäärän sen vastaavaan kaupunkiin. Suoritamme *sisäisen* yhdistämisen, mikä tarkoittaa, että jos rivit eivät vastaa mitään toisesta taulukosta, niitä ei näytetä. Meidän tapauksessamme jokaisella kaupungilla on sademäärä, joten kaikki näytetään.
+
+Haetaan vuoden 2019 sademäärä kaikille kaupungeille.
+
+Teemme tämän vaiheittain. Ensimmäinen vaihe on yhdistää data ilmoittamalla saumakohdan sarakkeet - **city_id**, kuten aiemmin korostettiin.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Olemme korostaneet kaksi saraketta, jotka haluamme, ja sen, että haluamme yhdistää taulukot **city_id**:n avulla. Nyt voimme lisätä `WHERE`-lauseen suodattamaan vain vuoden 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Yhteenveto
+
+Relaatiotietokannat keskittyvät tiedon jakamiseen useisiin taulukoihin, jotka tuodaan takaisin yhteen näyttämistä ja analysointia varten. Tämä tarjoaa suuren joustavuuden laskelmien tekemiseen ja datan muokkaamiseen. Olet nähnyt relaatiotietokannan peruskäsitteet ja miten suorittaa yhdistäminen kahden taulukon välillä.
+
+## 🚀 Haaste
+
+Internetissä on lukuisia relaatiotietokantoja. Voit tutkia dataa käyttämällä yllä oppimiasi taitoja.
+
+## Luennon jälkeinen kysely
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Kertaus ja itseopiskelu
+
+Microsoft Learn -sivustolla on useita resursseja, joiden avulla voit jatkaa SQL:n ja relaatiotietokannan käsitteiden tutkimista.
+
+- [Relaatiodatan käsitteiden kuvaaminen](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Aloita kyselyt Transact-SQL:llä](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL on SQL:n versio)
+- [SQL-sisältö Microsoft Learnissa](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Tehtävä
+
+[Tehtävän otsikko](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/05-relational-databases/assignment.md b/translations/fi/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..546ee4fe
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Lentokenttätietojen näyttäminen
+
+Sinulle on annettu [tietokanta](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db), joka on rakennettu [SQLite](https://sqlite.org/index.html) -alustalle ja sisältää tietoa lentokentistä. Skeema on esitetty alla. Käytät [SQLite-laajennusta](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) -ohjelmassa näyttääksesi tietoa eri kaupunkien lentokentistä.
+
+## Ohjeet
+
+Tehtävän aloittamiseksi sinun tulee suorittaa muutama vaihe. Sinun tulee asentaa tarvittavat työkalut ja ladata esimerkkitietokanta.
+
+### Järjestelmän valmistelu
+
+Voit käyttää Visual Studio Codea ja SQLite-laajennusta vuorovaikutukseen tietokannan kanssa.
+
+1. Siirry osoitteeseen [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) ja seuraa ohjeita Visual Studio Coden asentamiseksi
+1. Asenna [SQLite-laajennus](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) Marketplace-sivun ohjeiden mukaisesti
+
+### Lataa ja avaa tietokanta
+
+Seuraavaksi lataa ja avaa tietokanta.
+
+1. Lataa [tietokantatiedosto GitHubista](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) ja tallenna se hakemistoon
+1. Avaa Visual Studio Code
+1. Avaa tietokanta SQLite-laajennuksessa valitsemalla **Ctl-Shift-P** (tai **Cmd-Shift-P** Macilla) ja kirjoittamalla `SQLite: Open database`
+1. Valitse **Choose database from file** ja avaa **airports.db** -tiedosto, jonka latasit aiemmin
+1. Tietokannan avaamisen jälkeen (et näe päivitystä näytöllä), luo uusi kyselyikkuna valitsemalla **Ctl-Shift-P** (tai **Cmd-Shift-P** Macilla) ja kirjoittamalla `SQLite: New query`
+
+Kun kyselyikkuna on avattu, sitä voidaan käyttää SQL-lauseiden suorittamiseen tietokantaa vastaan. Voit käyttää komentoa **Ctl-Shift-Q** (tai **Cmd-Shift-Q** Macilla) suorittaaksesi kyselyitä tietokantaa vastaan.
+
+> [!NOTE] Lisätietoja SQLite-laajennuksesta löydät [dokumentaatiosta](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Tietokannan skeema
+
+Tietokannan skeema tarkoittaa sen taulujen suunnittelua ja rakennetta. **airports**-tietokannassa on kaksi taulua: `cities`, joka sisältää luettelon kaupungeista Yhdistyneessä kuningaskunnassa ja Irlannissa, sekä `airports`, joka sisältää luettelon kaikista lentokentistä. Koska joillakin kaupungeilla voi olla useita lentokenttiä, tiedot on tallennettu kahteen tauluun. Tässä harjoituksessa käytät liitoksia näyttääksesi tietoa eri kaupungeista.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK to id in **Cities**) |
+
+## Tehtävä
+
+Luo kyselyitä, jotka palauttavat seuraavat tiedot:
+
+1. kaikki kaupunkien nimet `Cities`-taulusta
+1. kaikki Irlannin kaupungit `Cities`-taulusta
+1. kaikkien lentokenttien nimet sekä niiden kaupunki ja maa
+1. kaikki Lontoon, Yhdistyneen kuningaskunnan lentokentät
+
+## Arviointikriteerit
+
+| Erinomainen | Riittävä | Parannettavaa |
+| ----------- | -------- | ------------- |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/06-non-relational/README.md b/translations/fi/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..afb31647
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Työskentely datan kanssa: Ei-relationaalinen data
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Työskentely NoSQL-datan kanssa - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Data ei rajoitu vain relationaalisiin tietokantoihin. Tämä oppitunti keskittyy ei-relationaaliseen dataan ja kattaa taulukkolaskentaohjelmien ja NoSQL:n perusteet.
+
+## Taulukkolaskentaohjelmat
+
+Taulukkolaskentaohjelmat ovat suosittu tapa tallentaa ja tutkia dataa, koska niiden käyttöönotto ja aloittaminen vaatii vähemmän työtä. Tässä oppitunnissa opit taulukkolaskentaohjelman peruskomponentit sekä kaavat ja funktiot. Esimerkit havainnollistetaan Microsoft Excelillä, mutta useimmat osat ja aiheet ovat samankaltaisia verrattuna muihin taulukkolaskentaohjelmiin.
+
+
+
+Taulukkolaskentaohjelman tiedosto on käytettävissä tietokoneen, laitteen tai pilvipohjaisen tiedostojärjestelmän kautta. Ohjelmisto voi olla selainpohjainen tai sovellus, joka täytyy asentaa tietokoneelle tai ladata sovelluksena. Excelissä näitä tiedostoja kutsutaan myös **työkirjoiksi**, ja tätä terminologiaa käytetään loppuoppitunnin ajan.
+
+Työkirja sisältää yhden tai useamman **laskentataulukon**, jotka on merkitty välilehdillä. Laskentataulukossa on suorakulmioita, joita kutsutaan **soluiksi**, ja ne sisältävät varsinaisen datan. Solu on rivin ja sarakkeen leikkauspiste, jossa sarakkeet on merkitty aakkosilla ja rivit numeroilla. Joissakin taulukkolaskentaohjelmissa ensimmäiset rivit sisältävät otsikoita, jotka kuvaavat solun dataa.
+
+Näiden Excel-työkirjan peruselementtien avulla käytämme esimerkkiä [Microsoft Templates](https://templates.office.com/) -sivustolta, joka keskittyy varastonhallintaan, ja käymme läpi taulukkolaskentaohjelman lisäosia.
+
+### Varastonhallinta
+
+Taulukkolaskentatiedosto nimeltä "InventoryExample" on muotoiltu varaston kohteiden taulukkolaskenta, joka sisältää kolme laskentataulukkoa, joiden välilehdet on nimetty "Inventory List", "Inventory Pick List" ja "Bin Lookup". Rivin 4 otsikko Inventory List -laskentataulukossa kuvaa kunkin solun arvon otsikkosarakkeessa.
+
+
+
+On tilanteita, joissa solun arvo riippuu muiden solujen arvoista. Inventory List -taulukkolaskenta seuraa jokaisen varastokohteen kustannuksia, mutta entä jos haluamme tietää koko varaston arvon? [**Kaavat**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) suorittavat toimintoja soludatalla ja niitä käytetään laskemaan varaston arvo tässä esimerkissä. Tämä taulukkolaskenta käyttää kaavaa Inventory Value -sarakkeessa laskemaan kunkin kohteen arvon kertomalla QTY-otsikon alla oleva määrä ja COST-otsikon alla olevat kustannukset. Kaksoisnapsauttamalla tai korostamalla solua näet kaavan. Huomaat, että kaavat alkavat yhtäläisyysmerkillä, jota seuraa laskenta tai operaatio.
+
+
+
+Voimme käyttää toista kaavaa lisätäksemme kaikki Inventory Value -arvot yhteen saadaksemme kokonaisarvon. Tämä voitaisiin laskea lisäämällä jokainen solu yhteen, mutta se voi olla työlästä. Excelissä on [**funktioita**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), eli ennalta määritettyjä kaavoja, jotka suorittavat laskelmia soluarvoilla. Funktiot vaativat argumentteja, jotka ovat laskelmissa tarvittavia arvoja. Kun funktiot vaativat useamman kuin yhden argumentin, ne täytyy luetella tietyssä järjestyksessä, muuten funktio ei välttämättä laske oikeaa arvoa. Tässä esimerkissä käytetään SUM-funktiota, ja Inventory Value -arvoja käytetään argumenttina laskemaan kokonaisarvo, joka on listattu rivillä 3, sarakkeessa B (tunnetaan myös nimellä B3).
+
+## NoSQL
+
+NoSQL on yleistermi erilaisille tavoille tallentaa ei-relationaalista dataa, ja sitä voidaan tulkita "non-SQL", "non-relationaalinen" tai "ei vain SQL". Tämän tyyppiset tietokantajärjestelmät voidaan luokitella neljään tyyppiin.
+
+
+> Lähde: [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[Avain-arvo](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) -tietokannat yhdistävät ainutlaatuiset avaimet, jotka ovat arvoon liittyvä yksilöllinen tunniste. Nämä parit tallennetaan [hash-taulukkoon](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) sopivan hash-funktion avulla.
+
+
+> Lähde: [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[Graafi](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) -tietokannat kuvaavat datan suhteita ja esitetään solmujen ja reunojen kokoelmana. Solmu edustaa entiteettiä, jotain, joka on olemassa todellisessa maailmassa, kuten opiskelija tai pankkitiliote. Reunat edustavat kahden entiteetin välistä suhdetta. Jokaisella solmulla ja reunalla on ominaisuuksia, jotka tarjoavat lisätietoa solmuista ja reunoista.
+
+
+
+[Saraketietokannat](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) järjestävät datan sarakkeisiin ja riveihin kuten relationaalisessa rakenteessa, mutta jokainen sarake on jaettu ryhmiin, joita kutsutaan sarakeperheiksi, joissa kaikki yhden sarakkeen data liittyy toisiinsa ja voidaan hakea ja muuttaa yhtenä yksikkönä.
+
+### Dokumenttitietokannat Azure Cosmos DB:llä
+
+[Dokumenttitietokannat](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) perustuvat avain-arvo-tietokannan käsitteeseen ja koostuvat kentistä ja objektien arvoista. Tämä osio tutkii dokumenttitietokantoja Cosmos DB -emulaattorin avulla.
+
+Cosmos DB -tietokanta täyttää "ei vain SQL" -määritelmän, jossa Cosmos DB:n dokumenttitietokanta käyttää SQL:ää datan kyselyyn. [Edellinen oppitunti](../05-relational-databases/README.md) SQL:stä kattaa kielen perusteet, ja voimme soveltaa joitakin samoja kyselyitä dokumenttitietokantaan täällä. Käytämme Cosmos DB -emulaattoria, joka mahdollistaa dokumenttitietokannan luomisen ja tutkimisen paikallisesti tietokoneella. Lue lisää emulaattorista [täältä](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Dokumentti on kenttien ja objektien arvojen kokoelma, jossa kentät kuvaavat, mitä objektin arvo edustaa. Alla on esimerkki dokumentista.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Tämän dokumentin kiinnostavat kentät ovat: `firstname`, `id` ja `age`. Loput kentät, joissa on alaviivoja, on luotu Cosmos DB:ssä.
+
+#### Datan tutkiminen Cosmos DB -emulaattorilla
+
+Voit ladata ja asentaa emulaattorin [Windowsille täältä](https://aka.ms/cosmosdb-emulator). Katso tämä [dokumentaatio](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) vaihtoehdoista emulaattorin käyttämiseen macOS:llä ja Linuxilla.
+
+Emulaattori avaa selainikkunan, jossa Explorer-näkymä mahdollistaa dokumenttien tutkimisen.
+
+
+
+Jos seuraat mukana, napsauta "Start with Sample" luodaksesi esimerkkitietokannan nimeltä SampleDB. Jos laajennat SampleDB:tä napsauttamalla nuolta, löydät säiliön nimeltä `Persons`. Säiliö sisältää kokoelman kohteita, jotka ovat säiliön dokumentteja. Voit tutkia neljää yksittäistä dokumenttia kohdassa `Items`.
+
+
+
+#### Dokumenttidatan kysely Cosmos DB -emulaattorilla
+
+Voimme myös kysellä esimerkkidataa napsauttamalla uutta SQL Query -painiketta (toinen painike vasemmalta).
+
+`SELECT * FROM c` palauttaa kaikki dokumentit säiliössä. Lisätään where-lauseke ja etsitään kaikki alle 40-vuotiaat.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Kysely palauttaa kaksi dokumenttia, huomaa, että kunkin dokumentin age-arvo on alle 40.
+
+#### JSON ja dokumentit
+
+Jos tunnet JavaScript Object Notationin (JSON), huomaat, että dokumentit näyttävät samankaltaisilta kuin JSON. Tämän hakemiston `PersonsData.json`-tiedosto sisältää lisää dataa, jonka voit ladata Persons-säiliöön emulaattorissa `Upload Item` -painikkeen avulla.
+
+Useimmissa tapauksissa JSON-dataa palauttavat API:t voidaan siirtää suoraan ja tallentaa dokumenttitietokantoihin. Alla on toinen dokumentti, joka edustaa Microsoftin Twitter-tilin twiittejä, jotka haettiin Twitter-API:n avulla ja lisättiin Cosmos DB:hen.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Tämän dokumentin kiinnostavat kentät ovat: `created_at`, `id` ja `text`.
+
+## 🚀 Haaste
+
+Hakemistossa on `TwitterData.json`-tiedosto, jonka voit ladata SampleDB-tietokantaan. Suosittelemme, että lisäät sen erilliseen säiliöön. Tämä voidaan tehdä seuraavasti:
+
+1. Napsauta oikeassa yläkulmassa olevaa uutta säiliö-painiketta
+1. Valitse olemassa oleva tietokanta (SampleDB), luo säiliön id
+1. Aseta ositusavain `/id`
+1. Napsauta OK (voit ohittaa muut tiedot tässä näkymässä, koska tämä on pieni datasetti, joka toimii paikallisesti koneellasi)
+1. Avaa uusi säiliösi ja lataa Twitter Data -tiedosto `Upload Item` -painikkeella
+
+Yritä suorittaa muutama SELECT-kysely löytääksesi dokumentit, joissa tekstikentässä on Microsoft. Vinkki: kokeile käyttää [LIKE-avainsanaa](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Jälkiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Kertaus ja itseopiskelu
+
+- Taulukkolaskentaohjelmaan on lisätty joitakin lisämuotoiluja ja ominaisuuksia, joita tämä oppitunti ei kata. Microsoftilla on [laaja dokumentaatio- ja videokirjasto](https://support.microsoft.com/excel) Excelistä, jos haluat oppia lisää.
+
+- Tämä arkkitehtuuridokumentaatio kuvaa ei-relationaalisen datan eri tyyppejä: [Ei-relationaalinen data ja NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data)
+
+- Cosmos DB on pilvipohjainen ei-relationaalinen tietokanta, joka voi myös tallentaa oppitunnilla mainitut NoSQL-tyypit. Lue lisää näistä tyypeistä tässä [Cosmos DB Microsoft Learn -moduulissa](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Tehtävä
+
+[Soda Profits](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/06-non-relational/assignment.md b/translations/fi/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..fed1a776
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Virvoitusjuomien Voitot
+
+## Ohjeet
+
+[Coca Cola Co -laskentataulukosta](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) puuttuu joitakin laskelmia. Tehtäväsi on:
+
+1. Laskea bruttovoitot tilikausilta '15, '16, '17 ja '18
+ - Bruttovoitto = Liikevaihto - Myytyjen tuotteiden kustannukset
+1. Laskea kaikkien bruttovoittojen keskiarvo. Yritä tehdä tämä käyttämällä funktiota.
+ - Keskiarvo = Bruttovoittojen summa jaettuna tilikausien lukumäärällä (10)
+ - Dokumentaatio [KESKIARVO-funktiosta](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Tämä on Excel-tiedosto, mutta sen pitäisi olla muokattavissa millä tahansa taulukkolaskentaohjelmalla
+
+[Datasta kiitos Yiyi Wangille](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/07-python/README.md b/translations/fi/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..44df1dec
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Työskentely datan kanssa: Python ja Pandas-kirjasto
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Työskentely Pythonin kanssa - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Vaikka tietokannat tarjoavat erittäin tehokkaita tapoja tallentaa dataa ja tehdä kyselyitä kyselykielillä, joustavin tapa käsitellä dataa on kirjoittaa oma ohjelma datan muokkaamiseen. Monissa tapauksissa tietokantakysely on tehokkaampi tapa. Kuitenkin joissain tilanteissa, joissa tarvitaan monimutkaisempaa datan käsittelyä, sitä ei voida helposti tehdä SQL:llä.
+Datan käsittely voidaan ohjelmoida millä tahansa ohjelmointikielellä, mutta on olemassa tiettyjä kieliä, jotka ovat korkeamman tason työkaluja datan käsittelyyn. Datatieteilijät suosivat yleensä seuraavia kieliä:
+
+* **[Python](https://www.python.org/)**, yleiskäyttöinen ohjelmointikieli, jota pidetään usein yhtenä parhaista vaihtoehdoista aloittelijoille sen yksinkertaisuuden vuoksi. Pythonilla on paljon lisäkirjastoja, jotka voivat auttaa ratkaisemaan monia käytännön ongelmia, kuten datan purkaminen ZIP-arkistosta tai kuvan muuntaminen harmaasävyksi. Pythonia käytetään datatieteen lisäksi myös usein verkkokehityksessä.
+* **[R](https://www.r-project.org/)** on perinteinen työkalu, joka on kehitetty tilastollisen datan käsittelyyn. Siinä on myös laaja kirjastoarkisto (CRAN), mikä tekee siitä hyvän valinnan datan käsittelyyn. R ei kuitenkaan ole yleiskäyttöinen ohjelmointikieli, ja sitä käytetään harvoin datatieteen ulkopuolella.
+* **[Julia](https://julialang.org/)** on toinen kieli, joka on kehitetty erityisesti datatieteeseen. Sen tarkoituksena on tarjota parempaa suorituskykyä kuin Python, mikä tekee siitä erinomaisen työkalun tieteellisiin kokeiluihin.
+
+Tässä oppitunnissa keskitymme Pythonin käyttöön yksinkertaisessa datan käsittelyssä. Oletamme, että sinulla on perustiedot kielestä. Jos haluat syvemmän katsauksen Pythoniin, voit tutustua seuraaviin resursseihin:
+
+* [Learn Python in a Fun Way with Turtle Graphics and Fractals](https://github.com/shwars/pycourse) - GitHub-pohjainen pikaopas Python-ohjelmointiin
+* [Take your First Steps with Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Oppimispolku [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum) -sivustolla
+
+Data voi olla monessa eri muodossa. Tässä oppitunnissa tarkastelemme kolmea datamuotoa - **taulukkomuotoinen data**, **teksti** ja **kuvat**.
+
+Keskitymme muutamaan esimerkkiin datan käsittelystä sen sijaan, että antaisimme kattavan yleiskatsauksen kaikista asiaan liittyvistä kirjastoista. Tämä antaa sinulle käsityksen siitä, mitä on mahdollista tehdä, ja auttaa sinua ymmärtämään, mistä löytää ratkaisuja ongelmiisi tarvittaessa.
+
+> **Hyödyllisin neuvo**. Kun sinun täytyy suorittaa jokin tietty operaatio datalle, mutta et tiedä miten se tehdään, kokeile etsiä sitä internetistä. [Stackoverflow](https://stackoverflow.com/) sisältää yleensä paljon hyödyllisiä Python-koodiesimerkkejä moniin tyypillisiin tehtäviin.
+
+## [Esiluentakysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Taulukkomuotoinen data ja DataFrame-rakenteet
+
+Olet jo tutustunut taulukkomuotoiseen dataan, kun puhuimme relaatiotietokannoista. Kun sinulla on paljon dataa, joka on tallennettu useisiin eri linkitettyihin tauluihin, SQL:n käyttö on ehdottomasti järkevää. On kuitenkin monia tilanteita, joissa meillä on yksittäinen datataulukko, ja haluamme saada siitä **ymmärrystä** tai **oivalluksia**, kuten jakauman tai arvojen välisen korrelaation. Datatieteessä on myös paljon tilanteita, joissa alkuperäistä dataa täytyy muokata ja sen jälkeen visualisoida. Molemmat vaiheet voidaan helposti toteuttaa Pythonilla.
+
+Pythonissa on kaksi hyödyllistä kirjastoa, jotka auttavat sinua käsittelemään taulukkomuotoista dataa:
+* **[Pandas](https://pandas.pydata.org/)** mahdollistaa niin sanottujen **DataFrame-rakenteiden** käsittelyn, jotka ovat analogisia relaatiotaulukoille. Voit käyttää nimettyjä sarakkeita ja suorittaa erilaisia operaatioita riveille, sarakkeille ja DataFrameille yleisesti.
+* **[Numpy](https://numpy.org/)** on kirjasto, joka on tarkoitettu **tensorien**, eli monidimensionaalisten **taulukoiden**, käsittelyyn. Taulukon arvot ovat samaa tyyppiä, ja se on yksinkertaisempi kuin DataFrame, mutta tarjoaa enemmän matemaattisia operaatioita ja vähemmän ylikuormitusta.
+
+On myös muutamia muita kirjastoja, jotka sinun kannattaa tietää:
+* **[Matplotlib](https://matplotlib.org/)** on kirjasto, jota käytetään datan visualisointiin ja kaavioiden piirtämiseen
+* **[SciPy](https://www.scipy.org/)** on kirjasto, joka sisältää lisätieteellisiä funktioita. Olemme jo törmänneet tähän kirjastoon, kun puhuimme todennäköisyyksistä ja tilastoista
+
+Tässä on koodinpätkä, jota käytetään tyypillisesti näiden kirjastojen tuomiseen Python-ohjelman alkuun:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas-kirjasto perustuu muutamaan peruskäsitteeseen.
+
+### Series
+
+**Series** on arvojen jono, joka muistuttaa listaa tai numpy-taulukkoa. Tärkein ero on, että Series sisältää myös **indeksin**, ja kun operoimme Series-rakenteilla (esim. lisäämme niitä yhteen), indeksi otetaan huomioon. Indeksi voi olla yksinkertainen kokonaisluku (oletusindeksi, kun luodaan Series listasta tai taulukosta), tai sillä voi olla monimutkaisempi rakenne, kuten aikaväli.
+
+> **Huom**: Pandas-kirjaston johdantokoodia löytyy mukana olevasta muistikirjasta [`notebook.ipynb`](notebook.ipynb). Tässä esittelemme vain joitakin esimerkkejä, mutta voit ehdottomasti tutustua koko muistikirjaan.
+
+Tarkastellaan esimerkkiä: haluamme analysoida jäätelökioskimme myyntiä. Luodaan myyntilukujen sarja (myytyjen tuotteiden määrä päivittäin) tietylle ajanjaksolle:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Oletetaan nyt, että järjestämme joka viikko juhlat ystäville, ja otamme juhliin 10 ylimääräistä jäätelöpakettia. Voimme luoda toisen sarjan, joka on indeksoitu viikoittain, osoittamaan tämän:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Kun lisäämme kaksi sarjaa yhteen, saamme kokonaismäärän:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Huom**: Emme käytä yksinkertaista syntaksia `total_items+additional_items`. Jos tekisimme niin, saisimme paljon `NaN` (*Not a Number*) -arvoja tuloksena olevaan sarjaan. Tämä johtuu siitä, että `additional_items`-sarjassa on puuttuvia arvoja joillekin indeksipisteille, ja `NaN`-arvon lisääminen mihin tahansa johtaa `NaN`-arvoon. Siksi meidän täytyy määrittää `fill_value`-parametri yhteenlaskun aikana.
+
+Aikasarjojen avulla voimme myös **näytteistää uudelleen** sarjan eri aikaväleillä. Esimerkiksi, jos haluamme laskea keskimääräisen myyntimäärän kuukausittain, voimme käyttää seuraavaa koodia:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+DataFrame on käytännössä kokoelma sarjoja, joilla on sama indeksi. Voimme yhdistää useita sarjoja yhteen DataFrameen:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Tämä luo vaakasuuntaisen taulukon, joka näyttää tältä:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Voimme myös käyttää sarjoja sarakkeina ja määrittää sarakenimet sanakirjan avulla:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Tämä antaa meille taulukon, joka näyttää tältä:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Huom**: Voimme myös saada tämän taulukon asettelun transponoimalla edellisen taulukon, esim. kirjoittamalla
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Tässä `.T` tarkoittaa DataFramen transponointia, eli rivien ja sarakkeiden vaihtamista, ja `rename`-operaatio mahdollistaa sarakkeiden uudelleennimeämisen vastaamaan edellistä esimerkkiä.
+
+Tässä on muutamia tärkeimpiä operaatioita, joita voimme suorittaa DataFrameille:
+
+**Sarakkeiden valinta**. Voimme valita yksittäisiä sarakkeita kirjoittamalla `df['A']` - tämä operaatio palauttaa Series-rakenteen. Voimme myös valita osajoukon sarakkeista toiseen DataFrameen kirjoittamalla `df[['B','A']]` - tämä palauttaa toisen DataFramen.
+
+**Rivien suodatus kriteerien perusteella**. Esimerkiksi, jos haluamme jättää vain rivit, joissa sarakkeen `A` arvo on suurempi kuin 5, voimme kirjoittaa `df[df['A']>5]`.
+
+> **Huom**: Suodatuksen toiminta on seuraava. Lauseke `df['A']<5` palauttaa totuusarvosarjan, joka osoittaa, onko lauseke `True` vai `False` kullekin alkuperäisen sarjan `df['A']` elementille. Kun totuusarvosarjaa käytetään indeksinä, se palauttaa DataFramen rivien osajoukon. Siksi ei ole mahdollista käyttää mielivaltaisia Pythonin totuusarvolausekkeita, esimerkiksi kirjoittamalla `df[df['A']>5 and df['A']<7]` olisi väärin. Sen sijaan sinun tulisi käyttää erityistä `&`-operaatiota totuusarvosarjoille, kirjoittamalla `df[(df['A']>5) & (df['A']<7)]` (*sulut ovat tässä tärkeitä*).
+
+**Uusien laskettavien sarakkeiden luominen**. Voimme helposti luoda uusia laskettavia sarakkeita DataFrameemme käyttämällä intuitiivisia lausekkeita, kuten tämä:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Tämä esimerkki laskee sarakkeen A poikkeaman sen keskiarvosta. Tässä lasketaan sarja ja sitten määritetään tämä sarja vasemmalle puolelle, luoden uuden sarakkeen. Siksi emme voi käyttää mitään operaatioita, jotka eivät ole yhteensopivia sarjojen kanssa, esimerkiksi alla oleva koodi on väärin:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Viimeinen esimerkki, vaikka se onkin syntaktisesti oikein, antaa meille väärän tuloksen, koska se määrittää sarjan `B` pituuden kaikille sarakkeen arvoille, eikä yksittäisten elementtien pituutta, kuten oli tarkoitus.
+
+Jos meidän täytyy laskea monimutkaisia lausekkeita, voimme käyttää `apply`-funktiota. Viimeinen esimerkki voidaan kirjoittaa seuraavasti:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Yllä olevien operaatioiden jälkeen päädymme seuraavaan DataFrameen:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Rivien valinta numeroiden perusteella** voidaan tehdä käyttämällä `iloc`-rakennetta. Esimerkiksi, jos haluamme valita ensimmäiset 5 riviä DataFramesta:
+```python
+df.iloc[:5]
+```
+
+**Ryhmittely** on usein käytetty tapa saada tuloksia, jotka muistuttavat Excelin *pivot-taulukoita*. Oletetaan, että haluamme laskea sarakkeen `A` keskiarvon jokaiselle annetulle `LenB`-arvolle. Voimme ryhmitellä DataFramen `LenB`-sarakkeen mukaan ja kutsua `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Jos meidän täytyy laskea keskiarvo ja elementtien määrä ryhmässä, voimme käyttää monimutkaisempaa `aggregate`-funktiota:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Tämä antaa meille seuraavan taulukon:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Datan hankinta
+Olemme nähneet, kuinka helppoa on luoda Series- ja DataFrame-objekteja Pythonin avulla. Usein data kuitenkin tulee tekstimuodossa tai Excel-taulukkona. Onneksi Pandas tarjoaa yksinkertaisen tavan ladata dataa levyltä. Esimerkiksi CSV-tiedoston lukeminen on näin helppoa:
+```python
+df = pd.read_csv('file.csv')
+```
+Näemme lisää esimerkkejä datan lataamisesta, mukaan lukien sen hakeminen ulkoisilta verkkosivustoilta, "Haaste"-osiossa.
+
+### Tulostaminen ja Visualisointi
+
+Data Scientistin täytyy usein tutkia dataa, joten sen visualisointi on tärkeää. Kun DataFrame on suuri, haluamme monesti varmistaa, että kaikki toimii oikein, tulostamalla vain muutaman ensimmäisen rivin. Tämä onnistuu kutsumalla `df.head()`. Jos suoritat sen Jupyter Notebookissa, se tulostaa DataFramen siistissä taulukkomuodossa.
+
+Olemme myös nähneet `plot`-funktion käytön tiettyjen sarakkeiden visualisointiin. Vaikka `plot` on erittäin hyödyllinen moniin tehtäviin ja tukee monia eri kaaviotyyppejä `kind=`-parametrin avulla, voit aina käyttää raakaa `matplotlib`-kirjastoa monimutkaisempien kaavioiden luomiseen. Käsittelemme datan visualisointia yksityiskohtaisesti erillisissä kurssin osioissa.
+
+Tämä yleiskatsaus kattaa Pandasin tärkeimmät käsitteet, mutta kirjasto on erittäin monipuolinen, eikä sen käyttömahdollisuuksilla ole rajoja! Käytetään nyt tätä tietoa tietyn ongelman ratkaisemiseen.
+
+## 🚀 Haaste 1: COVID-leviämisen analysointi
+
+Ensimmäinen ongelma, johon keskitymme, on COVID-19:n epidemian leviämisen mallintaminen. Tätä varten käytämme dataa tartunnan saaneiden henkilöiden määrästä eri maissa, jonka tarjoaa [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) [Johns Hopkins University](https://jhu.edu/):sta. Datasetti on saatavilla [tässä GitHub-repositoriossa](https://github.com/CSSEGISandData/COVID-19).
+
+Koska haluamme demonstroida, kuinka dataa käsitellään, kutsumme sinut avaamaan [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) ja lukemaan sen alusta loppuun. Voit myös suorittaa soluja ja tehdä joitakin haasteita, jotka olemme jättäneet sinulle loppuun.
+
+
+
+> Jos et tiedä, kuinka suorittaa koodia Jupyter Notebookissa, tutustu [tähän artikkeliin](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Työskentely jäsentämättömän datan kanssa
+
+Vaikka data usein tulee taulukkomuodossa, joissakin tapauksissa meidän täytyy käsitellä vähemmän jäsenneltyä dataa, kuten tekstiä tai kuvia. Tällöin, jotta voimme soveltaa edellä nähtyjä datankäsittelytekniikoita, meidän täytyy jollain tavalla **jäsentää** data. Tässä muutamia esimerkkejä:
+
+* Avainsanojen poimiminen tekstistä ja niiden esiintymistiheyden tarkastelu
+* Neuroverkkojen käyttö tiedon poimimiseen kuvassa olevista objekteista
+* Tunteiden analysointi videokameran syötteestä
+
+## 🚀 Haaste 2: COVID-tutkimuspapereiden analysointi
+
+Tässä haasteessa jatkamme COVID-pandemian aihetta ja keskitymme tieteellisten papereiden käsittelyyn aiheesta. [CORD-19 Dataset](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) sisältää yli 7000 (kirjoitushetkellä) paperia COVIDista, saatavilla metadatan ja tiivistelmien kanssa (ja noin puolessa tapauksista myös koko teksti).
+
+Täydellinen esimerkki tämän datasetin analysoinnista [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) -kognitiivisen palvelun avulla on kuvattu [tässä blogikirjoituksessa](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Keskustelemme yksinkertaistetusta versiosta tästä analyysistä.
+
+> **NOTE**: Emme tarjoa datasetin kopiota osana tätä repositoriota. Sinun täytyy ensin ladata [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) tiedosto [tästä Kaggle-datasetistä](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Rekisteröityminen Kaggleen saattaa olla tarpeen. Voit myös ladata datasetin ilman rekisteröitymistä [täältä](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), mutta se sisältää kaikki kokotekstit metadatatiedoston lisäksi.
+
+Avaa [`notebook-papers.ipynb`](notebook-papers.ipynb) ja lue se alusta loppuun. Voit myös suorittaa soluja ja tehdä joitakin haasteita, jotka olemme jättäneet sinulle loppuun.
+
+
+
+## Kuvadatan käsittely
+
+Viime aikoina on kehitetty erittäin tehokkaita AI-malleja, jotka mahdollistavat kuvien ymmärtämisen. Monet tehtävät voidaan ratkaista esikoulutettujen neuroverkkojen tai pilvipalveluiden avulla. Esimerkkejä:
+
+* **Kuvien luokittelu**, joka auttaa kategorisoimaan kuvan ennalta määriteltyihin luokkiin. Voit helposti kouluttaa omia kuvien luokittelijoita palveluilla, kuten [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum).
+* **Objektien tunnistus** kuvassa. Palvelut, kuten [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), voivat tunnistaa useita yleisiä objekteja, ja voit kouluttaa [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) -mallin tunnistamaan tiettyjä kiinnostavia objekteja.
+* **Kasvojen tunnistus**, mukaan lukien ikä-, sukupuoli- ja tunnetilojen tunnistus. Tämä voidaan tehdä [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum):n avulla.
+
+Kaikki nämä pilvipalvelut voidaan kutsua [Python SDK:iden](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) avulla, ja ne voidaan helposti sisällyttää datan tutkimustyöhön.
+
+Tässä muutamia esimerkkejä kuvadatalähteiden tutkimisesta:
+* Blogikirjoituksessa [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) tutkimme Instagram-kuvia, yrittäen ymmärtää, mikä saa ihmiset antamaan enemmän tykkäyksiä kuvalle. Ensin poimimme mahdollisimman paljon tietoa kuvista [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum):n avulla, ja sitten käytämme [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum):ia tulkittavan mallin rakentamiseen.
+* [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies)-työpajassa käytämme [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum):a poimimaan tunteita tapahtumakuvien ihmisistä, yrittäen ymmärtää, mikä tekee ihmiset onnellisiksi.
+
+## Yhteenveto
+
+Olipa sinulla jo jäsenneltyä tai jäsentämätöntä dataa, Pythonin avulla voit suorittaa kaikki datankäsittelyyn ja ymmärtämiseen liittyvät vaiheet. Se on luultavasti joustavin tapa käsitellä dataa, ja siksi suurin osa data scientist -ammattilaisista käyttää Pythonia ensisijaisena työkalunaan. Pythonin syvällinen oppiminen on luultavasti hyvä idea, jos olet vakavissasi datatieteen urasi suhteen!
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Kertaus ja Itseopiskelu
+
+**Kirjat**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Verkkoresurssit**
+* Virallinen [10 minutes to Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) -tutoriaali
+* [Dokumentaatio Pandas-visualisoinnista](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Pythonin oppiminen**
+* [Learn Python in a Fun Way with Turtle Graphics and Fractals](https://github.com/shwars/pycourse)
+* [Take your First Steps with Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) -oppimispolku [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum):ssa
+
+## Tehtävä
+
+[Tee yksityiskohtaisempi datatutkimus yllä olevista haasteista](assignment.md)
+
+## Tekijät
+
+Tämän oppitunnin on kirjoittanut ♥️:lla [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/07-python/assignment.md b/translations/fi/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..75756f7b
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Tehtävä: Datan käsittely Pythonilla
+
+Tässä tehtävässä pyydämme sinua jatkamaan koodin kehittämistä, jota olemme aloittaneet haasteissamme. Tehtävä koostuu kahdesta osasta:
+
+## COVID-19:n leviämisen mallintaminen
+
+ - [ ] Piirrä *R* -graafit 5-6 eri maalle joko yhdelle graafille vertailua varten tai useille graafeille rinnakkain.
+ - [ ] Tutki, miten kuolemien ja parantumisten määrä korreloi tartuntojen määrän kanssa.
+ - [ ] Selvitä, kuinka kauan tyypillinen tauti kestää visuaalisesti korreloimalla tartuntatahti ja kuolemantapausten tahti sekä etsimällä poikkeavuuksia. Saatat joutua tarkastelemaan eri maita saadaksesi selville tämän.
+ - [ ] Laske kuolleisuusaste ja miten se muuttuu ajan myötä. *Saatat haluta ottaa huomioon taudin keston päivissä ja siirtää yhtä aikasarjaa ennen laskelmien tekemistä.*
+
+## COVID-19-tutkimusten analyysi
+
+- [ ] Rakenna yhteisesiintymismatriisi eri lääkkeistä ja tutki, mitkä lääkkeet esiintyvät usein yhdessä (eli mainitaan samassa tiivistelmässä). Voit muokata koodia lääkkeiden ja diagnoosien yhteisesiintymismatriisin rakentamiseksi.
+- [ ] Visualisoi tämä matriisi lämpökartalla.
+- [ ] Lisätehtävänä visualisoi lääkkeiden yhteisesiintyminen [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram) -kaaviolla. [Tämä kirjasto](https://pypi.org/project/chord/) voi auttaa sinua piirtämään chord diagram -kaavion.
+- [ ] Toinen lisätehtävä: Etsi eri lääkkeiden annostuksia (kuten **400mg** kohdassa *ota 400mg klorokiinia päivittäin*) käyttämällä säännöllisiä lausekkeita ja rakenna dataframe, joka näyttää eri lääkkeiden annostukset. **Huom**: ota huomioon numeeriset arvot, jotka ovat lähellä lääkkeen nimeä tekstissä.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Kaikki tehtävät on suoritettu, graafisesti havainnollistettu ja selitetty, mukaan lukien vähintään yksi kahdesta lisätehtävästä | Yli 5 tehtävää on suoritettu, lisätehtäviä ei ole yritetty tai tulokset eivät ole selkeitä | Vähemmän kuin 5 (mutta enemmän kuin 3) tehtävää on suoritettu, visualisoinnit eivät auta havainnollistamaan asiaa
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/08-data-preparation/README.md b/translations/fi/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..c06f1c6f
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# Työskentely datan kanssa: Datan valmistelu
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Datan valmistelu - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Esiluentakysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Riippuen datan lähteestä, raakadatan mukana voi tulla epäjohdonmukaisuuksia, jotka aiheuttavat haasteita analyysissä ja mallinnuksessa. Toisin sanoen, tämä data voidaan luokitella "likaiseksi" ja se täytyy puhdistaa. Tämä oppitunti keskittyy tekniikoihin, joilla dataa puhdistetaan ja muokataan käsittelemään puuttuvaa, epätarkkaa tai epätäydellistä dataa. Oppitunnin aiheet hyödyntävät Pythonia ja Pandas-kirjastoa, ja ne [havainnollistetaan muistikirjassa](notebook.ipynb) tässä hakemistossa.
+
+## Datan puhdistamisen tärkeys
+
+- **Helppokäyttöisyys ja uudelleenkäyttö**: Kun data on asianmukaisesti järjestetty ja normalisoitu, sitä on helpompi etsiä, käyttää ja jakaa muiden kanssa.
+
+- **Johdonmukaisuus**: Data-analyysi vaatii usein työskentelyä useamman datasetin kanssa, jolloin eri lähteistä tulevat datasetit täytyy yhdistää. Varmistamalla, että jokainen datasetti on standardoitu samalla tavalla, varmistetaan, että data on käyttökelpoista, kun ne yhdistetään yhdeksi datasetiksi.
+
+- **Mallien tarkkuus**: Puhdistettu data parantaa mallien tarkkuutta, jotka ovat riippuvaisia siitä.
+
+## Yleiset puhdistustavoitteet ja -strategiat
+
+- **Datasetin tutkiminen**: Datan tutkiminen, joka käsitellään [myöhemmässä oppitunnissa](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), voi auttaa löytämään dataa, joka täytyy puhdistaa. Datasetin arvojen visuaalinen tarkastelu voi luoda odotuksia siitä, miltä loput datasta näyttävät, tai antaa käsityksen ongelmista, jotka voidaan ratkaista. Tutkiminen voi sisältää peruskyselyitä, visualisointeja ja otantaa.
+
+- **Muotoilu**: Riippuen lähteestä, datassa voi olla epäjohdonmukaisuuksia sen esitystavassa. Tämä voi aiheuttaa ongelmia arvon etsimisessä ja esittämisessä, jolloin se näkyy datasetissä, mutta ei esiinny oikein visualisoinneissa tai kyselytuloksissa. Yleisiä muotoiluongelmia ovat välilyöntien, päivämäärien ja datatyypin korjaaminen. Muotoiluongelmien ratkaiseminen on yleensä datan käyttäjien vastuulla. Esimerkiksi päivämäärien ja numeroiden esitystavat voivat vaihdella maittain.
+
+- **Duplikaatiot**: Data, jossa on useampi esiintymä, voi tuottaa epätarkkoja tuloksia ja se tulisi yleensä poistaa. Tämä on yleistä, kun yhdistetään kaksi tai useampia datasettejä. On kuitenkin tilanteita, joissa yhdistetyissä dataseteissä olevat duplikaatiot sisältävät lisätietoa ja ne täytyy säilyttää.
+
+- **Puuttuva data**: Puuttuva data voi aiheuttaa epätarkkuuksia sekä heikkoja tai puolueellisia tuloksia. Joskus nämä voidaan ratkaista "uudelleenlataamalla" data, täyttämällä puuttuvat arvot laskennalla ja koodilla, kuten Pythonilla, tai yksinkertaisesti poistamalla arvo ja siihen liittyvä data. Puuttuvan datan syyt voivat vaihdella, ja toimenpiteet sen ratkaisemiseksi riippuvat siitä, miten ja miksi data on alun perin puuttunut.
+
+## DataFramen tietojen tutkiminen
+> **Oppimistavoite:** Tämän osion lopussa sinun tulisi osata löytää yleistä tietoa pandas DataFrameihin tallennetusta datasta.
+
+Kun olet ladannut datasi pandasilla, se on todennäköisesti DataFrame-muodossa (katso edellinen [oppitunti](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) saadaksesi yksityiskohtaisen yleiskatsauksen). Mutta jos DataFramessa on 60 000 riviä ja 400 saraketta, mistä edes aloitat ymmärtääksesi, mitä sinulla on käsissäsi? Onneksi [pandas](https://pandas.pydata.org/) tarjoaa käteviä työkaluja, joilla voit nopeasti tarkastella DataFramen yleistä tietoa sekä sen ensimmäisiä ja viimeisiä rivejä.
+
+Tämän toiminnallisuuden tutkimiseksi tuomme käyttöön Pythonin scikit-learn-kirjaston ja käytämme ikonista datasettiä: **Iris-datasettiä**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Aloitetaan `info()`-metodilla, jota käytetään tulostamaan yhteenveto `DataFrame`-sisällöstä. Katsotaanpa tätä datasettiä:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Tästä tiedämme, että *Iris*-datasetissä on 150 merkintää neljässä sarakkeessa, eikä siinä ole tyhjiä arvoja. Kaikki data on tallennettu 64-bittisinä liukulukuarvoina.
+
+- **DataFrame.head()**: Seuraavaksi tarkastellaan `DataFrame`-sisältöä `head()`-metodilla. Katsotaanpa, miltä ensimmäiset rivit `iris_df`:ssä näyttävät:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Vastaavasti tarkastellaan `DataFrame`-viimeisiä rivejä `tail()`-metodilla:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Yhteenveto:** Jo pelkästään tarkastelemalla DataFramen metatietoja tai sen ensimmäisiä ja viimeisiä rivejä, voit saada välittömän käsityksen datan koosta, muodosta ja sisällöstä.
+
+## Puuttuvan datan käsittely
+> **Oppimistavoite:** Tämän osion lopussa sinun tulisi osata korvata tai poistaa tyhjiä arvoja DataFrameista.
+
+Useimmiten datasetit, joita haluat käyttää (tai joudut käyttämään), sisältävät puuttuvia arvoja. Puuttuvan datan käsittelyyn liittyy hienovaraisia kompromisseja, jotka voivat vaikuttaa lopulliseen analyysiin ja tosielämän tuloksiin.
+
+Pandas käsittelee puuttuvia arvoja kahdella tavalla. Ensimmäinen, jonka olet nähnyt aiemmissa osioissa, on `NaN` (Not a Number). Tämä on erityinen arvo, joka kuuluu IEEE-liukulukumääritykseen ja jota käytetään vain puuttuvien liukulukuarvojen merkitsemiseen.
+
+Muiden kuin liukulukujen puuttuvien arvojen kohdalla pandas käyttää Pythonin `None`-objektia. Vaikka voi tuntua hämmentävältä kohdata kaksi erilaista arvoa, jotka tarkoittavat käytännössä samaa asiaa, tähän suunnitteluratkaisuun on hyvät ohjelmalliset syyt. Käytännössä tämä mahdollistaa sen, että pandas tarjoaa hyvän kompromissin useimmissa tapauksissa. Tästä huolimatta sekä `None` että `NaN` sisältävät rajoituksia, jotka on hyvä pitää mielessä niiden käytössä.
+
+Lue lisää `NaN`- ja `None`-arvoista [muistikirjasta](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Tyhjien arvojen tunnistaminen**: Pandasissa `isnull()`- ja `notnull()`-metodit ovat ensisijaisia työkaluja tyhjän datan tunnistamiseen. Molemmat palauttavat Boolean-maskit datan päälle. Käytämme `numpy`-kirjastoa `NaN`-arvojen kanssa:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Katso tarkasti tulosta. Yllättääkö jokin? Vaikka `0` on aritmeettisesti nolla, se on silti täysin kelvollinen kokonaisluku, ja pandas käsittelee sen sellaisena. `''` on hieman hienovaraisempi. Vaikka käytimme sitä osiossa 1 tyhjänä merkkijonona, se on silti merkkijono-objekti eikä pandasissa tyhjän arvon esitys.
+
+Nyt käännetään tämä ja käytetään näitä metodeja tavalla, jolla niitä käytetään käytännössä. Voit käyttää Boolean-maskeja suoraan ``Series``- tai ``DataFrame``-indeksinä, mikä on hyödyllistä, kun haluat työskennellä eristettyjen puuttuvien (tai olemassa olevien) arvojen kanssa.
+
+> **Yhteenveto**: Sekä `isnull()`- että `notnull()`-metodit tuottavat samanlaisia tuloksia, kun käytät niitä `DataFrame`-objekteissa: ne näyttävät tulokset ja niiden indeksit, mikä auttaa sinua valtavasti datan käsittelyssä.
+
+- **Tyhjien arvojen poistaminen**: Tyhjien arvojen tunnistamisen lisäksi pandas tarjoaa kätevän tavan poistaa tyhjiä arvoja `Series`- ja `DataFrame`-objekteista. (Erityisesti suurissa dataseteissä on usein suositeltavampaa yksinkertaisesti poistaa puuttuvat [NA] arvot analyysistä kuin käsitellä niitä muilla tavoilla.) Katsotaanpa tätä toiminnallisuutta `example1`-datasetillä:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Huomaa, että tämä näyttää samalta kuin tulos `example3[example3.notnull()]`. Erona on, että `dropna` on poistanut puuttuvat arvot `Series`-objektista `example1` sen sijaan, että vain indeksoisi maskattuja arvoja.
+
+Koska `DataFrame`-objekteilla on kaksi ulottuvuutta, ne tarjoavat enemmän vaihtoehtoja datan poistamiseen.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Huomasitko, että pandas muutti kaksi saraketta liukuluvuiksi mukautuakseen `NaN`-arvoihin?)
+
+Et voi poistaa yksittäistä arvoa `DataFrame`-objektista, joten sinun täytyy poistaa kokonaisia rivejä tai sarakkeita. Riippuen siitä, mitä olet tekemässä, saatat haluta tehdä jomman kumman, ja pandas antaa sinulle vaihtoehdot molempiin. Koska data-analyysissä sarakkeet edustavat yleensä muuttujia ja rivit havaintoja, olet todennäköisemmin poistamassa rivejä; `dropna()`-metodin oletusasetuksena on poistaa kaikki rivit, jotka sisältävät tyhjiä arvoja:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Jos tarpeen, voit poistaa NA-arvot sarakkeista. Käytä `axis=1` tehdäksesi niin:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Huomaa, että tämä voi poistaa paljon dataa, jonka haluaisit säilyttää, erityisesti pienemmissä dataseteissä. Entä jos haluat poistaa vain rivit tai sarakkeet, jotka sisältävät useita tai jopa kaikki tyhjät arvot? Voit määrittää nämä asetukset `dropna`-metodissa `how`- ja `thresh`-parametreilla.
+
+Oletuksena `how='any'` (jos haluat tarkistaa itse tai nähdä, mitä muita parametreja metodilla on, suorita `example4.dropna?` koodisolussa). Voit vaihtoehtoisesti määrittää `how='all'`, jolloin poistetaan vain rivit tai sarakkeet, jotka sisältävät kaikki tyhjät arvot. Laajennetaan esimerkkimme `DataFrame`-objektia nähdäksesi tämä toiminnassa.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+`thresh`-parametri antaa sinulle tarkemman hallinnan: voit asettaa rivin tai sarakkeen tarvitsemien *ei-tyhjien* arvojen määrän, jotta se säilytetään:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Tässä ensimmäinen ja viimeinen rivi on poistettu, koska niissä on vain kaksi ei-tyhjää arvoa.
+
+- **Tyhjien arvojen täyttäminen**: Riippuen datasetistäsi, voi joskus olla järkevämpää täyttää tyhjät arvot kelvollisilla arvoilla kuin poistaa ne. Voisit käyttää `isnull`-metodia tehdäksesi tämän paikan päällä, mutta se voi olla työlästä, erityisesti jos täytettäviä arvoja on paljon. Koska tämä on niin yleinen tehtävä data-analyysissä, pandas tarjoaa `fillna`-metodin, joka palauttaa kopion `Series`- tai `DataFrame`-objektista, jossa puuttuvat arvot on korvattu valitsemallasi arvolla. Luodaan toinen esimerkki `Series`-objekti nähdäksesi, miten tämä toimii käytännössä.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Voit täyttää kaikki tyhjät arvot yhdellä arvolla, kuten `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Voit **täyttää eteenpäin** tyhjät arvot, eli käyttää viimeistä kelvollista arvoa täyttämään tyhjän:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Voit myös **täyttää taaksepäin**, jolloin seuraava kelvollinen arvo täyttää tyhjän:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Kuten arvata saattaa, tämä toimii samalla tavalla `DataFrame`-objekteissa, mutta voit myös määrittää `axis`-parametrin, jonka mukaan tyhjät arvot täytetään. Käytetään aiemmin käytettyä `example2`-datasettiä uudelleen:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Huomaa, että kun edellistä arvoa ei ole saatavilla eteenpäin täyttämiseen, tyhjä arvo jää jäljelle.
+> **Tärkeä huomio:** Puuttuvien arvojen käsittelyyn on useita tapoja. Käyttämäsi strategia (poistaminen, korvaaminen tai tapa, jolla korvaat ne) tulisi määritellä datan erityispiirteiden mukaan. Saat paremman käsityksen puuttuvien arvojen käsittelystä, kun työskentelet ja vuorovaikutat datasetien kanssa.
+
+## Dublikaattidatan poistaminen
+
+> **Oppimistavoite:** Tämän alajakson lopussa sinun tulisi osata tunnistaa ja poistaa dublikaattiarvot DataFrameista.
+
+Puuttuvan datan lisäksi kohtaat usein dublikaattidataa todellisissa datasetissä. Onneksi `pandas` tarjoaa helpon tavan havaita ja poistaa dublikaattimerkinnät.
+
+- **Dublikaattien tunnistaminen: `duplicated`**: Voit helposti havaita dublikaattiarvot käyttämällä pandas-kirjaston `duplicated`-metodia, joka palauttaa Boolean-maskin, joka osoittaa, onko `DataFrame`-merkintä aiemman merkinnän dublikaatti. Luodaan toinen esimerkkidataframe, jotta näet tämän toiminnassa.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |kirjaimet|numerot|
+|------|---------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Dublikaattien poistaminen: `drop_duplicates`:** palauttaa yksinkertaisesti kopion datasta, jossa kaikki `duplicated`-arvot ovat `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Sekä `duplicated` että `drop_duplicates` oletuksena tarkastelevat kaikkia sarakkeita, mutta voit määrittää, että ne tarkastelevat vain tiettyä sarakejoukkoa `DataFrame`-rakenteessasi:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Tärkeä huomio:** Dublikaattidatan poistaminen on olennainen osa lähes jokaista data-analytiikkaprojektia. Dublikaattidata voi muuttaa analyysien tuloksia ja antaa virheellisiä lopputuloksia!
+
+
+## 🚀 Haaste
+
+Kaikki käsitelty materiaali on saatavilla [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb) -tiedostona. Lisäksi jokaisen osion jälkeen on harjoituksia, kokeile niitä!
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Kertaus ja itseopiskelu
+
+On olemassa monia tapoja löytää ja lähestyä datan valmistelua analyysia ja mallinnusta varten, ja datan puhdistaminen on tärkeä vaihe, joka vaatii "kädet savessa" -työskentelyä. Kokeile näitä Kaggle-haasteita tutkiaksesi tekniikoita, joita tämä oppitunti ei käsitellyt.
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Tehtävä
+
+[Arvioi lomakkeen dataa](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/08-data-preparation/assignment.md b/translations/fi/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..eb5d0ffd
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Lomakkeen tietojen arviointi
+
+Asiakas on testannut [pientä lomaketta](../../../../2-Working-With-Data/08-data-preparation/index.html) kerätäkseen perustietoja asiakaskunnastaan. He ovat tuoneet sinulle keräämänsä tiedot, jotta voit validoida ne. Voit avata `index.html`-sivun selaimessa nähdäksesi lomakkeen.
+
+Sinulle on annettu [csv-tietueiden datasetti](../../../../data/form.csv), joka sisältää lomakkeen merkintöjä sekä joitakin perusvisualisointeja. Asiakas huomautti, että jotkut visualisoinnit näyttävät virheellisiltä, mutta he eivät ole varmoja, miten ne korjataan. Voit tutkia asiaa [tehtävämuistikirjassa](assignment.ipynb).
+
+## Ohjeet
+
+Käytä tämän oppitunnin tekniikoita antaaksesi suosituksia lomakkeesta, jotta se kerää tarkkaa ja johdonmukaista tietoa.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | --- |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/2-Working-With-Data/README.md b/translations/fi/2-Working-With-Data/README.md
new file mode 100644
index 00000000..dcd28506
--- /dev/null
+++ b/translations/fi/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Työskentely datan kanssa
+
+
+> Kuva: Alexander Sinn palvelussa Unsplash
+
+Näissä oppitunneissa opit joitakin tapoja, joilla dataa voidaan hallita, käsitellä ja käyttää sovelluksissa. Opit relaatiotietokannoista ja ei-relaatiotietokannoista sekä siitä, miten dataa voidaan tallentaa niihin. Opit Pythonin perusteet datan hallintaan ja tutustut moniin tapoihin, joilla voit käyttää Pythonia datan hallintaan ja analysointiin.
+
+### Aiheet
+
+1. [Relaatiotietokannat](05-relational-databases/README.md)
+2. [Ei-relaatiotietokannat](06-non-relational/README.md)
+3. [Työskentely Pythonin kanssa](07-python/README.md)
+4. [Datan valmistelu](08-data-preparation/README.md)
+
+### Tekijät
+
+Nämä oppitunnit on kirjoitettu ❤️:lla [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) ja [Jasmine Greenaway](https://twitter.com/paladique).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/09-visualization-quantities/README.md b/translations/fi/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..67a8d886
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Määrien visualisointi
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Määrien visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Tässä oppitunnissa tutustut siihen, miten voit käyttää yhtä monista saatavilla olevista Python-kirjastoista oppiaksesi luomaan kiinnostavia visualisointeja määrän käsitteen ympärillä. Käyttämällä puhdistettua datasettiä Minnesotan linnuista voit oppia monia mielenkiintoisia faktoja paikallisesta eläimistöstä.
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Tarkastele siipiväliä Matplotlibin avulla
+
+Erinomainen kirjasto erilaisten yksinkertaisten ja monimutkaisten kaavioiden ja diagrammien luomiseen on [Matplotlib](https://matplotlib.org/stable/index.html). Yleisesti ottaen datan visualisointi näiden kirjastojen avulla sisältää seuraavat vaiheet: määritä, mitä osia dataframeista haluat käyttää, tee tarvittavat muunnokset datalle, määritä x- ja y-akselin arvot, päätä millainen kaavio haluat näyttää ja lopuksi näytä kaavio. Matplotlib tarjoaa laajan valikoiman visualisointeja, mutta tässä oppitunnissa keskitymme niihin, jotka sopivat parhaiten määrien visualisointiin: viivakaaviot, hajontakaaviot ja pylväsdiagrammit.
+
+> ✅ Käytä parasta kaaviotyyppiä datasi rakenteen ja kertomasi tarinan mukaan.
+> - Aikatrendien analysointiin: viiva
+> - Arvojen vertailuun: pylväs, sarake, piirakka, hajontakaavio
+> - Osien suhteiden näyttämiseen kokonaisuuteen: piirakka
+> - Datan jakauman näyttämiseen: hajontakaavio, pylväs
+> - Trendien näyttämiseen: viiva, sarake
+> - Arvojen välisten suhteiden näyttämiseen: viiva, hajontakaavio, kupla
+
+Jos sinulla on datasetti ja haluat selvittää, kuinka paljon tiettyä kohdetta on mukana, ensimmäinen tehtäväsi on tarkastella sen arvoja.
+
+✅ Matplotlibille on saatavilla erittäin hyviä 'cheat sheet' -muistilappuja [täällä](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Luo viivakaavio lintujen siipiväliarvoista
+
+Avaa `notebook.ipynb` tiedosto tämän oppitunnin kansion juuresta ja lisää solu.
+
+> Huom: data on tallennettu tämän repositorion juureen `/data`-kansioon.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Tämä data sisältää sekä tekstiä että numeroita:
+
+| | Nimi | Tieteellinen nimi | Kategoria | Lahko | Heimo | Suku | Suojelustatus | MinPituus | MaxPituus | MinPaino | MaxPaino | MinSiipiväli | MaxSiipiväli |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Mustavatsainen viheltävä ankka | Dendrocygna autumnalis | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Ruostoviheltävä ankka | Dendrocygna bicolor | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Lumihanhi | Anser caerulescens | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Rossin hanhi | Anser rossii | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Iso valkoposkihanhi | Anser albifrons | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Aloitetaan piirtämällä osa numeerisesta datasta perusviivakaavion avulla. Oletetaan, että haluat tarkastella näiden mielenkiintoisten lintujen maksimisiipiväliä.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Mitä huomaat heti? Näyttää olevan ainakin yksi poikkeama - melkoiset siivet! 2300 senttimetrin siipiväli vastaa 23 metriä - vaeltavatko Pterodaktyylit Minnesotassa? Tutkitaan asiaa.
+
+Vaikka voisit tehdä nopean lajittelun Excelissä löytääksesi nämä poikkeamat, jotka ovat todennäköisesti kirjoitusvirheitä, jatka visualisointiprosessia työskentelemällä suoraan kaaviosta.
+
+Lisää x-akselille etiketit, jotka näyttävät, minkä tyyppisistä linnuista on kyse:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Vaikka etikettien kiertokulma on asetettu 45 asteeseen, niitä on liian paljon luettavaksi. Kokeillaan toista strategiaa: merkitään vain poikkeamat ja asetetaan etiketit kaavion sisälle. Voit käyttää hajontakaaviota tehdäksesi tilaa etiketeille:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Mitä tässä tapahtuu? Käytit `tick_params` piilottaaksesi alareunan etiketit ja loit silmukan lintudatasetin yli. Piirtämällä kaavion pienillä pyöreillä sinisillä pisteillä käyttämällä `bo`, tarkistit, onko linnulla maksimisiipiväli yli 500 ja näytit sen etiketin pisteen vieressä, jos näin oli. Siirsit etikettejä hieman y-akselilla (`y * (1 - 0.05)`) ja käytit linnun nimeä etiketiksi.
+
+Mitä havaitsit?
+
+
+## Suodata dataasi
+
+Sekä valkopäämerikotka että preeriakotka, vaikka todennäköisesti hyvin suuria lintuja, näyttävät olevan virheellisesti merkittyjä, ja niiden maksimisiipiväliin on lisätty ylimääräinen `0`. On epätodennäköistä, että kohtaat valkopäämerikotkan, jonka siipiväli on 25 metriä, mutta jos näin käy, kerro meille! Luodaan uusi dataframe ilman näitä kahta poikkeamaa:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Suodattamalla poikkeamat pois datasi on nyt yhtenäisempää ja ymmärrettävämpää.
+
+
+
+Nyt kun meillä on puhtaampi datasetti ainakin siipivälin osalta, tutkitaan lisää näitä lintuja.
+
+Vaikka viiva- ja hajontakaaviot voivat näyttää tietoa datan arvoista ja niiden jakaumista, haluamme pohtia datasetin sisältämiä arvoja. Voisit luoda visualisointeja vastataksesi seuraaviin kysymyksiin määristä:
+
+> Kuinka monta lintukategoriaa on olemassa, ja mikä on niiden lukumäärä?
+> Kuinka monta lintua on sukupuuttoon kuolleita, uhanalaisia, harvinaisia tai yleisiä?
+> Kuinka monta on eri sukuja ja lahkoja Linnaeuksen terminologiassa?
+## Tutki pylväsdiagrammeja
+
+Pylväsdiagrammit ovat käytännöllisiä, kun haluat näyttää datan ryhmittelyjä. Tutkitaan datasetin lintukategorioita nähdäksemme, mikä on yleisin lukumäärän perusteella.
+
+Luo peruspylväsdiagrammi notebook-tiedostossa.
+
+✅ Huomaa, että voit joko suodattaa pois kaksi poikkeamalintua, jotka tunnistimme edellisessä osiossa, korjata niiden siipivälin kirjoitusvirheen tai jättää ne mukaan näihin harjoituksiin, jotka eivät riipu siipiväliarvoista.
+
+Jos haluat luoda pylväsdiagrammin, voit valita datan, johon haluat keskittyä. Pylväsdiagrammeja voidaan luoda raakadatasta:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Tämä pylväsdiagrammi on kuitenkin lukukelvoton, koska dataa ei ole ryhmitelty. Sinun täytyy valita vain data, jonka haluat piirtää, joten tarkastellaan lintujen pituutta niiden kategorian perusteella.
+
+Suodata datasi sisältämään vain lintujen kategoriat.
+
+✅ Huomaa, että käytät Pandasia datan hallintaan ja annat Matplotlibin hoitaa kaavioiden piirtämisen.
+
+Koska kategorioita on paljon, voit näyttää tämän diagrammin pystysuunnassa ja säätää sen korkeutta, jotta kaikki data mahtuu mukaan:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Tämä pylväsdiagrammi näyttää hyvän näkymän lintujen lukumäärästä kussakin kategoriassa. Silmänräpäyksessä näet, että suurin osa tämän alueen linnuista kuuluu Ankat/hanhet/vesilinnut-kategoriaan. Minnesota on "10 000 järven maa", joten tämä ei ole yllättävää!
+
+✅ Kokeile joitakin muita laskentoja tässä datasetissä. Yllättääkö jokin sinut?
+
+## Datan vertailu
+
+Voit kokeilla eri ryhmitellyn datan vertailuja luomalla uusia akseleita. Kokeile lintujen MaxPituuden vertailua kategorian perusteella:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Tässä ei ole mitään yllättävää: kolibrit ovat pienimpiä MaxPituuden osalta verrattuna pelikaaniin tai hanhiin. On hyvä, kun data on loogista!
+
+Voit luoda mielenkiintoisempia pylväsdiagrammeja päällekkäin asetetulla datalla. Asetetaan päällekkäin Minimi- ja Maksimipituus tietyn lintukategorian osalta:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+Tässä kaaviossa näet kunkin lintukategorian Minimi- ja Maksimipituuden vaihteluvälin. Voit turvallisesti sanoa, että tämän datan perusteella mitä suurempi lintu, sitä laajempi sen pituusvaihteluväli. Mielenkiintoista!
+
+
+
+## 🚀 Haaste
+
+Tämä lintudatasetti tarjoaa runsaasti tietoa eri lintutyypeistä tietyssä ekosysteemissä. Etsi internetistä muita lintuihin liittyviä datasettejä. Harjoittele kaavioiden ja diagrammien luomista näiden lintujen ympärille löytääksesi faktoja, joita et aiemmin tiennyt.
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Kertaus & Itseopiskelu
+
+Tämä ensimmäinen oppitunti on antanut sinulle tietoa siitä, miten käyttää Matplotlibia määrien visualisointiin. Tutki muita tapoja työskennellä datasetin kanssa visualisointia varten. [Plotly](https://github.com/plotly/plotly.py) on yksi, jota emme käsittele näissä oppitunneissa, joten tutustu siihen, mitä se voi tarjota.
+## Tehtävä
+
+[Viivat, hajonnat ja pylväät](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/fi/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..574cf619
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Viivat, hajontakaaviot ja pylväät
+
+## Ohjeet
+
+Tässä oppitunnissa työskentelit viivakaavioiden, hajontakaavioiden ja pylväskaavioiden parissa esitelläksesi mielenkiintoisia faktoja tästä tietoaineistosta. Tässä tehtävässä syvenny aineistoon löytääksesi faktan tietystä lintulajista. Esimerkiksi, luo muistikirja, jossa visualisoit kaiken mielenkiintoisen datan, jonka voit löytää lumihanhista. Käytä yllä mainittuja kolmea kaaviotyyppiä kertoaksesi tarinan muistikirjassasi.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Muistikirja sisältää hyvät merkinnät, vahvan tarinankerronnan ja houkuttelevat kaaviot | Muistikirjasta puuttuu yksi näistä elementeistä | Muistikirjasta puuttuu kaksi näistä elementeistä
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/10-visualization-distributions/README.md b/translations/fi/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..602d5ede
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,217 @@
+
+# Visualisointi: Jakautumat
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Jakautumien visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Edellisessä osiossa opit mielenkiintoisia asioita Minnesotan lintudatasta. Löysit virheellistä dataa visualisoimalla poikkeamia ja tarkastelit lintukategorioiden eroja niiden maksimipituuden perusteella.
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Tutustu lintudataan
+
+Yksi tapa tutkia dataa on tarkastella sen jakautumaa eli miten data on järjestetty akselilla. Ehkä haluaisit esimerkiksi oppia, miten Minnesotan lintujen maksimisiipiväli tai maksimikehon massa jakautuu tässä datasetissä.
+
+Tutkitaanpa joitakin faktoja tämän datasetin jakautumista. Tämän osion juurikansiossa olevassa _notebook.ipynb_-tiedostossa tuo Pandas, Matplotlib ja datasi:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Nimi | Tieteellinen nimi | Kategoria | Lahko | Heimo | Suku | Suojelustatus | MinPituus | MaxPituus | MinKehonMassa | MaxKehonMassa | MinSiipiväli | MaxSiipiväli |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Mustavatsainen viheltävä ankka | Dendrocygna autumnalis | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Ruostevatsainen viheltävä ankka | Dendrocygna bicolor | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Lumihanhi | Anser caerulescens | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Rossin hanhi | Anser rossii | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Iso valkoposkihanhi | Anser albifrons | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Yleisesti ottaen datan jakautumaa voi nopeasti tarkastella käyttämällä hajontakaaviota, kuten teimme edellisessä osiossa:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Tämä antaa yleiskuvan lintujen kehon pituuden jakautumisesta per lahko, mutta se ei ole paras tapa esittää todellisia jakautumia. Tämä tehtävä hoidetaan yleensä histogrammilla.
+
+## Työskentely histogrammien kanssa
+
+Matplotlib tarjoaa erinomaisia tapoja visualisoida datan jakautumista histogrammien avulla. Tämä kaaviotyyppi muistuttaa pylväsdiagrammia, jossa jakautuma näkyy pylväiden nousuina ja laskuina. Histogrammin luomiseen tarvitaan numeerista dataa. Histogrammin luomiseksi voit piirtää kaavion määrittämällä tyypiksi 'hist' histogrammia varten. Tämä kaavio näyttää MaxBodyMass-jakautuman koko datasetin numeerisen datan alueella. Jakamalla sille annettu data pienempiin osiin (bins), se voi näyttää datan arvojen jakautuman:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Kuten näet, suurin osa datasetin yli 400 linnusta sijoittuu alle 2000 Max Body Mass -arvoon. Saat lisää tietoa datasta muuttamalla `bins`-parametrin suuremmaksi, esimerkiksi 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Tämä kaavio näyttää jakautuman hieman tarkemmalla tavalla. Vähemmän vasemmalle vinoutunut kaavio voidaan luoda varmistamalla, että valitset vain tietyn alueen datan:
+
+Suodata datasi saadaksesi vain ne linnut, joiden kehon massa on alle 60, ja näytä 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Kokeile muita suodattimia ja datapisteitä. Näytä datan koko jakautuma poistamalla `['MaxBodyMass']`-suodatin ja näytä nimettyjä jakautumia.
+
+Histogrammi tarjoaa myös mukavia värien ja nimien parannuksia, joita kannattaa kokeilla:
+
+Luo 2D-histogrammi vertaillaksesi kahden jakautuman välistä suhdetta. Verrataan `MaxBodyMass` ja `MaxLength`. Matplotlib tarjoaa sisäänrakennetun tavan näyttää yhtymäkohdat kirkkaammilla väreillä:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Näyttää siltä, että näiden kahden elementin välillä on odotettu korrelaatio odotetulla akselilla, ja yksi erityisen vahva yhtymäkohta:
+
+
+
+Histogrammit toimivat oletuksena hyvin numeerisen datan kanssa. Entä jos haluat nähdä jakautumia tekstidatan mukaan?
+## Tutki datasettiä tekstidatan jakautumien osalta
+
+Tämä datasetti sisältää myös hyvää tietoa lintujen kategoriasta, suvusta, lajista ja heimosta sekä niiden suojelustilasta. Tutkitaanpa tätä suojelustietoa. Mikä on lintujen jakautuma niiden suojelustilanteen mukaan?
+
+> ✅ Datasetissä käytetään useita lyhenteitä kuvaamaan suojelustilaa. Nämä lyhenteet tulevat [IUCN Red List Categories](https://www.iucnredlist.org) -organisaatiolta, joka luokittelee lajien tilan.
+>
+> - CR: Äärimmäisen uhanalainen
+> - EN: Uhanalainen
+> - EX: Sukupuuttoon kuollut
+> - LC: Vähiten huolta aiheuttava
+> - NT: Lähes uhanalainen
+> - VU: Haavoittuvainen
+
+Nämä ovat tekstipohjaisia arvoja, joten sinun täytyy tehdä muunnos histogrammin luomiseksi. Käytä filteredBirds-dataframea ja näytä sen suojelustatus yhdessä minimisiipivälin kanssa. Mitä näet?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Näyttää siltä, ettei minimisiipivälin ja suojelustilanteen välillä ole hyvää korrelaatiota. Testaa datasetin muita elementtejä tällä menetelmällä. Voit kokeilla myös erilaisia suodattimia. Löydätkö mitään korrelaatiota?
+
+## Tiheyskaaviot
+
+Olet ehkä huomannut, että tähän mennessä tarkastellut histogrammit ovat "askelmia" eivätkä virtaa sujuvasti kaaren muodossa. Näyttääksesi tasaisemman tiheyskaavion, voit kokeilla tiheyskaaviota.
+
+Tiheyskaavioiden kanssa työskentelyä varten tutustu uuteen kaaviokirjastoon, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Lataa Seaborn ja kokeile perus tiheyskaaviota:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Voit nähdä, kuinka kaavio muistuttaa aiempaa minimisiipivälin kaaviota; se on vain hieman tasaisempi. Seabornin dokumentaation mukaan "histogrammiin verrattuna KDE voi tuottaa kaavion, joka on vähemmän sekava ja helpommin tulkittava, erityisesti piirtäessä useita jakautumia. Mutta se voi aiheuttaa vääristymiä, jos taustalla oleva jakautuma on rajattu tai ei tasainen. Kuten histogrammi, myös esityksen laatu riippuu hyvien tasoitusparametrien valinnasta." [lähde](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Toisin sanoen poikkeamat, kuten aina, saavat kaaviosi käyttäytymään huonosti.
+
+Jos haluaisit palata siihen epätasaiseen MaxBodyMass-linjaan toisessa rakentamassasi kaaviossa, voisit tasoittaa sen hyvin luomalla sen uudelleen tällä menetelmällä:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Jos haluaisit tasaisen, mutta ei liian tasaisen linjan, muokkaa `bw_adjust`-parametria:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Lue tämän kaaviotyypin saatavilla olevista parametreista ja kokeile!
+
+Tämä kaaviotyyppi tarjoaa kauniisti selittäviä visualisointeja. Esimerkiksi muutamalla koodirivillä voit näyttää lintujen maksimikehon massan tiheyden per lahko:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Voit myös kartoittaa useiden muuttujien tiheyden yhdessä kaaviossa. Testaa linnun MaxLength ja MinLength verrattuna niiden suojelustilaan:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Ehkä kannattaa tutkia, onko 'Haavoittuvainen'-lintujen klusteri niiden pituuksien mukaan merkityksellinen vai ei.
+
+## 🚀 Haaste
+
+Histogrammit ovat kehittyneempiä kaaviotyyppejä kuin perushajontakaaviot, pylväsdiagrammit tai viivakaaviot. Etsi internetistä hyviä esimerkkejä histogrammien käytöstä. Miten niitä käytetään, mitä ne osoittavat ja millä aloilla tai tutkimusalueilla niitä yleensä käytetään?
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Kertaus ja itseopiskelu
+
+Tässä osiossa käytit Matplotlibia ja aloitit työskentelyn Seabornin kanssa näyttääkseen kehittyneempiä kaavioita. Tutki `kdeplot`-toimintoa Seabornissa, "jatkuva todennäköisyystiheyskäyrä yhdessä tai useammassa ulottuvuudessa". Lue [dokumentaatio](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) ymmärtääksesi, miten se toimii.
+
+## Tehtävä
+
+[Hyödynnä taitojasi](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/fi/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..eba15f1b
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Käytä taitojasi
+
+## Ohjeet
+
+Tähän mennessä olet työskennellyt Minnesotan lintudatan parissa löytääksesi tietoa lintujen määristä ja populaation tiheydestä. Harjoittele näiden tekniikoiden soveltamista kokeilemalla toista datasettiä, esimerkiksi [Kaggle](https://www.kaggle.com/) -sivustolta. Rakenna notebook, joka kertoo tarinan tästä datasetistä, ja muista käyttää histogrammeja sen käsittelyssä.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannusta tarvitaan
+--- | --- | -- |
+Notebook sisältää merkintöjä datasetistä, mukaan lukien sen lähde, ja käyttää vähintään 5 histogrammia datan faktojen löytämiseen. | Notebook sisältää puutteellisia merkintöjä tai virheitä. | Notebook ei sisällä merkintöjä ja sisältää virheitä.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/11-visualization-proportions/README.md b/translations/fi/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..8686fafd
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,204 @@
+
+# Visualisoi osuuksia
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Osuuksien visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Tässä oppitunnissa käytät luontoon keskittyvää datasettiä visualisoidaksesi osuuksia, kuten kuinka monta erilaista sienityyppiä esiintyy datasetissä, joka käsittelee sieniä. Tutustutaan näihin kiehtoviin sieniin datasetin avulla, joka on peräisin Audubonilta ja sisältää tietoja 23 kidallisen sienen lajista Agaricus- ja Lepiota-suvuista. Kokeilet herkullisia visualisointeja, kuten:
+
+- Piirakkakaavioita 🥧
+- Donitsikaavioita 🍩
+- Vohvelikaavioita 🧇
+
+> 💡 Microsoft Researchin [Charticulator](https://charticulator.com) on erittäin mielenkiintoinen projekti, joka tarjoaa ilmaisen vedä ja pudota -käyttöliittymän datavisualisointeihin. Yhdessä heidän tutoriaaleistaan käytetään myös tätä sienidatasettiä! Voit siis tutkia dataa ja oppia kirjaston käyttöä samanaikaisesti: [Charticulator-tutoriaali](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Tutustu sieniin 🍄
+
+Sienet ovat erittäin mielenkiintoisia. Tuodaan datasetti niiden tutkimiseksi:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Tulostetaan taulukko, joka sisältää loistavaa analysoitavaa dataa:
+
+
+| luokka | lakin muoto | lakin pinta | lakin väri | mustelmat | haju | kidan kiinnitys | kidan väli | kidan koko | kidan väri | jalan muoto | jalan juuri | jalan pinta renkaan yläpuolella | jalan pinta renkaan alapuolella | jalan väri renkaan yläpuolella | jalan väri renkaan alapuolella | verhon tyyppi | verhon väri | renkaiden määrä | renkaan tyyppi | itiöiden väri | populaatio | elinympäristö |
+| --------- | ----------- | ----------- | ---------- | --------- | -------- | --------------- | ------------ | ---------- | ---------- | ----------- | ----------- | ------------------------------ | ------------------------------ | ------------------------------ | ------------------------------ | ------------- | ----------- | --------------- | -------------- | ----------------- | ---------- | ------------- |
+| Myrkyllinen | Kupera | Sileä | Ruskea | Mustelmat | Pistävä | Vapaa | Tiivis | Kapea | Musta | Laajeneva | Tasainen | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Musta | Hajallaan | Kaupunki |
+| Syötävä | Kupera | Sileä | Keltainen | Mustelmat | Manteli | Vapaa | Tiivis | Leveä | Musta | Laajeneva | Nuija | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Ruskea | Lukuisia | Ruohikko |
+| Syötävä | Kellomainen | Sileä | Valkoinen | Mustelmat | Anis | Vapaa | Tiivis | Leveä | Ruskea | Laajeneva | Nuija | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Ruskea | Lukuisia | Niitty |
+| Myrkyllinen | Kupera | Suomuinen | Valkoinen | Mustelmat | Pistävä | Vapaa | Tiivis | Kapea | Ruskea | Laajeneva | Tasainen | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Musta | Hajallaan | Kaupunki |
+
+Heti huomaat, että kaikki data on tekstimuotoista. Sinun täytyy muuntaa tämä data, jotta voit käyttää sitä kaaviossa. Suurin osa datasta on itse asiassa esitetty objektina:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Tuloste on:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Muunna tämä data ja muuta 'luokka'-sarake kategoriaksi:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Kun tulostat sienidatan, näet, että se on ryhmitelty kategorioihin myrkyllisen/syötävän luokan mukaan:
+
+
+| | lakin muoto | lakin pinta | lakin väri | mustelmat | haju | kidan kiinnitys | kidan väli | kidan koko | kidan väri | jalan muoto | ... | jalan pinta renkaan alapuolella | jalan väri renkaan yläpuolella | jalan väri renkaan alapuolella | verhon tyyppi | verhon väri | renkaiden määrä | renkaan tyyppi | itiöiden väri | populaatio | elinympäristö |
+| --------- | ----------- | ----------- | ---------- | --------- | ---- | --------------- | ------------ | ---------- | ---------- | ----------- | --- | ------------------------------ | ------------------------------ | ------------------------------ | ------------- | ----------- | --------------- | -------------- | ----------------- | ---------- | ------------- |
+| luokka | | | | | | | | | | | | | | | | | | | | | |
+| Syötävä | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Myrkyllinen | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Jos noudatat tämän taulukon järjestystä luodessasi luokkakategorian tunnisteita, voit rakentaa piirakkakaavion:
+
+## Piirakka!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voila, piirakkakaavio, joka näyttää tämän datan osuudet näiden kahden sieniluokan mukaan. On erittäin tärkeää saada tunnisteiden järjestys oikein, erityisesti tässä, joten varmista tunnisteiden järjestys ennen kaavion rakentamista!
+
+
+
+## Donitsit!
+
+Hieman visuaalisesti kiinnostavampi piirakkakaavio on donitsikaavio, joka on piirakkakaavio, jossa on reikä keskellä. Katsotaan dataa tällä menetelmällä.
+
+Tarkastellaan eri elinympäristöjä, joissa sienet kasvavat:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Tässä ryhmitellään data elinympäristön mukaan. Niitä on listattu 7, joten käytä niitä tunnisteina donitsikaaviolle:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Tämä koodi piirtää kaavion ja keskirenkaan, ja lisää sitten keskirenkaan kaavioon. Muokkaa keskirenkaan leveyttä muuttamalla arvoa `0.40`.
+
+Donitsikaavioita voi muokata monin tavoin tunnisteiden muuttamiseksi. Tunnisteet voidaan erityisesti korostaa luettavuuden parantamiseksi. Lue lisää [dokumentaatiosta](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Kun tiedät, miten ryhmitellä dataa ja esittää se piirakkana tai donitsina, voit tutkia muita kaaviotyyppejä. Kokeile vohvelikaaviota, joka on vain erilainen tapa tutkia määriä.
+## Vohvelit!
+
+'Vohveli'-tyyppinen kaavio on erilainen tapa visualisoida määriä 2D-ruudukon avulla. Kokeile visualisoida eri sienilakkien värien määriä tässä datasetissä. Tätä varten sinun täytyy asentaa apukirjasto nimeltä [PyWaffle](https://pypi.org/project/pywaffle/) ja käyttää Matplotlibia:
+
+```python
+pip install pywaffle
+```
+
+Valitse segmentti datastasi ryhmittelyä varten:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Luo vohvelikaavio luomalla tunnisteet ja ryhmittelemällä data:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Vohvelikaavion avulla näet selvästi sienilakkien värien osuudet tässä datasetissä. Mielenkiintoista on, että datasetissä on paljon vihreälakkisia sieniä!
+
+
+
+✅ Pywaffle tukee kaavioiden sisällä ikoneita, jotka käyttävät mitä tahansa [Font Awesomen](https://fontawesome.com/) saatavilla olevaa ikonia. Kokeile luoda vieläkin mielenkiintoisempi vohvelikaavio käyttämällä ikoneita ruutujen sijaan.
+
+Tässä oppitunnissa opit kolme tapaa visualisoida osuuksia. Ensin sinun täytyy ryhmitellä data kategorioihin ja sitten päättää, mikä on paras tapa esittää data - piirakka, donitsi tai vohveli. Kaikki ovat herkullisia ja tarjoavat käyttäjälle välittömän katsauksen datasettiin.
+
+## 🚀 Haaste
+
+Kokeile luoda nämä herkulliset kaaviot [Charticulatorissa](https://charticulator.com).
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Kertaus ja itseopiskelu
+
+Joskus ei ole ilmeistä, milloin käyttää piirakka-, donitsi- tai vohvelikaaviota. Tässä muutamia artikkeleita aiheesta:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Tee tutkimusta löytääksesi lisää tietoa tästä hankalasta päätöksestä.
+## Tehtävä
+
+[Kokeile Excelissä](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/fi/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..221063dc
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Kokeile Excelissä
+
+## Ohjeet
+
+Tiesitkö, että voit luoda donitsi-, piirakka- ja vohvelikaavioita Excelissä? Valitsemasi tietoaineiston avulla voit luoda nämä kolme kaaviota suoraan Excel-taulukkoon.
+
+## Arviointikriteerit
+
+| Erinomainen | Riittävä | Parannettavaa |
+| ------------------------------------------------------ | ------------------------------------------------ | -------------------------------------------------- |
+| Excel-taulukko sisältää kaikki kolme kaaviota | Excel-taulukko sisältää kaksi kaaviota | Excel-taulukko sisältää vain yhden kaavion |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/12-visualization-relationships/README.md b/translations/fi/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..004ff182
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# Suhteiden visualisointi: Kaikki hunajasta 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Suhteiden visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Jatkaen tutkimuksemme luontoteemaa, tutustutaan mielenkiintoisiin visualisointeihin, jotka esittävät eri hunajatyyppeihin liittyviä suhteita Yhdysvaltain maatalousministeriön ([United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php)) tuottaman datasetin pohjalta.
+
+Tämä noin 600 kohteen datasetti näyttää hunajantuotannon monissa Yhdysvaltain osavaltioissa. Esimerkiksi voit tarkastella mehiläispesien määrää, tuottoa per pesä, kokonaismäärää, varastoja, hintaa per pauna ja hunajan tuotannon arvoa tietyssä osavaltiossa vuosina 1998–2012, yksi rivi per vuosi jokaiselle osavaltiolle.
+
+Olisi mielenkiintoista visualisoida suhde tietyn osavaltion vuosittaisen tuotannon ja esimerkiksi hunajan hinnan välillä kyseisessä osavaltiossa. Vaihtoehtoisesti voisit visualisoida osavaltioiden hunajan tuoton per pesä. Tämä ajanjakso kattaa tuhoisan 'CCD:n' eli 'Colony Collapse Disorderin', joka havaittiin ensimmäisen kerran vuonna 2006 (http://npic.orst.edu/envir/ccd.html), joten datasetti on merkityksellinen tutkittavaksi. 🐝
+
+## [Ennakkokysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Tässä oppitunnissa voit käyttää Seaborn-kirjastoa, jota olet käyttänyt aiemmin, visualisoidaksesi muuttujien välisiä suhteita. Erityisen mielenkiintoinen on Seabornin `relplot`-toiminto, joka mahdollistaa hajontakaavioiden ja viivakaavioiden nopean luomisen '[tilastollisten suhteiden](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)' visualisoimiseksi, mikä auttaa datatieteilijää ymmärtämään paremmin, miten muuttujat liittyvät toisiinsa.
+
+## Hajontakaaviot
+
+Käytä hajontakaaviota näyttääksesi, miten hunajan hinta on kehittynyt vuosittain osavaltioittain. Seabornin `relplot` ryhmittelee kätevästi osavaltioiden dataa ja näyttää datapisteet sekä kategoriselle että numeeriselle datalle.
+
+Aloitetaan datan ja Seabornin tuonnilla:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Huomaat, että hunajadatassa on useita mielenkiintoisia sarakkeita, kuten vuosi ja hinta per pauna. Tutkitaan tätä dataa ryhmiteltynä Yhdysvaltain osavaltioittain:
+
+| osavaltio | pesämäärä | tuotto/pesä | kokonaistuotanto | varastot | hinta/p | tuotantoarvo | vuosi |
+| --------- | --------- | ----------- | ---------------- | -------- | ------- | ------------ | ----- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Luo perushajontakaavio, joka näyttää hunajan hinnan ja sen alkuperäosavaltion välisen suhteen. Tee `y`-akselista tarpeeksi korkea, jotta kaikki osavaltiot näkyvät:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Näytä nyt sama data hunajan värimaailmalla, joka havainnollistaa hinnan kehitystä vuosittain. Voit tehdä tämän lisäämällä 'hue'-parametrin, joka näyttää muutoksen vuosi vuodelta:
+
+> ✅ Lue lisää [Seabornin väripaleteista](https://seaborn.pydata.org/tutorial/color_palettes.html) - kokeile kaunista sateenkaarivärimaailmaa!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Tämän värimaailman muutoksen avulla näet selvästi, että hunajan hinta per pauna on noussut vuosien varrella. Jos tarkastelet datan näytesarjaa varmistaaksesi (valitse esimerkiksi Arizona), näet hintojen nousun vuosi vuodelta, muutamia poikkeuksia lukuun ottamatta:
+
+| osavaltio | pesämäärä | tuotto/pesä | kokonaistuotanto | varastot | hinta/p | tuotantoarvo | vuosi |
+| --------- | --------- | ----------- | ---------------- | -------- | ------- | ------------ | ----- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Toinen tapa visualisoida tätä kehitystä on käyttää kokoa värin sijaan. Värisokeille käyttäjille tämä voi olla parempi vaihtoehto. Muokkaa visualisointiasi näyttämään hinnan nousu pisteen koon kasvuna:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Näet pisteiden koon kasvavan asteittain.
+
+
+
+Onko tämä yksinkertainen tapaus kysynnästä ja tarjonnasta? Ilmastonmuutoksen ja pesien romahtamisen kaltaisten tekijöiden vuoksi hunajaa on ehkä vähemmän saatavilla vuosi vuodelta, ja siksi hinta nousee?
+
+Tutkiaksemme korrelaatiota joidenkin tämän datasetin muuttujien välillä, tarkastellaan viivakaavioita.
+
+## Viivakaaviot
+
+Kysymys: Onko hunajan hinnassa per pauna selkeä nousu vuosi vuodelta? Tämä voidaan helposti havaita luomalla yksittäinen viivakaavio:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Vastaus: Kyllä, muutamia poikkeuksia lukuun ottamatta vuoden 2003 tienoilla:
+
+
+
+✅ Koska Seaborn yhdistää dataa yhdeksi viivaksi, se näyttää "useat mittaukset kussakin x-arvossa piirtämällä keskiarvon ja 95 %:n luottamusvälin keskiarvon ympärille". [Lähde](https://seaborn.pydata.org/tutorial/relational.html). Tämä aikaa vievä toiminto voidaan poistaa lisäämällä `ci=None`.
+
+Kysymys: No, vuonna 2003 näkyykö myös hunajan tarjonnassa piikki? Entä jos tarkastelet kokonaistuotantoa vuosi vuodelta?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Vastaus: Ei oikeastaan. Jos tarkastelet kokonaistuotantoa, se näyttää itse asiassa kasvaneen kyseisenä vuonna, vaikka yleisesti ottaen hunajan tuotantomäärä on laskussa näinä vuosina.
+
+Kysymys: Siinä tapauksessa, mikä olisi voinut aiheuttaa hunajan hinnan piikin vuoden 2003 tienoilla?
+
+Tämän selvittämiseksi voit tutkia facet grid -kaaviota.
+
+## Facet grid -kaaviot
+
+Facet grid -kaaviot ottavat yhden datasetin facetin (tässä tapauksessa voit valita 'vuoden', jotta vältetään liian monien facetien tuottaminen). Seaborn voi sitten tehdä kaavion jokaiselle facetille valituista x- ja y-koordinaateista helpottaakseen vertailua. Erottuuko vuosi 2003 tässä vertailussa?
+
+Luo facet grid jatkamalla `relplot`-toiminnon käyttöä, kuten [Seabornin dokumentaatiossa](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid) suositellaan.
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+Tässä visualisoinnissa voit verrata tuottoa per pesä ja pesien määrää vuosi vuodelta rinnakkain, sarakkeiden wrap-asetuksella 3:
+
+
+
+Tämän datasetin osalta mikään ei erityisesti erotu pesien määrän ja niiden tuoton osalta vuosi vuodelta ja osavaltioittain. Onko olemassa toinen tapa tarkastella korrelaatiota näiden kahden muuttujan välillä?
+
+## Kaksoisviivakaaviot
+
+Kokeile moniviivakaaviota asettamalla kaksi viivakaaviota päällekkäin, käyttämällä Seabornin 'despine'-toimintoa poistaaksesi niiden ylä- ja oikeat reunat, ja käyttämällä `ax.twinx`-toimintoa [Matplotlibista](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx mahdollistaa kaavion jakamaan x-akselin ja näyttämään kaksi y-akselia. Näytä tuotto per pesä ja pesien määrä päällekkäin:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Vaikka mikään ei erityisesti erotu vuoden 2003 tienoilla, tämä antaa meille mahdollisuuden päättää oppitunti hieman iloisemmalla nuotilla: vaikka pesien määrä on yleisesti laskussa, pesien määrä näyttää vakiintuvan, vaikka niiden tuotto per pesä on laskussa.
+
+Hyvä mehiläiset, jatkakaa!
+
+🐝❤️
+## 🚀 Haaste
+
+Tässä oppitunnissa opit lisää hajontakaavioiden ja viivakaavioiden käytöstä, mukaan lukien facet grid -kaaviot. Haasta itsesi luomaan facet grid -kaavio käyttäen eri datasettiä, ehkä jotain aiemmissa oppitunneissa käyttämääsi. Huomaa, kuinka kauan niiden luominen kestää ja kuinka sinun täytyy olla varovainen facetien määrän kanssa näitä tekniikoita käyttäessäsi.
+## [Jälkikysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Kertaus & Itseopiskelu
+
+Viivakaaviot voivat olla yksinkertaisia tai melko monimutkaisia. Lue hieman lisää [Seabornin dokumentaatiosta](https://seaborn.pydata.org/generated/seaborn.lineplot.html) eri tavoista, joilla voit rakentaa niitä. Yritä parantaa oppitunnissa luomiasi viivakaavioita dokumentaatiossa mainituilla muilla menetelmillä.
+## Tehtävä
+
+[Sukella mehiläispesään](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/fi/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..3754fe29
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Sukellus mehiläispesään
+
+## Ohjeet
+
+Tässä oppitunnissa aloitit tarkastelemaan mehiläisiin ja niiden hunajantuotantoon liittyvää datasettiä ajanjaksolta, jolloin mehiläispesäkuntien määrä väheni yleisesti. Tutki tätä datasettiä syvällisemmin ja luo muistikirja, joka kertoo tarinan mehiläispopulaation terveydestä osavaltioittain ja vuosittain. Löydätkö jotain mielenkiintoista tästä datasetistä?
+
+## Arviointikriteerit
+
+| Erinomainen | Riittävä | Parannusta tarvitaan |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| Muistikirja sisältää tarinan, jossa on vähintään kolme erilaista kaaviota, jotka esittävät datasetin eri näkökulmia osavaltioittain ja vuosittain | Muistikirjasta puuttuu yksi näistä elementeistä | Muistikirjasta puuttuu kaksi näistä elementeistä |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..876b24a9
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Merkityksellisten visualisointien luominen
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Merkitykselliset visualisoinnit - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+> "Jos kidutat dataa tarpeeksi kauan, se tunnustaa mitä tahansa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Yksi datatieteilijän perustaidoista on kyky luoda merkityksellinen datavisualisointi, joka auttaa vastaamaan kysymyksiin, joita sinulla saattaa olla. Ennen datan visualisointia sinun tulee varmistaa, että se on puhdistettu ja valmisteltu, kuten teit aiemmissa oppitunneissa. Tämän jälkeen voit alkaa päättää, miten data esitetään parhaiten.
+
+Tässä oppitunnissa tarkastellaan:
+
+1. Kuinka valita oikea kaaviotyyppi
+2. Kuinka välttää harhaanjohtavia kaavioita
+3. Kuinka käyttää värejä
+4. Kuinka muotoilla kaaviot luettavuuden parantamiseksi
+5. Kuinka rakentaa animoituja tai 3D-kaavioita
+6. Kuinka luoda luova visualisointi
+
+## [Ennakkokysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Valitse oikea kaaviotyyppi
+
+Aiemmissa oppitunneissa kokeilit erilaisten datavisualisointien luomista Matplotlibin ja Seabornin avulla. Yleisesti ottaen voit valita [oikeanlaisen kaavion](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) kysymyksen perusteella käyttämällä tätä taulukkoa:
+
+| Tarve: | Käytä: |
+| -------------------------- | ------------------------------ |
+| Näytä datan trendit ajan myötä | Viivakaavio |
+| Vertaa kategorioita | Pylväskaavio, piirakkakaavio |
+| Vertaa kokonaismääriä | Piirakkakaavio, pinottu pylväskaavio |
+| Näytä suhteet | Hajontakaavio, viivakaavio, facet, kaksoisviiva |
+| Näytä jakaumat | Hajontakaavio, histogrammi, laatikkokaavio |
+| Näytä osuudet | Piirakkakaavio, donitsikaavio, vohvelikaavio |
+
+> ✅ Datan rakenteesta riippuen saatat joutua muuntamaan sen tekstistä numeeriseksi, jotta kaavio tukee sitä.
+
+## Vältä harhaanjohtamista
+
+Vaikka datatieteilijä valitsisi oikean kaavion oikealle datalle, on monia tapoja esittää dataa harhaanjohtavasti, usein datan luotettavuuden kustannuksella. Harhaanjohtavia kaavioita ja infografiikoita löytyy runsaasti!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klikkaa yllä olevaa kuvaa nähdäksesi konferenssipuheen harhaanjohtavista kaavioista
+
+Tämä kaavio kääntää X-akselin näyttääkseen totuuden vastakohdan päivämäärän perusteella:
+
+
+
+[Tämä kaavio](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) on vielä harhaanjohtavampi, sillä katsojan huomio kiinnittyy oikealle ja hän saattaa päätellä, että COVID-tapaukset ovat vähentyneet eri maakunnissa ajan myötä. Todellisuudessa, jos tarkastelet päivämääriä, huomaat, että ne on järjestetty uudelleen antamaan harhaanjohtava laskeva trendi.
+
+
+
+Tämä tunnettu esimerkki käyttää värejä JA käännettyä Y-akselia harhauttamiseen: sen sijaan, että asekuolemat olisivat lisääntyneet asemyönteisen lainsäädännön jälkeen, katsoja saattaa erehtyä luulemaan päinvastaista.
+
+
+
+Tämä outo kaavio näyttää, kuinka mittasuhteita voidaan manipuloida, huvittavin seurauksin:
+
+
+
+Vertailu, joka ei ole vertailukelpoista, on toinen hämärä temppu. On olemassa [upea verkkosivusto](https://tylervigen.com/spurious-correlations), joka esittelee 'näennäisiä korrelaatioita', kuten Mainen avioeroprosentin ja margariinin kulutuksen välistä yhteyttä. Redditissä on myös ryhmä, joka kerää [huonoja datan käyttöesimerkkejä](https://www.reddit.com/r/dataisugly/top/?t=all).
+
+On tärkeää ymmärtää, kuinka helposti silmä voi tulla harhaanjohdetuksi huonoilla kaavioilla. Vaikka datatieteilijän tarkoitus olisi hyvä, huonon kaaviotyypin valinta, kuten piirakkakaavio, jossa on liian monta kategoriaa, voi olla harhaanjohtavaa.
+
+## Värit
+
+Edellä mainitussa 'Floridan aseväkivalta' -kaaviossa näit, kuinka värit voivat tuoda lisämerkityksen kaavioihin, erityisesti niihin, joita ei ole suunniteltu Matplotlibin ja Seabornin kaltaisten kirjastojen avulla, jotka sisältävät erilaisia tarkistettuja värikirjastoja ja -paletteja. Jos teet kaavion käsin, tutustu hieman [väriteoriaan](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Ole tietoinen, kun suunnittelet kaavioita, että saavutettavuus on tärkeä osa visualisointia. Jotkut käyttäjistäsi saattavat olla värisokeita – näkyykö kaaviosi hyvin näkövammaisille käyttäjille?
+
+Ole varovainen valitessasi värejä kaaviollesi, sillä värit voivat välittää merkityksiä, joita et ehkä tarkoittanut. 'Pinkit naiset' yllä olevassa 'pituus' -kaaviossa antavat selvästi 'naisellisen' merkityksen, joka lisää kaavion outoutta.
+
+Vaikka [värien merkitys](https://colormatters.com/color-symbolism/the-meanings-of-colors) voi vaihdella eri puolilla maailmaa ja muuttua sävyn mukaan, yleisesti ottaen värien merkitykset sisältävät:
+
+| Väri | Merkitys |
+| ------ | ------------------- |
+| punainen | voima |
+| sininen | luottamus, uskollisuus |
+| keltainen | onnellisuus, varovaisuus |
+| vihreä | ekologia, onni, kateus |
+| violetti | onnellisuus |
+| oranssi | eloisuus |
+
+Jos sinua pyydetään rakentamaan kaavio mukautetuilla väreillä, varmista, että kaaviosi ovat sekä saavutettavia että valitsemasi väri vastaa merkitystä, jonka haluat välittää.
+
+## Kaavioiden muotoilu luettavuuden parantamiseksi
+
+Kaaviot eivät ole merkityksellisiä, jos ne eivät ole luettavia! Käytä hetki kaavion leveyden ja korkeuden muotoiluun, jotta se skaalautuu hyvin datan kanssa. Jos yksi muuttuja (kuten kaikki 50 osavaltiota) täytyy näyttää, esitä ne pystysuunnassa Y-akselilla, jos mahdollista, jotta vältät vaakasuunnassa vieritettävän kaavion.
+
+Merkitse akselit, tarjoa selite tarvittaessa ja lisää työkaluja datan parempaan ymmärtämiseen.
+
+Jos datasi on tekstuaalista ja X-akselilla pitkää, voit kallistaa tekstiä paremman luettavuuden saavuttamiseksi. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) tarjoaa 3D-plottausta, jos datasi tukee sitä. Kehittyneitä datavisualisointeja voidaan tuottaa käyttämällä `mpl_toolkits.mplot3d`.
+
+
+
+## Animaatio ja 3D-kaavioiden näyttö
+
+Jotkut parhaista datavisualisoinneista nykyään ovat animoituja. Shirley Wu on tehnyt upeita visualisointeja D3:lla, kuten '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', jossa jokainen kukka on elokuvan visualisointi. Toinen esimerkki Guardianille on 'bussed out', interaktiivinen kokemus, joka yhdistää visualisointeja Greensockin ja D3:n kanssa sekä artikkelimuotoisen tarinankerronnan, joka näyttää, kuinka NYC käsittelee kodittomien ongelmaa kuljettamalla ihmisiä pois kaupungista.
+
+
+
+> "Bussed Out: How America Moves its Homeless" Guardianilta [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualisoinnit: Nadieh Bremer & Shirley Wu
+
+Vaikka tämä oppitunti ei riitä opettamaan näitä tehokkaita visualisointikirjastoja syvällisesti, kokeile D3:ta Vue.js-sovelluksessa käyttämällä kirjastoa, joka näyttää visualisoinnin kirjasta "Dangerous Liaisons" animoituna sosiaalisena verkostona.
+
+> "Les Liaisons Dangereuses" on kirjeromaanimuotoinen teos, eli romaani, joka esitetään kirjeiden sarjana. Kirjoitettu vuonna 1782 Choderlos de Laclosin toimesta, se kertoo kahden ranskalaisen aristokraatin, Vicomte de Valmontin ja Marquise de Merteuilin, moraalittomista sosiaalisista juonitteluista 1700-luvun lopulla. Molemmat kohtaavat lopulta tuhon, mutta eivät ennen kuin aiheuttavat suurta sosiaalista vahinkoa. Romaani etenee kirjeiden kautta, jotka on kirjoitettu eri ihmisille heidän piireissään, juonitellen kostoa tai yksinkertaisesti aiheuttaen ongelmia. Luo näiden kirjeiden visualisointi löytääksesi narratiivin keskeiset hahmot visuaalisesti.
+
+Toteutat verkkosovelluksen, joka näyttää animoidun näkymän tästä sosiaalisesta verkostosta. Se käyttää kirjastoa, joka on rakennettu luomaan [verkoston visualisointi](https://github.com/emiliorizzo/vue-d3-network) Vue.js:n ja D3:n avulla. Kun sovellus on käynnissä, voit siirtää solmuja näytöllä ja järjestellä dataa uudelleen.
+
+
+
+## Projekti: Luo kaavio, joka näyttää verkoston D3.js:n avulla
+
+> Tämän oppitunnin kansiossa on `solution`-kansio, josta löydät valmiin projektin viitteeksi.
+
+1. Seuraa README.md-tiedoston ohjeita aloituskansion juuresta. Varmista, että sinulla on NPM ja Node.js asennettuna koneellesi ennen projektin riippuvuuksien asentamista.
+
+2. Avaa `starter/src`-kansio. Löydät `assets`-kansion, jossa on .json-tiedosto, joka sisältää kaikki kirjeet romaanista, numeroituina, 'to' ja 'from' -merkinnöillä.
+
+3. Täydennä koodi tiedostossa `components/Nodes.vue`, jotta visualisointi toimii. Etsi metodi nimeltä `createLinks()` ja lisää seuraava sisäkkäinen silmukka.
+
+Käy läpi .json-objekti, jotta saat kirjeiden 'to' ja 'from' -datan ja rakenna `links`-objekti, jotta visualisointikirjasto voi käyttää sitä:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Käynnistä sovelluksesi terminaalista (npm run serve) ja nauti visualisoinnista!
+
+## 🚀 Haaste
+
+Tutki internetiä löytääksesi harhaanjohtavia visualisointeja. Kuinka tekijä harhauttaa käyttäjää, ja onko se tarkoituksellista? Yritä korjata visualisoinnit näyttämään, miltä niiden pitäisi näyttää.
+
+## [Jälkikysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Kertaus ja itseopiskelu
+
+Tässä muutamia artikkeleita harhaanjohtavista datavisualisoinneista:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Tutustu näihin mielenkiintoisiin visualisointeihin historiallisista aineistoista ja esineistä:
+
+https://handbook.pubpub.org/
+
+Lue tämä artikkeli siitä, kuinka animaatio voi parantaa visualisointeja:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Tehtävä
+
+[Rakenna oma mukautettu visualisointi](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai tulkintavirheistä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..b5e68a71
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Rakenna oma mukautettu visualisointi
+
+## Ohjeet
+
+Käytä tämän projektin koodiesimerkkiä luodaksesi sosiaalisen verkoston ja mallinna omia sosiaalisia vuorovaikutuksiasi. Voit kartoittaa sosiaalisen median käyttöäsi tai tehdä kaavion perheenjäsenistäsi. Luo mielenkiintoinen verkkosovellus, joka esittää ainutlaatuisen visualisoinnin sosiaalisesta verkostosta.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | --- |
+GitHub-repositorio sisältää koodin, joka toimii oikein (kokeile julkaista se staattisena verkkosovelluksena) ja siinä on kommentoitu README-tiedosto, joka selittää projektin | Repositorio ei toimi oikein tai sitä ei ole dokumentoitu hyvin | Repositorio ei toimi oikein eikä sitä ole dokumentoitu hyvin
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..a351d68d
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons -datavisualisointiprojekti
+
+Aloittaaksesi varmista, että sinulla on NPM ja Node asennettuna koneellesi. Asenna riippuvuudet (npm install) ja aja projekti paikallisesti (npm run serve):
+
+## Projektin asennus
+```
+npm install
+```
+
+### Kääntää ja päivittää automaattisesti kehitystä varten
+```
+npm run serve
+```
+
+### Kääntää ja minimoi tuotantokäyttöä varten
+```
+npm run build
+```
+
+### Tarkistaa ja korjaa tiedostot
+```
+npm run lint
+```
+
+### Mukauta asetuksia
+Katso [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..d1c1ba5f
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons - datavisualisointiprojekti
+
+Aloittaaksesi varmista, että sinulla on NPM ja Node asennettuna koneellesi. Asenna riippuvuudet (npm install) ja aja projekti paikallisesti (npm run serve):
+
+## Projektin asennus
+```
+npm install
+```
+
+### Kääntää ja päivittää automaattisesti kehitystä varten
+```
+npm run serve
+```
+
+### Kääntää ja minimoi tuotantokäyttöä varten
+```
+npm run build
+```
+
+### Tarkistaa ja korjaa tiedostot
+```
+npm run lint
+```
+
+### Mukauta asetuksia
+Katso [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/fi/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..a61cdb51
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,230 @@
+
+# Määrien visualisointi
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Määrien visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Tässä oppitunnissa tutustut siihen, miten voit käyttää joitakin R:n saatavilla olevia kirjastoja luodaksesi kiinnostavia visualisointeja, jotka liittyvät määrien käsitteeseen. Käyttämällä puhdistettua datasettiä Minnesotan linnuista voit oppia monia mielenkiintoisia asioita paikallisesta eläimistöstä.
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Tarkastele siipiväliä ggplot2:n avulla
+Erinomainen kirjasto erilaisten yksinkertaisten ja monimutkaisten kaavioiden ja diagrammien luomiseen on [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Yleisesti ottaen datan visualisointi näiden kirjastojen avulla sisältää seuraavat vaiheet: määritä, mitä osia dataframesta haluat käyttää, tee tarvittavat muunnokset datalle, määritä x- ja y-akselin arvot, päätä kaaviotyyppi ja näytä kaavio.
+
+`ggplot2` on järjestelmä, joka luo grafiikkaa deklaratiivisesti perustuen "The Grammar of Graphics" -menetelmään. [Grammar of Graphics](https://en.wikipedia.org/wiki/Ggplot2) on yleinen kaavioiden visualisointimenetelmä, joka jakaa kaaviot semanttisiin osiin, kuten skaaloihin ja kerroksiin. Toisin sanoen, `ggplot2` tekee yksinkertaisten ja monimutkaisten kaavioiden luomisesta univariantille tai multivariantille datalle helppoa vähäisellä koodilla, mikä tekee siitä suosituimman visualisointikirjaston R:ssä. Käyttäjä määrittää, miten muuttujat kartoitetaan visuaalisiin ominaisuuksiin, mitä graafisia elementtejä käytetään, ja `ggplot2` hoitaa loput.
+
+> ✅ Kaavio = Data + Esteettisyys + Geometria
+> - Data viittaa datasettiin
+> - Esteettisyys tarkoittaa tutkittavia muuttujia (x- ja y-muuttujat)
+> - Geometria viittaa kaaviotyyppiin (viivakaavio, pylväsdiagrammi jne.)
+
+Valitse paras geometria (kaaviotyyppi) datasi ja tarinan mukaan, jonka haluat kertoa kaavion avulla.
+
+> - Trendien analysointi: viiva, pylväs
+> - Arvojen vertailu: pylväs, palkki, piirakka, hajontakaavio
+> - Osien suhde kokonaisuuteen: piirakka
+> - Datan jakauman näyttäminen: hajontakaavio, palkki
+> - Arvojen välisten suhteiden näyttäminen: viiva, hajontakaavio, kupla
+
+✅ Voit myös tutustua tähän kuvaavaan [cheatsheetiin](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) ggplot2:lle.
+
+## Luo viivakaavio lintujen siipiväliarvoista
+
+Avaa R-konsoli ja tuo datasetti.
+> Huom: Datasetti on tallennettu tämän repositorion juureen `/data`-kansioon.
+
+Tuodaan datasetti ja tarkastellaan datan alkua (ensimmäiset 5 riviä).
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Datan alku sisältää sekoituksen tekstiä ja numeroita:
+
+| | Nimi | Tieteellinen nimi | Kategoria | Lahko | Heimo | Suku | Suojelustatus | MinPituus | MaxPituus | MinPaino | MaxPaino | MinSiipiväli | MaxSiipiväli |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Mustavatsainen viheltävä ankka | Dendrocygna autumnalis | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Ruostoviheltävä ankka | Dendrocygna bicolor | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Lumihanhi | Anser caerulescens | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Rossin hanhi | Anser rossii | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Iso valkoposkihanhi | Anser albifrons | Ankat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Aloitetaan piirtämällä osa numeerisesta datasta perusviivakaavion avulla. Oletetaan, että haluat tarkastella näiden mielenkiintoisten lintujen maksimaalista siipiväliä.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Tässä asennetaan `ggplot2`-kirjasto ja tuodaan se työtilaan komennolla `library("ggplot2")`. Kaavion piirtämiseen ggplotissa käytetään `ggplot()`-funktiota, jossa määritetään datasetti, x- ja y-muuttujat attribuuteiksi. Tässä tapauksessa käytetään `geom_line()`-funktiota, koska tavoitteena on piirtää viivakaavio.
+
+
+
+Mitä huomaat heti? Näyttää olevan ainakin yksi poikkeama - melko vaikuttava siipiväli! Yli 2000 senttimetrin siipiväli vastaa yli 20 metriä - onko Minnesotassa lentäviä pterosauruksia? Tutkitaan asiaa.
+
+Vaikka voisit tehdä nopean lajittelun Excelissä löytääksesi nämä poikkeamat, jotka ovat todennäköisesti kirjoitusvirheitä, jatka visualisointiprosessia työskentelemällä suoraan kaaviosta.
+
+Lisää x-akselille selitteet, jotka näyttävät, minkä tyyppisistä linnuista on kyse:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Määritämme kulman `theme`-osiossa ja määritämme x- ja y-akselin selitteet `xlab()`- ja `ylab()`-funktioilla. `ggtitle()` antaa kaaviolle nimen.
+
+
+
+Vaikka selitteiden kiertokulma on asetettu 45 asteeseen, niitä on silti liikaa luettavaksi. Kokeillaan toista strategiaa: merkitään vain poikkeamat ja asetetaan selitteet kaavion sisälle. Voit käyttää hajontakaaviota, jotta selitteille jää enemmän tilaa:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Mitä tässä tapahtuu? Käytit `geom_point()`-funktiota hajontapisteiden piirtämiseen. Tämän avulla lisäsit selitteet linnuille, joiden `MaxWingspan > 500`, ja piilotit x-akselin selitteet kaavion selkeyttämiseksi.
+
+Mitä huomaat?
+
+
+
+## Suodata dataasi
+
+Sekä valkopäämerikotka että preeriakotka, vaikka ovatkin todennäköisesti suuria lintuja, näyttävät olevan virheellisesti merkittyjä, ja niiden maksimaaliseen siipiväliin on lisätty ylimääräinen nolla. On epätodennäköistä, että kohtaat valkopäämerikotkan, jonka siipiväli on 25 metriä, mutta jos näin käy, kerro meille! Luodaan uusi dataframe ilman näitä kahta poikkeamaa:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Loimme uuden dataframen `birds_filtered` ja piirsimme hajontakaavion. Suodattamalla poikkeamat datasi on nyt yhtenäisempää ja ymmärrettävämpää.
+
+
+
+Nyt kun meillä on puhtaampi datasetti ainakin siipivälin osalta, tutkitaan lisää näitä lintuja.
+
+Vaikka viiva- ja hajontakaaviot voivat näyttää tietoa datan arvoista ja niiden jakaumista, haluamme pohtia datasetin sisältämiä arvoja. Voisit luoda visualisointeja vastataksesi seuraaviin kysymyksiin määristä:
+
+> Kuinka monta lintukategoriaa on olemassa, ja mikä on niiden lukumäärä?
+> Kuinka monta lintua on sukupuuttoon kuolleita, uhanalaisia, harvinaisia tai yleisiä?
+> Kuinka monta eri sukua ja lahkoa on Linnaeuksen terminologian mukaan?
+## Tutki pylväsdiagrammeja
+
+Pylväsdiagrammit ovat käytännöllisiä, kun haluat näyttää datan ryhmittelyjä. Tutkitaan datasetin lintukategorioita ja katsotaan, mikä on yleisin lukumäärän perusteella.
+Luodaan pylväsdiagrammi suodatetusta datasta.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+Seuraavassa koodissa asennetaan [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8)- ja [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0)-kirjastot, jotka auttavat datan käsittelyssä ja ryhmittelyssä pinotun pylväsdiagrammin piirtämiseksi. Ensin ryhmitellään data lintujen `Category`-sarakkeen mukaan ja tiivistetään sarakkeet `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Sitten piirretään pylväsdiagrammi `ggplot2`-kirjaston avulla ja määritetään eri kategorioiden värit ja selitteet.
+
+
+
+Tämä pylväsdiagrammi on kuitenkin vaikeasti luettavissa, koska siinä on liikaa ryhmittelemätöntä dataa. Sinun täytyy valita vain data, jonka haluat piirtää, joten tarkastellaan lintujen pituutta kategorian perusteella.
+
+Suodata dataasi sisältämään vain lintujen kategoriat.
+
+Koska kategorioita on paljon, voit näyttää tämän kaavion pystysuunnassa ja säätää sen korkeutta, jotta kaikki data mahtuu mukaan:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Ensin lasketaan `Category`-sarakkeen uniikit arvot ja lajitellaan ne uuteen dataframeen `birds_count`. Tämä lajiteltu data järjestetään samalle tasolle, jotta se piirretään järjestyksessä. Käyttämällä `ggplot2`-kirjastoa piirretään data pylväsdiagrammiin. `coord_flip()` piirtää vaakapalkit.
+
+
+
+Tämä pylväsdiagrammi näyttää hyvän näkymän lintujen lukumäärästä kussakin kategoriassa. Silmänräpäyksessä näet, että suurin osa tämän alueen linnuista kuuluu Ankat/hanhet/vesilinnut-kategoriaan. Minnesota on "10 000 järven maa", joten tämä ei ole yllättävää!
+
+✅ Kokeile joitakin muita laskentoja tästä datasetistä. Yllättääkö jokin sinut?
+
+## Datan vertailu
+
+Voit kokeilla eri ryhmitellyn datan vertailuja luomalla uusia akseleita. Kokeile vertailua lintujen maksimaalisen pituuden perusteella kategorian mukaan:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Ryhmämme `birds_filtered`-datan `Category`-sarakkeen mukaan ja piirrämme pylväsdiagrammin.
+
+
+
+Tässä ei ole mitään yllättävää: kolibrit ovat pienimpiä maksimaalisen pituuden osalta verrattuna pelikaaniin tai hanhiin. On hyvä, kun data on loogista!
+
+Voit luoda mielenkiintoisempia pylväsdiagrammeja päällekkäistämällä dataa. Päällekkäistetään minimipituus ja maksimipituus tiettyyn lintukategoriaan:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Haaste
+
+Tämä lintudatasetti tarjoaa runsaasti tietoa eri lintutyypeistä tietyssä ekosysteemissä. Etsi internetistä muita lintuihin liittyviä datasettiä. Harjoittele kaavioiden ja diagrammien luomista näistä linnuista löytääksesi faktoja, joita et tiennyt.
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Kertaus ja itseopiskelu
+
+Tämä ensimmäinen oppitunti on antanut sinulle tietoa siitä, miten käyttää `ggplot2`:ta määrien visualisointiin. Tutki muita tapoja työskennellä datasetin kanssa visualisointia varten. Etsi ja tutki datasettiä, joita voisit visualisoida muilla kirjastoilla, kuten [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) ja [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Tehtävä
+[Viivat, hajonnat ja palkit](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/fi/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..01627fa1
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Viivat, Hajontakaaviot ja Pylväät
+
+## Ohjeet
+
+Tässä oppitunnissa käytit viivakaavioita, hajontakaavioita ja pylväsdiagrammeja esitelläksesi mielenkiintoisia faktoja tästä datasetistä. Tässä tehtävässä syvenny datasettiin löytääksesi faktan tietystä lintulajista. Esimerkiksi, luo skripti, joka visualisoi kaiken mielenkiintoisen datan, jonka voit löytää lumihanhiin liittyen. Käytä yllä mainittuja kolmea kaaviotyyppiä kertomaan tarina muistikirjassasi.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannusta tarvitaan
+--- | --- | -- |
+Skripti sisältää hyvät merkinnät, vahvan tarinankerronnan ja houkuttelevat kaaviot | Skripti puuttuu yhdestä näistä elementeistä | Skripti puuttuu kahdesta näistä elementeistä
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/fi/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..f88387ee
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,184 @@
+
+# Visualisoi jakaumia
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Jakaumien visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Edellisessä oppitunnissa opit mielenkiintoisia asioita Minnesotan lintudatasta. Löysit virheellisiä tietoja visualisoimalla poikkeamia ja tarkastelit lintukategorioiden eroja niiden maksimipituuden perusteella.
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Tutki lintudataa
+
+Toinen tapa tutkia dataa on tarkastella sen jakaumaa eli sitä, miten data on järjestetty akselilla. Ehkä haluaisit esimerkiksi oppia, miten tämän datasetin lintujen maksimisiipiväli tai maksimikehon massa jakautuu yleisesti.
+
+Tutkitaanpa joitakin faktoja tämän datasetin jakaumista. Tuo `ggplot2` ja tietokanta R-konsoliisi. Poista poikkeamat tietokannasta samalla tavalla kuin edellisessä aiheessa.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Nimi | TieteellinenNimi | Kategoria | Lahko | Heimo | Suku | Suojelustatus | MinPituus | MaxPituus | MinKehonMassa | MaxKehonMassa | MinSiipiväli | MaxSiipiväli |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ------------: | ------------: | -----------: | -----------: |
+| 0 | Mustavatsaviheltäjäsorsa | Dendrocygna autumnalis | Sorsat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Ruostoviheltäjäsorsa | Dendrocygna bicolor | Sorsat/hanhet/vesilinnut | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Lumihanhi | Anser caerulescens | Sorsat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Rossin hanhi | Anser rossii | Sorsat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Tundrahanhi | Anser albifrons | Sorsat/hanhet/vesilinnut | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Yleisesti ottaen voit nopeasti tarkastella datan jakaumaa käyttämällä hajontakaaviota, kuten teimme edellisessä oppitunnissa:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Tämä antaa yleiskuvan kehon pituuden jakaumasta lintulahkoittain, mutta se ei ole paras tapa esittää todellisia jakaumia. Tätä tehtävää varten käytetään yleensä histogrammia.
+
+## Työskentely histogrammien kanssa
+
+`ggplot2` tarjoaa erinomaisia tapoja visualisoida datan jakaumia histogrammien avulla. Tämä kaaviotyyppi muistuttaa pylväsdiagrammia, jossa jakauma näkyy pylväiden nousuina ja laskuina. Histogrammin luomiseen tarvitset numeerista dataa. Histogrammin luomiseksi voit piirtää kaavion määrittämällä tyypiksi 'hist' histogrammia varten. Tämä kaavio näyttää MaxBodyMass-jakauman koko datasetin numeerisen datan osalta. Jakamalla data pienempiin osiin (binseihin) se voi näyttää datan arvojen jakauman:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Kuten näet, suurin osa tämän datasetin yli 400 linnusta kuuluu alle 2000:n Max Body Mass -alueeseen. Saat lisää tietoa datasta muuttamalla `bins`-parametrin suuremmaksi, esimerkiksi 30:ksi:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Tämä kaavio näyttää jakauman hieman tarkemmin. Vähemmän vasemmalle vinoutunut kaavio voidaan luoda varmistamalla, että valitset vain tietyn alueen sisällä olevan datan:
+
+Suodata dataa saadaksesi vain ne linnut, joiden kehon massa on alle 60, ja näytä 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Kokeile muita suodattimia ja datapisteitä. Näyttääksesi datan koko jakauman, poista `['MaxBodyMass']`-suodatin ja näytä nimettyjä jakaumia.
+
+Histogrammi tarjoaa myös mukavia väri- ja nimikointiparannuksia, joita voit kokeilla:
+
+Luo 2D-histogrammi vertaillaksesi kahden jakauman välistä suhdetta. Verrataan `MaxBodyMass` ja `MaxLength`. `ggplot2` tarjoaa sisäänrakennetun tavan näyttää yhtymäkohdat kirkkaampien värien avulla:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Näyttää siltä, että näiden kahden elementin välillä on odotettu korrelaatio odotetun akselin mukaisesti, ja yksi erityisen vahva yhtymäkohta:
+
+
+
+Histogrammit toimivat oletuksena hyvin numeeriselle datalle. Entä jos haluat nähdä jakaumia tekstidatan perusteella?
+## Tutki datasettiä jakaumien osalta tekstidatan avulla
+
+Tämä datasetti sisältää myös hyvää tietoa lintukategoriasta sekä niiden suvusta, lajista ja heimosta sekä suojelustatuksesta. Tutkitaanpa tätä suojelustatustietoa. Mikä on lintujen jakauma niiden suojelustatuksen mukaan?
+
+> ✅ Datasetissä käytetään useita lyhenteitä kuvaamaan suojelustatusta. Nämä lyhenteet tulevat [IUCN:n uhanalaisuusluokituksista](https://www.iucnredlist.org/), joka luokittelee lajien tilaa.
+>
+> - CR: Äärimmäisen uhanalainen
+> - EN: Erittäin uhanalainen
+> - EX: Sukupuuttoon kuollut
+> - LC: Elinvoimainen
+> - NT: Silmälläpidettävä
+> - VU: Vaarantunut
+
+Nämä ovat tekstipohjaisia arvoja, joten sinun täytyy tehdä muunnos histogrammin luomiseksi. Käytä filteredBirds-dataframea ja näytä sen suojelustatus yhdessä minimisiipivälin kanssa. Mitä huomaat?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Näyttää siltä, ettei minimisiipivälin ja suojelustatuksen välillä ole selvää korrelaatiota. Testaa datasetin muita elementtejä tällä menetelmällä. Voit kokeilla myös erilaisia suodattimia. Löydätkö mitään korrelaatiota?
+
+## Tiheyskäyrät
+
+Olet ehkä huomannut, että tähän mennessä tarkastellut histogrammit ovat "askelmaisia" eivätkä virtaa tasaisesti kaarena. Näyttääksesi tasaisemman tiheyskäyrän voit kokeilla tiheyskäyrää.
+
+Työskennellään nyt tiheyskäyrien parissa!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Näet, kuinka käyrä muistuttaa aiempaa minimisiipivälin kaaviota; se on vain hieman tasaisempi. Jos haluat tarkastella uudelleen sitä epätasaista MaxBodyMass-käyrää, jonka loit toisessa kaaviossa, voit tasoittaa sen hyvin luomalla sen uudelleen tällä menetelmällä:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Jos haluat tasaisen, mutta ei liian tasaisen käyrän, muokkaa `adjust`-parametria:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Lue tämän kaaviotyypin käytettävissä olevista parametreista ja kokeile!
+
+Tämä kaaviotyyppi tarjoaa kauniita ja selittäviä visualisointeja. Esimerkiksi muutamalla koodirivillä voit näyttää lintulahkojen maksimikehon massan tiheyden:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Haaste
+
+Histogrammit ovat kehittyneempiä kaaviotyyppejä kuin perushajontakaaviot, pylväsdiagrammit tai viivakaaviot. Etsi internetistä hyviä esimerkkejä histogrammien käytöstä. Miten niitä käytetään, mitä ne osoittavat ja millä aloilla tai tutkimusalueilla niitä yleensä käytetään?
+
+## [Jälkiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Kertaus ja itseopiskelu
+
+Tässä oppitunnissa käytit `ggplot2`:ta ja aloitit kehittyneempien kaavioiden luomisen. Tee tutkimusta `geom_density_2d()`-funktiosta, joka on "jatkuva todennäköisyystiheyskäyrä yhdessä tai useammassa ulottuvuudessa". Lue [dokumentaatio](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) ymmärtääksesi, miten se toimii.
+
+## Tehtävä
+
+[Sovella taitojasi](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/fi/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..77b0d63e
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Käytä taitojasi
+
+## Ohjeet
+
+Tähän mennessä olet työskennellyt Minnesotan lintudatan parissa selvittääksesi tietoa lintujen määristä ja populaatiotiheydestä. Harjoittele näiden tekniikoiden soveltamista kokeilemalla toista datasettiä, esimerkiksi [Kaggle](https://www.kaggle.com/) -sivustolta. Luo R-skripti, joka kertoo tarinan tästä datasetistä, ja muista käyttää histogrammeja sen käsittelyssä.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Skripti sisältää merkintöjä datasetistä, mukaan lukien sen lähde, ja käyttää vähintään 5 histogrammia datan faktojen löytämiseen. | Skripti sisältää puutteellisia merkintöjä tai siinä on virheitä. | Skripti ei sisällä merkintöjä ja siinä on virheitä.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/fi/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..b300dc88
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,198 @@
+
+# Visualisoi osuuksia
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Osuuksien visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Tässä oppitunnissa käytät luontoon keskittyvää datasettiä visualisoidaksesi osuuksia, kuten kuinka monta erilaista sienityyppiä esiintyy datasetissä, joka käsittelee sieniä. Tutustutaan näihin kiehtoviin sieniin käyttämällä Audubonin lähdedataa, joka sisältää tietoja 23 kiduksellisen sienen lajista Agaricus- ja Lepiota-heimoista. Kokeilet herkullisia visualisointeja, kuten:
+
+- Piirakkakaavioita 🥧
+- Donitsikaavioita 🍩
+- Vohvelikaavioita 🧇
+
+> 💡 Microsoft Researchin [Charticulator](https://charticulator.com) on erittäin mielenkiintoinen projekti, joka tarjoaa ilmaisen vedä ja pudota -käyttöliittymän datavisualisointeihin. Yhdessä heidän tutoriaaleistaan käytetään myös tätä sienidatasettiä! Voit siis tutkia dataa ja oppia kirjaston käytön samanaikaisesti: [Charticulator-tutoriaali](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Tutustu sieniin 🍄
+
+Sienet ovat erittäin mielenkiintoisia. Tuodaan datasetti niiden tutkimiseksi:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Taulukko tulostetaan, ja siinä on loistavaa dataa analysoitavaksi:
+
+
+| luokka | lakin muoto | lakin pinta | lakin väri | mustelmat | haju | kidusten kiinnitys | kidusten väli | kidusten koko | kidusten väri | jalan muoto | jalan juuri | jalan pinta renkaan yläpuolella | jalan pinta renkaan alapuolella | jalan väri renkaan yläpuolella | jalan väri renkaan alapuolella | verhon tyyppi | verhon väri | renkaiden määrä | renkaan tyyppi | itiöiden väri | populaatio | elinympäristö |
+| --------- | ----------- | ----------- | ---------- | --------- | ------- | ------------------ | ------------- | ------------- | ------------- | ----------- | ---------- | ------------------------------ | ------------------------------ | ------------------------------ | ------------------------------ | ------------- | ---------- | --------------- | ------------- | ------------- | ---------- | ------------- |
+| Myrkyllinen | Kupera | Sileä | Ruskea | Mustelmat | Pistävä | Vapaa | Tiivis | Kapea | Musta | Laajeneva | Tasainen | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Musta | Hajallaan | Kaupunki |
+| Syötävä | Kupera | Sileä | Keltainen | Mustelmat | Manteli | Vapaa | Tiivis | Leveä | Musta | Laajeneva | Nuija | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Ruskea | Lukuisia | Ruohikko |
+| Syötävä | Kellomainen | Sileä | Valkoinen | Mustelmat | Anis | Vapaa | Tiivis | Leveä | Ruskea | Laajeneva | Nuija | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Ruskea | Lukuisia | Niitty |
+| Myrkyllinen | Kupera | Suomuinen | Valkoinen | Mustelmat | Pistävä | Vapaa | Tiivis | Kapea | Ruskea | Laajeneva | Tasainen | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Musta | Hajallaan | Kaupunki |
+| Syötävä | Kupera | Sileä | Vihreä | Ei mustelmia | Ei hajua | Vapaa | Ahdas | Leveä | Musta | Kapeneva | Tasainen | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Häviävä | Ruskea | Runsas | Ruohikko |
+| Syötävä | Kupera | Suomuinen | Keltainen | Mustelmat | Manteli | Vapaa | Tiivis | Leveä | Ruskea | Laajeneva | Nuija | Sileä | Sileä | Valkoinen | Valkoinen | Osittainen | Valkoinen | Yksi | Riippuva | Musta | Lukuisia | Ruohikko |
+
+Heti huomaat, että kaikki data on tekstimuotoista. Sinun täytyy muuntaa tämä data, jotta voit käyttää sitä kaaviossa. Suurin osa datasta on itse asiassa esitetty objektina:
+
+```r
+names(mushrooms)
+```
+
+Tulostus näyttää tältä:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Muunna 'luokka'-sarake kategorioiksi:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Kun tulostat sienidatan, näet, että se on ryhmitelty kategorioihin myrkyllisten/syötävien luokkien mukaan:
+```r
+View(grouped)
+```
+
+| luokka | määrä |
+| --------- | --------- |
+| Syötävä | 4208 |
+| Myrkyllinen | 3916 |
+
+Jos noudatat tämän taulukon järjestystä luodessasi luokkakategorioiden tunnisteita, voit rakentaa piirakkakaavion.
+
+## Piirakka!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voila, piirakkakaavio, joka näyttää tämän datan osuudet näiden kahden sieniluokan mukaan. On erittäin tärkeää saada tunnisteiden järjestys oikein, erityisesti tässä, joten varmista tunnisteiden järjestys ennen kaavion rakentamista!
+
+
+
+## Donitsit!
+
+Hieman visuaalisesti kiinnostavampi piirakkakaavio on donitsikaavio, joka on piirakkakaavio, jossa on reikä keskellä. Tarkastellaan dataa tällä menetelmällä.
+
+Tutustu sienien eri elinympäristöihin:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Tulostus näyttää tältä:
+| elinympäristö | määrä |
+| --------- | --------- |
+| Ruohikko | 2148 |
+| Lehdet | 832 |
+| Niityt | 292 |
+| Polut | 1144 |
+| Kaupunki | 368 |
+| Jäte | 192 |
+| Puu | 3148 |
+
+Tässä ryhmitellään data elinympäristön mukaan. Niitä on 7, joten käytä niitä tunnisteina donitsikaaviossa:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Tämä koodi käyttää kahta kirjastoa - ggplot2 ja webr. Käyttämällä webr-kirjaston PieDonut-funktiota voimme helposti luoda donitsikaavion!
+
+Donitsikaavioita R:ssä voidaan tehdä myös pelkästään ggplot2-kirjastolla. Voit oppia lisää siitä [täältä](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) ja kokeilla itse.
+
+Kun tiedät, miten ryhmitellä dataa ja esittää se piirakkana tai donitsina, voit tutkia muita kaaviotyyppejä. Kokeile vohvelikaaviota, joka on vain erilainen tapa tutkia määriä.
+
+## Vohvelit!
+
+'Vohveli'-tyyppinen kaavio on erilainen tapa visualisoida määriä 2D-ruudukon neliöinä. Kokeile visualisoida eri sienilakkien värien määriä tässä datasetissä. Tätä varten sinun täytyy asentaa apukirjasto nimeltä [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) ja käyttää sitä visualisoinnin luomiseen:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Valitse segmentti datastasi ryhmittelyä varten:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Luo vohvelikaavio luomalla tunnisteet ja ryhmittelemällä data:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Vohvelikaaviota käyttämällä voit selkeästi nähdä sienilakkien värien osuudet tässä datasetissä. Mielenkiintoista on, että on paljon vihreälakkisia sieniä!
+
+
+
+Tässä oppitunnissa opit kolme tapaa visualisoida osuuksia. Ensin sinun täytyy ryhmitellä data kategorioihin ja sitten päättää, mikä on paras tapa esittää data - piirakka, donitsi tai vohveli. Kaikki ovat herkullisia ja tarjoavat käyttäjälle välittömän katsauksen datasettiin.
+
+## 🚀 Haaste
+
+Kokeile luoda nämä herkulliset kaaviot uudelleen [Charticulatorissa](https://charticulator.com).
+## [Jälkiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Kertaus & Itseopiskelu
+
+Joskus ei ole selvää, milloin käyttää piirakka-, donitsi- tai vohvelikaaviota. Tässä muutamia artikkeleita aiheesta:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Tee tutkimusta löytääksesi lisää tietoa tästä hankalasta päätöksestä.
+
+## Tehtävä
+
+[Kokeile Excelissä](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/fi/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..2b42d544
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,179 @@
+
+# Visualisoi suhteita: Kaikki hunajasta 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Suhteiden visualisointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Jatkaen tutkimuksemme luontoteemaa, tutustutaan mielenkiintoisiin tapoihin visualisoida eri hunajatyyppeihin liittyviä suhteita Yhdysvaltain maatalousministeriön ([United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php)) tuottaman aineiston pohjalta.
+
+Tämä noin 600 rivin datasetti kuvaa hunajantuotantoa useissa Yhdysvaltain osavaltioissa. Esimerkiksi voit tarkastella mehiläispesien määrää, tuottoa per pesä, kokonaistuotantoa, varastoja, hintaa per pauna ja hunajan arvoa osavaltioittain vuosina 1998–2012, yksi rivi per vuosi ja osavaltio.
+
+Olisi mielenkiintoista visualisoida suhde tietyn osavaltion vuosituotannon ja esimerkiksi hunajan hinnan välillä kyseisessä osavaltiossa. Vaihtoehtoisesti voisit visualisoida osavaltioiden hunajantuoton per pesä. Tämä aikaväli kattaa myös tuhoisan 'CCD' eli 'Colony Collapse Disorder' -ilmiön, joka havaittiin ensimmäisen kerran vuonna 2006 (http://npic.orst.edu/envir/ccd.html), joten datasetti on erityisen merkityksellinen. 🐝
+
+## [Esiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Tässä oppitunnissa voit käyttää ggplot2-kirjastoa, jota olet käyttänyt aiemminkin, visualisoidaksesi muuttujien välisiä suhteita. Erityisen kiinnostavaa on käyttää ggplot2:n `geom_point`- ja `qplot`-toimintoja, jotka mahdollistavat hajontakaavioiden ja viivakaavioiden nopean luomisen. Näiden avulla data-analyytikko voi paremmin ymmärtää, miten muuttujat liittyvät toisiinsa. Lisätietoa löydät [täältä](https://ggplot2.tidyverse.org/).
+
+## Hajontakaaviot
+
+Käytä hajontakaaviota näyttääksesi, miten hunajan hinta on kehittynyt vuosittain osavaltioittain. ggplot2:n `ggplot` ja `geom_point` ryhmittelevät osavaltioiden tiedot kätevästi ja näyttävät datapisteet sekä kategoriselle että numeeriselle datalle.
+
+Aloitetaan tuomalla data ja Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Huomaat, että hunajadatasetissä on useita mielenkiintoisia sarakkeita, kuten vuosi ja hinta per pauna. Tutkitaan tätä dataa ryhmiteltynä Yhdysvaltain osavaltioiden mukaan:
+
+| osavaltio | pesämäärä | tuotto/pesä | kokonaistuotanto | varastot | hinta/pauna | tuotannon arvo | vuosi |
+| --------- | --------- | ----------- | ---------------- | -------- | ----------- | -------------- | ----- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 | 22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Luo perushajontakaavio, joka näyttää suhteen hunajan hinnan ja sen alkuperäosavaltion välillä. Aseta `y`-akseli tarpeeksi korkeaksi, jotta kaikki osavaltiot näkyvät:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Näytä nyt sama data hunajan värimaailmalla, joka havainnollistaa hinnan kehitystä vuosien varrella. Voit tehdä tämän lisäämällä 'scale_color_gradientn'-parametrin, joka näyttää muutoksen vuosi vuodelta:
+
+> ✅ Lue lisää [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) -toiminnosta ja kokeile kaunista sateenkaarivärimaailmaa!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Tämän värimaailman avulla näet selvästi, että hunajan hinta per pauna on selvästi noussut vuosien varrella. Jos tarkastelet esimerkiksi Arizonan osavaltiota, voit havaita hintojen nousun vuosi vuodelta, muutamia poikkeuksia lukuun ottamatta:
+
+| osavaltio | pesämäärä | tuotto/pesä | kokonaistuotanto | varastot | hinta/pauna | tuotannon arvo | vuosi |
+| --------- | --------- | ----------- | ---------------- | -------- | ----------- | -------------- | ----- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Toinen tapa visualisoida tätä kehitystä on käyttää värin sijasta kokoa. Tämä voi olla parempi vaihtoehto värisokeille käyttäjille. Muokkaa visualisointiasi niin, että hinnan nousu näkyy pisteen koon kasvuna:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Näet pisteiden koon kasvavan vähitellen.
+
+
+
+Onko kyseessä yksinkertainen kysynnän ja tarjonnan laki? Ilmastonmuutoksen ja mehiläispesien romahtamisen vuoksi onko hunajaa vuosi vuodelta vähemmän saatavilla, mikä nostaa hintaa?
+
+Tutkitaan korrelaatiota joidenkin muuttujien välillä viivakaavioiden avulla.
+
+## Viivakaaviot
+
+Kysymys: Onko hunajan hinnassa selkeä nousu vuosi vuodelta? Tämä on helpointa havaita luomalla yksittäinen viivakaavio:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Vastaus: Kyllä, muutamia poikkeuksia lukuun ottamatta, kuten vuonna 2003:
+
+
+
+Kysymys: Näkyykö vuonna 2003 myös piikki hunajan tarjonnassa? Entä jos tarkastelet kokonaistuotantoa vuosi vuodelta?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Vastaus: Ei oikeastaan. Jos tarkastelet kokonaistuotantoa, se näyttää itse asiassa kasvaneen kyseisenä vuonna, vaikka yleisesti ottaen hunajantuotanto on ollut laskussa näinä vuosina.
+
+Kysymys: Mikä sitten olisi voinut aiheuttaa hunajan hinnan piikin vuonna 2003?
+
+Tämän selvittämiseksi voit käyttää facet grid -kaaviota.
+
+## Facet grid -kaaviot
+
+Facet grid -kaaviot ottavat yhden datasetin osa-alueen (tässä tapauksessa 'vuosi', jotta vältetään liian monien kaavioiden tuottaminen). Seaborn voi sitten luoda kaavion jokaiselle osa-alueelle valituilla x- ja y-koordinaateilla, mikä helpottaa visuaalista vertailua. Erottuuko vuosi 2003 tässä vertailussa?
+
+Luo facet grid käyttämällä `facet_wrap`-toimintoa, kuten [ggplot2:n dokumentaatiossa](https://ggplot2.tidyverse.org/reference/facet_wrap.html) suositellaan.
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+Tässä visualisoinnissa voit verrata tuottoa per pesä ja pesien määrää vuosi vuodelta rinnakkain, sarakkeiden määrän ollessa 3:
+
+
+
+Tässä datasetissä mikään ei erityisesti erotu pesien määrän ja niiden tuoton osalta vuosi vuodelta ja osavaltioittain. Onko olemassa jokin toinen tapa löytää korrelaatio näiden kahden muuttujan välillä?
+
+## Kaksoisviivakaaviot
+
+Kokeile moniviivakaaviota piirtämällä kaksi viivakaaviota päällekkäin käyttäen R:n `par`- ja `plot`-toimintoja. Piirretään vuosi x-akselille ja näytetään kaksi y-akselia. Näytä tuotto per pesä ja pesien määrä päällekkäin:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Vaikka mikään ei erityisesti erotu vuoden 2003 kohdalla, tämä antaa meille mahdollisuuden päättää oppitunti hieman positiivisemmalla nuotilla: vaikka pesien määrä on yleisesti ottaen laskussa, niiden määrä näyttää vakiintuvan, vaikka tuotto per pesä onkin laskussa.
+
+Hyvä mehiläiset, jatkakaa samaan malliin!
+
+🐝❤️
+## 🚀 Haaste
+
+Tässä oppitunnissa opit lisää hajontakaavioiden ja viivaruudukkojen, kuten facet grid -kaavioiden, käytöstä. Haasta itsesi luomaan facet grid -kaavio eri datasetillä, ehkä sellaisella, jota käytit aiemmissa oppitunneissa. Huomaa, kuinka kauan niiden luominen kestää ja kuinka tarkkana sinun täytyy olla ruutujen määrän kanssa.
+
+## [Jälkiluennon kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Kertaus ja itseopiskelu
+
+Viivakaaviot voivat olla yksinkertaisia tai melko monimutkaisia. Lue lisää [ggplot2-dokumentaatiosta](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) eri tavoista rakentaa niitä. Yritä parantaa tämän oppitunnin aikana luomiasi viivakaavioita dokumentaatiossa mainituilla muilla menetelmillä.
+
+## Tehtävä
+
+[Sukella mehiläispesään](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/fi/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..7807ca19
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Merkityksellisten visualisointien luominen
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Merkitykselliset visualisoinnit - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+> "Jos kidutat dataa tarpeeksi kauan, se tunnustaa mitä tahansa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Yksi datatieteilijän perustaidoista on kyky luoda merkityksellinen datavisualisointi, joka auttaa vastaamaan kysymyksiin. Ennen datan visualisointia on varmistettava, että data on puhdistettu ja valmisteltu, kuten teit aiemmissa oppitunneissa. Tämän jälkeen voit alkaa päättää, miten data esitetään parhaiten.
+
+Tässä oppitunnissa käsitellään:
+
+1. Kuinka valita oikea kaaviotyyppi
+2. Kuinka välttää harhaanjohtavia kaavioita
+3. Kuinka käyttää värejä oikein
+4. Kuinka muotoilla kaaviot luettavuuden parantamiseksi
+5. Kuinka rakentaa animoituja tai 3D-kaavioita
+6. Kuinka luoda luovia visualisointeja
+
+## [Esiluentakysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Valitse oikea kaaviotyyppi
+
+Aiemmissa oppitunneissa kokeilit erilaisten datavisualisointien rakentamista Matplotlibin ja Seabornin avulla. Yleisesti ottaen voit valita [oikeanlaisen kaavion](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) kysymyksesi perusteella seuraavan taulukon avulla:
+
+| Tarve: | Käytä: |
+| -------------------------- | ----------------------------- |
+| Näytä datan trendit ajan myötä | Viivakaavio |
+| Vertaile kategorioita | Pylväskaavio, piirakkakaavio |
+| Vertaile kokonaismääriä | Piirakkakaavio, pinottu pylväskaavio |
+| Näytä suhteita | Hajontakaavio, viivakaavio, facet, kaksoisviiva |
+| Näytä jakaumia | Hajontakaavio, histogrammi, laatikkokaavio |
+| Näytä osuuksia | Piirakkakaavio, donitsikaavio, vohvelikaavio |
+
+> ✅ Riippuen datasi rakenteesta, saatat joutua muuntamaan sen tekstistä numeeriseksi, jotta kaavio tukee sitä.
+
+## Vältä harhaanjohtavuutta
+
+Vaikka datatieteilijä valitsisi oikean kaavion oikealle datalle, on monia tapoja esittää dataa harhaanjohtavasti, usein datan kustannuksella. Harhaanjohtavia kaavioita ja infografiikoita on paljon!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klikkaa yllä olevaa kuvaa nähdäksesi konferenssipuheen harhaanjohtavista kaavioista
+
+Tässä kaaviossa X-akseli on käännetty, jotta totuus näyttäisi päinvastaiselta päivämäärien perusteella:
+
+
+
+[Tämä kaavio](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) on vielä harhaanjohtavampi, sillä katsojan huomio kiinnittyy oikealle, jolloin syntyy vaikutelma, että COVID-tapaukset ovat vähentyneet eri maakunnissa. Tarkemmin katsottuna päivämäärät on kuitenkin järjestetty uudelleen, jotta saadaan aikaan harhaanjohtava laskeva trendi.
+
+
+
+Tämä tunnettu esimerkki käyttää värejä JA käännettyä Y-akselia harhauttaakseen: sen sijaan, että asekuolemat olisivat lisääntyneet aselainsäädännön muutosten jälkeen, katsoja saadaan uskomaan päinvastaista:
+
+
+
+Tämä outo kaavio näyttää, kuinka mittasuhteita voidaan manipuloida huvittavin seurauksin:
+
+
+
+Vertailu, joka ei ole vertailukelpoista, on toinen kyseenalainen temppu. On olemassa [mahtava verkkosivusto](https://tylervigen.com/spurious-correlations), joka esittelee "näennäisiä korrelaatioita", kuten Mainen avioeroprosentin ja margariinin kulutuksen välisiä "faktoja". Redditissä on myös ryhmä, joka kerää [huonoja datan käyttötapoja](https://www.reddit.com/r/dataisugly/top/?t=all).
+
+On tärkeää ymmärtää, kuinka helposti silmä voi tulla harhaanjohdetuksi huonoilla kaavioilla. Vaikka datatieteilijän tarkoitus olisi hyvä, huonon kaaviotyypin, kuten liian monia kategorioita sisältävän piirakkakaavion, valinta voi olla harhaanjohtavaa.
+
+## Värit
+
+Yllä olevassa "Floridan aserikollisuus" -kaaviossa näit, kuinka värit voivat tuoda lisämerkityksen kaavioihin, erityisesti sellaisiin, joita ei ole suunniteltu käyttämällä esimerkiksi ggplot2- tai RColorBrewer-kirjastoja, jotka sisältävät valmiiksi testattuja värikirjastoja ja -paletteja. Jos teet kaavion käsin, tutustu hieman [väriteoriaan](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Ole tietoinen, että saavutettavuus on tärkeä osa visualisointia. Jotkut käyttäjistäsi saattavat olla värisokeita – näkyykö kaaviosi hyvin myös näkövammaisille käyttäjille?
+
+Ole varovainen valitessasi värejä kaavioosi, sillä värit voivat välittää merkityksiä, joita et ehkä tarkoittanut. Esimerkiksi yllä olevan "pinkit naiset" -kaavion värit antavat kaaviolle selvästi "feminiinisen" merkityksen, mikä lisää sen outoutta.
+
+Vaikka [värien merkitys](https://colormatters.com/color-symbolism/the-meanings-of-colors) voi vaihdella eri puolilla maailmaa ja muuttua sävyn mukaan, yleisesti ottaen värit merkitsevät seuraavaa:
+
+| Väri | Merkitys |
+| ------ | ------------------- |
+| punainen | voima |
+| sininen | luottamus, uskollisuus |
+| keltainen | ilo, varovaisuus |
+| vihreä | ekologia, onni, kateus |
+| violetti | ilo |
+| oranssi | eloisuus |
+
+Jos sinua pyydetään rakentamaan kaavio mukautetuilla väreillä, varmista, että kaaviosi ovat sekä saavutettavia että valitsemasi värit vastaavat haluamaasi merkitystä.
+
+## Kaavioiden muotoilu luettavuuden parantamiseksi
+
+Kaaviot eivät ole merkityksellisiä, jos ne eivät ole luettavia! Käytä hetki kaavion leveyden ja korkeuden muotoiluun, jotta se skaalautuu hyvin datasi kanssa. Jos yksi muuttuja (kuten kaikki 50 osavaltiota) täytyy näyttää, esitä ne pystysuunnassa Y-akselilla, jos mahdollista, jotta vältät vaakasuunnassa vieritettävän kaavion.
+
+Merkitse akselit, lisää selite tarvittaessa ja tarjoa työkaluja datan parempaan ymmärtämiseen.
+
+Jos datasi on tekstuaalista ja X-akselilla on paljon tekstiä, voit kallistaa tekstiä luettavuuden parantamiseksi. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) tarjoaa 3D-plottausta, jos datasi tukee sitä. Sen avulla voidaan tuottaa hienostuneita datavisualisointeja.
+
+
+
+## Animaatio ja 3D-kaavioiden näyttäminen
+
+Jotkut parhaista datavisualisoinneista nykyään ovat animoituja. Shirley Wu on tehnyt upeita visualisointeja D3:lla, kuten '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', jossa jokainen kukka on elokuvan visualisointi. Toinen esimerkki Guardianille on 'bussed out', interaktiivinen kokemus, joka yhdistää visualisointeja Greensockin ja D3:n avulla sekä artikkelin, joka kertoo, kuinka NYC käsittelee kodittomien ongelmaa lähettämällä ihmisiä pois kaupungista.
+
+
+
+> "Bussed Out: How America Moves its Homeless" [Guardianista](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualisoinnit: Nadieh Bremer & Shirley Wu
+
+Vaikka tämä oppitunti ei riitä opettamaan näitä tehokkaita visualisointikirjastoja syvällisesti, kokeile D3:ta Vue.js-sovelluksessa käyttämällä kirjastoa, joka näyttää visualisoinnin kirjasta "Dangerous Liaisons" animoituna sosiaalisena verkostona.
+
+> "Les Liaisons Dangereuses" on kirjeromaanimuotoinen teos, joka koostuu kirjeistä. Choderlos de Laclos kirjoitti sen vuonna 1782, ja se kertoo kahden moraalittoman ranskalaisen aristokraatin, Vicomte de Valmontin ja Marquise de Merteuilin, juonittelusta. Molemmat kohtaavat lopulta tuhon, mutta eivät ennen kuin aiheuttavat suurta sosiaalista vahinkoa. Kirjeiden avulla voit visualisoida tarinan keskeiset hahmot visuaalisesti.
+
+Toteutat verkkosovelluksen, joka näyttää animoidun näkymän tästä sosiaalisesta verkostosta. Se käyttää kirjastoa, joka on rakennettu [verkoston visualisointiin](https://github.com/emiliorizzo/vue-d3-network) Vue.js:n ja D3:n avulla. Kun sovellus on käynnissä, voit siirrellä solmuja näytöllä ja järjestellä dataa uudelleen.
+
+
+
+## Projekti: Rakenna kaavio, joka näyttää verkoston D3.js:llä
+
+> Tämän oppitunnin kansiossa on `solution`-kansio, josta löydät valmiin projektin viitteeksi.
+
+1. Seuraa README.md-tiedoston ohjeita aloituskansion juuresta. Varmista, että sinulla on NPM ja Node.js asennettuna koneellesi ennen projektin riippuvuuksien asentamista.
+
+2. Avaa `starter/src`-kansio. Löydät sieltä `assets`-kansion, jossa on .json-tiedosto, joka sisältää kaikki kirjeet kirjasta, numeroituina, ja niissä on 'to' ja 'from' -merkinnät.
+
+3. Täydennä koodi `components/Nodes.vue`-tiedostossa, jotta visualisointi toimii. Etsi metodi nimeltä `createLinks()` ja lisää seuraava sisäkkäinen silmukka.
+
+Käy läpi .json-objekti, tallenna kirjeiden 'to' ja 'from' -data ja rakenna `links`-objekti, jotta visualisointikirjasto voi käyttää sitä:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Käynnistä sovelluksesi terminaalista (npm run serve) ja nauti visualisoinnista!
+
+## 🚀 Haaste
+
+Etsi internetistä harhaanjohtavia visualisointeja. Kuinka tekijä harhauttaa käyttäjää, ja onko se tarkoituksellista? Yritä korjata visualisoinnit ja näytä, miltä niiden pitäisi näyttää.
+
+## [Jälkiluentakysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Kertaus ja itseopiskelu
+
+Tässä muutamia artikkeleita harhaanjohtavista datavisualisoinneista:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Tutustu näihin mielenkiintoisiin visualisointeihin historiallisista aineistoista ja esineistä:
+
+https://handbook.pubpub.org/
+
+Lue tämä artikkeli siitä, kuinka animaatio voi parantaa visualisointeja:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Tehtävä
+
+[Rakenna oma mukautettu visualisointisi](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/3-Data-Visualization/README.md b/translations/fi/3-Data-Visualization/README.md
new file mode 100644
index 00000000..b479a03b
--- /dev/null
+++ b/translations/fi/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# Visualisoinnit
+
+
+> Kuva: Jenna Lee palvelussa Unsplash
+
+Datan visualisointi on yksi data-analyytikon tärkeimmistä tehtävistä. Kuva kertoo enemmän kuin tuhat sanaa, ja visualisointi voi auttaa sinua tunnistamaan kaikenlaisia mielenkiintoisia piirteitä datassasi, kuten piikkejä, poikkeamia, ryhmittymiä, suuntauksia ja paljon muuta, jotka auttavat sinua ymmärtämään, mitä tarinaa datasi yrittää kertoa.
+
+Näissä viidessä oppitunnissa tutustut luonnosta peräisin olevaan dataan ja luot mielenkiintoisia ja kauniita visualisointeja eri tekniikoita käyttäen.
+
+| Aiheen numero | Aihe | Linkitetty oppitunti | Tekijä |
+| :-----------: | :--: | :------------------: | :----: |
+| 1. | Määrien visualisointi | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Jakautumien visualisointi | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Suhteiden visualisointi | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Yhteyksien visualisointi | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Merkityksellisten visualisointien luominen | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Kiitokset
+
+Nämä visualisointioppitunnit on kirjoitettu 🌸 [Jen Looperin](https://twitter.com/jenlooper), [Jasleen Sondhin](https://github.com/jasleen101010) ja [Vidushi Guptan](https://github.com/Vidushi-Gupta) toimesta.
+
+🍯 Yhdysvaltojen hunajantuotantodatan lähde on Jessica Lin projekti [Kagglessa](https://www.kaggle.com/jessicali9530/honey-production). [Data](https://usda.library.cornell.edu/concern/publications/rn301137d) on peräisin [Yhdysvaltain maatalousministeriöltä](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Sienidatan lähde on myös [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset), ja sen on päivittänyt Hatteras Dunton. Tämä datasetti sisältää kuvauksia hypoteettisista näytteistä, jotka vastaavat 23 kidallisen sienen lajia Agaricus- ja Lepiota-suvuista. Sienet on kuvattu teoksessa The Audubon Society Field Guide to North American Mushrooms (1981). Tämä datasetti lahjoitettiin UCI ML:lle vuonna 1987.
+
+🦆 Minnesotan lintudata on peräisin [Kagglesta](https://www.kaggle.com/hannahcollins/minnesota-birds), ja sen on kerännyt [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) -sivustolta Hannah Collins.
+
+Kaikki nämä datasetit on lisensoitu [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/fi/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..73f15ab8
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Johdanto datatieteen elinkaareen
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Johdanto datatieteen elinkaareen - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Esiluentavisa](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+Olet todennäköisesti tähän mennessä huomannut, että datatiede on prosessi. Tämä prosessi voidaan jakaa viiteen vaiheeseen:
+
+- Tiedon kerääminen
+- Käsittely
+- Analyysi
+- Viestintä
+- Ylläpito
+
+Tämä oppitunti keskittyy elinkaaren kolmeen osaan: tiedon keräämiseen, käsittelyyn ja ylläpitoon.
+
+
+> Kuva: [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Tiedon kerääminen
+
+Elinkaaren ensimmäinen vaihe on erittäin tärkeä, sillä seuraavat vaiheet ovat siitä riippuvaisia. Se on käytännössä kaksi vaihetta yhdistettynä: tiedon hankinta ja projektin tarkoituksen sekä ratkaistavien ongelmien määrittely.
+Projektin tavoitteiden määrittely vaatii syvempää ymmärrystä ongelmasta tai kysymyksestä. Ensimmäiseksi meidän on tunnistettava ja hankittava ne, joiden ongelma tarvitsee ratkaisua. Nämä voivat olla yrityksen sidosryhmiä tai projektin sponsoreita, jotka voivat auttaa tunnistamaan, kuka tai mikä hyötyy projektista, sekä mitä ja miksi he sitä tarvitsevat. Hyvin määritelty tavoite on mitattavissa ja kvantifioitavissa, jotta hyväksyttävä tulos voidaan määritellä.
+
+Kysymyksiä, joita datatieteilijä voi esittää:
+- Onko tätä ongelmaa lähestytty aiemmin? Mitä havaittiin?
+- Ymmärtävätkö kaikki osapuolet tarkoituksen ja tavoitteen?
+- Onko epäselvyyksiä, ja miten niitä voidaan vähentää?
+- Mitkä ovat rajoitteet?
+- Miltä lopputulos mahdollisesti näyttää?
+- Kuinka paljon resursseja (aikaa, ihmisiä, laskentatehoa) on käytettävissä?
+
+Seuraavaksi tunnistetaan, kerätään ja lopulta tutkitaan tarvittavat tiedot näiden tavoitteiden saavuttamiseksi. Tiedon hankintavaiheessa datatieteilijöiden on myös arvioitava tiedon määrä ja laatu. Tämä vaatii jonkin verran tiedon tutkimista, jotta voidaan varmistaa, että hankittu tieto tukee halutun tuloksen saavuttamista.
+
+Kysymyksiä, joita datatieteilijä voi esittää tiedosta:
+- Mitä tietoa minulla on jo saatavilla?
+- Kuka omistaa tämän tiedon?
+- Mitä yksityisyysongelmia on olemassa?
+- Onko minulla tarpeeksi tietoa tämän ongelman ratkaisemiseksi?
+- Onko tieto riittävän laadukasta tähän ongelmaan?
+- Jos löydän lisätietoa tämän tiedon kautta, pitäisikö meidän harkita tavoitteiden muuttamista tai uudelleenmäärittelyä?
+
+## Käsittely
+
+Elinkaaren käsittelyvaihe keskittyy tiedon kaavojen löytämiseen sekä mallintamiseen. Joitakin käsittelyvaiheessa käytettyjä tekniikoita ovat tilastolliset menetelmät, joilla kaavoja voidaan paljastaa. Tämä olisi työlästä ihmiselle suurten tietomäärien kanssa, joten tietokoneet tekevät raskaan työn prosessin nopeuttamiseksi. Tämä vaihe on myös kohta, jossa datatiede ja koneoppiminen kohtaavat. Kuten opit ensimmäisessä oppitunnissa, koneoppiminen on prosessi, jossa rakennetaan malleja tiedon ymmärtämiseksi. Mallit ovat esityksiä muuttujien välisistä suhteista tiedossa, jotka auttavat ennustamaan tuloksia.
+
+Tässä vaiheessa käytettyjä yleisiä tekniikoita käsitellään ML for Beginners -opetussuunnitelmassa. Seuraa linkkejä oppiaksesi lisää:
+
+- [Luokittelu (Classification)](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Tiedon järjestäminen kategorioihin tehokkaampaa käyttöä varten.
+- [Klusterointi (Clustering)](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Tiedon ryhmittely samankaltaisiin ryhmiin.
+- [Regressio (Regression)](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Muuttujien välisten suhteiden määrittäminen arvojen ennustamiseksi tai arvioimiseksi.
+
+## Ylläpito
+
+Elinkaaren kaaviossa saatat huomata, että ylläpito sijoittuu tiedon keräämisen ja käsittelyn väliin. Ylläpito on jatkuva prosessi, jossa hallitaan, tallennetaan ja suojataan tietoa projektin aikana, ja se tulisi ottaa huomioon koko projektin ajan.
+
+### Tiedon tallentaminen
+
+Päätökset siitä, miten ja missä tietoa tallennetaan, voivat vaikuttaa tallennuskustannuksiin sekä siihen, kuinka nopeasti tietoa voidaan käyttää. Tällaisia päätöksiä ei todennäköisesti tee yksin datatieteilijä, mutta he voivat joutua tekemään valintoja sen suhteen, miten tietoa käsitellään sen tallennustavan perusteella.
+
+Tässä on joitakin nykyaikaisten tietojen tallennusjärjestelmien ominaisuuksia, jotka voivat vaikuttaa näihin valintoihin:
+
+**Paikallinen vs ulkoinen vs julkinen tai yksityinen pilvi**
+
+Paikallinen tallennus tarkoittaa tiedon hallintaa omalla laitteistolla, kuten palvelimella, jossa on kiintolevyjä tiedon tallentamiseen. Ulkoinen tallennus taas perustuu laitteistoon, jota et omista, kuten datakeskukseen. Julkinen pilvi on suosittu vaihtoehto tiedon tallentamiseen, joka ei vaadi tietoa siitä, miten tai missä tieto tarkalleen ottaen tallennetaan. Julkinen viittaa yhtenäiseen infrastruktuuriin, jota kaikki pilven käyttäjät jakavat. Joillakin organisaatioilla on tiukat turvallisuuspolitiikat, jotka edellyttävät täydellistä pääsyä laitteistoon, jossa tieto on tallennettu, ja he käyttävät yksityistä pilveä, joka tarjoaa omat pilvipalvelut. Opit lisää pilvipalveluista [myöhemmissä oppitunneissa](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Kylmä vs kuuma data**
+
+Kun koulutat mallejasi, saatat tarvita enemmän koulutusdataa. Jos olet tyytyväinen mallisi toimintaan, lisää dataa saapuu mallin käyttötarkoitusta varten. Joka tapauksessa tiedon tallennus- ja käyttöönottokustannukset kasvavat, kun dataa kertyy enemmän. Harvoin käytetyn datan, eli kylmän datan, erottaminen usein käytetystä kuumasta datasta voi olla edullisempi tallennusvaihtoehto laitteiston tai ohjelmistopalveluiden avulla. Jos kylmää dataa tarvitsee käyttää, sen hakeminen voi kestää hieman kauemmin verrattuna kuumaan dataan.
+
+### Tiedon hallinta
+
+Kun työskentelet tiedon kanssa, saatat huomata, että osa tiedosta täytyy puhdistaa käyttämällä joitakin [tiedon valmisteluun](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) liittyviä tekniikoita tarkkojen mallien rakentamiseksi. Kun uutta tietoa saapuu, se tarvitsee samoja sovelluksia laadun ylläpitämiseksi. Joissakin projekteissa käytetään automatisoitua työkalua tiedon puhdistamiseen, yhdistämiseen ja pakkaamiseen ennen kuin tieto siirretään lopulliseen sijaintiinsa. Azure Data Factory on esimerkki tällaisesta työkalusta.
+
+### Tiedon suojaaminen
+
+Yksi tiedon suojaamisen päätavoitteista on varmistaa, että tiedon kanssa työskentelevät hallitsevat, mitä kerätään ja missä kontekstissa sitä käytetään. Tiedon suojaaminen sisältää pääsyn rajoittamisen vain niille, jotka sitä tarvitsevat, paikallisten lakien ja säädösten noudattamisen sekä eettisten standardien ylläpitämisen, kuten [etiikkaa käsittelevässä oppitunnissa](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics) käsiteltiin.
+
+Tässä on joitakin asioita, joita tiimi voi tehdä turvallisuuden huomioimiseksi:
+- Varmistaa, että kaikki tieto on salattu
+- Tarjota asiakkaille tietoa siitä, miten heidän tietojaan käytetään
+- Poistaa tiedon käyttöoikeudet projektista poistuneilta henkilöiltä
+- Sallia vain tiettyjen projektin jäsenten muokata tietoa
+
+## 🚀 Haaste
+
+Datatieteen elinkaaresta on monia versioita, joissa jokaisella vaiheella voi olla eri nimiä ja eri määrä vaiheita, mutta ne sisältävät samat prosessit, jotka mainittiin tässä oppitunnissa.
+
+Tutki [Team Data Science Process -elinkaarta](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) ja [Cross-industry standard process for data mining -elinkaarta](https://www.datascience-pm.com/crisp-dm-2/). Nimeä 3 samankaltaisuutta ja eroa näiden kahden välillä.
+
+|Team Data Science Process (TDSP)|Cross-industry standard process for data mining (CRISP-DM)|
+|--|--|
+| |  |
+| Kuva: [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Kuva: [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Jälkiluentavisa](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Kertaus ja itseopiskelu
+
+Datatieteen elinkaaren soveltaminen sisältää useita rooleja ja tehtäviä, joissa jotkut keskittyvät tiettyihin osiin jokaisessa vaiheessa. Team Data Science Process tarjoaa muutamia resursseja, jotka selittävät projektin rooleja ja tehtäviä.
+
+* [Team Data Science Process -roolit ja tehtävät](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Datatieteen tehtävien suorittaminen: tutkimus, mallinnus ja käyttöönotto](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Tehtävä
+
+[Datasetin arviointi](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/fi/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..57958108
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,35 @@
+
+# Arvioidaan datasettiä
+
+Asiakas on lähestynyt tiimiäsi pyytääkseen apua taksiasiakkaiden kausittaisten kulutustottumusten tutkimisessa New York Cityssä.
+
+He haluavat tietää: **Antavatko New York Cityn keltaisen taksin matkustajat kuljettajille enemmän juomarahaa talvella vai kesällä?**
+
+Tiimisi on Data Science -elinkaaren [Capturing](Readme.md#Capturing) vaiheessa, ja sinä olet vastuussa datasetin käsittelystä. Sinulle on annettu muistikirja ja [data](../../../../data/taxi.csv) tutkittavaksi.
+
+Tässä hakemistossa on [muistikirja](notebook.ipynb), joka käyttää Pythonia keltaisen taksin matkatietojen lataamiseen [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) -sivustolta. Voit myös avata taksidatatiedoston tekstieditorissa tai taulukkolaskentaohjelmassa, kuten Excelissä.
+
+## Ohjeet
+
+- Arvioi, voiko tämän datasetin tiedot auttaa vastaamaan kysymykseen.
+- Tutki [NYC Open Data -katalogia](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Tunnista lisädatasetti, joka voisi mahdollisesti auttaa asiakkaan kysymyksen ratkaisemisessa.
+- Kirjoita 3 kysymystä, jotka esittäisit asiakkaalle saadaksesi lisää selkeyttä ja paremman ymmärryksen ongelmasta.
+
+Tutustu datasetin [sanastoon](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) ja [käyttöoppaaseen](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) saadaksesi lisätietoa datasta.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/fi/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..914fc160
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,61 @@
+
+# Tietojenkäsittelyn elinkaari: Analysointi
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Tietojenkäsittelyn elinkaari: Analysointi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## Ennen luentoa - Kysely
+
+## [Ennen luentoa - Kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Analysointi tietojenkäsittelyn elinkaaressa varmistaa, että data pystyy vastaamaan esitettyihin kysymyksiin tai ratkaisemaan tietyn ongelman. Tämä vaihe voi myös keskittyä varmistamaan, että malli käsittelee näitä kysymyksiä ja ongelmia oikein. Tämä oppitunti keskittyy eksploratiiviseen data-analyysiin (EDA), joka sisältää tekniikoita datan ominaisuuksien ja suhteiden määrittämiseksi ja joita voidaan käyttää datan valmisteluun mallinnusta varten.
+
+Käytämme esimerkkidatasettiä [Kagglesta](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) havainnollistamaan, miten tätä voidaan soveltaa Pythonin ja Pandas-kirjaston avulla. Tämä datasetti sisältää yleisten sähköpostisanojen esiintymismääriä, ja sähköpostien lähteet ovat anonyymejä. Käytä tämän hakemiston [muistikirjaa](notebook.ipynb) seurataksesi mukana.
+
+## Eksploratiivinen data-analyysi
+
+Elinkaaren keräysvaiheessa data hankitaan, ja ongelmat ja kysymykset määritellään, mutta miten voimme tietää, että data tukee lopputulosta?
+Muista, että datatieteilijä voi kysyä seuraavia kysymyksiä hankkiessaan dataa:
+- Onko minulla tarpeeksi dataa tämän ongelman ratkaisemiseksi?
+- Onko data riittävän laadukasta tähän ongelmaan?
+- Jos löydän lisätietoa tämän datan kautta, pitäisikö meidän harkita tavoitteiden muuttamista tai uudelleenmäärittelyä?
+
+Eksploratiivinen data-analyysi on prosessi, jossa tutustutaan dataan, ja sitä voidaan käyttää vastaamaan näihin kysymyksiin sekä tunnistamaan datasetin kanssa työskentelyn haasteet. Keskitytään joihinkin tekniikoihin, joita käytetään tämän saavuttamiseksi.
+
+## Datan profilointi, kuvaileva tilastotiede ja Pandas
+Miten arvioimme, onko meillä tarpeeksi dataa ongelman ratkaisemiseksi? Datan profilointi voi tiivistää ja kerätä yleistä tietoa datasetistämme kuvailevan tilastotieteen tekniikoiden avulla. Datan profilointi auttaa ymmärtämään, mitä meillä on käytettävissä, ja kuvaileva tilastotiede auttaa ymmärtämään, kuinka paljon meillä on käytettävissä.
+
+Joissakin aiemmissa oppitunneissa olemme käyttäneet Pandasia tarjoamaan kuvailevaa tilastotietoa [`describe()`-funktion](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html) avulla. Se tarjoaa lukumäärän, maksimi- ja minimiarvot, keskiarvon, keskihajonnan ja kvantiilit numeerisesta datasta. Kuvailevan tilastotieteen, kuten `describe()`-funktion, käyttö voi auttaa arvioimaan, kuinka paljon dataa on, ja tarvitsemmeko lisää.
+
+## Otanta ja kyselyt
+Kaiken tutkiminen suuressa datasetissä voi olla erittäin aikaa vievää ja tehtävä, joka yleensä jätetään tietokoneen tehtäväksi. Otanta on kuitenkin hyödyllinen työkalu datan ymmärtämisessä ja antaa paremman käsityksen siitä, mitä datasetti sisältää ja mitä se edustaa. Otannan avulla voit soveltaa todennäköisyyslaskentaa ja tilastotiedettä tehdäksesi yleisiä johtopäätöksiä datastasi. Vaikka ei ole olemassa tarkkaa sääntöä siitä, kuinka paljon dataa tulisi ottaa otantaan, on tärkeää huomata, että mitä enemmän dataa otat, sitä tarkempia yleistyksiä voit tehdä datasta.
+Pandas-kirjastossa on [`sample()`-funktio](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html), jossa voit määrittää argumentin, kuinka monta satunnaista otosta haluat saada ja käyttää.
+
+Yleiset kyselyt datasta voivat auttaa vastaamaan joihinkin yleisiin kysymyksiin ja teorioihin, joita sinulla saattaa olla. Toisin kuin otanta, kyselyt antavat sinulle hallinnan ja mahdollisuuden keskittyä tiettyihin osiin datasta, joista sinulla on kysymyksiä.
+Pandas-kirjaston [`query()`-funktio](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) mahdollistaa sarakkeiden valinnan ja yksinkertaisten vastausten saamisen datasta haettujen rivien kautta.
+
+## Visualisointien käyttö tutkimisessa
+Sinun ei tarvitse odottaa, että data on täysin puhdistettu ja analysoitu, ennen kuin alat luoda visualisointeja. Itse asiassa visuaalinen esitys tutkimisen aikana voi auttaa tunnistamaan kuvioita, suhteita ja ongelmia datassa. Lisäksi visualisoinnit tarjoavat tavan kommunikoida niiden kanssa, jotka eivät ole mukana datan hallinnassa, ja voivat olla tilaisuus jakaa ja selventää lisäkysymyksiä, joita ei käsitelty keräysvaiheessa. Katso [Visualisointien osio](../../../../../../../../../3-Data-Visualization) oppiaksesi lisää suosituista tavoista tutkia visuaalisesti.
+
+## Inkonsekvenssien tunnistaminen tutkimalla
+Kaikki tämän oppitunnin aiheet voivat auttaa tunnistamaan puuttuvia tai epäjohdonmukaisia arvoja, mutta Pandas tarjoaa funktioita joidenkin näiden tarkistamiseen. [isna() tai isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) voivat tarkistaa puuttuvat arvot. Yksi tärkeä osa näiden arvojen tutkimista datassasi on selvittää, miksi ne päätyivät sellaisiksi alun perin. Tämä voi auttaa sinua päättämään, mitä [toimenpiteitä niiden ratkaisemiseksi tulisi tehdä](/2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Ennen luentoa - Kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Tehtävä
+
+[Tutkiminen vastauksia varten](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/fi/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..7811ecd3
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Vastausten etsiminen
+
+Tämä on jatkoa edellisen oppitunnin [tehtävälle](../14-Introduction/assignment.md), jossa tarkastelimme lyhyesti tietojoukkoa. Nyt tarkastelemme dataa syvällisemmin.
+
+Asiakkaan kysymys kuuluu: **Antavatko New York Cityn keltaisten taksien matkustajat kuljettajille enemmän juomarahaa talvella vai kesällä?**
+
+Tiimisi on Data Science -elinkaaren [Analysointi](README.md) -vaiheessa, jossa vastaat tietojoukon eksploratiivisesta data-analyysistä. Sinulle on annettu muistikirja ja tietojoukko, joka sisältää 200 taksitapahtumaa tammikuulta ja heinäkuulta 2019.
+
+## Ohjeet
+
+Tässä hakemistossa on [muistikirja](assignment.ipynb) ja data, joka on peräisin [Taxi & Limousine Commissionilta](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Katso lisätietoja datasta [tietojoukon sanakirjasta](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) ja [käyttöoppaasta](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf).
+
+Käytä joitakin tämän oppitunnin tekniikoita tehdäksesi omaa EDA:ta muistikirjassa (lisää soluja halutessasi) ja vastaa seuraaviin kysymyksiin:
+
+- Mitkä muut tekijät datassa voisivat vaikuttaa juomarahojen määrään?
+- Mitkä sarakkeet eivät todennäköisesti ole tarpeen asiakkaan kysymyksen vastaamiseksi?
+- Perustuen tähän mennessä annettuihin tietoihin, antaako data mitään viitteitä kausiluonteisesta juomarahakäyttäytymisestä?
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | --- |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/16-communication/README.md b/translations/fi/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..ceda565e
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,222 @@
+
+# Data Science -elinkaaren vaihe: Viestintä
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Data Science -elinkaaren vaihe: Viestintä - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Ennakkokysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Testaa tietosi tulevasta aiheesta yllä olevan ennakkokyselyn avulla!
+
+# Johdanto
+
+### Mitä viestintä on?
+Aloitetaan tämä oppitunti määrittelemällä, mitä viestiminen tarkoittaa. **Viestiminen tarkoittaa tiedon välittämistä tai vaihtamista.** Tieto voi olla ideoita, ajatuksia, tunteita, viestejä, salaisia signaaleja, dataa – mitä tahansa, mitä **_lähettäjä_** (henkilö, joka lähettää tietoa) haluaa **_vastaanottajan_** (henkilö, joka vastaanottaa tietoa) ymmärtävän. Tässä oppitunnissa kutsumme lähettäjiä viestijöiksi ja vastaanottajia yleisöksi.
+
+### Dataviestintä ja tarinankerronta
+Ymmärrämme, että viestinnän tavoitteena on tiedon välittäminen tai vaihtaminen. Mutta kun viestit dataa, tavoitteesi ei pitäisi olla pelkästään numeroiden välittäminen yleisölle. Tavoitteesi tulisi olla tarinan kertominen, joka perustuu dataasi – tehokas dataviestintä ja tarinankerronta kulkevat käsi kädessä. Yleisösi muistaa todennäköisemmin kertomasi tarinan kuin pelkän numeron. Myöhemmin tässä oppitunnissa käymme läpi muutamia tapoja, joilla voit käyttää tarinankerrontaa datasi tehokkaampaan viestintään.
+
+### Viestinnän tyypit
+Tässä oppitunnissa käsitellään kahta erilaista viestinnän tyyppiä: yksisuuntainen viestintä ja kaksisuuntainen viestintä.
+
+**Yksisuuntainen viestintä** tapahtuu, kun lähettäjä lähettää tietoa vastaanottajalle ilman palautetta tai vastausta. Näemme esimerkkejä yksisuuntaisesta viestinnästä päivittäin – massasähköposteissa, uutisissa, jotka kertovat viimeisimmät tapahtumat, tai televisiomainoksissa, jotka kertovat, miksi heidän tuotteensa on loistava. Näissä tapauksissa lähettäjä ei pyri tiedon vaihtoon, vaan ainoastaan tiedon välittämiseen.
+
+**Kaksisuuntainen viestintä** tapahtuu, kun kaikki osapuolet toimivat sekä lähettäjinä että vastaanottajina. Lähettäjä aloittaa viestimällä vastaanottajalle, ja vastaanottaja antaa palautetta tai vastauksen. Kaksisuuntainen viestintä on se, mitä perinteisesti ajattelemme, kun puhumme viestinnästä. Ajattelemme yleensä ihmisiä keskustelemassa – joko kasvotusten, puhelimitse, sosiaalisessa mediassa tai tekstiviestillä.
+
+Kun viestit dataa, on tilanteita, joissa käytät yksisuuntaista viestintää (esimerkiksi konferenssissa esittäminen tai suuren ryhmän edessä, jossa kysymyksiä ei esitetä suoraan) ja tilanteita, joissa käytät kaksisuuntaista viestintää (esimerkiksi datan käyttö sidosryhmien vakuuttamiseen tai tiimikaverin suostutteluun uuden projektin aloittamiseksi).
+
+# Tehokas viestintä
+
+### Viestijän vastuut
+Viestijänä sinun tehtäväsi on varmistaa, että vastaanottajasi ymmärtävät sen tiedon, jonka haluat heidän ymmärtävän. Kun viestit dataa, et halua, että vastaanottajasi ottavat mukaansa pelkkiä numeroita – haluat, että he ottavat mukaansa tarinan, joka perustuu dataasi. Hyvä dataviestijä on hyvä tarinankertoja.
+
+Miten kerrot tarinan datalla? Tapoja on lukemattomia – mutta alla on kuusi, joita käsittelemme tässä oppitunnissa:
+1. Ymmärrä yleisösi, kanavasi ja viestintätapasi
+2. Aloita lopputulos mielessäsi
+3. Lähesty sitä kuin oikeaa tarinaa
+4. Käytä merkityksellisiä sanoja ja ilmaisuja
+5. Käytä tunteita
+
+Jokainen näistä strategioista selitetään tarkemmin alla.
+
+### 1. Ymmärrä yleisösi, kanavasi ja viestintätapasi
+Tapa, jolla viestit perheenjäsenillesi, on todennäköisesti erilainen kuin tapa, jolla viestit ystävillesi. Käytät todennäköisesti erilaisia sanoja ja ilmaisuja, jotka ovat ymmärrettäviä juuri kyseiselle yleisölle. Sama lähestymistapa kannattaa ottaa, kun viestit dataa. Mieti, kenelle viestit. Mieti heidän tavoitteitaan ja kontekstia, joka heillä on tilanteeseen, jota selität.
+
+Voit todennäköisesti ryhmitellä suurimman osan yleisöstäsi johonkin kategoriaan. _Harvard Business Review_ -artikkelissa "[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)" Dellin strategisti Jim Stikeleather tunnistaa viisi yleisökategoriaa:
+
+- **Aloittelija**: ensimmäinen kosketus aiheeseen, mutta ei halua liiallista yksinkertaistamista
+- **Yleisluontoinen**: tietoinen aiheesta, mutta etsii yleiskuvaa ja pääteemoja
+- **Johtaja**: syvällinen, toiminnallinen ymmärrys yksityiskohdista ja suhteista, pääsy yksityiskohtiin
+- **Asiantuntija**: enemmän tutkimista ja löytämistä, vähemmän tarinankerrontaa, paljon yksityiskohtia
+- **Johtaja**: aikaa vain merkityksen ja johtopäätösten ymmärtämiseen
+
+Nämä kategoriat voivat ohjata tapaa, jolla esität dataa yleisöllesi.
+
+Yleisön kategorian lisäksi sinun tulisi myös ottaa huomioon kanava, jota käytät viestiessäsi yleisöllesi. Lähestymistapasi tulisi olla hieman erilainen, jos kirjoitat muistion tai sähköpostin verrattuna kokoukseen tai konferenssiesitykseen.
+
+Yleisön ymmärtämisen lisäksi on myös tärkeää tietää, käytätkö yksisuuntaista vai kaksisuuntaista viestintää.
+
+Jos viestit pääasiassa aloittelijayleisölle ja käytät yksisuuntaista viestintää, sinun täytyy ensin kouluttaa yleisöä ja antaa heille oikea konteksti. Sitten sinun täytyy esittää datasi ja kertoa, mitä datasi tarkoittaa ja miksi se on tärkeää. Tässä tapauksessa kannattaa keskittyä selkeyden lisäämiseen, koska yleisö ei voi esittää sinulle suoria kysymyksiä.
+
+Jos viestit pääasiassa johtajayleisölle ja käytät kaksisuuntaista viestintää, sinun ei todennäköisesti tarvitse kouluttaa yleisöä tai antaa heille paljon kontekstia. Voit ehkä siirtyä suoraan keskustelemaan keräämästäsi datasta ja sen merkityksestä. Tässä tilanteessa kannattaa kuitenkin keskittyä ajoitukseen ja esityksen hallintaan. Kaksisuuntaisessa viestinnässä (varsinkin johtajayleisön kanssa, joka etsii "toiminnallista ymmärrystä yksityiskohdista ja suhteista") kysymyksiä voi nousta esiin, jotka vievät keskustelun pois tarinasta, jota yrität kertoa. Kun näin tapahtuu, voit ohjata keskustelun takaisin tarinaasi.
+
+### 2. Aloita lopputulos mielessäsi
+Aloittaminen lopputulos mielessä tarkoittaa, että ymmärrät, mitä haluat yleisösi ottavan mukaansa ennen kuin alat viestiä heille. Ajattelemalla etukäteen, mitä haluat yleisösi ymmärtävän, voit rakentaa tarinan, jota he voivat seurata. Aloittaminen lopputulos mielessä sopii sekä yksisuuntaiseen että kaksisuuntaiseen viestintään.
+
+Miten aloitat lopputulos mielessä? Ennen kuin viestit dataasi, kirjoita ylös keskeiset viestisi. Sitten, jokaisessa vaiheessa, kun valmistelet tarinaa, kysy itseltäsi: "Miten tämä liittyy tarinaan, jota kerron?"
+
+Ole tietoinen – vaikka aloittaminen lopputulos mielessä on ihanteellista, et halua viestiä vain dataa, joka tukee haluamiasi johtopäätöksiä. Tämä on nimeltään "kirsikanpoiminta", joka tapahtuu, kun viestijä viestii vain dataa, joka tukee hänen näkökantaansa, ja jättää huomiotta muun datan.
+
+Jos kaikki keräämäsi data tukee selkeästi haluamiasi johtopäätöksiä, hienoa. Mutta jos keräämäsi data ei tue johtopäätöksiäsi tai jopa tukee vastakkaista argumenttia, sinun tulisi viestiä myös tämä data. Jos näin tapahtuu, ole rehellinen yleisöllesi ja kerro, miksi valitset pysyä tarinassasi, vaikka kaikki data ei välttämättä tue sitä.
+
+### 3. Lähesty sitä kuin oikeaa tarinaa
+Perinteinen tarina etenee viidessä vaiheessa. Olet ehkä kuullut nämä vaiheet nimillä Esittely, Nouseva toiminta, Huipentuma, Laskeva toiminta ja Loppuratkaisu. Tai helpommin muistettavina: Konteksti, Konflikti, Huipentuma, Lopetus, Johtopäätös. Kun viestit dataasi ja tarinaasi, voit käyttää samanlaista lähestymistapaa.
+
+Voit aloittaa kontekstilla, asettaa näyttämön ja varmistaa, että yleisösi on samalla sivulla. Sitten esittelet konfliktin. Miksi sinun piti kerätä tämä data? Mitä ongelmia yritit ratkaista? Sen jälkeen huipentuma. Mitä data on? Mitä data tarkoittaa? Mitä ratkaisuja data kertoo meille? Sitten pääset lopetukseen, jossa voit toistaa ongelman ja ehdotetut ratkaisut. Lopuksi päädyt johtopäätökseen, jossa voit tiivistää keskeiset viestisi ja suositella seuraavia askeleita.
+
+### 4. Käytä merkityksellisiä sanoja ja ilmaisuja
+Jos työskentelisimme yhdessä tuotteen parissa ja sanoisin sinulle: "Käyttäjämme käyttävät paljon aikaa alustallemme rekisteröitymiseen," kuinka kauan arvioisit "paljon aikaa" olevan? Tunti? Viikko? Vaikea tietää. Entä jos sanoisin saman koko yleisölle? Jokainen yleisön jäsen saattaisi päätyä eri käsitykseen siitä, kuinka kauan käyttäjät käyttävät aikaa alustallemme rekisteröitymiseen.
+
+Entä jos sanoisin: "Käyttäjämme käyttävät keskimäärin 3 minuuttia rekisteröitymiseen ja alustallemme liittymiseen."
+
+Tämä viesti on selkeämpi. Kun viestit dataa, voi olla helppoa ajatella, että yleisösi ajattelee samalla tavalla kuin sinä. Mutta näin ei aina ole. Selkeyden lisääminen datasi ja sen merkityksen ympärille on yksi vastuistasi viestijänä. Jos data tai tarinasi ei ole selkeä, yleisösi voi vaikeasti seurata sitä, ja on epätodennäköisempää, että he ymmärtävät keskeiset viestisi.
+
+Voit viestiä dataa selkeämmin käyttämällä merkityksellisiä sanoja ja ilmaisuja sen sijaan, että käyttäisit epämääräisiä. Alla on muutamia esimerkkejä:
+
+- Meillä oli *vaikuttava* vuosi!
+ - Yksi henkilö voisi ajatella, että vaikuttava tarkoittaa 2 % - 3 %:n kasvua liikevaihdossa, ja toinen henkilö voisi ajatella, että se tarkoittaa 50 % - 60 %:n kasvua.
+- Käyttäjiemme onnistumisprosentit kasvoivat *huomattavasti*.
+ - Kuinka suuri kasvu on huomattava kasvu?
+- Tämä projekti vaatii *merkittävää* panostusta.
+ - Kuinka paljon panostusta on merkittävä?
+
+Epämääräisten sanojen käyttö voi olla hyödyllistä johdantona tulevaan dataan tai tarinan yhteenvedossa. Mutta harkitse varmistamista, että jokainen esityksesi osa on selkeä yleisöllesi.
+
+### 5. Käytä tunteita
+Tunne on avain tarinankerronnassa. Se on vielä tärkeämpää, kun kerrot tarinaa datalla. Kun viestit dataa, kaikki keskittyy siihen, mitä haluat yleisösi ottavan mukaansa. Kun herätät tunteen yleisössä, se auttaa heitä samaistumaan ja tekee heistä todennäköisempiä toimimaan. Tunne myös lisää todennäköisyyttä, että yleisö muistaa viestisi.
+
+Olet ehkä kokenut tämän aiemmin TV-mainoksissa. Jotkut mainokset ovat hyvin vakavia ja käyttävät surullista tunnetta yhdistääkseen yleisönsä ja korostaakseen esittämäänsä dataa. Tai jotkut mainokset ovat hyvin iloisia ja saavat sinut yhdistämään heidän datansa onnelliseen tunteeseen.
+
+Miten käytät tunteita, kun viestit dataa? Alla on muutamia tapoja:
+
+- Käytä todistuksia ja henkilökohtaisia tarinoita
+ - Kun keräät dataa, yritä kerätä sekä kvantitatiivista että kvalitatiivista dataa ja integroida molemmat tyypit viestiessäsi. Jos datasi on pääasiassa kvantitatiivista, etsi yksilöiden tarinoita oppiaksesi lisää heidän kokemuksistaan datasi kertomasta asiasta.
+- Käytä kuvastoa
+ - Kuvien avulla yleisö voi nähdä itsensä tilanteessa. Kun käytät kuvia, voit ohjata yleisöä kohti tunnetta, jonka haluat heidän kokevan datasi suhteen.
+- Käytä värejä
+ - Eri värit herättävät eri tunteita. Suosittuja värejä ja niiden herättämiä tunteita ovat alla. Ole tietoinen, että väreillä voi olla eri merkityksiä eri kulttuureissa.
+ - Sininen herättää yleensä rauhan ja luottamuksen tunteita
+ - Vihreä liittyy yleensä luontoon ja ympäristöön
+ - Punainen liittyy yleensä intohimoon ja jännitykseen
+ - Keltainen liittyy yleensä optimismiin ja onnellisuuteen
+
+# Viestintätapaustutkimus
+Emerson on mobiilisovelluksen tuotepäällikkö. Emerson on huomannut, että asiakkaat lähettävät 42 % enemmän valituksia ja virheraportteja viikonloppuisin. Emerson on myös huomannut, että asiakkaat, jotka lähettävät valituksen, johon ei vastata 48 tunnin kuluessa, ovat 32 % todennäköisempiä antamaan sovellukselle arvosanan 1 tai 2 sovelluskaupassa.
+
+Tutkimuksen jälkeen Emersonilla on pari ratkaisua, jotka voivat ratkaista ongelman. Emerson järjestää 30 minuutin tapaamisen kolmen yrityksen johtajan kanssa viestiäkseen datan ja ehdotetut ratkaisut.
+
+Tämän tapaamisen aikana Emersonin tavoitteena on saada yrityksen johtajat ymmärtämään, että alla olevat kaksi ratkaisua voivat parantaa sovelluksen arvosanaa, mikä todennäköisesti johtaa korkeampaan liikevaihtoon.
+
+**Ratkaisu 1.** Palkkaa asiakaspalvelijoita työskentelemään viikonloppuisin
+
+**Ratkaisu 2.** Osta uusi asiakaspalvelujärjestelmä, jossa asiakaspalvelijat voivat helposti tunnistaa, mitkä valitukset ovat olleet jonossa pisimpään – jotta he voivat käsitellä ne ensisijaisesti.
+Kokouksessa Emerson käyttää 5 minuuttia selittääkseen, miksi huono arvio sovelluskaupassa on haitallista, 10 minuuttia tutkimusprosessin ja tunnistettujen trendien läpikäymiseen, 10 minuuttia viimeaikaisten asiakasvalitusten käsittelyyn ja viimeiset 5 minuuttia kahden mahdollisen ratkaisun pintapuoliseen esittelyyn.
+
+Oliko tämä tehokas tapa Emersonille viestiä kokouksen aikana?
+
+Kokouksen aikana yksi yrityksen johtajista keskittyi täysin niihin 10 minuuttiin, jotka Emerson käytti asiakasvalitusten käsittelyyn. Kokouksen jälkeen nämä valitukset olivat ainoa asia, jonka tämä johtaja muisti. Toinen johtaja keskittyi pääasiassa Emersonin kuvaukseen tutkimusprosessista. Kolmas johtaja muisti Emersonin ehdottamat ratkaisut, mutta ei ollut varma, miten ne voitaisiin toteuttaa.
+
+Yllä olevassa tilanteessa on nähtävissä merkittävä ero sen välillä, mitä Emerson halusi johtajien vievän mukanaan kokouksesta, ja sen välillä, mitä he lopulta kokouksesta muistivat. Alla on toinen lähestymistapa, jota Emerson voisi harkita.
+
+Miten Emerson voisi parantaa tätä lähestymistapaa?
+Konteksti, Konflikti, Kliimaksi, Lopetus, Johtopäätös
+**Konteksti** – Emerson voisi käyttää ensimmäiset 5 minuuttia koko tilanteen esittelyyn ja varmistaa, että johtajat ymmärtävät, miten ongelmat vaikuttavat yritykselle kriittisiin mittareihin, kuten liikevaihtoon.
+
+Tämä voitaisiin esittää näin: "Tällä hetkellä sovelluksemme arvio sovelluskaupassa on 2,5. Sovelluskaupan arviot ovat kriittisiä sovelluskaupan optimoinnille, mikä vaikuttaa siihen, kuinka moni käyttäjä näkee sovelluksemme haussa ja miten potentiaaliset käyttäjät näkevät sovelluksemme. Ja tietenkin, käyttäjien määrä on suoraan sidoksissa liikevaihtoon."
+
+**Konflikti** Emerson voisi sitten käyttää seuraavat 5 minuuttia konfliktin käsittelyyn.
+
+Tämä voisi mennä näin: "Käyttäjät lähettävät 42 % enemmän valituksia ja virheraportteja viikonloppuisin. Asiakkaat, jotka lähettävät valituksen, johon ei vastata 48 tunnin kuluessa, ovat 32 % epätodennäköisempiä antamaan sovelluksellemme yli 2 tähden arviota sovelluskaupassa. Sovelluksemme arvion parantaminen sovelluskaupassa 4 tähteen parantaisi näkyvyyttämme 20–30 %, mikä ennusteeni mukaan lisäisi liikevaihtoa 10 %." Tietenkin Emersonin tulisi olla valmis perustelemaan nämä luvut.
+
+**Kliimaksi** Perustelujen jälkeen Emerson voisi siirtyä kliimaksiin noin 5 minuutiksi.
+
+Emerson voisi esitellä ehdotetut ratkaisut, selittää, miten ne ratkaisevat esitetyt ongelmat, miten ne voitaisiin toteuttaa nykyisiin työnkulkuihin, kuinka paljon ratkaisut maksavat, mikä olisi niiden ROI, ja ehkä jopa näyttää kuvakaappauksia tai mallinnuksia siitä, miltä ratkaisut näyttäisivät toteutettuina. Emerson voisi myös jakaa käyttäjien lausuntoja, jotka ovat odottaneet yli 48 tuntia valituksensa käsittelyä, ja jopa nykyisen asiakaspalvelijan lausunnon, jossa kommentoidaan nykyistä tikettijärjestelmää.
+
+**Lopetus** Nyt Emerson voisi käyttää 5 minuuttia yrityksen kohtaamien ongelmien uudelleen kertomiseen, ehdotettujen ratkaisujen läpikäymiseen ja siihen, miksi juuri nämä ratkaisut ovat oikeat.
+
+**Johtopäätös** Koska kyseessä on kokous, jossa on muutamia sidosryhmiä ja jossa käytetään kaksisuuntaista viestintää, Emerson voisi suunnitella jättävänsä 10 minuuttia kysymyksille varmistaakseen, että kaikki johtajille epäselväksi jäänyt voidaan selventää ennen kokouksen päättymistä.
+
+Jos Emerson käyttäisi lähestymistapaa #2, on paljon todennäköisempää, että johtajat vievät kokouksesta mukanaan juuri sen, mitä Emerson halusi heidän vievän – että valitusten ja virheiden käsittelyä voitaisiin parantaa, ja että on olemassa kaksi ratkaisua, jotka voitaisiin ottaa käyttöön tämän parannuksen toteuttamiseksi. Tämä lähestymistapa olisi paljon tehokkaampi tapa viestiä Emersonin haluamat tiedot ja tarina.
+
+# Johtopäätös
+### Pääkohtien yhteenveto
+- Viestiminen tarkoittaa tiedon välittämistä tai vaihtamista.
+- Kun viestit dataa, tavoitteesi ei pitäisi olla vain numeroiden välittäminen yleisöllesi. Tavoitteesi pitäisi olla kertoa tarina, joka perustuu dataasi.
+- On olemassa kahdenlaista viestintää: yksisuuntainen viestintä (tieto välitetään ilman vastaustarkoitusta) ja kaksisuuntainen viestintä (tieto kulkee edestakaisin).
+- On monia strategioita, joita voit käyttää kertoessasi tarinaa datasi avulla. Viisi käsiteltyä strategiaa ovat:
+ - Ymmärrä yleisösi, viestintävälineesi ja viestintätapasi
+ - Aloita lopputulos mielessäsi
+ - Lähesty sitä kuin oikeaa tarinaa
+ - Käytä merkityksellisiä sanoja ja ilmauksia
+ - Hyödynnä tunteita
+
+### Suositellut itseopiskeluresurssit
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Jälkikokeen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Kertaa juuri oppimasi yllä olevan jälkikokeen avulla!
+
+## Tehtävä
+
+[Markkinatutkimus](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/fi/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..28d340d4
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Kerro tarina
+
+## Ohjeet
+
+Data-analytiikka on tarinankerrontaa. Valitse mikä tahansa tietoaineisto ja kirjoita lyhyt essee tarinasta, jonka voisit kertoa sen pohjalta. Mitä toivot tietoaineistosi paljastavan? Mitä teet, jos sen paljastukset osoittautuvat ongelmallisiksi? Entä jos tietoaineistosi ei helposti paljasta salaisuuksiaan? Mieti skenaarioita, joita tietoaineistosi saattaa esittää, ja kirjoita ne ylös.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+
+Yhden sivun essee on esitetty .doc-muodossa, tietoaineisto on selitetty, dokumentoitu, hyvitetty, ja siitä on esitetty johdonmukainen tarina yksityiskohtaisilla esimerkeillä datasta. | Lyhyempi essee on esitetty vähemmän yksityiskohtaisessa muodossa. | Essee ei täytä yhtä tai useampaa yllä mainituista yksityiskohdista.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/4-Data-Science-Lifecycle/README.md b/translations/fi/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..71b75450
--- /dev/null
+++ b/translations/fi/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Tieteen datan elinkaari
+
+
+> Kuva: Headway sivustolla Unsplash
+
+Näissä oppitunneissa tutustut tieteen datan elinkaaren eri osa-alueisiin, kuten analysointiin ja viestintään datan ympärillä.
+
+### Aiheet
+
+1. [Johdanto](14-Introduction/README.md)
+2. [Analysointi](15-analyzing/README.md)
+3. [Viestintä](16-communication/README.md)
+
+### Kiitokset
+
+Nämä oppitunnit on kirjoitettu ❤️:lla [Jalen McGee](https://twitter.com/JalenMCG) ja [Jasmine Greenaway](https://twitter.com/paladique) toimesta.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/fi/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..72cd3125
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# Johdanto pilvipohjaiseen data-analytiikkaan
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data-analytiikka pilvessä: Johdanto - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Tässä oppitunnissa opit pilvipalveluiden perusperiaatteet, näet, miksi pilvipalveluiden käyttö voi olla hyödyllistä data-analytiikkaprojekteissasi, ja tarkastelemme esimerkkejä pilvessä toteutetuista data-analytiikkaprojekteista.
+
+## [Esiluentakysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Mikä on pilvi?
+
+Pilvi, tai pilvipalvelut, tarkoittaa laajan valikoiman maksullisten tietotekniikkapalveluiden toimittamista internetin kautta. Näihin palveluihin kuuluvat esimerkiksi tallennusratkaisut, tietokannat, verkot, ohjelmistot, analytiikka ja älykkäät palvelut.
+
+Pilvipalvelut jaetaan yleensä kolmeen kategoriaan: julkinen pilvi, yksityinen pilvi ja hybridi pilvi:
+
+* **Julkinen pilvi**: Julkinen pilvi on kolmannen osapuolen pilvipalveluntarjoajan omistama ja hallinnoima, ja se tarjoaa tietotekniikkapalveluita internetin kautta yleisölle.
+* **Yksityinen pilvi**: Yksityinen pilvi tarkoittaa pilvipalveluita, joita käyttää vain yksi yritys tai organisaatio, ja palvelut sekä infrastruktuuri ylläpidetään yksityisessä verkossa.
+* **Hybridi pilvi**: Hybridi pilvi yhdistää julkisen ja yksityisen pilven. Käyttäjät voivat hyödyntää paikallista datakeskusta ja samalla ajaa dataa ja sovelluksia yhdellä tai useammalla julkisella pilvellä.
+
+Useimmat pilvipalvelut kuuluvat kolmeen pääkategoriaan: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) ja Software as a Service (SaaS).
+
+* **Infrastructure as a Service (IaaS)**: Käyttäjät vuokraavat IT-infrastruktuuria, kuten palvelimia, virtuaalikoneita (VM), tallennustilaa, verkkoja ja käyttöjärjestelmiä.
+* **Platform as a Service (PaaS)**: Käyttäjät vuokraavat ympäristön ohjelmistosovellusten kehittämiseen, testaamiseen, toimittamiseen ja hallintaan ilman, että heidän tarvitsee huolehtia palvelimien, tallennustilan, verkkojen ja tietokantojen infrastruktuurista.
+* **Software as a Service (SaaS)**: Käyttäjät saavat pääsyn ohjelmistosovelluksiin internetin kautta tilauspohjaisesti ilman, että heidän tarvitsee huolehtia sovelluksen ylläpidosta, infrastruktuurista tai päivityksistä.
+
+Suurimpia pilvipalveluntarjoajia ovat Amazon Web Services, Google Cloud Platform ja Microsoft Azure.
+
+## Miksi valita pilvi data-analytiikkaan?
+
+Kehittäjät ja IT-ammattilaiset valitsevat pilvipalvelut monista syistä, kuten:
+
+* **Innovaatio**: Voit hyödyntää pilvipalveluntarjoajien innovatiivisia palveluita suoraan sovelluksissasi.
+* **Joustavuus**: Maksat vain tarvitsemistasi palveluista ja voit valita laajasta palveluvalikoimasta. Maksat käytön mukaan ja voit mukauttaa palveluita tarpeidesi mukaan.
+* **Budjetti**: Sinun ei tarvitse tehdä alkuinvestointeja laitteistojen ja ohjelmistojen hankintaan tai datakeskusten perustamiseen ja ylläpitoon – maksat vain käytöstä.
+* **Skaalautuvuus**: Resurssit skaalautuvat projektisi tarpeiden mukaan, mikä tarkoittaa, että sovelluksesi voivat käyttää enemmän tai vähemmän laskentatehoa, tallennustilaa ja kaistanleveyttä ulkoisten tekijöiden mukaan.
+* **Tuottavuus**: Voit keskittyä liiketoimintaasi sen sijaan, että käyttäisit aikaa tehtäviin, jotka joku muu voi hoitaa, kuten datakeskusten hallintaan.
+* **Luotettavuus**: Pilvipalvelut tarjoavat useita tapoja varmuuskopioida dataa jatkuvasti ja voit luoda katastrofipalautussuunnitelmia, jotta liiketoimintasi ja palvelusi pysyvät toiminnassa myös kriisitilanteissa.
+* **Turvallisuus**: Hyödyt käytännöistä, teknologioista ja valvontamekanismeista, jotka vahvistavat projektisi turvallisuutta.
+
+Nämä ovat joitakin yleisimmistä syistä, miksi ihmiset valitsevat pilvipalvelut. Nyt kun ymmärrämme paremmin, mitä pilvi on ja mitkä sen tärkeimmät hyödyt ovat, tarkastellaan tarkemmin data-analytiikan ja datan parissa työskentelevien kehittäjien haasteita ja sitä, miten pilvi voi auttaa heitä:
+
+* **Suurten datamäärien tallentaminen**: Sen sijaan, että ostaisit, hallinnoisit ja suojaisit suuria palvelimia, voit tallentaa datasi suoraan pilveen, esimerkiksi Azure Cosmos DB:n, Azure SQL Databasen ja Azure Data Lake Storagen avulla.
+* **Datan integrointi**: Datan integrointi on olennainen osa data-analytiikkaa, joka mahdollistaa siirtymisen datan keräämisestä toimenpiteisiin. Pilvipalveluiden tarjoamien dataintegraatiopalveluiden avulla voit kerätä, muuntaa ja integroida dataa eri lähteistä yhteen datavarastoon, esimerkiksi Data Factoryn avulla.
+* **Datan käsittely**: Suurten datamäärien käsittely vaatii paljon laskentatehoa, eikä kaikilla ole pääsyä riittävän tehokkaisiin koneisiin. Siksi monet valitsevat pilven valtavan laskentatehon ratkaisujensa ajamiseen ja käyttöönottoon.
+* **Data-analytiikkapalveluiden käyttö**: Pilvipalvelut, kuten Azure Synapse Analytics, Azure Stream Analytics ja Azure Databricks, auttavat muuttamaan datan toiminnallisiksi oivalluksiksi.
+* **Koneoppimisen ja älykkäiden palveluiden käyttö**: Sen sijaan, että aloittaisit alusta, voit käyttää pilvipalveluntarjoajan tarjoamia koneoppimisalgoritmeja, kuten AzureML:n avulla. Voit myös hyödyntää kognitiivisia palveluita, kuten puheesta tekstiksi, tekstistä puheeksi, tietokonenäköä ja paljon muuta.
+
+## Esimerkkejä data-analytiikasta pilvessä
+
+Tarkastellaan muutamaa konkreettista esimerkkiä.
+
+### Sosiaalisen median reaaliaikainen sentimenttianalyysi
+Aloitetaan skenaariolla, joka on yleinen koneoppimisen aloittelijoille: sosiaalisen median sentimenttianalyysi reaaliajassa.
+
+Oletetaan, että ylläpidät uutismedia-sivustoa ja haluat hyödyntää reaaliaikaista dataa ymmärtääksesi, millainen sisältö kiinnostaa lukijoitasi. Tätä varten voit rakentaa ohjelman, joka suorittaa reaaliaikaista sentimenttianalyysiä Twitter-julkaisujen datasta aiheista, jotka ovat lukijoillesi merkityksellisiä.
+
+Keskeisiä mittareita ovat tiettyihin aiheisiin (hashtageihin) liittyvien twiittien määrä ja sentimentti, joka määritetään analytiikkatyökaluilla.
+
+Projektin vaiheet ovat seuraavat:
+
+* Luo tapahtumakeskus (event hub) syötteen suoratoistoon, joka kerää dataa Twitteristä.
+* Määritä ja käynnistä Twitter-asiakassovellus, joka kutsuu Twitterin suoratoisto-API:ta.
+* Luo Stream Analytics -työ.
+* Määritä työn syöte ja kysely.
+* Luo ulostulosäilö ja määritä työn ulostulo.
+* Käynnistä työ.
+
+Katso koko prosessi [dokumentaatiosta](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Tieteellisten julkaisujen analyysi
+Tarkastellaan toista esimerkkiä projektista, jonka on luonut [Dmitry Soshnikov](http://soshnikov.com), yksi tämän oppimateriaalin kirjoittajista.
+
+Dmitry loi työkalun, joka analysoi COVID-tutkimusjulkaisuja. Tämän projektin avulla näet, miten voit luoda työkalun, joka poimii tietoa tieteellisistä julkaisuista, tuottaa oivalluksia ja auttaa tutkijoita navigoimaan suurten julkaisukokoelmien läpi tehokkaasti.
+
+Projektin vaiheet:
+
+* Tiedon poiminta ja esikäsittely [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) -työkalulla.
+* [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109):n käyttö prosessoinnin rinnakkaistamiseen.
+* Tiedon tallentaminen ja kyselyt [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109):n avulla.
+* Interaktiivisen kojelaudan luominen datan tutkimiseen ja visualisointiin Power BI:llä.
+
+Katso koko prosessi [Dmitryn blogista](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Kuten näet, pilvipalveluita voidaan hyödyntää monin tavoin data-analytiikassa.
+
+## Loppuviite
+
+Lähteet:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Jälkiluentakysely
+
+[Jälkiluentakysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Tehtävä
+
+[Markkinatutkimus](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/fi/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..cdafb540
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Markkinatutkimus
+
+## Ohjeet
+
+Tässä oppitunnissa opit, että on olemassa useita merkittäviä pilvipalveluntarjoajia. Tee markkinatutkimusta selvittääksesi, mitä kukin voi tarjota data-analyytikolle. Ovatko tarjonnat vertailukelpoisia? Kirjoita essee, jossa kuvaat kolmen tai useamman näistä pilvipalveluntarjoajista tarjontaa.
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Yhden sivun essee kuvaa kolmen pilvipalveluntarjoajan data-analytiikan tarjontaa ja erottaa ne toisistaan. | Lyhyempi essee on esitetty | Essee on esitetty ilman analyysin loppuunsaattamista
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/fi/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..1553f0c4
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,348 @@
+
+# Data Science pilvessä: "Low code/No code" -lähestymistapa
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Data Science pilvessä: Low Code - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Sisällysluettelo:
+
+- [Data Science pilvessä: "Low code/No code" -lähestymistapa](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Ennakkokysely](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Johdanto](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Mikä on Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Sydämen vajaatoiminnan ennustusprojekti:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Sydämen vajaatoiminnan datasetti:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Mallin Low code/No code -koulutus Azure ML Studiossa](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Luo Azure ML -työtila](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Laskentaresurssit](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Oikeiden laskentaresurssien valinta](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Laskentaklusterin luominen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Datasetin lataaminen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Low code/No code -koulutus AutoML:llä](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Mallin Low code/No code -julkaisu ja päätepisteen käyttö](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Mallin julkaisu](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Päätepisteen käyttö](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Haaste](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Luentojälkeinen kysely](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Kertaus ja itseopiskelu](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Tehtävä](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Ennakkokysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Johdanto
+### 1.1 Mikä on Azure Machine Learning?
+
+Azure-pilvialusta sisältää yli 200 tuotetta ja pilvipalvelua, jotka on suunniteltu auttamaan uusien ratkaisujen kehittämisessä.
+Data-analyytikot käyttävät paljon aikaa datan tutkimiseen ja esikäsittelyyn sekä erilaisten mallin koulutusalgoritmien kokeilemiseen tarkkojen mallien tuottamiseksi. Nämä tehtävät vievät aikaa ja voivat olla tehottomia kalliiden laskentaresurssien käytössä.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) on pilvipohjainen alusta koneoppimisratkaisujen rakentamiseen ja operointiin Azure-ympäristössä. Se sisältää laajan valikoiman ominaisuuksia ja työkaluja, jotka auttavat data-analyytikkoja valmistamaan dataa, kouluttamaan malleja, julkaisemaan ennustepalveluita ja seuraamaan niiden käyttöä. Tärkeimpänä se parantaa tehokkuutta automatisoimalla monia aikaa vieviä mallin koulutukseen liittyviä tehtäviä ja mahdollistaa pilvipohjaisten laskentaresurssien käytön, jotka skaalautuvat tehokkaasti suurten datamäärien käsittelyyn ja aiheuttavat kustannuksia vain käytön aikana.
+
+Azure ML tarjoaa kaikki työkalut, joita kehittäjät ja data-analyytikot tarvitsevat koneoppimisen työnkulkuihin. Näihin kuuluvat:
+
+- **Azure Machine Learning Studio**: verkkopohjainen portaali Azure Machine Learningissä, joka tarjoaa Low code- ja No code -vaihtoehtoja mallin koulutukseen, julkaisuun, automatisointiin, seurantaan ja resurssien hallintaan. Studio integroituu Azure Machine Learning SDK:han saumattoman käyttökokemuksen takaamiseksi.
+- **Jupyter Notebooks**: nopea prototyyppien ja ML-mallien testaus.
+- **Azure Machine Learning Designer**: mahdollistaa moduulien vetämisen ja pudottamisen kokeiden rakentamiseksi ja putkistojen julkaisemiseksi Low code -ympäristössä.
+- **Automated machine learning UI (AutoML)**: automatisoi koneoppimismallien kehittämisen iteratiiviset tehtävät, mahdollistaen mallien rakentamisen suurella skaalalla, tehokkuudella ja tuottavuudella, samalla säilyttäen mallin laadun.
+- **Data Labelling**: avustettu ML-työkalu datan automaattiseen merkintään.
+- **Machine learning extension for Visual Studio Code**: tarjoaa täysimittaisen kehitysympäristön ML-projektien rakentamiseen ja hallintaan.
+- **Machine learning CLI**: tarjoaa komentoja Azure ML -resurssien hallintaan komentoriviltä.
+- **Integraatio avoimen lähdekoodin kehysten kanssa** kuten PyTorch, TensorFlow, Scikit-learn ja monet muut, jotka tukevat koneoppimisen prosessien koulutusta, julkaisemista ja hallintaa.
+- **MLflow**: avoimen lähdekoodin kirjasto koneoppimiskokeiden elinkaaren hallintaan. **MLFlow Tracking** on MLflow:n komponentti, joka kirjaa ja seuraa koulutuskokeiden metriikoita ja mallin artefakteja riippumatta kokeen ympäristöstä.
+
+### 1.2 Sydämen vajaatoiminnan ennustusprojekti:
+
+Projektien tekeminen ja rakentaminen on epäilemättä paras tapa testata taitoja ja tietämystä. Tässä oppitunnissa tutkimme kahta erilaista tapaa rakentaa data-analytiikkaprojekti sydämen vajaatoiminnan ennustamiseksi Azure ML Studiossa: Low code/No code -menetelmällä ja Azure ML SDK:lla, kuten seuraavassa kaaviossa esitetään:
+
+
+
+Kummallakin menetelmällä on omat hyvät ja huonot puolensa. Low code/No code -menetelmä on helpompi aloittaa, koska se sisältää graafisen käyttöliittymän (GUI) käytön eikä vaadi aiempaa koodausosaamista. Tämä menetelmä mahdollistaa projektin toteutettavuuden nopean testauksen ja POC:n (Proof Of Concept) luomisen. Kuitenkin projektin kasvaessa ja tuotantovalmiuden vaatiessa GUI:n kautta resurssien luominen ei ole enää käytännöllistä. Tällöin resurssien luomisen, mallin koulutuksen ja julkaisemisen automatisointi ohjelmallisesti Azure ML SDK:n avulla tulee välttämättömäksi.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Koodiosaaminen | Ei vaadita | Vaaditaan |
+| Kehitysaika | Nopea ja helppo | Riippuu koodausosaamisesta |
+| Tuotantovalmius | Ei | Kyllä |
+
+### 1.3 Sydämen vajaatoiminnan datasetti:
+
+Sydän- ja verisuonitaudit (CVD:t) ovat maailmanlaajuisesti yleisin kuolinsyy, vastaten 31 % kaikista kuolemista. Ympäristö- ja käyttäytymistekijät, kuten tupakointi, epäterveellinen ruokavalio ja lihavuus, fyysinen passiivisuus ja alkoholin haitallinen käyttö, voivat toimia piirteinä ennustemalleissa. Mahdollisuus arvioida CVD:n kehittymisen todennäköisyyttä voisi olla erittäin hyödyllistä korkean riskin henkilöiden hyökkäysten ehkäisemiseksi.
+
+Kaggle on tehnyt [Heart Failure -datasetin](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) julkisesti saataville, ja käytämme sitä tässä projektissa. Voit ladata datasetin nyt. Datasetti on taulukkomuotoinen ja sisältää 13 saraketta (12 ominaisuutta ja 1 kohdemuuttuja) sekä 299 riviä.
+
+| | Muuttujan nimi | Tyyppi | Kuvaus | Esimerkki |
+|----|---------------------------|------------------|----------------------------------------------------------|-------------------|
+| 1 | age | numeerinen | Potilaan ikä | 25 |
+| 2 | anaemia | totuusarvo | Punasolujen tai hemoglobiinin väheneminen | 0 tai 1 |
+| 3 | creatinine_phosphokinase | numeerinen | CPK-entsyymin taso veressä | 542 |
+| 4 | diabetes | totuusarvo | Onko potilaalla diabetes | 0 tai 1 |
+| 5 | ejection_fraction | numeerinen | Sydämestä lähtevän veren prosenttiosuus jokaisella supistuksella | 45 |
+| 6 | high_blood_pressure | totuusarvo | Onko potilaalla verenpainetauti | 0 tai 1 |
+| 7 | platelets | numeerinen | Verihiutaleiden määrä veressä | 149000 |
+| 8 | serum_creatinine | numeerinen | Seerumin kreatiniinin taso veressä | 0.5 |
+| 9 | serum_sodium | numeerinen | Seerumin natriumin taso veressä | jun |
+| 10 | sex | totuusarvo | Nainen tai mies | 0 tai 1 |
+| 11 | smoking | totuusarvo | Tupakoiko potilas | 0 tai 1 |
+| 12 | time | numeerinen | Seurantajakso (päivää) | 4 |
+|----|---------------------------|------------------|----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Kohde] | totuusarvo | Kuoleeko potilas seurantajakson aikana | 0 tai 1 |
+
+Kun datasetti on ladattu, voimme aloittaa projektin Azure-ympäristössä.
+
+## 2. Mallin Low code/No code -koulutus Azure ML Studiossa
+### 2.1 Luo Azure ML -työtila
+Jotta voit kouluttaa mallin Azure ML:ssä, sinun on ensin luotava Azure ML -työtila. Työtila on Azure Machine Learningin ylin resurssi, joka tarjoaa keskitetyn paikan kaikille artefakteille, jotka luot Azure Machine Learningin käytön aikana. Työtila pitää kirjaa kaikista koulutuskokeista, mukaan lukien lokit, metriikat, tulokset ja skriptien tilannekuvat. Näitä tietoja käytetään sen määrittämiseen, mikä koulutuskoke tuottaa parhaan mallin. [Lisätietoja](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Suosittelemme käyttämään käyttöjärjestelmääsi parhaiten sopivaa ja ajantasaisinta selainta. Seuraavat selaimet ovat tuettuja:
+
+- Microsoft Edge (Uusi Microsoft Edge, uusin versio. Ei Microsoft Edge legacy)
+- Safari (uusin versio, vain Mac)
+- Chrome (uusin versio)
+- Firefox (uusin versio)
+
+Azure Machine Learningin käyttöä varten luo työtila Azure-tilauksessasi. Voit sitten käyttää tätä työtilaa datan, laskentaresurssien, koodin, mallien ja muiden koneoppimiseen liittyvien artefaktien hallintaan.
+
+> **_HUOM:_** Azure-tilauksesi veloitetaan pienestä datan tallennusmaksusta niin kauan kuin Azure Machine Learning -työtila on olemassa tilauksessasi, joten suosittelemme poistamaan työtilan, kun et enää käytä sitä.
+
+1. Kirjaudu sisään [Azure-portaaliin](https://ms.portal.azure.com/) Microsoft-tunnuksilla, jotka liittyvät Azure-tilaukseesi.
+2. Valitse **+Luo resurssi**
+
+ 
+
+ Etsi Machine Learning ja valitse Machine Learning -laatta
+
+ 
+
+ Klikkaa luo-painiketta
+
+ 
+
+ Täytä asetukset seuraavasti:
+ - Tilaus: Azure-tilauksesi
+ - Resurssiryhmä: Luo tai valitse resurssiryhmä
+ - Työtilan nimi: Anna työtilallesi yksilöllinen nimi
+ - Alue: Valitse maantieteellinen alue, joka on lähimpänä sinua
+ - Tallennustili: Huomioi oletusarvoinen uusi tallennustili, joka luodaan työtilallesi
+ - Avainten hallinta: Huomioi oletusarvoinen uusi avainten hallinta, joka luodaan työtilallesi
+ - Sovelluksen näkemykset: Huomioi oletusarvoinen uusi sovelluksen näkemykset -resurssi, joka luodaan työtilallesi
+ - Säilörekisteri: Ei mitään (yksi luodaan automaattisesti ensimmäisellä kerralla, kun julkaiset mallin säilöön)
+
+ 
+
+ - Klikkaa luo + tarkista ja sitten luo-painiketta
+3. Odota, että työtilasi luodaan (tämä voi kestää muutaman minuutin). Siirry sitten siihen portaalissa. Löydät sen Machine Learning Azure -palvelun kautta.
+4. Työtilasi yleiskatsaus-sivulla käynnistä Azure Machine Learning Studio (tai avaa uusi selainvälilehti ja siirry osoitteeseen https://ml.azure.com), ja kirjaudu sisään Azure Machine Learning Studioon Microsoft-tililläsi. Jos sinua pyydetään, valitse Azure-hakemisto ja -tilaus sekä Azure Machine Learning -työtilasi.
+
+
+
+5. Azure Machine Learning Studiossa, vaihda ☰-ikonia vasemmassa yläkulmassa nähdäksesi käyttöliittymän eri sivut. Voit käyttää näitä sivuja työtilasi resurssien hallintaan.
+
+
+
+Voit hallita työtilaa Azure-portaalin kautta, mutta data-analyytikoille ja koneoppimisen operaatioinsinööreille Azure Machine Learning Studio tarjoaa keskittyneemmän käyttöliittymän työtilan resurssien hallintaan.
+
+### 2.2 Laskentaresurssit
+
+Laskentaresurssit ovat pilvipohjaisia resursseja, joilla voit suorittaa mallin koulutus- ja datan tutkimusprosesseja. Voit luoda neljä erilaista laskentaresurssia:
+
+- **Laskentainstanssit**: Kehitystyöasemia, joita data-analyytikot voivat käyttää datan ja mallien kanssa työskentelyyn. Tämä sisältää virtuaalikoneen (VM) luomisen ja notebook-instanssin käynnistämisen. Voit sitten kouluttaa mallin kutsumalla laskentaklusterin notebookista.
+- **Laskentaklusterit**: Skaalautuvia virtuaalikoneklustereita kokeiden koodin tarpeen mukaan tapahtuvaan käsittelyyn. Tarvitset niitä mallin koulutuksessa. Laskentaklusterit voivat myös käyttää erikoistuneita GPU- tai CPU-resursseja.
+- **Inferenssiklusterit**: Julkaisukohteita ennustepalveluille, jotka käyttävät koulutettuja mallejasi.
+- **Liitetty laskenta**: Linkit olemassa oleviin Azure-laskentaresursseihin, kuten virtuaalikoneisiin tai Azure Databricks -klustereihin.
+
+#### 2.2.1 Oikeiden vaihtoehtojen valitseminen laskentaresursseillesi
+
+On tärkeää ottaa huomioon muutamia keskeisiä tekijöitä luodessasi laskentaresurssia, sillä nämä valinnat voivat olla kriittisiä päätöksiä.
+
+**Tarvitsetko CPU:n vai GPU:n?**
+
+CPU (keskusyksikkö) on elektroninen piiri, joka suorittaa tietokoneohjelman sisältämiä ohjeita. GPU (grafiikkasuoritin) on erikoistunut elektroninen piiri, joka voi suorittaa grafiikkaan liittyvää koodia erittäin suurella nopeudella.
+
+Pääasiallinen ero CPU:n ja GPU:n arkkitehtuurin välillä on, että CPU on suunniteltu käsittelemään laajaa tehtävävalikoimaa nopeasti (mitattuna CPU:n kellotaajuudella), mutta sen samanaikaisesti suoritettavien tehtävien määrä on rajallinen. GPU:t on suunniteltu rinnakkaislaskentaan, ja siksi ne soveltuvat paljon paremmin syväoppimistehtäviin.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Vähemmän kallis | Kalliimpi |
+| Alhaisempi samanaikaisuuden taso | Korkeampi samanaikaisuuden taso |
+| Hitaampi syväoppimismallien koulutuksessa | Optimaalinen syväoppimiseen |
+
+**Klusterin koko**
+
+Suuremmat klusterit ovat kalliimpia, mutta ne tarjoavat paremman reagointikyvyn. Jos sinulla on aikaa mutta ei tarpeeksi rahaa, kannattaa aloittaa pienellä klusterilla. Jos taas sinulla on rahaa mutta ei paljon aikaa, kannattaa aloittaa suuremmalla klusterilla.
+
+**VM:n koko**
+
+Ajan ja budjetin rajoitusten mukaan voit vaihdella RAM-muistin, levyn, ytimien määrän ja kellotaajuuden kokoa. Näiden parametrien kasvattaminen on kalliimpaa, mutta parantaa suorituskykyä.
+
+**Dedikoidut vai matalan prioriteetin instanssit?**
+
+Matalan prioriteetin instanssi tarkoittaa, että se on keskeytettävissä: Microsoft Azure voi ottaa nämä resurssit ja osoittaa ne toiseen tehtävään, keskeyttäen työn. Dedikoitu instanssi, eli ei-keskeytettävä, tarkoittaa, että työ ei koskaan keskeydy ilman lupaasi. Tämä on jälleen yksi aika vs. raha -pohdinta, sillä keskeytettävät instanssit ovat edullisempia kuin dedikoidut.
+
+#### 2.2.2 Laskentaklusterin luominen
+
+[Azure ML -työtilassa](https://ml.azure.com/), jonka loimme aiemmin, siirry laskentaan, ja näet juuri keskustellut eri laskentaresurssit (esim. laskentainstanssit, laskentaklusterit, inferenssiklusterit ja liitetty laskenta). Tässä projektissa tarvitsemme laskentaklusterin mallin koulutusta varten. Studiossa, napsauta "Compute"-valikkoa, sitten "Compute cluster" -välilehteä ja napsauta "+ New" -painiketta luodaksesi laskentaklusterin.
+
+
+
+1. Valitse vaihtoehdot: Dedikoitu vs. matalan prioriteetin, CPU tai GPU, VM:n koko ja ytimien määrä (voit pitää oletusasetukset tässä projektissa).
+2. Napsauta Seuraava-painiketta.
+
+
+
+3. Anna klusterille laskennan nimi.
+4. Valitse vaihtoehdot: Minimi/maksimi solmujen määrä, tyhjäkäyntisekunnit ennen alasajoa, SSH-yhteys. Huomaa, että jos solmujen minimimäärä on 0, säästät rahaa, kun klusteri on tyhjäkäynnillä. Huomaa, että mitä suurempi solmujen maksimimäärä, sitä lyhyempi koulutusaika. Suositeltu maksimimäärä solmuja on 3.
+5. Napsauta "Create"-painiketta. Tämä vaihe voi kestää muutaman minuutin.
+
+
+
+Mahtavaa! Nyt kun meillä on laskentaklusteri, meidän täytyy ladata data Azure ML Studioon.
+
+### 2.3 Datan lataaminen
+
+1. [Azure ML -työtilassa](https://ml.azure.com/), jonka loimme aiemmin, napsauta "Datasets" vasemmassa valikossa ja napsauta "+ Create dataset" -painiketta luodaksesi datasetin. Valitse "From local files" -vaihtoehto ja valitse aiemmin ladattu Kaggle-datasetti.
+
+ 
+
+2. Anna datasetille nimi, tyyppi ja kuvaus. Napsauta Seuraava. Lataa data tiedostoista. Napsauta Seuraava.
+
+ 
+
+3. Skeemassa muuta datatyyppi Booleaniksi seuraaville ominaisuuksille: anaemia, diabetes, korkea verenpaine, sukupuoli, tupakointi ja DEATH_EVENT. Napsauta Seuraava ja napsauta Create.
+
+ 
+
+Hienoa! Nyt kun datasetti on paikallaan ja laskentaklusteri on luotu, voimme aloittaa mallin koulutuksen!
+
+### 2.4 Vähäkoodinen/kooditon koulutus AutoML:n avulla
+
+Perinteinen koneoppimismallien kehitys on resurssi-intensiivistä, vaatii merkittävää alakohtaista tietämystä ja aikaa kymmenien mallien tuottamiseen ja vertailuun. Automatisoitu koneoppiminen (AutoML) on prosessi, joka automatisoi koneoppimismallien kehityksen aikaa vievät, iteratiiviset tehtävät. Se mahdollistaa datatieteilijöiden, analyytikoiden ja kehittäjien rakentaa ML-malleja suurella skaalalla, tehokkuudella ja tuottavuudella, samalla säilyttäen mallien laadun. Se vähentää aikaa, joka tarvitaan tuotantovalmiiden ML-mallien saamiseen, helposti ja tehokkaasti. [Lisätietoja](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. [Azure ML -työtilassa](https://ml.azure.com/), jonka loimme aiemmin, napsauta "Automated ML" vasemmassa valikossa ja valitse juuri ladattu datasetti. Napsauta Seuraava.
+
+ 
+
+2. Anna uusi kokeilun nimi, kohdesarake (DEATH_EVENT) ja luotu laskentaklusteri. Napsauta Seuraava.
+
+ 
+
+3. Valitse "Classification" ja napsauta Finish. Tämä vaihe voi kestää 30 minuutista 1 tuntiin riippuen laskentaklusterin koosta.
+
+ 
+
+4. Kun ajo on valmis, napsauta "Automated ML" -välilehteä, napsauta ajoasi ja napsauta algoritmia "Best model summary" -kortissa.
+
+ 
+
+Täällä voit nähdä yksityiskohtaisen kuvauksen parhaasta mallista, jonka AutoML tuotti. Voit myös tutkia muita malleja Models-välilehdessä. Käytä muutama minuutti mallien tutkimiseen Explanations (preview) -painikkeessa. Kun olet valinnut mallin, jota haluat käyttää (tässä valitsemme AutoML:n valitseman parhaan mallin), näemme, kuinka voimme ottaa sen käyttöön.
+
+## 3. Vähäkoodinen/kooditon mallin käyttöönotto ja päätepisteen kulutus
+### 3.1 Mallin käyttöönotto
+
+Automatisoitu koneoppimisen käyttöliittymä mahdollistaa parhaan mallin käyttöönoton verkkopalveluna muutamassa vaiheessa. Käyttöönotto tarkoittaa mallin integrointia siten, että se voi tehdä ennusteita uuden datan perusteella ja tunnistaa mahdollisia kehitysalueita. Tässä projektissa verkkopalveluun käyttöönotto tarkoittaa, että lääketieteelliset sovellukset voivat käyttää mallia tehdäkseen reaaliaikaisia ennusteita potilaidensa sydänkohtauksen riskistä.
+
+Parhaan mallin kuvauksessa napsauta "Deploy"-painiketta.
+
+
+
+15. Anna nimi, kuvaus, laskentatyyppi (Azure Container Instance), ota käyttöön autentikointi ja napsauta Deploy. Tämä vaihe voi kestää noin 20 minuuttia. Käyttöönotto sisältää useita vaiheita, kuten mallin rekisteröinnin, resurssien luomisen ja niiden konfiguroinnin verkkopalvelua varten. Tilaviesti näkyy Deploy status -kohdassa. Valitse Refresh säännöllisesti tarkistaaksesi käyttöönoton tilan. Se on otettu käyttöön ja käynnissä, kun tila on "Healthy".
+
+
+
+16. Kun se on otettu käyttöön, napsauta Endpoint-välilehteä ja napsauta juuri käyttöönotettua päätepistettä. Täältä löydät kaikki tiedot, jotka sinun tarvitsee tietää päätepisteestä.
+
+
+
+Mahtavaa! Nyt kun meillä on malli otettu käyttöön, voimme aloittaa päätepisteen kulutuksen.
+
+### 3.2 Päätepisteen kulutus
+
+Napsauta "Consume"-välilehteä. Täältä löydät REST-päätepisteen ja Python-skriptin kulutusvaihtoehdossa. Käytä hetki Python-koodin lukemiseen.
+
+Tämä skripti voidaan suorittaa suoraan paikalliselta koneeltasi ja se kuluttaa päätepisteesi.
+
+
+
+Käytä hetki näiden kahden koodirivin tarkasteluun:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+`url`-muuttuja on REST-päätepiste, joka löytyy kulutusvälilehdestä, ja `api_key`-muuttuja on ensisijainen avain, joka löytyy myös kulutusvälilehdestä (vain jos olet ottanut autentikoinnin käyttöön). Näin skripti voi kuluttaa päätepisteen.
+
+18. Skriptiä suoritettaessa sinun pitäisi nähdä seuraava tulos:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Tämä tarkoittaa, että sydämen vajaatoiminnan ennuste annettujen tietojen perusteella on tosi. Tämä on järkevää, koska jos tarkastelet tarkemmin skriptissä automaattisesti luotuja tietoja, kaikki on oletuksena 0 ja epätosi. Voit muuttaa tietoja seuraavalla syöttöesimerkillä:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Skripti pitäisi palauttaa:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Onnittelut! Kulutit juuri käyttöönotetun mallin ja koulutit sen Azure ML:ssä!
+
+> **_HUOM:_** Kun olet valmis projektin kanssa, muista poistaa kaikki resurssit.
+## 🚀 Haaste
+
+Tutki tarkasti AutoML:n tuottamia malliselityksiä ja yksityiskohtia parhaista malleista. Yritä ymmärtää, miksi paras malli on parempi kuin muut. Mitä algoritmeja verrattiin? Mitkä ovat niiden erot? Miksi paras malli toimii paremmin tässä tapauksessa?
+
+## [Luennon jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Kertaus ja itseopiskelu
+
+Tässä oppitunnissa opit kouluttamaan, ottamaan käyttöön ja kuluttamaan mallin sydämen vajaatoiminnan riskin ennustamiseksi vähäkoodisella/koodittomalla tavalla pilvessä. Jos et ole vielä tehnyt sitä, tutustu syvällisemmin AutoML:n tuottamiin malliselityksiin ja yritä ymmärtää, miksi paras malli on parempi kuin muut.
+
+Voit syventyä lisää vähäkoodiseen/koodittomaan AutoML:ään lukemalla tämän [dokumentaation](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Tehtävä
+
+[Vähäkoodinen/kooditon datatiedeprojekti Azure ML:ssä](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/fi/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..698441b9
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Low code/No code -datatiedeprojekti Azure ML:ssä
+
+## Ohjeet
+
+Näimme, kuinka Azure ML -alustaa voidaan käyttää mallin kouluttamiseen, käyttöönottoon ja hyödyntämiseen Low code/No code -tyylillä. Etsi nyt jokin data, jota voisit käyttää toisen mallin kouluttamiseen, käyttöönottoon ja hyödyntämiseen. Voit etsiä datasettejä esimerkiksi [Kagglesta](https://kaggle.com) ja [Azure Open Datasetsista](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Arviointikriteerit
+
+| Erinomainen | Riittävä | Parannettavaa |
+|-------------|----------|---------------|
+|Kun latasit datan, huolehdit tarvittaessa ominaisuuksien tyypin muuttamisesta. Siistit myös dataa tarvittaessa. Suoritit koulutuksen datasetillä AutoML:n avulla ja tarkastelit mallin selityksiä. Otit parhaan mallin käyttöön ja pystyit hyödyntämään sitä. | Kun latasit datan, huolehdit tarvittaessa ominaisuuksien tyypin muuttamisesta. Suoritit koulutuksen datasetillä AutoML:n avulla, otit parhaan mallin käyttöön ja pystyit hyödyntämään sitä. | Olet ottanut käyttöön AutoML:n kouluttaman parhaan mallin ja pystynyt hyödyntämään sitä. |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/fi/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..3c22cc9a
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,312 @@
+
+# Data Science pilvessä: "Azure ML SDK" -tapa
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Data Science pilvessä: Azure ML SDK - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Sisällysluettelo:
+
+- [Data Science pilvessä: "Azure ML SDK" -tapa](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Ennakkokysely](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Johdanto](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Mikä on Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Sydämen vajaatoiminnan ennustamisprojekti ja datasetin esittely](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Mallin kouluttaminen Azure ML SDK:lla](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Azure ML -työtilan luominen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Laskentayksikön luominen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Datasetin lataaminen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Notebookien luominen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Mallin kouluttaminen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Työtilan, kokeen, laskentaklusterin ja datasetin määrittäminen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML-konfiguraatio ja koulutus](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Mallin käyttöönotto ja päätepisteen hyödyntäminen Azure ML SDK:lla](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Parhaan mallin tallentaminen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Mallin käyttöönotto](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Päätepisteen hyödyntäminen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Haaste](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Loppukysely](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Kertaus ja itseopiskelu](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Tehtävä](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Ennakkokysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Johdanto
+
+### 1.1 Mikä on Azure ML SDK?
+
+Data-analyytikot ja tekoälykehittäjät käyttävät Azure Machine Learning SDK:ta rakentaakseen ja suorittaakseen koneoppimisen työnkulkuja Azure Machine Learning -palvelun avulla. Palvelua voi käyttää missä tahansa Python-ympäristössä, kuten Jupyter Notebooksissa, Visual Studio Codessa tai suosikkisi Python-IDE:ssä.
+
+SDK:n keskeiset alueet:
+
+- Tutki, valmistele ja hallitse koneoppimiskokeiden datasetien elinkaarta.
+- Hallitse pilviresursseja koneoppimiskokeiden monitorointiin, lokitukseen ja organisointiin.
+- Kouluta malleja joko paikallisesti tai pilviresursseja käyttäen, mukaan lukien GPU-kiihdytetty mallikoulutus.
+- Käytä automatisoitua koneoppimista, joka hyväksyy konfiguraatioparametrit ja koulutusdatan. Se käy automaattisesti läpi algoritmeja ja hyperparametrien asetuksia löytääkseen parhaan mallin ennusteiden suorittamiseen.
+- Ota käyttöön verkkopalveluita, jotka muuntavat koulutetut mallisi RESTful-palveluiksi, joita voi käyttää missä tahansa sovelluksessa.
+
+[Lisätietoja Azure Machine Learning SDK:sta](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+[Edellisessä oppitunnissa](../18-Low-Code/README.md) opimme, kuinka kouluttaa, ottaa käyttöön ja hyödyntää mallia Low code/No code -menetelmällä. Käytimme sydämen vajaatoiminnan datasettiä ennustemallin luomiseen. Tässä oppitunnissa teemme täsmälleen saman, mutta käyttäen Azure Machine Learning SDK:ta.
+
+
+
+### 1.2 Sydämen vajaatoiminnan ennustamisprojekti ja datasetin esittely
+
+Katso [täältä](../18-Low-Code/README.md) sydämen vajaatoiminnan ennustamisprojekti ja datasetin esittely.
+
+## 2. Mallin kouluttaminen Azure ML SDK:lla
+### 2.1 Azure ML -työtilan luominen
+
+Yksinkertaisuuden vuoksi työskentelemme jupyter-notebookissa. Tämä tarkoittaa, että sinulla on jo työtila ja laskentayksikkö. Jos sinulla on jo työtila, voit siirtyä suoraan kohtaan 2.3 Notebookien luominen.
+
+Jos ei, seuraa ohjeita kohdassa **2.1 Azure ML -työtilan luominen** [edellisessä oppitunnissa](../18-Low-Code/README.md) luodaksesi työtilan.
+
+### 2.2 Laskentayksikön luominen
+
+[Azure ML -työtilassa](https://ml.azure.com/), jonka loimme aiemmin, siirry Compute-valikkoon, ja näet käytettävissä olevat laskentaresurssit.
+
+
+
+Luodaan laskentayksikkö jupyter-notebookin käyttöä varten.
+1. Klikkaa + Uusi -painiketta.
+2. Anna laskentayksikölle nimi.
+3. Valitse vaihtoehdot: CPU tai GPU, VM-koko ja ytimien määrä.
+4. Klikkaa Luo-painiketta.
+
+Onnittelut, olet juuri luonut laskentayksikön! Käytämme tätä laskentayksikköä notebookin luomiseen kohdassa [Notebookien luominen](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Datasetin lataaminen
+Katso [edellinen oppitunti](../18-Low-Code/README.md) kohdasta **2.3 Datasetin lataaminen**, jos et ole vielä ladannut datasettiä.
+
+### 2.4 Notebookien luominen
+
+> **_HUOM:_** Seuraavassa vaiheessa voit joko luoda uuden notebookin alusta alkaen tai ladata [luomamme notebookin](notebook.ipynb) Azure ML Studioosi. Lataamista varten klikkaa "Notebook"-valikkoa ja lataa notebook.
+
+Notebookit ovat erittäin tärkeä osa data-analytiikkaprosessia. Niitä voidaan käyttää tutkimaan dataa (EDA), kutsumaan laskentaklusteria mallin kouluttamiseen tai kutsumaan inferenssiklusteria päätepisteen käyttöönottoon.
+
+Notebookin luomiseen tarvitsemme laskentayksikön, joka palvelee jupyter-notebook-instanssia. Palaa [Azure ML -työtilaan](https://ml.azure.com/) ja klikkaa Laskentayksiköt. Laskentayksiköiden listassa pitäisi näkyä [aiemmin luomamme laskentayksikkö](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. Sovellukset-osiossa klikkaa Jupyter-vaihtoehtoa.
+2. Ruksaa "Kyllä, ymmärrän" -ruutu ja klikkaa Jatka-painiketta.
+
+3. Tämä avaa uuden selaimen välilehden jupyter-notebook-instanssillasi. Klikkaa "Uusi"-painiketta luodaksesi notebookin.
+
+
+
+Nyt kun meillä on notebook, voimme aloittaa mallin kouluttamisen Azure ML SDK:lla.
+
+### 2.5 Mallin kouluttaminen
+
+Ensinnäkin, jos sinulla on epäilyksiä, viittaa [Azure ML SDK -dokumentaatioon](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Se sisältää kaikki tarvittavat tiedot moduuleista, joita käsittelemme tässä oppitunnissa.
+
+#### 2.5.1 Työtilan, kokeen, laskentaklusterin ja datasetin määrittäminen
+
+Lataa `workspace` konfiguraatiotiedostosta seuraavalla koodilla:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Tämä palauttaa `Workspace`-tyyppisen objektin, joka edustaa työtilaa. Sitten sinun täytyy luoda `experiment` seuraavalla koodilla:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Työtilasta voi hakea tai luoda kokeen kokeen nimen avulla. Kokeen nimi täytyy olla 3-36 merkkiä pitkä, alkaa kirjaimella tai numerolla, ja voi sisältää vain kirjaimia, numeroita, alaviivoja ja viivoja. Jos koetta ei löydy työtilasta, uusi koe luodaan.
+
+Nyt sinun täytyy luoda laskentaklusteri koulutusta varten seuraavalla koodilla. Huomaa, että tämä vaihe voi kestää muutaman minuutin.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Voit hakea datasetin työtilasta datasetin nimen avulla seuraavasti:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 AutoML-konfiguraatio ja koulutus
+
+AutoML-konfiguraation määrittämiseen käytetään [AutoMLConfig-luokkaa](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Kuten dokumentaatiossa kuvataan, konfiguraatiossa on paljon parametreja, joilla voit leikkiä. Tässä projektissa käytämme seuraavia parametreja:
+
+- `experiment_timeout_minutes`: Maksimiaika (minuuteissa), jonka koe saa kestää ennen automaattista pysäytystä ja tulosten saatavuutta.
+- `max_concurrent_iterations`: Maksimimäärä samanaikaisia koulutuskierroksia kokeessa.
+- `primary_metric`: Ensisijainen metriikka kokeen tilan määrittämiseen.
+- `compute_target`: Azure Machine Learning -laskentakohde, jossa automatisoitu koneoppimiskoe suoritetaan.
+- `task`: Suoritettavan tehtävän tyyppi. Arvot voivat olla 'classification', 'regression' tai 'forecasting' riippuen ratkaistavasta koneoppimisongelmasta.
+- `training_data`: Koulutusdata, jota käytetään kokeessa. Sen tulee sisältää sekä koulutusominaisuudet että label-sarake (valinnaisesti näytepainot-sarake).
+- `label_column_name`: Label-sarakkeen nimi.
+- `path`: Täydellinen polku Azure Machine Learning -projektikansioon.
+- `enable_early_stopping`: Ota käyttöön varhainen lopetus, jos tulos ei parane lyhyellä aikavälillä.
+- `featurization`: Indikaattori siitä, tehdäänkö featurointi automaattisesti vai ei, tai käytetäänkö mukautettua featurointia.
+- `debug_log`: Lokitiedosto, johon kirjoitetaan debug-tietoja.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Kun konfiguraatio on asetettu, voit kouluttaa mallin seuraavalla koodilla. Tämä vaihe voi kestää jopa tunnin klusterin koosta riippuen.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Voit käyttää RunDetails-widgettiä näyttämään eri kokeet.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Mallin käyttöönotto ja päätepisteen hyödyntäminen Azure ML SDK:lla
+
+### 3.1 Parhaan mallin tallentaminen
+
+`remote_run` on [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)-tyyppinen objekti. Tämä objekti sisältää `get_output()`-metodin, joka palauttaa parhaan ajon ja vastaavan sovitetun mallin.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Voit nähdä parhaan mallin käytetyt parametrit tulostamalla fitted_modelin ja tarkastella parhaan mallin ominaisuuksia käyttämällä [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)-metodia.
+
+```python
+best_run.get_properties()
+```
+
+Rekisteröi malli [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)-metodilla.
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Mallin käyttöönotto
+
+Kun paras malli on tallennettu, voimme ottaa sen käyttöön [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109)-luokan avulla. InferenceConfig edustaa konfiguraatioasetuksia mukautetulle ympäristölle, jota käytetään käyttöönotossa. [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py)-luokka edustaa koneoppimismallia, joka on otettu käyttöön verkkopalvelupäätepisteenä Azure Container Instancesissa. Käyttöön otettu palvelu luodaan mallista, skriptistä ja siihen liittyvistä tiedostoista. Tuloksena oleva verkkopalvelu on kuormantasattu HTTP-päätepiste REST-API:lla. Voit lähettää dataa tähän API:iin ja saada mallin palauttaman ennusteen.
+
+Malli otetaan käyttöön [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)-metodilla.
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Tämä vaihe voi kestää muutaman minuutin.
+
+### 3.3 Päätepisteen hyödyntäminen
+
+Voit hyödyntää päätepistettä luomalla näytesyötteen:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+Ja sitten voit lähettää tämän syötteen mallillesi ennustetta varten:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Tämän pitäisi tuottaa `'{"result": [false]}'`. Tämä tarkoittaa, että lähettämämme potilastieto tuotti ennusteen `false`, mikä tarkoittaa, että tämän henkilön sydänkohtauksen riski on epätodennäköinen.
+
+Onnittelut! Olet juuri käyttänyt Azure ML:ssä koulutettua ja julkaistua mallia Azure ML SDK:n avulla!
+
+> **_NOTE:_** Kun olet valmis projektin kanssa, muista poistaa kaikki resurssit.
+
+## 🚀 Haaste
+
+SDK:n avulla voi tehdä paljon muutakin, mutta valitettavasti emme voi käydä kaikkea läpi tässä oppitunnissa. Hyvä uutinen on, että oppimalla selaamaan SDK-dokumentaatiota pääset pitkälle omatoimisesti. Tutustu Azure ML SDK -dokumentaatioon ja etsi `Pipeline`-luokka, jonka avulla voit luoda työnkulkuja. Pipeline on kokoelma vaiheita, jotka voidaan suorittaa yhtenäisenä prosessina.
+
+**VIHJE:** Mene [SDK-dokumentaatioon](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) ja kirjoita hakukenttään avainsanoja, kuten "Pipeline". Hakutuloksista pitäisi löytyä `azureml.pipeline.core.Pipeline`-luokka.
+
+## [Oppitunnin jälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Kertaus ja itseopiskelu
+
+Tässä oppitunnissa opit, kuinka kouluttaa, julkaista ja käyttää mallia sydämen vajaatoiminnan riskin ennustamiseen Azure ML SDK:n avulla pilvessä. Katso tämä [dokumentaatio](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) saadaksesi lisätietoa Azure ML SDK:sta. Kokeile luoda oma malli Azure ML SDK:n avulla.
+
+## Tehtävä
+
+[Data Science -projekti Azure ML SDK:ta käyttäen](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/fi/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..6306efff
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Data Science -projekti Azure ML SDK:lla
+
+## Ohjeet
+
+Näimme, kuinka Azure ML -alustaa voidaan käyttää mallin kouluttamiseen, käyttöönottoon ja hyödyntämiseen Azure ML SDK:n avulla. Etsi nyt jokin data, jota voisit käyttää toisen mallin kouluttamiseen, käyttöönottoon ja hyödyntämiseen. Voit etsiä datasettejä esimerkiksi [Kagglesta](https://kaggle.com) ja [Azure Open Datasetsista](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Arviointikriteerit
+
+| Erinomainen | Riittävä | Parannettavaa |
+|-------------|----------|---------------|
+|AutoML-konfiguraatiota tehdessäsi kävit läpi SDK-dokumentaation nähdäksesi, mitä parametreja voisit käyttää. Suoritit koulutuksen datasetillä AutoML:n avulla käyttäen Azure ML SDK:ta ja tarkistit mallin selitykset. Otit parhaan mallin käyttöön ja pystyit hyödyntämään sitä Azure ML SDK:n kautta. | Suoritit koulutuksen datasetillä AutoML:n avulla käyttäen Azure ML SDK:ta ja tarkistit mallin selitykset. Otit parhaan mallin käyttöön ja pystyit hyödyntämään sitä Azure ML SDK:n kautta. | Suoritit koulutuksen datasetillä AutoML:n avulla käyttäen Azure ML SDK:ta. Otit parhaan mallin käyttöön ja pystyit hyödyntämään sitä Azure ML SDK:n kautta. |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/5-Data-Science-In-Cloud/README.md b/translations/fi/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..3b2d338e
--- /dev/null
+++ b/translations/fi/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Pilvilaskenta ja Data Science
+
+
+
+> Kuva: [Jelleke Vanooteghem](https://unsplash.com/@ilumire) palvelusta [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Kun käsitellään suuria datamääriä data science -projektissa, pilvilaskenta voi olla todellinen pelin muuttaja. Seuraavien kolmen oppitunnin aikana tutustumme siihen, mitä pilvilaskenta on ja miksi se voi olla erittäin hyödyllistä. Lisäksi tutkimme sydämen vajaatoimintaa koskevaa datasettiä ja rakennamme mallin, joka auttaa arvioimaan sydämen vajaatoiminnan todennäköisyyttä. Käytämme pilvilaskennan voimaa mallin kouluttamiseen, käyttöönottoon ja hyödyntämiseen kahdella eri tavalla: ensimmäinen tapa hyödyntää pelkästään käyttöliittymää Low code/No code -tyylillä, ja toinen tapa käyttää Azure Machine Learning Software Developer Kit (Azure ML SDK) -työkalua.
+
+
+
+### Aiheet
+
+1. [Miksi käyttää pilvilaskentaa data science -projekteissa?](17-Introduction/README.md)
+2. [Data Science pilvessä: "Low code/No code" -lähestymistapa](18-Low-Code/README.md)
+3. [Data Science pilvessä: "Azure ML SDK" -lähestymistapa](19-Azure/README.md)
+
+### Tekijät
+Nämä oppitunnit on kirjoitettu ☁️ ja 💕 avulla [Maud Levy](https://twitter.com/maudstweets) ja [Tiffany Souterre](https://twitter.com/TiffanySouterre).
+
+Sydämen vajaatoiminnan ennustamiseen liittyvän projektin data on peräisin [
+Larxel](https://www.kaggle.com/andrewmvd) palvelusta [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Data on lisensoitu [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/fi/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..de88ecbe
--- /dev/null
+++ b/translations/fi/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,155 @@
+
+# Data Science tosielämässä
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Data Science tosielämässä - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Olemme melkein tämän oppimismatkan lopussa!
+
+Aloitimme määrittelemällä data-analytiikan ja etiikan, tutkimme erilaisia työkaluja ja tekniikoita data-analyysiin ja visualisointiin, kävimme läpi data-analytiikan elinkaaren ja tarkastelimme, miten pilvipalvelut voivat auttaa skaalaamaan ja automatisoimaan data-analytiikan työnkulkuja. Nyt saatat miettiä: _"Miten voin soveltaa näitä oppeja tosielämän tilanteisiin?"_
+
+Tässä oppitunnissa tutkimme data-analytiikan käytännön sovelluksia eri toimialoilla ja sukellamme tarkemmin tutkimuksen, digitaalisten humanististen tieteiden ja kestävän kehityksen esimerkkeihin. Tarkastelemme opiskelijaprojektimahdollisuuksia ja päätämme hyödyllisiin resursseihin, jotka auttavat sinua jatkamaan oppimismatkaasi!
+
+## Ennakkokysely
+
+[Ennakkokysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Data-analytiikka + Teollisuus
+
+Tekoälyn demokratisoinnin ansiosta kehittäjien on nyt helpompi suunnitella ja integroida tekoälypohjaista päätöksentekoa ja dataan perustuvia oivalluksia käyttäjäkokemuksiin ja kehitysprosesseihin. Tässä muutamia esimerkkejä siitä, miten data-analytiikkaa sovelletaan tosielämän tilanteisiin eri toimialoilla:
+
+- [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) käytti data-analytiikkaa yhdistääkseen hakutermit influenssatrendeihin. Vaikka lähestymistavassa oli puutteita, se lisäsi tietoisuutta dataan perustuvien terveydenhuollon ennusteiden mahdollisuuksista (ja haasteista).
+
+- [UPS:n reittien ennustaminen](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - selittää, miten UPS käyttää data-analytiikkaa ja koneoppimista ennustaakseen optimaaliset toimitusreitit ottaen huomioon sääolosuhteet, liikennemallit, toimitusaikataulut ja paljon muuta.
+
+- [NYC:n taksireittien visualisointi](http://chriswhong.github.io/nyctaxi/) - data, joka kerättiin [tietopyyntölakien](https://chriswhong.com/open-data/foil_nyc_taxi/) avulla, auttoi visualisoimaan yhden päivän NYC:n taksien elämästä, mikä auttaa ymmärtämään, miten ne navigoivat kiireisessä kaupungissa, kuinka paljon rahaa ne ansaitsevat ja kuinka kauan matkat kestävät 24 tunnin aikana.
+
+- [Uber Data Science Workbench](https://eng.uber.com/dsw/) - käyttää dataa (nouto- ja jättöpaikat, matkan kesto, suosikkireitit jne.), joka kerätään miljoonista Uber-matkoista *päivittäin*, rakentaakseen data-analytiikkatyökalun hinnoittelun, turvallisuuden, petosten havaitsemisen ja navigointipäätösten tueksi.
+
+- [Urheiluanalytiikka](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - keskittyy _ennakoivaan analytiikkaan_ (joukkue- ja pelaaja-analyysi - ajattele [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - ja fanien hallinta) sekä _datavisualisointiin_ (joukkue- ja fanidashboardit, pelit jne.) sovelluksilla, kuten kykyjenetsintä, urheiluvedonlyönti ja varaston/areenan hallinta.
+
+- [Data-analytiikka pankkialalla](https://data-flair.training/blogs/data-science-in-banking/) - korostaa data-analytiikan arvoa rahoitusalalla sovelluksilla, jotka vaihtelevat riskimallinnuksesta ja petosten havaitsemisesta asiakassegmentointiin, reaaliaikaisiin ennusteisiin ja suosittelujärjestelmiin. Ennakoiva analytiikka ohjaa myös kriittisiä mittareita, kuten [luottoluokituksia](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+- [Data-analytiikka terveydenhuollossa](https://data-flair.training/blogs/data-science-in-healthcare/) - korostaa sovelluksia, kuten lääketieteellinen kuvantaminen (esim. MRI, röntgen, CT-skannaus), genomiikka (DNA-sekvensointi), lääkekehitys (riskinarviointi, onnistumisen ennustaminen), ennakoiva analytiikka (potilashoito ja toimituslogistiikka), tautien seuranta ja ehkäisy jne.
+
+ Kuvalähde: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Kuvassa näkyy muita aloja ja esimerkkejä data-analytiikan tekniikoiden soveltamisesta. Haluatko tutkia muita sovelluksia? Katso [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) -osio alta.
+
+## Data-analytiikka + Tutkimus
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data-analytiikka & Tutkimus - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Vaikka tosielämän sovellukset keskittyvät usein teollisuuden käyttötapauksiin laajassa mittakaavassa, _tutkimus_-sovellukset ja -projektit voivat olla hyödyllisiä kahdesta näkökulmasta:
+
+- _Innovointimahdollisuudet_ - tutkia edistyneiden konseptien nopeaa prototyyppausta ja käyttäjäkokemusten testausta seuraavan sukupolven sovelluksille.
+- _Käyttöönottohaasteet_ - tutkia mahdollisia haittoja tai tahattomia seurauksia data-analytiikan teknologioiden käytöstä tosielämän konteksteissa.
+
+Opiskelijoille nämä tutkimusprojektit voivat tarjota sekä oppimis- että yhteistyömahdollisuuksia, jotka parantavat ymmärrystä aiheesta ja laajentavat tietoisuutta ja vuorovaikutusta asiaankuuluvien ihmisten tai tiimien kanssa kiinnostuksen kohteena olevilla alueilla. Miltä tutkimusprojektit näyttävät ja miten ne voivat vaikuttaa?
+
+Tarkastellaan yhtä esimerkkiä - [MIT Gender Shades Study](http://gendershades.org/overview.html), jonka toteutti Joy Buolamwini (MIT Media Labs) yhdessä [tutkimuspaperin](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) kanssa, jonka hän kirjoitti yhdessä Timnit Gebrun (silloin Microsoft Research) kanssa. Tutkimus keskittyi:
+
+- **Mitä:** Tutkimusprojektin tavoitteena oli _arvioida sukupuoleen ja ihonväriin perustuvaa puolueellisuutta automaattisissa kasvoanalyysialgoritmeissa ja -datalähteissä_.
+- **Miksi:** Kasvoanalyysiä käytetään esimerkiksi lainvalvonnassa, lentokenttien turvallisuudessa ja rekrytointijärjestelmissä - konteksteissa, joissa epätarkat luokitukset (esim. puolueellisuuden vuoksi) voivat aiheuttaa taloudellisia ja sosiaalisia haittoja yksilöille tai ryhmille. Puolueellisuuden ymmärtäminen (ja sen poistaminen tai lieventäminen) on avainasemassa oikeudenmukaisuudessa.
+- **Miten:** Tutkijat huomasivat, että olemassa olevat vertailuarvot käyttivät pääasiassa vaaleaihoisia henkilöitä, ja he loivat uuden datalähteen (yli 1000 kuvaa), joka oli _tasapainoisempi_ sukupuolen ja ihonvärin suhteen. Tätä datalähdettä käytettiin arvioimaan kolmen sukupuoliluokittelutuotteen (Microsoft, IBM ja Face++) tarkkuutta.
+
+Tulokset osoittivat, että vaikka yleinen luokittelutarkkuus oli hyvä, virheprosentit vaihtelivat huomattavasti eri alaryhmien välillä - **väärinsukupuolittaminen** oli yleisempää naisilla ja tummemman ihonvärin omaavilla henkilöillä, mikä viittaa puolueellisuuteen.
+
+**Keskeiset tulokset:** Tutkimus lisäsi tietoisuutta siitä, että data-analytiikka tarvitsee _edustavampia datalähteitä_ (tasapainoiset alaryhmät) ja _monimuotoisempia tiimejä_ (erilaiset taustat) tunnistamaan ja poistamaan tai lieventämään tällaisia puolueellisuuksia AI-ratkaisuissa. Tällaiset tutkimusponnistelut ovat myös auttaneet monia organisaatioita määrittelemään periaatteita ja käytäntöjä _vastuulliselle tekoälylle_ oikeudenmukaisuuden parantamiseksi AI-tuotteissaan ja -prosesseissaan.
+
+**Haluatko oppia lisää Microsoftin tutkimusponnisteluista?**
+
+- Tutustu [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) tekoälyn alalla.
+- Tutki opiskelijaprojekteja [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+- Katso [Fairlearn](https://fairlearn.org/) -projekti ja [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) -aloitteet.
+
+## Data-analytiikka + Humanistiset tieteet
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data-analytiikka & Digitaaliset humanistiset tieteet - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Digitaaliset humanistiset tieteet [on määritelty](https://digitalhumanities.stanford.edu/about-dh-stanford) "kokoelmaksi käytäntöjä ja lähestymistapoja, jotka yhdistävät laskennalliset menetelmät humanistiseen tutkimukseen". [Stanfordin projektit](https://digitalhumanities.stanford.edu/projects), kuten _"rebooting history"_ ja _"poetic thinking"_, havainnollistavat yhteyttä [digitaalisten humanististen tieteiden ja data-analytiikan](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) välillä - korostaen tekniikoita, kuten verkkoanalyysi, tiedon visualisointi, spatiaalinen ja tekstianalyysi, jotka voivat auttaa meitä tarkastelemaan historiallisia ja kirjallisia datasettejä uusista näkökulmista.
+
+*Haluatko tutkia ja laajentaa projektia tällä alalla?*
+
+Tutustu ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) -projektiin, joka on loistava esimerkki [Jen Looperilta](https://twitter.com/jenlooper). Se kysyy, miten voimme käyttää data-analytiikkaa tarkastellaksemme uudelleen tuttua runoutta ja arvioidaksemme sen merkitystä ja tekijänsä panosta uusissa konteksteissa. Esimerkiksi, _voimmeko ennustaa vuodenajan, jolloin runo on kirjoitettu, analysoimalla sen sävyä tai tunnetta_ - ja mitä tämä kertoo meille tekijän mielentilasta kyseisenä ajanjaksona?
+
+Vastataksemme tähän kysymykseen seuraamme data-analytiikan elinkaaren vaiheita:
+- [`Datan hankinta`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - kerätäksemme analyysiin sopivan datasetin. Vaihtoehtoihin kuuluu API:n käyttö (esim. [Poetry DB API](https://poetrydb.org/index.html)) tai verkkosivujen kaavinta (esim. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) työkaluilla, kuten [Scrapy](https://scrapy.org/).
+- [`Datan puhdistus`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - selittää, miten teksti voidaan muotoilla, puhdistaa ja yksinkertaistaa perustyökaluilla, kuten Visual Studio Code ja Microsoft Excel.
+- [`Datan analyysi`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - selittää, miten voimme tuoda datasetin "Notebooks"-ympäristöön analysointia varten Python-pakettien (kuten pandas, numpy ja matplotlib) avulla datan järjestämiseksi ja visualisoimiseksi.
+- [`Tunneanalyysi`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - selittää, miten voimme integroida pilvipalveluita, kuten Text Analytics, käyttämällä vähäkoodisia työkaluja, kuten [Power Automate](https://flow.microsoft.com/en-us/) automatisoitujen datankäsittelytyönkulkujen luomiseen.
+
+Tämän työnkulun avulla voimme tutkia vuodenaikojen vaikutuksia runojen tunnesisältöön ja auttaa meitä muodostamaan omia näkemyksiämme tekijästä. Kokeile itse - ja laajenna notebookia kysyäksesi muita kysymyksiä tai visualisoidaksesi dataa uusilla tavoilla!
+
+> Voit käyttää joitakin työkaluja [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) -kokoelmasta tutkiaksesi näitä kysymyksiä.
+
+## Data-analytiikka + Kestävä kehitys
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data-analytiikka & Kestävä kehitys - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[2030 Agenda For Sustainable Development](https://sdgs.un.org/2030agenda) - jonka kaikki YK:n jäsenet hyväksyivät vuonna 2015 - määrittelee 17 tavoitetta, joista osa keskittyy **planeetan suojelemiseen** rappeutumiselta ja ilmastonmuutoksen vaikutuksilta. [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) -aloite tukee näitä tavoitteita tutkimalla, miten teknologiaratkaisut voivat tukea ja rakentaa kestävämpiä tulevaisuuksia keskittyen [neljään tavoitteeseen](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh): hiilinegatiivisuus, vesipositiivisuus, nollajäte ja biologinen monimuotoisuus vuoteen 2030 mennessä.
+
+Näiden haasteiden ratkaiseminen skaalautuvasti ja ajallaan vaatii pilvipohjaista ajattelua - ja suuria määriä dataa. [Planetary Computer](https://planetarycomputer.microsoft.com/) -aloite tarjoaa neljä komponenttia, jotka auttavat data-analyytikkoja ja kehittäjiä tässä työssä:
+
+- [Data Catalog](https://planetarycomputer.microsoft.com/catalog) - sisältää petatavuja maapallon järjestelmien dataa (ilmainen ja Azure-isännöity).
+- [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - auttaa käyttäjiä etsimään relevanttia dataa ajan ja paikan mukaan.
+- [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - hallinnoitu ympäristö tutkijoille massiivisten paikkatietoaineistojen käsittelyyn.
+- [Applications](https://planetarycomputer.microsoft.com/applications) - esittelee käyttötapauksia ja työkaluja kestävän kehityksen oivallusten tueksi.
+**Planetary Computer -projekti on tällä hetkellä esikatseluvaiheessa (syyskuu 2021)** - näin voit aloittaa kestävän kehityksen ratkaisujen edistämisen datatieteen avulla.
+
+* [Pyydä käyttöoikeutta](https://planetarycomputer.microsoft.com/account/request) aloittaaksesi tutkimisen ja verkostoitumisen muiden kanssa.
+* [Tutustu dokumentaatioon](https://planetarycomputer.microsoft.com/docs/overview/about) ymmärtääksesi tuetut tietoaineistot ja API:t.
+* Tutustu sovelluksiin, kuten [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/), saadaksesi inspiraatiota sovellusideoihin.
+
+Pohdi, kuinka voit käyttää datavisualisointia paljastaaksesi tai korostaaksesi merkityksellisiä havaintoja esimerkiksi ilmastonmuutoksen ja metsäkadon alueilla. Tai mieti, kuinka havainnot voivat auttaa luomaan uusia käyttäjäkokemuksia, jotka motivoivat käyttäytymismuutoksia kohti kestävämpää elämäntapaa.
+
+## Datatiede + Opiskelijat
+
+Olemme keskustelleet tosielämän sovelluksista teollisuudessa ja tutkimuksessa sekä tutkineet datatieteen sovellusesimerkkejä digitaalisen humanismin ja kestävän kehityksen alueilla. Kuinka siis voit kehittää taitojasi ja jakaa asiantuntemustasi datatieteen aloittelijana?
+
+Tässä on joitakin esimerkkejä datatieteen opiskelijaprojekteista inspiraatioksi.
+
+* [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) ja GitHub [projektit](https://github.com/msr-ds3), jotka tutkivat aiheita kuten:
+ - [Rotusyrjintä poliisin voimankäytössä](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [NYC:n metrojärjestelmän luotettavuus](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [Materiaalisen kulttuurin digitalisointi: Sirkapin sosioekonomisten jakautumien tutkiminen](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - [Ornella Altunyan](https://twitter.com/ornelladotcom) ja tiimi Claremontissa, käyttäen [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Haaste
+
+Etsi artikkeleita, jotka suosittelevat aloittelijaystävällisiä datatieteen projekteja - kuten [nämä 50 aihealuetta](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) tai [nämä 21 projektia](https://www.intellspot.com/data-science-project-ideas) tai [nämä 16 projektia lähdekoodilla](https://data-flair.training/blogs/data-science-project-ideas/), joita voit purkaa ja muokata. Älä unohda blogata oppimismatkastasi ja jakaa havaintojasi kanssamme.
+
+## Luentojälkeinen kysely
+
+[Luentojälkeinen kysely](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Katsaus & Itseopiskelu
+
+Haluatko tutkia lisää käyttötapauksia? Tässä muutamia aiheeseen liittyviä artikkeleita:
+* [17 datatieteen sovellusta ja esimerkkiä](https://builtin.com/data-science/data-science-applications-examples) - heinäkuu 2021
+* [11 hämmästyttävää datatieteen sovellusta tosielämässä](https://myblindbird.com/data-science-applications-real-world/) - toukokuu 2021
+* [Datatiede tosielämässä](https://towardsdatascience.com/data-science-in-the-real-world/home) - artikkelikokoelma
+* Datatiede: [Koulutus](https://data-flair.training/blogs/data-science-in-education/), [Maatalous](https://data-flair.training/blogs/data-science-in-agriculture/), [Rahoitus](https://data-flair.training/blogs/data-science-in-finance/), [Elokuvat](https://data-flair.training/blogs/data-science-at-movies/) ja paljon muuta.
+
+## Tehtävä
+
+[Tutki Planetary Computer -tietoaineistoa](assignment.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/fi/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..a75cafe3
--- /dev/null
+++ b/translations/fi/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Tutustu Planetary Computer -tietoaineistoon
+
+## Ohjeet
+
+Tässä oppitunnissa käsittelimme erilaisia data-analytiikan sovellusalueita - syventyen esimerkkeihin, jotka liittyvät tutkimukseen, kestävyyteen ja digitaaliseen humanismiin. Tässä tehtävässä tutustut yhteen näistä esimerkeistä tarkemmin ja sovellat oppimiasi tietoja datan visualisoinnista ja analysoinnista saadaksesi oivalluksia kestävyyteen liittyvästä datasta.
+
+[Planetary Computer](https://planetarycomputer.microsoft.com/) -projekti tarjoaa tietoaineistoja ja API-rajapintoja, joihin pääsee käsiksi käyttäjätilin avulla - pyydä tili, jos haluat kokeilla tehtävän bonusvaihetta. Sivustolla on myös [Explorer](https://planetarycomputer.microsoft.com/explore) -toiminto, jota voi käyttää ilman käyttäjätiliä.
+
+`Vaiheet:`
+Explorer-käyttöliittymä (näkyy alla olevassa kuvakaappauksessa) antaa mahdollisuuden valita tietoaineiston (tarjolla olevista vaihtoehdoista), esiasetetun kyselyn (datan suodattamiseen) ja visualisointivaihtoehdon (relevantin visualisoinnin luomiseen). Tässä tehtävässä sinun tehtäväsi on:
+
+ 1. Lue [Explorer-dokumentaatio](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - ymmärrä vaihtoehdot.
+ 2. Tutustu tietoaineistojen [luetteloon](https://planetarycomputer.microsoft.com/catalog) - opi kunkin tarkoitus.
+ 3. Käytä Exploreria - valitse kiinnostava tietoaineisto, valitse relevantti kysely ja visualisointivaihtoehto.
+
+
+
+`Tehtäväsi:`
+Tutki nyt selaimessa luotua visualisointia ja vastaa seuraaviin kysymyksiin:
+ * Mitä _ominaisuuksia_ tietoaineistossa on?
+ * Mitä _oivalluksia_ tai tuloksia visualisointi tarjoaa?
+ * Mitkä ovat näiden oivallusten _vaikutukset_ projektin kestävyyden tavoitteisiin?
+ * Mitkä ovat visualisoinnin _rajoitukset_ (eli mitä oivalluksia et saanut)?
+ * Jos saisit raakadataa, millaisia _vaihtoehtoisia visualisointeja_ loisit ja miksi?
+
+`Bonus-pisteet:`
+Hae käyttäjätiliä - ja kirjaudu sisään, kun hakemuksesi hyväksytään.
+ * Käytä _Launch Hub_ -vaihtoehtoa avataksesi raakadata Notebookissa.
+ * Tutki dataa interaktiivisesti ja toteuta vaihtoehtoiset visualisoinnit, joita ajattelit.
+ * Analysoi nyt omia visualisointejasi - pystyitkö saamaan oivalluksia, jotka jäivät aiemmin puuttumaan?
+
+## Arviointikriteerit
+
+Erinomainen | Riittävä | Parannettavaa
+--- | --- | -- |
+Kaikki viisi ydinkysymystä on vastattu. Opiskelija on selkeästi tunnistanut, miten nykyiset ja vaihtoehtoiset visualisoinnit voivat tarjota oivalluksia kestävyyden tavoitteista tai tuloksista. | Opiskelija on vastannut vähintään kolmeen kysymykseen yksityiskohtaisesti, osoittaen käytännön kokemusta Explorerista. | Opiskelija ei ole vastannut useisiin kysymyksiin tai on antanut riittämättömiä vastauksia - mikä osoittaa, ettei tehtävää ole tehty merkityksellisellä tavalla. |
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/6-Data-Science-In-Wild/README.md b/translations/fi/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..824eb762
--- /dev/null
+++ b/translations/fi/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Data Science luonnossa
+
+Data sciencen todelliset sovellukset eri toimialoilla.
+
+### Aihepiirit
+
+1. [Data Science tosielämässä](20-Real-World-Examples/README.md)
+
+### Tekijät
+
+Kirjoitettu ❤️:lla [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/CODE_OF_CONDUCT.md b/translations/fi/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..0b6df505
--- /dev/null
+++ b/translations/fi/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Microsoftin avoimen lähdekoodin toimintaohjeet
+
+Tämä projekti on ottanut käyttöön [Microsoftin avoimen lähdekoodin toimintaohjeet](https://opensource.microsoft.com/codeofconduct/).
+
+Resurssit:
+
+- [Microsoftin avoimen lähdekoodin toimintaohjeet](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoftin toimintaohjeiden usein kysytyt kysymykset](https://opensource.microsoft.com/codeofconduct/faq/)
+- Ota yhteyttä [opencode@microsoft.com](mailto:opencode@microsoft.com) kysymyksissä tai huolenaiheissa
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Pyrimme tarkkuuteen, mutta huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskääntämistä. Emme ole vastuussa tämän käännöksen käytöstä aiheutuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/CONTRIBUTING.md b/translations/fi/CONTRIBUTING.md
new file mode 100644
index 00000000..a2719d73
--- /dev/null
+++ b/translations/fi/CONTRIBUTING.md
@@ -0,0 +1,23 @@
+
+# Osallistuminen
+
+Tämä projekti toivottaa tervetulleeksi osallistumiset ja ehdotukset. Useimmat osallistumiset edellyttävät, että hyväksyt Contributor License Agreementin (CLA), jossa vakuutat, että sinulla on oikeus ja todellisuudessa annat meille oikeudet käyttää panostasi. Lisätietoja löydät osoitteesta https://cla.microsoft.com.
+
+Kun lähetät pull requestin, CLA-bot määrittää automaattisesti, tarvitsetko CLA:n ja merkitsee PR:n asianmukaisesti (esim. lisäämällä tunnisteen tai kommentin). Seuraa yksinkertaisesti botin antamia ohjeita. Sinun tarvitsee tehdä tämä vain kerran kaikissa CLA:ta käyttävissä repositorioissa.
+
+Tämä projekti on omaksunut [Microsoftin avoimen lähdekoodin toimintaohjeet](https://opensource.microsoft.com/codeofconduct/).
+Lisätietoja löydät [toimintaohjeiden usein kysytyistä kysymyksistä](https://opensource.microsoft.com/codeofconduct/faq/)
+tai ota yhteyttä [opencode@microsoft.com](mailto:opencode@microsoft.com), jos sinulla on lisäkysymyksiä tai kommentteja.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/README.md b/translations/fi/README.md
new file mode 100644
index 00000000..d3431cb4
--- /dev/null
+++ b/translations/fi/README.md
@@ -0,0 +1,163 @@
+
+# Tietojenkäsittelytiede aloittelijoille - Opetussuunnitelma
+
+Azure Cloud Advocates Microsoftilta ovat iloisia voidessaan tarjota 10 viikon, 20 oppitunnin opetussuunnitelman, joka käsittelee tietojenkäsittelytiedettä. Jokainen oppitunti sisältää ennakko- ja jälkitestit, kirjalliset ohjeet oppitunnin suorittamiseen, ratkaisun ja tehtävän. Projektipohjainen oppimismenetelmämme mahdollistaa oppimisen tekemisen kautta, mikä on todistetusti tehokas tapa omaksua uusia taitoja.
+
+**Sydämelliset kiitokset kirjoittajillemme:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Erityiskiitokset 🙏 [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) -kirjoittajille, arvioijille ja sisällöntuottajille,** erityisesti Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Tietojenkäsittelytiede aloittelijoille - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## Ilmoitus - Uusi opetussuunnitelma generatiivisesta tekoälystä julkaistu!
+
+Olemme juuri julkaisseet 12 oppitunnin opetussuunnitelman generatiivisesta tekoälystä. Opit muun muassa:
+
+- kehotteiden ja kehotteiden suunnittelun perusteet
+- tekstin ja kuvien sovellusten luomisen
+- hakusovellusten kehittämisen
+
+Kuten aina, mukana on oppitunteja, tehtäviä, tietotarkistuksia ja haasteita.
+
+Tutustu siihen:
+
+> https://aka.ms/genai-beginners
+
+# Oletko opiskelija?
+
+Aloita seuraavilla resursseilla:
+
+- [Opiskelijasivusto](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Tältä sivulta löydät aloitteleville suunnattuja resursseja, opiskelijapaketit ja jopa tapoja saada ilmainen sertifikaattivoucher. Tämä on sivu, jonka haluat lisätä kirjanmerkkeihin ja tarkistaa säännöllisesti, sillä päivitämme sisältöä vähintään kuukausittain.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Liity maailmanlaajuiseen opiskelijalähettiläiden yhteisöön, tämä voi olla sinun tiesi Microsoftille.
+
+# Aloittaminen
+
+> **Opettajille**: olemme [lisänneet joitakin ehdotuksia](for-teachers.md) tämän opetussuunnitelman käyttöön. Haluaisimme kuulla palautettasi [keskustelufoorumillamme](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Opiskelijoille](https://aka.ms/student-page)**: jos käytät tätä opetussuunnitelmaa itsenäisesti, haarauta koko repo ja suorita harjoitukset itsenäisesti aloittaen ennakkotestistä. Lue sitten oppitunti ja suorita loput tehtävät. Yritä luoda projektit ymmärtämällä oppitunnit sen sijaan, että kopioisit ratkaisukoodin; kuitenkin kyseinen koodi on saatavilla /solutions-kansioissa jokaisessa projektiin perustuvassa oppitunnissa. Toinen idea on muodostaa opiskeluryhmä ystävien kanssa ja käydä sisältö läpi yhdessä. Lisäopiskelua varten suosittelemme [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Tapaa tiimi
+
+[](https://youtu.be/8mzavjQSMM4 "Promo video")
+
+**Gif by** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Klikkaa yllä olevaa kuvaa nähdäksesi videon projektista ja sen tekijöistä!
+
+## Opetusmenetelmät
+
+Olemme valinneet kaksi pedagogista periaatetta tätä opetussuunnitelmaa rakentaessamme: varmistamme, että se on projektipohjainen ja että se sisältää usein toistuvia testejä. Tämän sarjan lopussa opiskelijat ovat oppineet tietojenkäsittelytieteen perusperiaatteet, mukaan lukien eettiset käsitteet, datan valmistelun, erilaiset tavat työskennellä datan kanssa, datan visualisoinnin, data-analyysin, tietojenkäsittelytieteen käytännön sovellukset ja paljon muuta.
+
+Lisäksi matalan kynnyksen testi ennen oppituntia suuntaa opiskelijan huomion oppimisen aiheeseen, kun taas toinen testi oppitunnin jälkeen varmistaa paremman tiedon säilymisen. Tämä opetussuunnitelma on suunniteltu joustavaksi ja hauskaksi, ja sen voi suorittaa kokonaan tai osittain. Projektit alkavat pienistä ja muuttuvat yhä monimutkaisemmiksi 10 viikon jakson loppua kohden.
+
+> Löydä [käytössäännöt](CODE_OF_CONDUCT.md), [osallistumisohjeet](CONTRIBUTING.md), [käännösohjeet](TRANSLATIONS.md). Otamme mielellämme vastaan rakentavaa palautettasi!
+
+## Jokainen oppitunti sisältää:
+
+- Valinnainen sketchnote
+- Valinnainen lisävideo
+- Ennakko-oppitunnin lämmittelevä testi
+- Kirjallinen oppitunti
+- Projektipohjaisissa oppitunneissa vaiheittaiset ohjeet projektin rakentamiseen
+- Tietotarkistukset
+- Haaste
+- Lisälukemista
+- Tehtävä
+- Jälkitesti
+
+> **Huomio testeistä**: Kaikki testit löytyvät Quiz-App-kansiosta, yhteensä 40 testiä, joissa on kolme kysymystä kussakin. Ne on linkitetty oppitunneista, mutta testisovelluksen voi ajaa paikallisesti tai julkaista Azureen; seuraa ohjeita `quiz-app`-kansiossa. Testejä lokalisoidaan vähitellen.
+
+## Oppitunnit
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Tietojenkäsittelytiede aloittelijoille: Reittikartta - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+| Oppitunnin numero | Aihe | Oppituntiryhmä | Oppimistavoitteet | Linkitetty oppitunti | Kirjoittaja |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Tietojenkäsittelytieteen määrittely | [Johdanto](1-Introduction/README.md) | Opi tietojenkäsittelytieteen peruskäsitteet ja sen suhde tekoälyyn, koneoppimiseen ja big dataan. | [oppitunti](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Tietojenkäsittelytieteen etiikka | [Johdanto](1-Introduction/README.md) | Tietoeettiset käsitteet, haasteet ja viitekehykset. | [oppitunti](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Datan määrittely | [Johdanto](1-Introduction/README.md) | Miten data luokitellaan ja sen yleiset lähteet. | [oppitunti](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Johdatus tilastotieteeseen ja todennäköisyyksiin | [Johdanto](1-Introduction/README.md) | Tilastotieteen ja todennäköisyyksien matemaattiset tekniikat datan ymmärtämiseksi. | [oppitunti](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Työskentely relaatiodatan kanssa | [Työskentely datan kanssa](2-Working-With-Data/README.md) | Johdatus relaatiodataan ja SQL:n (Structured Query Language) perusteisiin relaatiodatan tutkimisessa ja analysoinnissa. | [oppitunti](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Työskentely NoSQL-datan kanssa | [Työskentely datan kanssa](2-Working-With-Data/README.md) | Johdatus ei-relaatiodataan, sen eri tyyppeihin ja dokumenttitietokantojen tutkimisen ja analysoinnin perusteisiin. | [oppitunti](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Työskentely Pythonin kanssa | [Työskentely datan kanssa](2-Working-With-Data/README.md) | Pythonin perusteet datan tutkimiseen Pandas-kirjaston avulla. Suositellaan perustason ymmärrystä Python-ohjelmoinnista. | [oppitunti](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Datan valmistelu | [Työskentely datan kanssa](2-Working-With-Data/README.md) | Aiheita datan puhdistamiseen ja muuntamiseen liittyvistä tekniikoista, joilla käsitellään puuttuvaa, epätarkkaa tai epätäydellistä dataa. | [oppitunti](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Määrien visualisointi | [Datavisualisointi](3-Data-Visualization/README.md) | Opi käyttämään Matplotlibia lintudatan visualisointiin 🦆 | [oppitunti](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Datan jakaumien visualisointi | [Datavisualisointi](3-Data-Visualization/README.md) | Havainnot ja trendit aikavälillä. | [oppitunti](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Suhteellisten osuuksien visualisointi | [Datavisualisointi](3-Data-Visualization/README.md) | Diskreettien ja ryhmiteltyjen prosenttiosuuksien visualisointi. | [oppitunti](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Suhteiden visualisointi | [Datavisualisointi](3-Data-Visualization/README.md) | Yhteyksien ja korrelaatioiden visualisointi datan joukkojen ja niiden muuttujien välillä. | [oppitunti](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Merkitykselliset visualisoinnit | [Datavisualisointi](3-Data-Visualization/README.md) | Tekniikoita ja ohjeita, joiden avulla visualisoinneista tulee arvokkaita tehokkaaseen ongelmanratkaisuun ja oivalluksiin. | [oppitunti](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Johdanto datatieteen elinkaareen | [Elinkaari](4-Data-Science-Lifecycle/README.md) | Johdanto datatieteen elinkaareen ja sen ensimmäiseen vaiheeseen: datan hankintaan ja uuttamiseen. | [oppitunti](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analysointi | [Elinkaari](4-Data-Science-Lifecycle/README.md) | Tämä datatieteen elinkaaren vaihe keskittyy datan analysointitekniikoihin. | [oppitunti](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Viestintä | [Elinkaari](4-Data-Science-Lifecycle/README.md) | Tämä datatieteen elinkaaren vaihe keskittyy datasta saatujen oivallusten esittämiseen päätöksentekijöille ymmärrettävällä tavalla. | [oppitunti](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Datatiede pilvessä | [Pilvidata](5-Data-Science-In-Cloud/README.md) | Tämä oppituntisarja esittelee datatieteen pilvessä ja sen hyödyt. | [oppitunti](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) ja [Maud](https://twitter.com/maudstweets) |
+| 18 | Datatiede pilvessä | [Pilvidata](5-Data-Science-In-Cloud/README.md) | Mallien kouluttaminen Low Code -työkaluilla. | [oppitunti](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) ja [Maud](https://twitter.com/maudstweets) |
+| 19 | Datatiede pilvessä | [Pilvidata](5-Data-Science-In-Cloud/README.md) | Mallien käyttöönotto Azure Machine Learning Studiossa. | [oppitunti](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) ja [Maud](https://twitter.com/maudstweets) |
+| 20 | Datatiede tosielämässä | [Tosielämässä](6-Data-Science-In-Wild/README.md) | Datatieteeseen perustuvat projektit tosielämässä. | [oppitunti](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Noudata näitä ohjeita avataksesi tämän esimerkin Codespacessa:
+1. Klikkaa Code-pudotusvalikkoa ja valitse Open with Codespaces -vaihtoehto.
+2. Valitse + New codespace paneelin alareunasta.
+Lisätietoja löydät [GitHub-dokumentaatiosta](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Noudata näitä ohjeita avataksesi tämän repositorion kontissa paikallisella koneellasi ja VSCode-ohjelmalla käyttäen VS Code Remote - Containers -laajennusta:
+
+1. Jos käytät kehityskonttia ensimmäistä kertaa, varmista, että järjestelmäsi täyttää ennakkovaatimukset (esim. Docker on asennettu) [aloitusdokumentaation](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started) mukaisesti.
+
+Voit käyttää tätä repositoriota joko avaamalla sen eristetyssä Docker-volyymissä:
+
+**Huom**: Tämä käyttää taustalla Remote-Containers: **Clone Repository in Container Volume...** -komentoa kloonaamaan lähdekoodin Docker-volyymiin paikallisen tiedostojärjestelmän sijaan. [Volyymit](https://docs.docker.com/storage/volumes/) ovat suositeltu tapa säilyttää konttidataa.
+
+Tai avaamalla paikallisesti kloonatun tai ladatun version repositoriosta:
+
+- Kloonaa tämä repositorio paikalliselle tiedostojärjestelmällesi.
+- Paina F1 ja valitse **Remote-Containers: Open Folder in Container...** -komento.
+- Valitse kloonattu kansio, odota kontin käynnistymistä ja kokeile.
+
+## Offline-käyttö
+
+Voit käyttää tätä dokumentaatiota offline-tilassa käyttämällä [Docsifyä](https://docsify.js.org/#/). Haaroita tämä repositorio, [asenna Docsify](https://docsify.js.org/#/quickstart) paikalliselle koneellesi ja kirjoita tämän repositorion juurikansiossa `docsify serve`. Verkkosivusto palvelee portissa 3000 localhostissa: `localhost:3000`.
+
+> Huomaa, että Docsify ei renderöi muistikirjoja, joten kun tarvitset muistikirjan suorittamista, tee se erikseen VS Codessa Python-ytimellä.
+
+## Apua tarvitaan!
+
+Jos haluat kääntää koko tai osan oppimateriaalista, noudata [Käännökset](TRANSLATIONS.md) -ohjettamme.
+
+## Muut oppimateriaalit
+
+Tiimimme tuottaa myös muita oppimateriaaleja! Tutustu:
+
+- [Generative AI for Beginners](https://aka.ms/genai-beginners)
+- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative AI with Java](https://aka.ms/genaijava)
+- [AI for Beginners](https://aka.ms/ai-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [IoT for Beginners](https://aka.ms/iot-beginners)
+- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/SECURITY.md b/translations/fi/SECURITY.md
new file mode 100644
index 00000000..5945d79e
--- /dev/null
+++ b/translations/fi/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Tietoturva
+
+Microsoft suhtautuu vakavasti ohjelmistotuotteidensa ja palveluidensa tietoturvaan, mukaan lukien kaikki lähdekoodivarastot, joita hallinnoidaan GitHub-organisaatioidemme kautta, kuten [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) ja [GitHub-organisaatiomme](https://opensource.microsoft.com/).
+
+Jos uskot löytäneesi tietoturvaheikkouden jossakin Microsoftin omistamassa varastossa, joka täyttää [Microsoftin määritelmän tietoturvaheikkoudesta](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), ilmoita siitä meille alla kuvatulla tavalla.
+
+## Tietoturvaongelmien ilmoittaminen
+
+**Älä ilmoita tietoturvaheikkouksista julkisten GitHub-ongelmien kautta.**
+
+Sen sijaan ilmoita niistä Microsoft Security Response Centerille (MSRC) osoitteessa [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Jos haluat lähettää ilmoituksen kirjautumatta sisään, lähetä sähköpostia osoitteeseen [secure@microsoft.com](mailto:secure@microsoft.com). Jos mahdollista, salaa viestisi PGP-avaimellamme; lataa se [Microsoft Security Response Center PGP Key -sivulta](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Sinun pitäisi saada vastaus 24 tunnin kuluessa. Jos et jostain syystä saa vastausta, seuraa tilannetta sähköpostitse varmistaaksesi, että alkuperäinen viestisi on vastaanotettu. Lisätietoja löytyy osoitteesta [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Sisällytä pyydetyt tiedot alla olevasta listasta (niin paljon kuin mahdollista), jotta voimme paremmin ymmärtää ongelman luonteen ja laajuuden:
+
+ * Ongelman tyyppi (esim. puskuriylivuoto, SQL-injektio, cross-site scripting jne.)
+ * Lähdekooditiedostojen täydet polut, jotka liittyvät ongelman ilmenemiseen
+ * Vaikuttavan lähdekoodin sijainti (tagi/haara/commit tai suora URL)
+ * Mahdolliset erityiset konfiguraatiot, jotka vaaditaan ongelman toistamiseen
+ * Vaiheittaiset ohjeet ongelman toistamiseen
+ * Proof-of-concept tai hyödyntämiskoodi (jos mahdollista)
+ * Ongelman vaikutus, mukaan lukien miten hyökkääjä voisi hyödyntää sitä
+
+Nämä tiedot auttavat meitä käsittelemään raporttisi nopeammin.
+
+Jos ilmoitat ongelmasta bugipalkkio-ohjelman kautta, täydellisemmät raportit voivat johtaa suurempaan palkkioon. Käy [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty) -sivulla saadaksesi lisätietoja aktiivisista ohjelmistamme.
+
+## Suositellut kielet
+
+Toivomme, että kaikki viestintä tapahtuu englanniksi.
+
+## Käytäntö
+
+Microsoft noudattaa periaatetta [Koordinoitu haavoittuvuuksien julkistaminen](https://www.microsoft.com/en-us/msrc/cvd).
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa tämän käännöksen käytöstä johtuvista väärinkäsityksistä tai virhetulkinnoista.
\ No newline at end of file
diff --git a/translations/fi/SUPPORT.md b/translations/fi/SUPPORT.md
new file mode 100644
index 00000000..2758bfcd
--- /dev/null
+++ b/translations/fi/SUPPORT.md
@@ -0,0 +1,26 @@
+
+# Tuki
+## Kuinka raportoida ongelmia ja saada apua
+
+Tämä projekti käyttää GitHub Issues -järjestelmää virheiden ja ominaisuuspyyntöjen seuraamiseen. Etsi olemassa olevia
+ongelmia ennen kuin luot uuden, jotta vältät päällekkäisyyksiä. Uusien ongelmien osalta raportoi virheesi tai
+ominaisuuspyyntösi uutena Issue-merkintänä.
+
+Jos tarvitset apua tai sinulla on kysymyksiä projektin käytöstä, luo Issue-merkintä.
+
+## Microsoftin tukikäytäntö
+
+Tuki tälle arkistolle rajoittuu yllä mainittuihin resursseihin.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/docs/_sidebar.md b/translations/fi/docs/_sidebar.md
new file mode 100644
index 00000000..5b9e8620
--- /dev/null
+++ b/translations/fi/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Johdanto
+ - [Määritellään datatiede](../1-Introduction/01-defining-data-science/README.md)
+ - [Datatieteen etiikka](../1-Introduction/02-ethics/README.md)
+ - [Määritellään data](../1-Introduction/03-defining-data/README.md)
+ - [Todennäköisyys ja tilastot](../1-Introduction/04-stats-and-probability/README.md)
+- Työskentely datan kanssa
+ - [Relaatiotietokannat](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Ei-relaatiotietokannat](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Datan valmistelu](../2-Working-With-Data/08-data-preparation/README.md)
+- Datan visualisointi
+ - [Määrien visualisointi](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Jakaumien visualisointi](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Suhteiden visualisointi](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Yhteyksien visualisointi](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Merkitykselliset visualisoinnit](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Datatieteen elinkaari
+ - [Johdanto](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analysointi](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Viestintä](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Datatiede pilvessä
+ - [Johdanto](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Datatiede tosielämässä
+ - [Datatiede tosielämässä](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/for-teachers.md b/translations/fi/for-teachers.md
new file mode 100644
index 00000000..376da815
--- /dev/null
+++ b/translations/fi/for-teachers.md
@@ -0,0 +1,78 @@
+
+## Opettajille
+
+Haluaisitko käyttää tätä opetussuunnitelmaa luokassasi? Ole hyvä ja käytä vapaasti!
+
+Itse asiassa voit käyttää sitä suoraan GitHubissa hyödyntämällä GitHub Classroomia.
+
+Tätä varten haarauta tämä repo. Sinun täytyy luoda oma repo jokaiselle oppitunnille, joten sinun täytyy erottaa jokainen kansio omaksi repokseen. Näin [GitHub Classroom](https://classroom.github.com/classrooms) voi käsitellä jokaisen oppitunnin erikseen.
+
+Nämä [yksityiskohtaiset ohjeet](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) antavat sinulle käsityksen siitä, miten luokkahuoneesi voidaan perustaa.
+
+## Repon käyttäminen sellaisenaan
+
+Jos haluat käyttää tätä repoja sellaisenaan ilman GitHub Classroomia, sekin onnistuu. Sinun täytyy vain viestiä opiskelijoillesi, minkä oppitunnin parissa heidän tulisi työskennellä yhdessä.
+
+Verkko-opetuksessa (esim. Zoom, Teams tai muu) voit muodostaa pienryhmiä visailuja varten ja ohjata opiskelijoita valmistautumaan oppimiseen. Sitten voit kutsua opiskelijat osallistumaan visailuihin ja lähettämään vastauksensa 'issueina' tiettyyn aikaan. Sama menetelmä voi toimia myös tehtävien kanssa, jos haluat opiskelijoiden työskentelevän avoimesti yhdessä.
+
+Jos haluat mieluummin yksityisemmän lähestymistavan, pyydä opiskelijoitasi haarauttamaan opetussuunnitelma, oppitunti kerrallaan, omiin yksityisiin GitHub-repoihinsa ja antamaan sinulle pääsy niihin. Tällöin he voivat suorittaa visailut ja tehtävät yksityisesti ja lähettää ne sinulle issueina luokkahuoneesi repoon.
+
+On monia tapoja saada tämä toimimaan verkkoluokkahuoneessa. Kerro meille, mikä toimii parhaiten sinulle!
+
+## Tämä opetussuunnitelma sisältää:
+
+20 oppituntia, 40 visailua ja 20 tehtävää. Oppitunteihin liittyy piirrosmuistiinpanoja visuaalisille oppijoille. Monet oppitunnit ovat saatavilla sekä Pythonilla että R:llä, ja ne voidaan suorittaa Jupyter-notebookeilla VS Codessa. Lue lisää, miten voit perustaa luokkahuoneesi käyttämään tätä teknologiapinoa: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Kaikki piirrosmuistiinpanot, mukaan lukien suurikokoinen juliste, löytyvät [tästä kansiosta](../../sketchnotes).
+
+Koko opetussuunnitelma on saatavilla [PDF-muodossa](../../pdf/readme.pdf).
+
+Voit myös käyttää tätä opetussuunnitelmaa itsenäisenä, offline-ystävällisenä verkkosivustona hyödyntämällä [Docsifya](https://docsify.js.org/#/). [Asenna Docsify](https://docsify.js.org/#/quickstart) paikalliselle koneellesi, ja kirjoita tämän repon paikallisen kopion juurikansiossa `docsify serve`. Verkkosivusto palvelee portissa 3000 paikallisessa ympäristössäsi: `localhost:3000`.
+
+Offline-ystävällinen versio opetussuunnitelmasta avautuu itsenäisenä verkkosivuna: https://localhost:3000
+
+Oppitunnit on jaettu kuuteen osaan:
+
+- 1: Johdanto
+ - 1: Mitä on datatiede
+ - 2: Etiikka
+ - 3: Datan määrittely
+ - 4: Todennäköisyys ja tilastot yleisesti
+- 2: Datan käsittely
+ - 5: Relaatiotietokannat
+ - 6: Ei-relaatiotietokannat
+ - 7: Python
+ - 8: Datan valmistelu
+- 3: Datan visualisointi
+ - 9: Määrien visualisointi
+ - 10: Jakautumien visualisointi
+ - 11: Suhteiden visualisointi
+ - 12: Yhteyksien visualisointi
+ - 13: Merkitykselliset visualisoinnit
+- 4: Datatieteen elinkaari
+ - 14: Johdanto
+ - 15: Analysointi
+ - 16: Viestintä
+- 5: Datatiede pilvessä
+ - 17: Johdanto
+ - 18: Low-Code-vaihtoehdot
+ - 19: Azure
+- 6: Datatiede käytännössä
+ - 20: Yleiskatsaus
+
+## Kerro meille mielipiteesi!
+
+Haluamme tehdä tästä opetussuunnitelmasta toimivan sinulle ja opiskelijoillesi. Anna meille palautetta keskustelupalstoilla! Voit myös luoda luokkahuoneesi oman alueen keskustelupalstoille opiskelijoitasi varten.
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/quiz-app/README.md b/translations/fi/quiz-app/README.md
new file mode 100644
index 00000000..4ae99b09
--- /dev/null
+++ b/translations/fi/quiz-app/README.md
@@ -0,0 +1,138 @@
+
+# Visailut
+
+Nämä visailut ovat data-analytiikan opetussuunnitelman ennen ja jälkeen luentojen tehtäviä osoitteessa https://aka.ms/datascience-beginners
+
+## Käännöksen lisääminen visailusarjaan
+
+Lisää visailukäännös luomalla vastaavat visailurakenteet `assets/translations`-kansioon. Alkuperäiset visailut löytyvät `assets/translations/en`-kansiosta. Visailut on jaettu useisiin ryhmiin. Varmista, että numerointi vastaa oikeaa visailuosaa. Tässä opetussuunnitelmassa on yhteensä 40 visailua, ja numerointi alkaa nollasta.
+
+Kun olet muokannut käännöksiä, muokkaa `index.js`-tiedostoa käännöskansiossa tuodaksesi kaikki tiedostot `en`-kansion mukaisia käytäntöjä noudattaen.
+
+Muokkaa `index.js`-tiedostoa `assets/translations`-kansiossa tuodaksesi uudet käännetyt tiedostot.
+
+Sen jälkeen muokkaa tämän sovelluksen `App.vue`-tiedoston pudotusvalikkoa lisätäksesi kielesi. Varmista, että lokalisoitu lyhenne vastaa kielen kansiota.
+
+Lopuksi muokkaa kaikkia käännettyjen oppituntien visailulinkkejä, jos niitä on, sisällyttääksesi lokalisaation kyselyparametrina: esimerkiksi `?loc=fr`.
+
+## Projektin asennus
+
+```
+npm install
+```
+
+### Kääntää ja päivittää kehitystä varten
+
+```
+npm run serve
+```
+
+### Kääntää ja minimoi tuotantoa varten
+
+```
+npm run build
+```
+
+### Tarkistaa ja korjaa tiedostoja
+
+```
+npm run lint
+```
+
+### Mukauta asetuksia
+
+Katso [Configuration Reference](https://cli.vuejs.org/config/).
+
+Kiitokset: Alkuperäisen visailusovelluksen tekijälle: https://github.com/arpan45/simple-quiz-vue
+
+## Julkaisu Azureen
+
+Tässä on vaiheittainen opas, joka auttaa sinua alkuun:
+
+1. Haarauta GitHub-repositorio
+Varmista, että staattisen verkkosovelluksesi koodi on GitHub-repositoriossasi. Haarauta tämä repositorio.
+
+2. Luo Azure Static Web App
+- Luo [Azure-tili](http://azure.microsoft.com)
+- Siirry [Azure-portaaliin](https://portal.azure.com)
+- Klikkaa “Create a resource” ja etsi “Static Web App”.
+- Klikkaa “Create”.
+
+3. Määritä Static Web App
+- Perustiedot: Tilaukset: Valitse Azure-tilauksesi.
+- Resurssiryhmä: Luo uusi resurssiryhmä tai käytä olemassa olevaa.
+- Nimi: Anna staattiselle verkkosovelluksellesi nimi.
+- Alue: Valitse käyttäjiäsi lähin alue.
+
+- #### Julkaisun tiedot:
+- Lähde: Valitse “GitHub”.
+- GitHub-tili: Valtuuta Azure käyttämään GitHub-tiliäsi.
+- Organisaatio: Valitse GitHub-organisaatiosi.
+- Repositorio: Valitse repositorio, joka sisältää staattisen verkkosovelluksesi.
+- Haara: Valitse haara, josta haluat julkaista.
+
+- #### Rakennuksen tiedot:
+- Rakennusasetukset: Valitse kehys, jolla sovelluksesi on rakennettu (esim. React, Angular, Vue jne.).
+- Sovelluksen sijainti: Määritä kansio, joka sisältää sovelluskoodisi (esim. / jos se on juurihakemistossa).
+- API-sijainti: Jos sinulla on API, määritä sen sijainti (valinnainen).
+- Tulosteen sijainti: Määritä kansio, johon rakennuksen tuloste luodaan (esim. build tai dist).
+
+4. Tarkista ja luo
+Tarkista asetuksesi ja klikkaa “Create”. Azure luo tarvittavat resurssit ja luo GitHub Actions -työnkulun repositoriossasi.
+
+5. GitHub Actions -työnkulku
+Azure luo automaattisesti GitHub Actions -työnkulun tiedoston repositoriossasi (.github/workflows/azure-static-web-apps-.yml). Tämä työnkulku hoitaa rakennus- ja julkaisuprosessin.
+
+6. Seuraa julkaisua
+Siirry GitHub-repositoriosi “Actions”-välilehteen.
+Näet työnkulun käynnissä. Tämä työnkulku rakentaa ja julkaisee staattisen verkkosovelluksesi Azureen.
+Kun työnkulku on valmis, sovelluksesi on käytettävissä annetussa Azure-URL-osoitteessa.
+
+### Esimerkki työnkulun tiedostosta
+
+Tässä on esimerkki GitHub Actions -työnkulun tiedostosta:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Lisäresurssit
+- [Azure Static Web Apps Documentation](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Documentation](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäinen asiakirja sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/fi/sketchnotes/README.md b/translations/fi/sketchnotes/README.md
new file mode 100644
index 00000000..b774b7a3
--- /dev/null
+++ b/translations/fi/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Löydä kaikki sketchnotet täältä!
+
+## Tekijät
+
+Nitya Narasimhan, taiteilija
+
+
+
+---
+
+**Vastuuvapauslauseke**:
+Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua [Co-op Translator](https://github.com/Azure/co-op-translator). Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulisi pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmiskäännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/01-defining-data-science/README.md b/translations/no/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..83cc1036
--- /dev/null
+++ b/translations/no/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,80 @@
+
+## Typer av data
+
+Som vi allerede har nevnt, finnes data overalt. Vi må bare fange det på riktig måte! Det er nyttig å skille mellom **strukturert** og **ustrukturert** data. Strukturert data er vanligvis representert i en velorganisert form, ofte som en tabell eller flere tabeller, mens ustrukturert data bare er en samling av filer. Noen ganger kan vi også snakke om **semi-strukturert** data, som har en viss form for struktur som kan variere betydelig.
+
+| Strukturert | Semi-strukturert | Ustrukturert |
+| -----------------------------------------------------------------------------| ----------------------------------------------------------------------------------------------| --------------------------------------- |
+| Liste over personer med telefonnumrene deres | Wikipedia-sider med lenker | Teksten fra Encyclopedia Britannica |
+| Temperatur i alle rom i en bygning hvert minutt de siste 20 årene | Samling av vitenskapelige artikler i JSON-format med forfattere, publiseringsdato og sammendrag | Filarkiv med bedriftsdokumenter |
+| Data om alder og kjønn til alle som går inn i bygningen | Internett-sider | Rå videoopptak fra overvåkningskamera |
+
+## Hvor kan man få tak i data
+
+Det finnes mange mulige kilder til data, og det vil være umulig å liste opp alle! La oss likevel nevne noen typiske steder hvor du kan få tak i data:
+
+* **Strukturert**
+ - **Internet of Things** (IoT), inkludert data fra ulike sensorer, som temperatur- eller trykksensorer, gir mye nyttig data. For eksempel, hvis en kontorbygning er utstyrt med IoT-sensorer, kan vi automatisk kontrollere oppvarming og belysning for å minimere kostnader.
+ - **Undersøkelser** som vi ber brukere om å fylle ut etter et kjøp eller etter å ha besøkt en nettside.
+ - **Analyse av atferd** kan for eksempel hjelpe oss med å forstå hvor dypt en bruker går inn på en nettside, og hva som er den typiske årsaken til at de forlater siden.
+* **Ustrukturert**
+ - **Tekster** kan være en rik kilde til innsikt, som en generell **sentimentscore**, eller ved å trekke ut nøkkelord og semantisk mening.
+ - **Bilder** eller **videoer**. En video fra et overvåkningskamera kan brukes til å estimere trafikken på veien og informere folk om potensielle trafikkorker.
+ - **Loggfiler** fra webservere kan brukes til å forstå hvilke sider på nettstedet vårt som blir mest besøkt, og hvor lenge.
+* **Semi-strukturert**
+ - **Sosiale nettverk**-grafer kan være gode kilder til data om brukernes personligheter og potensielle effektivitet i å spre informasjon.
+ - Når vi har en samling fotografier fra en fest, kan vi prøve å trekke ut data om **gruppedynamikk** ved å bygge en graf over personer som tar bilder sammen.
+
+Ved å kjenne til ulike mulige datakilder, kan du prøve å tenke på forskjellige scenarier hvor data science-teknikker kan brukes for å forstå situasjonen bedre og forbedre forretningsprosesser.
+
+## Hva du kan gjøre med data
+
+I Data Science fokuserer vi på følgende steg i datareisen:
+
+Selvfølgelig, avhengig av den faktiske dataen, kan noen steg mangle (f.eks. når vi allerede har dataen i databasen, eller når vi ikke trenger modelltrening), eller noen steg kan gjentas flere ganger (som databehandling).
+
+## Digitalisering og digital transformasjon
+
+I løpet av det siste tiåret har mange bedrifter begynt å forstå viktigheten av data når de tar forretningsbeslutninger. For å anvende prinsippene for data science i en bedrift, må man først samle inn data, altså oversette forretningsprosesser til digital form. Dette kalles **digitalisering**. Å bruke data science-teknikker på denne dataen for å veilede beslutninger kan føre til betydelige produktivitetsøkninger (eller til og med en forretningspivot), kjent som **digital transformasjon**.
+
+La oss se på et eksempel. Anta at vi har et data science-kurs (som dette) som vi leverer online til studenter, og vi ønsker å bruke data science for å forbedre det. Hvordan kan vi gjøre det?
+
+Vi kan starte med å spørre "Hva kan digitaliseres?" Den enkleste måten ville være å måle tiden det tar for hver student å fullføre hver modul, og å måle den oppnådde kunnskapen ved å gi en flervalgsprøve på slutten av hver modul. Ved å beregne gjennomsnittlig tid til fullføring på tvers av alle studenter, kan vi finne ut hvilke moduler som skaper mest utfordringer for studentene, og jobbe med å forenkle dem.
+> Du kan argumentere for at denne tilnærmingen ikke er optimal, fordi moduler kan ha ulik lengde. Det er sannsynligvis mer rettferdig å dele tiden på lengden av modulen (i antall tegn) og sammenligne disse verdiene i stedet.
+Når vi begynner å analysere resultatene av flervalgstester, kan vi prøve å finne ut hvilke konsepter studentene har vanskeligheter med å forstå, og bruke den informasjonen til å forbedre innholdet. For å gjøre dette må vi designe tester slik at hvert spørsmål kobles til et bestemt konsept eller kunnskapsområde.
+
+Hvis vi vil gjøre det enda mer komplisert, kan vi plotte tiden brukt på hver modul mot alderskategorien til studentene. Vi kan oppdage at det for noen alderskategorier tar uforholdsmessig lang tid å fullføre modulen, eller at studentene slutter før de fullfører. Dette kan hjelpe oss med å gi aldersanbefalinger for modulen og minimere misnøye på grunn av feil forventninger.
+
+## 🚀 Utfordring
+
+I denne utfordringen skal vi prøve å finne konsepter som er relevante for feltet Data Science ved å se på tekster. Vi skal ta en Wikipedia-artikkel om Data Science, laste ned og behandle teksten, og deretter lage en ordsky som denne:
+
+
+
+Besøk [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') for å lese gjennom koden. Du kan også kjøre koden og se hvordan den utfører alle datatransformasjoner i sanntid.
+
+> Hvis du ikke vet hvordan du kjører kode i en Jupyter Notebook, ta en titt på [denne artikkelen](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Oppgaver
+
+* **Oppgave 1**: Endre koden ovenfor for å finne relaterte konsepter for feltene **Big Data** og **Maskinlæring**
+* **Oppgave 2**: [Tenk på Data Science-scenarier](assignment.md)
+
+## Kreditering
+
+Denne leksjonen er skrevet med ♥️ av [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/01-defining-data-science/assignment.md b/translations/no/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..1235225b
--- /dev/null
+++ b/translations/no/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Oppgave: Datascience-scenarier
+
+I denne første oppgaven ber vi deg tenke på en reell prosess eller et problem innen forskjellige problemområder, og hvordan du kan forbedre det ved hjelp av datascience-prosessen. Tenk på følgende:
+
+1. Hvilke data kan du samle inn?
+1. Hvordan ville du samle inn dataene?
+1. Hvordan ville du lagre dataene? Hvor store er dataene sannsynligvis?
+1. Hvilke innsikter kan du få fra disse dataene? Hvilke beslutninger kan vi ta basert på dataene?
+
+Prøv å tenke på 3 forskjellige problemer/prosesser og beskriv hvert av punktene ovenfor for hvert problemområde.
+
+Her er noen problemområder og problemer som kan hjelpe deg i gang med å tenke:
+
+1. Hvordan kan du bruke data til å forbedre utdanningsprosessen for barn i skoler?
+1. Hvordan kan du bruke data til å kontrollere vaksinering under pandemien?
+1. Hvordan kan du bruke data til å sikre at du er produktiv på jobb?
+
+## Instruksjoner
+
+Fyll ut følgende tabell (erstatt foreslåtte problemområder med dine egne hvis nødvendig):
+
+| Problemområde | Problem | Hvilke data å samle inn | Hvordan lagre dataene | Hvilke innsikter/beslutninger vi kan ta |
+|---------------|---------|-------------------------|------------------------|-----------------------------------------|
+| Utdanning | | | | |
+| Vaksinering | | | | |
+| Produktivitet | | | | |
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Man klarte å identifisere rimelige datakilder, måter å lagre data på og mulige beslutninger/innsikter for alle problemområder | Noen aspekter av løsningen er ikke detaljert, datalagring er ikke diskutert, minst 2 problemområder er beskrevet | Bare deler av dataløsningen er beskrevet, kun ett problemområde er vurdert.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/no/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..68776c53
--- /dev/null
+++ b/translations/no/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Oppgave: Datascience-scenarier
+
+I denne første oppgaven ber vi deg tenke på noen virkelige prosesser eller problemer innen ulike problemområder, og hvordan du kan forbedre dem ved hjelp av datascience-prosessen. Tenk på følgende:
+
+1. Hvilke data kan du samle inn?
+1. Hvordan ville du samle dem inn?
+1. Hvordan ville du lagre dataene? Hvor store er dataene sannsynligvis?
+1. Hvilke innsikter kan du få fra disse dataene? Hvilke beslutninger kan vi ta basert på dataene?
+
+Prøv å tenke på 3 forskjellige problemer/prosesser og beskriv hvert av punktene ovenfor for hvert problemområde.
+
+Her er noen problemområder og problemer som kan hjelpe deg i gang:
+
+1. Hvordan kan du bruke data for å forbedre utdanningsprosessen for barn i skoler?
+1. Hvordan kan du bruke data for å kontrollere vaksinering under pandemien?
+1. Hvordan kan du bruke data for å sikre at du er produktiv på jobb?
+
+## Instruksjoner
+
+Fyll ut følgende tabell (erstatt foreslåtte problemområder med dine egne hvis nødvendig):
+
+| Problemområde | Problem | Hvilke data skal samles inn | Hvordan lagre dataene | Hvilke innsikter/beslutninger kan vi ta |
+|---------------|---------|----------------------------|-----------------------|----------------------------------------|
+| Utdanning | På universitetet har vi typisk lav oppmøte til forelesninger, og vi har en hypotese om at studenter som deltar på forelesninger i gjennomsnitt gjør det bedre på eksamener. Vi ønsker å stimulere oppmøte og teste hypotesen. | Vi kan spore oppmøte gjennom bilder tatt av sikkerhetskameraet i klasserommet, eller ved å spore bluetooth/wifi-adresser til studentenes mobiltelefoner i klasserommet. Eksamensdata er allerede tilgjengelig i universitetets database. | Hvis vi sporer bilder fra sikkerhetskameraer - må vi lagre noen få (5-10) fotografier under forelesningen (ustrukturerte data), og deretter bruke AI for å identifisere ansiktene til studentene (konvertere data til strukturert form). | Vi kan beregne gjennomsnittlig oppmøtedata for hver student og se om det er noen korrelasjon med eksamenskarakterer. Vi vil snakke mer om korrelasjon i [sannsynlighet og statistikk](../../04-stats-and-probability/README.md)-seksjonen. For å stimulere studentoppmøte kan vi publisere den ukentlige oppmøterangeringen på skolens portal og trekke premier blant de med høyest oppmøte. |
+| Vaksinering | | | | |
+| Produktivitet | | | | |
+
+> *Vi gir bare ett svar som et eksempel, slik at du kan få en idé om hva som forventes i denne oppgaven.*
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Man klarte å identifisere rimelige datakilder, måter å lagre data på og mulige beslutninger/innsikter for alle problemområder | Noen aspekter av løsningen er ikke detaljert, datalagring er ikke diskutert, minst 2 problemområder er beskrevet | Bare deler av dataløsningen er beskrevet, kun ett problemområde er vurdert.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/02-ethics/README.md b/translations/no/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..51b4def6
--- /dev/null
+++ b/translations/no/1-Introduction/02-ethics/README.md
@@ -0,0 +1,267 @@
+
+# Introduksjon til Dataetikk
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Data Science Ethics - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Vi er alle databorgerne som lever i en datafisert verden.
+
+Markedsanalyser viser at innen 2022 vil 1 av 3 store organisasjoner kjøpe og selge dataene sine gjennom nettbaserte [markedsplasser og børser](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Som **apputviklere** vil vi oppleve at det blir enklere og billigere å integrere datadrevne innsikter og algoritmestyrt automatisering i daglige brukeropplevelser. Men etter hvert som AI blir mer utbredt, må vi også forstå de potensielle skadene som kan oppstå ved [våpenisering](https://www.youtube.com/watch?v=TQHs8SA1qpk) av slike algoritmer i stor skala.
+
+Trender viser også at vi innen 2025 vil skape og konsumere over [180 zettabyte](https://www.statista.com/statistics/871513/worldwide-data-created/) med data. Som **datascientists** gir dette oss enestående tilgang til personopplysninger. Dette betyr at vi kan bygge atferdsprofiler av brukere og påvirke beslutningstaking på måter som skaper en [illusjon av fritt valg](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), samtidig som vi potensielt dytter brukere mot utfall vi foretrekker. Det reiser også større spørsmål om databeskyttelse og brukerrettigheter.
+
+Dataetikk er nå _nødvendige retningslinjer_ for datavitenskap og ingeniørarbeid, som hjelper oss med å minimere potensielle skader og utilsiktede konsekvenser av våre datadrevne handlinger. [Gartner Hype Cycle for AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifiserer relevante trender innen digital etikk, ansvarlig AI og AI-styring som nøkkeldrivere for større megatrender rundt _demokratisering_ og _industrialisering_ av AI.
+
+
+
+I denne leksjonen skal vi utforske det fascinerende området dataetikk - fra kjernebegreper og utfordringer til casestudier og anvendte AI-konsepter som styring - som bidrar til å etablere en etikkultur i team og organisasjoner som jobber med data og AI.
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Grunnleggende definisjoner
+
+La oss starte med å forstå grunnleggende terminologi.
+
+Ordet "etikk" kommer fra det [greske ordet "ethikos"](https://en.wikipedia.org/wiki/Ethics) (og roten "ethos") som betyr _karakter eller moralsk natur_.
+
+**Etikk** handler om de delte verdiene og moralske prinsippene som styrer vår oppførsel i samfunnet. Etikk er ikke basert på lover, men på allment aksepterte normer for hva som er "riktig vs. galt". Likevel kan etiske vurderinger påvirke initiativer for selskapsstyring og myndighetsreguleringer som skaper flere insentiver for samsvar.
+
+**Dataetikk** er en [ny gren av etikk](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) som "studerer og evaluerer moralske problemer knyttet til _data, algoritmer og tilhørende praksiser_". Her fokuserer **"data"** på handlinger knyttet til generering, registrering, kuratering, behandling, spredning, deling og bruk, **"algoritmer"** på AI, agenter, maskinlæring og roboter, og **"praksiser"** på temaer som ansvarlig innovasjon, programmering, hacking og etiske koder.
+
+**Anvendt etikk** er den [praktiske anvendelsen av moralske vurderinger](https://en.wikipedia.org/wiki/Applied_ethics). Det er prosessen med aktivt å undersøke etiske spørsmål i konteksten av _virkelige handlinger, produkter og prosesser_, og ta korrigerende tiltak for å sikre at disse forblir i tråd med våre definerte etiske verdier.
+
+**Etikkultur** handler om [_operasjonalisering_ av anvendt etikk](https://hbr.org/2019/05/how-to-design-an-ethical-organization) for å sikre at våre etiske prinsipper og praksiser blir vedtatt på en konsekvent og skalerbar måte i hele organisasjonen. Vellykkede etikkulturer definerer organisasjonsomfattende etiske prinsipper, gir meningsfulle insentiver for samsvar og forsterker etiske normer ved å oppmuntre og forsterke ønsket atferd på alle nivåer i organisasjonen.
+
+## Etiske konsepter
+
+I denne delen skal vi diskutere konsepter som **delte verdier** (prinsipper) og **etiske utfordringer** (problemer) for dataetikk - og utforske **casestudier** som hjelper deg med å forstå disse konseptene i virkelige sammenhenger.
+
+### 1. Etiske prinsipper
+
+Hver dataetikkstrategi begynner med å definere _etiske prinsipper_ - de "delte verdiene" som beskriver akseptabel atferd og veileder samsvarende handlinger i våre data- og AI-prosjekter. Du kan definere disse på individ- eller teamnivå. Imidlertid skisserer de fleste store organisasjoner disse i en _etisk AI_-misjonserklæring eller rammeverk som er definert på bedriftsnivå og håndheves konsekvent på tvers av alle team.
+
+**Eksempel:** Microsofts [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai)-misjonserklæring lyder: _"Vi er forpliktet til å fremme AI drevet av etiske prinsipper som setter mennesker først"_ - og identifiserer 6 etiske prinsipper i rammeverket nedenfor:
+
+
+
+La oss kort utforske disse prinsippene. _Åpenhet_ og _ansvarlighet_ er grunnleggende verdier som de andre prinsippene bygger på - så la oss starte der:
+
+* [**Ansvarlighet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) gjør utøvere _ansvarlige_ for sine data- og AI-operasjoner og samsvar med disse etiske prinsippene.
+* [**Åpenhet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) sikrer at data- og AI-handlinger er _forståelige_ (tolkbare) for brukere, og forklarer hva og hvorfor bak beslutninger.
+* [**Rettferdighet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) fokuserer på å sikre at AI behandler _alle mennesker_ rettferdig, og adresserer eventuelle systemiske eller implisitte sosio-tekniske skjevheter i data og systemer.
+* [**Pålitelighet og sikkerhet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) sikrer at AI oppfører seg _konsekvent_ med definerte verdier, og minimerer potensielle skader eller utilsiktede konsekvenser.
+* [**Personvern og sikkerhet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) handler om å forstå dataenes opprinnelse og gi _personvern og relaterte beskyttelser_ til brukere.
+* [**Inkludering**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) handler om å designe AI-løsninger med intensjon, og tilpasse dem for å møte et _bredt spekter av menneskelige behov_ og evner.
+
+> 🚨 Tenk på hva din dataetikk-misjonserklæring kunne vært. Utforsk etiske AI-rammeverk fra andre organisasjoner - her er eksempler fra [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) og [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Hvilke delte verdier har de til felles? Hvordan relaterer disse prinsippene seg til AI-produktet eller bransjen de opererer i?
+
+### 2. Etiske utfordringer
+
+Når vi har definert etiske prinsipper, er neste steg å evaluere våre data- og AI-handlinger for å se om de er i tråd med disse delte verdiene. Tenk på handlingene dine i to kategorier: _datainnsamling_ og _algoritmedesign_.
+
+Ved datainnsamling vil handlinger sannsynligvis involvere **personopplysninger** eller personlig identifiserbar informasjon (PII) for identifiserbare levende individer. Dette inkluderer [mangfoldige elementer av ikke-personlige data](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) som _samlet sett_ identifiserer en person. Etiske utfordringer kan relatere seg til _personvern_, _dataeierskap_ og relaterte temaer som _informert samtykke_ og _immaterielle rettigheter_ for brukere.
+
+Ved algoritmedesign vil handlinger involvere innsamling og kuratering av **datasett**, og deretter bruke dem til å trene og distribuere **datamodeller** som forutsier utfall eller automatiserer beslutninger i virkelige sammenhenger. Etiske utfordringer kan oppstå fra _datasett-skjevhet_, _datakvalitetsproblemer_, _urettferdighet_ og _feilrepresentasjon_ i algoritmer - inkludert noen problemer som er systemiske i natur.
+
+I begge tilfeller fremhever etiske utfordringer områder der våre handlinger kan komme i konflikt med våre delte verdier. For å oppdage, redusere, minimere eller eliminere disse bekymringene må vi stille moralske "ja/nei"-spørsmål knyttet til våre handlinger, og deretter ta korrigerende tiltak etter behov. La oss se på noen etiske utfordringer og de moralske spørsmålene de reiser:
+
+#### 2.1 Dataeierskap
+
+Datainnsamling involverer ofte personopplysninger som kan identifisere datasubjektene. [Dataeierskap](https://permission.io/blog/data-ownership) handler om _kontroll_ og [_brukerrettigheter_](https://permission.io/blog/data-ownership) knyttet til opprettelse, behandling og spredning av data.
+
+De moralske spørsmålene vi må stille er:
+ * Hvem eier dataene? (bruker eller organisasjon)
+ * Hvilke rettigheter har datasubjektene? (f.eks. tilgang, sletting, portabilitet)
+ * Hvilke rettigheter har organisasjoner? (f.eks. rette opp ondsinnede brukeranmeldelser)
+
+#### 2.2 Informert samtykke
+
+[Informert samtykke](https://legaldictionary.net/informed-consent/) definerer handlingen der brukere gir tillatelse til en handling (som datainnsamling) med en _full forståelse_ av relevante fakta, inkludert formål, potensielle risikoer og alternativer.
+
+Spørsmål å utforske her er:
+ * Ga brukeren (datasubjektet) tillatelse til datainnsamling og bruk?
+ * Forsto brukeren formålet med at dataene ble samlet inn?
+ * Forsto brukeren de potensielle risikoene ved deres deltakelse?
+
+#### 2.3 Immaterielle rettigheter
+
+[Immaterielle rettigheter](https://en.wikipedia.org/wiki/Intellectual_property) refererer til immaterielle skapelser som følge av menneskelig initiativ, som kan _ha økonomisk verdi_ for enkeltpersoner eller virksomheter.
+
+Spørsmål å utforske her er:
+ * Hadde de innsamlede dataene økonomisk verdi for en bruker eller virksomhet?
+ * Har **brukeren** immaterielle rettigheter her?
+ * Har **organisasjonen** immaterielle rettigheter her?
+ * Hvis disse rettighetene eksisterer, hvordan beskytter vi dem?
+
+#### 2.4 Datapersonvern
+
+[Datapersonvern](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) eller informasjonsvern refererer til bevaring av brukerens personvern og beskyttelse av brukerens identitet med hensyn til personlig identifiserbar informasjon.
+
+Spørsmål å utforske her er:
+ * Er brukernes (personlige) data sikret mot hacking og lekkasjer?
+ * Er brukernes data kun tilgjengelig for autoriserte brukere og kontekster?
+ * Bevares brukernes anonymitet når data deles eller spres?
+ * Kan en bruker bli avidentifisert fra anonymiserte datasett?
+
+#### 2.5 Rett til å bli glemt
+
+[Rett til å bli glemt](https://en.wikipedia.org/wiki/Right_to_be_forgotten) eller [rett til sletting](https://www.gdpreu.org/right-to-be-forgotten/) gir ekstra beskyttelse av personopplysninger til brukere. Spesielt gir det brukere rett til å be om sletting eller fjerning av personopplysninger fra internett og andre steder, _under spesifikke omstendigheter_ - slik at de kan starte på nytt uten at tidligere handlinger holdes mot dem.
+
+Spørsmål å utforske her er:
+ * Tillater systemet datasubjekter å be om sletting?
+ * Bør tilbaketrekking av brukersamtykke utløse automatisk sletting?
+ * Ble data samlet inn uten samtykke eller på ulovlig vis?
+ * Er vi i samsvar med myndighetsreguleringer for databeskyttelse?
+
+#### 2.6 Datasett-skjevhet
+
+Datasett- eller [innsamlingsskjevhet](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) handler om å velge et _ikke-representativt_ datasett for algoritmeutvikling, noe som kan skape potensielle urettferdigheter i resultatene for ulike grupper. Typer skjevhet inkluderer utvalgs- eller prøvetakingsskjevhet, frivillighetsskjevhet og instrumentell skjevhet.
+
+Spørsmål å utforske her er:
+ * Rekrutterte vi et representativt sett med datasubjekter?
+ * Testet vi vårt innsamlede eller kuraterte datasett for ulike skjevheter?
+ * Kan vi redusere eller fjerne oppdagede skjevheter?
+
+#### 2.7 Datakvalitet
+
+[Datakvalitet](https://lakefs.io/data-quality-testing/) ser på gyldigheten av det kuraterte datasettet som brukes til å utvikle algoritmene våre, og sjekker om funksjoner og poster oppfyller kravene til nøyaktighet og konsistens som trengs for vårt AI-formål.
+
+Spørsmål å utforske her er:
+ * Fanget vi gyldige _funksjoner_ for vårt brukstilfelle?
+ * Ble data fanget _konsistent_ på tvers av ulike datakilder?
+ * Er datasettet _komplett_ for ulike forhold eller scenarier?
+ * Er informasjonen fanget _nøyaktig_ i å gjenspeile virkeligheten?
+
+#### 2.8 Algoritme-rettferdighet
+[Algorithmisk rettferdighet](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) undersøker om algoritmedesign systematisk diskriminerer spesifikke undergrupper av datasubjekter, noe som kan føre til [potensielle skader](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) innen _fordeling_ (der ressurser nektes eller holdes tilbake fra en gruppe) og _tjenestekvalitet_ (der AI ikke er like nøyaktig for noen undergrupper som for andre).
+
+Spørsmål å utforske her er:
+ * Evaluerte vi modellens nøyaktighet for ulike undergrupper og forhold?
+ * Undersøkte vi systemet for potensielle skader (f.eks. stereotypier)?
+ * Kan vi revidere data eller trene opp modeller på nytt for å redusere identifiserte skader?
+
+Utforsk ressurser som [AI Fairness-sjekklister](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) for å lære mer.
+
+#### 2.9 Feilrepresentasjon
+
+[Feilrepresentasjon av data](https://www.sciencedirect.com/topics/computer-science/misrepresentation) handler om å spørre om vi kommuniserer innsikter fra ærlig rapporterte data på en villedende måte for å støtte en ønsket fortelling.
+
+Spørsmål å utforske her er:
+ * Rapporterer vi ufullstendige eller unøyaktige data?
+ * Visualiserer vi data på en måte som fører til misvisende konklusjoner?
+ * Bruker vi selektive statistiske teknikker for å manipulere resultater?
+ * Finnes det alternative forklaringer som kan gi en annen konklusjon?
+
+#### 2.10 Fri vilje
+[Illusjonen av fri vilje](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) oppstår når systemets "valgarkitekturer" bruker beslutningsalgoritmer for å dytte folk mot et foretrukket utfall, samtidig som det ser ut som om de har alternativer og kontroll. Disse [mørke mønstrene](https://www.darkpatterns.org/) kan forårsake sosial og økonomisk skade for brukere. Fordi brukerbeslutninger påvirker atferdsprofiler, kan disse handlingene potensielt drive fremtidige valg som forsterker eller utvider skaden.
+
+Spørsmål å utforske her er:
+ * Forsto brukeren konsekvensene av å ta det valget?
+ * Var brukeren klar over (alternative) valg og fordeler og ulemper ved hvert av dem?
+ * Kan brukeren omgjøre et automatisert eller påvirket valg senere?
+
+### 3. Case-studier
+
+For å sette disse etiske utfordringene i en virkelighetsnær kontekst, kan det være nyttig å se på case-studier som fremhever potensielle skader og konsekvenser for enkeltpersoner og samfunnet når slike etiske brudd overses.
+
+Her er noen eksempler:
+
+| Etisk utfordring | Case-studie |
+|--- |--- |
+| **Informert samtykke** | 1972 - [Tuskegee-syfilisstudien](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afroamerikanske menn som deltok i studien ble lovet gratis medisinsk behandling, _men ble lurt_ av forskere som ikke informerte dem om diagnosen eller tilgjengelig behandling. Mange døde, og partnere eller barn ble påvirket; studien varte i 40 år. |
+| **Datapersonvern** | 2007 - [Netflix data-prisen](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ga forskere _10M anonymiserte filmvurderinger fra 50K kunder_ for å forbedre anbefalingsalgoritmer. Forskere klarte imidlertid å korrelere anonymiserte data med personlig identifiserbare data i _eksterne datasett_ (f.eks. IMDb-kommentarer), og "de-anonymiserte" dermed noen Netflix-abonnenter.|
+| **Innsamlingsskjevhet** | 2013 - Byen Boston [utviklet Street Bump](https://www.boston.gov/transportation/street-bump), en app som lot innbyggere rapportere hull i veien, og ga byen bedre data for å finne og fikse problemer. Men [folk i lavinntektsgrupper hadde mindre tilgang til biler og telefoner](https://hbr.org/2013/04/the-hidden-biases-in-big-data), noe som gjorde deres veiutfordringer usynlige i appen. Utviklerne samarbeidet med akademikere for å løse _rettferdig tilgang og digitale skiller_. |
+| **Algoritmisk rettferdighet** | 2018 - MITs [Gender Shades-studie](http://gendershades.org/overview.html) evaluerte nøyaktigheten til AI-produkter for kjønnsidentifikasjon og avdekket forskjeller i nøyaktighet for kvinner og personer med mørk hud. Et [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) så ut til å tilby mindre kreditt til kvinner enn menn. Begge eksemplene illustrerer problemer med algoritmisk skjevhet som fører til sosioøkonomiske skader.|
+| **Feilrepresentasjon av data** | 2020 - [Georgia Department of Public Health publiserte COVID-19-diagrammer](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) som så ut til å villede innbyggerne om trender i bekreftede tilfeller ved å bruke ikke-kronologisk rekkefølge på x-aksen. Dette illustrerer feilrepresentasjon gjennom visualiseringstriks. |
+| **Illusjon av fri vilje** | 2020 - Læringsappen [ABCmouse betalte $10M for å løse en FTC-klage](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) der foreldre ble fanget i å betale for abonnementer de ikke kunne kansellere. Dette illustrerer mørke mønstre i valgarkitekturer, der brukere ble dyttet mot potensielt skadelige valg. |
+| **Datapersonvern og brukerrettigheter** | 2021 - Facebook [datainnbrudd](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) eksponerte data fra 530M brukere, noe som resulterte i et forlik på $5B med FTC. Facebook nektet imidlertid å varsle brukerne om bruddet, noe som krenket brukernes rettigheter til datatransparens og tilgang. |
+
+Vil du utforske flere case-studier? Sjekk ut disse ressursene:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - etiske dilemmaer på tvers av ulike bransjer.
+* [Data Science Ethics-kurs](https://www.coursera.org/learn/data-science-ethics#syllabus) - utforsker viktige case-studier.
+* [Hvor ting har gått galt](https://deon.drivendata.org/examples/) - deon-sjekkliste med eksempler.
+
+> 🚨 Tenk på case-studiene du har sett – har du opplevd, eller blitt påvirket av, en lignende etisk utfordring i ditt liv? Kan du komme på minst én annen case-studie som illustrerer en av de etiske utfordringene vi har diskutert i denne delen?
+
+## Anvendt etikk
+
+Vi har snakket om etiske konsepter, utfordringer og case-studier i virkelighetsnære kontekster. Men hvordan kommer vi i gang med å _anvende_ etiske prinsipper og praksiser i prosjektene våre? Og hvordan kan vi _operasjonalisere_ disse praksisene for bedre styring? La oss utforske noen løsninger fra virkeligheten:
+
+### 1. Profesjonelle retningslinjer
+
+Profesjonelle retningslinjer tilbyr en måte for organisasjoner å "incentivere" medlemmer til å støtte deres etiske prinsipper og misjonserklæring. Retningslinjer er _moralske veiledninger_ for profesjonell atferd, som hjelper ansatte eller medlemmer med å ta beslutninger som samsvarer med organisasjonens prinsipper. De er kun effektive dersom medlemmene frivillig følger dem; mange organisasjoner tilbyr imidlertid belønninger og sanksjoner for å motivere etterlevelse.
+
+Eksempler inkluderer:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (opprettet 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (siden 1993)
+
+> 🚨 Tilhører du en profesjonell ingeniør- eller dataorganisasjon? Utforsk nettsiden deres for å se om de definerer en profesjonell etikkodeks. Hva sier dette om deres etiske prinsipper? Hvordan "incentiverer" de medlemmene til å følge kodeksen?
+
+### 2. Etiske sjekklister
+
+Mens profesjonelle retningslinjer definerer nødvendig _etisk atferd_ fra utøvere, har de [kjente begrensninger](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) i håndhevelse, spesielt i storskala prosjekter. Mange eksperter innen datafag [foreslår sjekklister](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) som kan **koble prinsipper til praksis** på mer deterministiske og handlingsrettede måter.
+
+Sjekklister omgjør spørsmål til "ja/nei"-oppgaver som kan operasjonaliseres, slik at de kan spores som en del av standard arbeidsflyter for produktlansering.
+
+Eksempler inkluderer:
+ * [Deon](https://deon.drivendata.org/) - en generell sjekkliste for dataetikk laget fra [bransjeanbefalinger](https://deon.drivendata.org/#checklist-citations) med et kommandolinjeverktøy for enkel integrasjon.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - gir generell veiledning for informasjonsbehandling fra juridiske og sosiale eksponeringsperspektiver.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - laget av AI-utøvere for å støtte adopsjon og integrasjon av rettferdighetssjekker i AI-utviklingssykluser.
+ * [22 spørsmål for etikk i data og AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - en mer åpen ramme, strukturert for innledende utforskning av etiske problemstillinger i design, implementering og organisatoriske kontekster.
+
+### 3. Etiske reguleringer
+
+Etikk handler om å definere felles verdier og gjøre det rette _frivillig_. **Etterlevelse** handler om _å følge loven_ der den er definert. **Styring** dekker bredt alle måtene organisasjoner opererer på for å håndheve etiske prinsipper og overholde etablerte lover.
+
+I dag tar styring to former i organisasjoner. For det første handler det om å definere **etiske AI-prinsipper** og etablere praksiser for å operasjonalisere adopsjon på tvers av alle AI-relaterte prosjekter i organisasjonen. For det andre handler det om å overholde alle myndighetspålagte **databeskyttelsesreguleringer** for regionene de opererer i.
+
+Eksempler på databeskyttelses- og personvernreguleringer:
+
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - regulerer _føderal regjering_ sin innsamling, bruk og deling av personlig informasjon.
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - beskytter personlig helsedata.
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - beskytter barns personvern under 13 år.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - gir brukere rettigheter, databeskyttelse og personvern.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) gir forbrukere flere _rettigheter_ over deres (personlige) data.
+ * `2021`, Kinas [Personopplysningslov](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) ble nylig vedtatt og skaper en av verdens sterkeste personvernreguleringer på nett.
+
+> 🚨 Den europeiske unionens GDPR (General Data Protection Regulation) er fortsatt en av de mest innflytelsesrike personvernreguleringene i dag. Visste du at den også definerer [8 brukerrettigheter](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) for å beskytte borgernes digitale personvern og personopplysninger? Lær om hva disse er, og hvorfor de er viktige.
+
+### 4. Etisk kultur
+
+Merk at det fortsatt er et immaterielt gap mellom _etterlevelse_ (å gjøre nok for å oppfylle "lovens bokstav") og å adressere [systemiske problemer](https://www.coursera.org/learn/data-science-ethics/home/week/4) (som fastlåsthet, informasjonsasymmetri og fordelingsmessig urettferdighet) som kan akselerere våpeniseringen av AI.
+
+Det sistnevnte krever [samarbeidende tilnærminger for å definere etiske kulturer](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) som bygger emosjonelle forbindelser og konsistente felles verdier _på tvers av organisasjoner_ i bransjen. Dette krever mer [formaliserte dataetiske kulturer](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) i organisasjoner – som lar _hvem som helst_ [trekke Andon-snoren](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (for å reise etiske bekymringer tidlig i prosessen) og gjør _etiske vurderinger_ (f.eks. i ansettelser) til et kjernekrav for teamdannelse i AI-prosjekter.
+
+---
+## [Etterforelesningsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Gjennomgang og selvstudium
+
+Kurs og bøker hjelper med å forstå kjernebegreper og utfordringer innen etikk, mens case-studier og verktøy hjelper med anvendt etikk i virkelige kontekster. Her er noen ressurser for å komme i gang:
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - leksjon om rettferdighet, fra Microsoft.
+* [Prinsipper for ansvarlig AI](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - gratis læringssti fra Microsoft Learn.
+* [Etikk og datavitenskap](https://resources.oreilly.com/examples/0636920203964) - O'Reilly EBook (M. Loukides, H. Mason m.fl.)
+* [Etikk innen datavitenskap](https://www.coursera.org/learn/data-science-ethics#syllabus) - nettkurs fra University of Michigan.
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - casestudier fra University of Texas.
+
+# Oppgave
+
+[Skriv en casestudie om dataetikk](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/02-ethics/assignment.md b/translations/no/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..515f759b
--- /dev/null
+++ b/translations/no/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Skriv en case-studie om dataetikk
+
+## Instruksjoner
+
+Du har lært om ulike [utfordringer innen dataetikk](README.md#2-ethics-challenges) og sett noen eksempler på [case-studier](README.md#3-case-studies) som reflekterer utfordringer innen dataetikk i virkelige situasjoner.
+
+I denne oppgaven skal du skrive din egen case-studie som reflekterer en utfordring innen dataetikk fra din egen erfaring, eller fra en relevant virkelighetsnær kontekst du er kjent med. Følg bare disse stegene:
+
+1. `Velg en utfordring innen dataetikk`. Se på [eksemplene fra leksjonen](README.md#2-ethics-challenges) eller utforsk eksempler på nettet, som [Deon-sjekklisten](https://deon.drivendata.org/examples/) for inspirasjon.
+
+2. `Beskriv et virkelighetsnært eksempel`. Tenk på en situasjon du har hørt om (nyhetsoverskrifter, forskningsstudie osv.) eller opplevd (lokalsamfunn), der denne spesifikke utfordringen oppsto. Reflekter over spørsmålene knyttet til dataetikk i denne utfordringen – og diskuter de potensielle skadene eller utilsiktede konsekvensene som oppstår på grunn av dette problemet. Bonuspoeng: Tenk på mulige løsninger eller prosesser som kan brukes her for å eliminere eller redusere den negative effekten av denne utfordringen.
+
+3. `Gi en liste over relaterte ressurser`. Del én eller flere ressurser (lenker til en artikkel, en personlig bloggpost eller bilde, en forskningsartikkel på nettet osv.) for å bevise at dette var en virkelighetsnær hendelse. Bonuspoeng: Del ressurser som også viser de potensielle skadene og konsekvensene av hendelsen, eller fremhever positive tiltak som ble tatt for å forhindre at det skjer igjen.
+
+
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+En eller flere utfordringer innen dataetikk er identifisert.
Case-studien beskriver tydelig en virkelighetsnær hendelse som reflekterer denne utfordringen, og fremhever uønskede konsekvenser eller skader den forårsaket.
Det er minst én lenket ressurs som beviser at dette skjedde. | Én utfordring innen dataetikk er identifisert.
Minst én relevant skade eller konsekvens er diskutert kort.
Diskusjonen er imidlertid begrenset eller mangler bevis på virkelighetsnær hendelse. | En utfordring innen dataetikk er identifisert.
Beskrivelsen eller ressursene reflekterer imidlertid ikke tilstrekkelig utfordringen eller beviser dens virkelighetsnære forekomst. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/03-defining-data/README.md b/translations/no/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..ee4e9c21
--- /dev/null
+++ b/translations/no/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,84 @@
+
+# Definere Data
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definere Data - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Data er fakta, informasjon, observasjoner og målinger som brukes til å gjøre oppdagelser og støtte informerte beslutninger. Et datapunkt er en enkelt enhet av data innenfor et datasett, som er en samling av datapunkter. Datasett kan komme i ulike formater og strukturer, og vil vanligvis være basert på kilden, eller hvor dataene kommer fra. For eksempel kan en bedrifts månedlige inntekter være i et regneark, mens timebaserte pulsmålinger fra en smartklokke kan være i [JSON](https://stackoverflow.com/a/383699)-format. Det er vanlig for dataforskere å jobbe med ulike typer data innenfor et datasett.
+
+Denne leksjonen fokuserer på å identifisere og klassifisere data basert på deres egenskaper og kilder.
+
+## [Forhåndsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## Hvordan Data Beskrives
+
+### Rådata
+Rådata er data som kommer fra kilden i sin opprinnelige tilstand og som ikke har blitt analysert eller organisert. For å forstå hva som skjer med et datasett, må det organiseres i et format som kan forstås av både mennesker og teknologien de bruker for videre analyse. Strukturen til et datasett beskriver hvordan det er organisert og kan klassifiseres som strukturert, ustrukturert og semi-strukturert. Disse strukturtypene vil variere avhengig av kilden, men vil til slutt passe inn i disse tre kategoriene.
+
+### Kvantitative Data
+Kvantitative data er numeriske observasjoner innenfor et datasett og kan vanligvis analyseres, måles og brukes matematisk. Noen eksempler på kvantitative data er: et lands befolkning, en persons høyde eller en bedrifts kvartalsvise inntekter. Med ytterligere analyse kan kvantitative data brukes til å oppdage sesongtrender i luftkvalitetsindeksen (AQI) eller estimere sannsynligheten for rushtidstrafikk på en typisk arbeidsdag.
+
+### Kvalitative Data
+Kvalitative data, også kjent som kategoriske data, er data som ikke kan måles objektivt som observasjoner av kvantitative data. Det er generelt ulike formater av subjektive data som fanger kvaliteten på noe, som et produkt eller en prosess. Noen ganger er kvalitative data numeriske, men brukes vanligvis ikke matematisk, som telefonnumre eller tidsstempler. Noen eksempler på kvalitative data er: videokommentarer, merke og modell på en bil eller favorittfargen til dine nærmeste venner. Kvalitative data kan brukes til å forstå hvilke produkter forbrukere liker best eller til å identifisere populære nøkkelord i jobbsøknader.
+
+### Strukturert Data
+Strukturert data er data som er organisert i rader og kolonner, der hver rad har det samme settet med kolonner. Kolonner representerer en verdi av en bestemt type og vil bli identifisert med et navn som beskriver hva verdien representerer, mens rader inneholder de faktiske verdiene. Kolonner vil ofte ha et spesifikt sett med regler eller begrensninger på verdiene for å sikre at verdiene nøyaktig representerer kolonnen. For eksempel, tenk deg et regneark med kunder der hver rad må ha et telefonnummer, og telefonnumrene aldri inneholder alfabetiske tegn. Det kan være regler på telefonnummerkolonnen for å sikre at den aldri er tom og kun inneholder tall.
+
+En fordel med strukturert data er at det kan organiseres på en måte som gjør det mulig å relatere det til andre strukturerte data. Men fordi dataene er designet for å være organisert på en spesifikk måte, kan det kreve mye innsats å gjøre endringer i den overordnede strukturen. For eksempel, hvis du legger til en e-postkolonne i kunderegnearket som ikke kan være tom, må du finne ut hvordan du legger til disse verdiene i de eksisterende radene i datasettet.
+
+Eksempler på strukturert data: regneark, relasjonsdatabaser, telefonnumre, kontoutskrifter.
+
+### Ustrukturert Data
+Ustrukturert data kan vanligvis ikke kategoriseres i rader eller kolonner og inneholder ikke et format eller sett med regler å følge. Fordi ustrukturert data har færre begrensninger på strukturen, er det enklere å legge til ny informasjon sammenlignet med et strukturert datasett. Hvis en sensor som registrerer data om barometertrykk hvert 2. minutt får en oppdatering som nå lar den måle og registrere temperatur, krever det ingen endring av eksisterende data hvis det er ustrukturert. Men dette kan gjøre analyser eller undersøkelser av denne typen data mer tidkrevende. For eksempel, en forsker som ønsker å finne gjennomsnittstemperaturen for forrige måned fra sensorens data, men oppdager at sensoren har registrert en "e" i noen av dataene for å indikere at den var ødelagt, noe som betyr at dataene er ufullstendige.
+
+Eksempler på ustrukturert data: tekstfiler, tekstmeldinger, videofiler.
+
+### Semi-strukturert Data
+Semi-strukturert data har egenskaper som gjør det til en kombinasjon av strukturert og ustrukturert data. Det følger vanligvis ikke et format med rader og kolonner, men er organisert på en måte som anses som strukturert og kan følge et fast format eller sett med regler. Strukturen vil variere mellom kilder, fra en veldefinert hierarki til noe mer fleksibelt som tillater enkel integrering av ny informasjon. Metadata er indikatorer som hjelper til med å bestemme hvordan dataene er organisert og lagret, og vil ha ulike navn basert på typen data. Noen vanlige navn for metadata er tagger, elementer, enheter og attributter. For eksempel vil en typisk e-postmelding ha et emne, en brødtekst og et sett med mottakere og kan organiseres etter hvem eller når den ble sendt.
+
+Eksempler på semi-strukturert data: HTML, CSV-filer, JavaScript Object Notation (JSON).
+
+## Datakilder
+
+En datakilde er det opprinnelige stedet der dataene ble generert, eller hvor de "bor", og vil variere basert på hvordan og når de ble samlet inn. Data generert av brukeren(e) kalles primærdata, mens sekundærdata kommer fra en kilde som har samlet inn data for generell bruk. For eksempel, en gruppe forskere som samler observasjoner i en regnskog, vil bli ansett som primærdata, og hvis de bestemmer seg for å dele det med andre forskere, vil det bli ansett som sekundærdata for de som bruker det.
+
+Databaser er en vanlig kilde og er avhengige av et databasesystem for å være vert for og vedlikeholde dataene, der brukere bruker kommandoer kalt spørringer for å utforske dataene. Filer som datakilder kan være lyd-, bilde- og videofiler samt regneark som Excel. Internettkilder er et vanlig sted for å være vert for data, der både databaser og filer kan finnes. Applikasjonsprogrammeringsgrensesnitt, også kjent som API-er, lar programmerere lage måter å dele data med eksterne brukere via internett, mens prosessen med webskraping trekker ut data fra en nettside. [Leksjonene i Arbeide med Data](../../../../../../../../../2-Working-With-Data) fokuserer på hvordan man bruker ulike datakilder.
+
+## Konklusjon
+
+I denne leksjonen har vi lært:
+
+- Hva data er
+- Hvordan data beskrives
+- Hvordan data klassifiseres og kategoriseres
+- Hvor data kan finnes
+
+## 🚀 Utfordring
+
+Kaggle er en utmerket kilde til åpne datasett. Bruk [datasett-søkefunksjonen](https://www.kaggle.com/datasets) for å finne noen interessante datasett og klassifiser 3-5 datasett med følgende kriterier:
+
+- Er dataene kvantitative eller kvalitative?
+- Er dataene strukturerte, ustrukturerte eller semi-strukturerte?
+
+## [Etter-quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Gjennomgang & Selvstudium
+
+- Denne Microsoft Learn-enheten, kalt [Klassifiser dine Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), har en detaljert oversikt over strukturerte, semi-strukturerte og ustrukturerte data.
+
+## Oppgave
+
+[Klassifisere Datasett](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/03-defining-data/assignment.md b/translations/no/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..ebc124dd
--- /dev/null
+++ b/translations/no/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Klassifisering av datasett
+
+## Instruksjoner
+
+Følg oppgavene i denne oppgaven for å identifisere og klassifisere data med én av hver av følgende datatyper:
+
+**Strukturtyper**: Strukturert, Semi-strukturert eller Ustrukturert
+
+**Verdityper**: Kvalitativ eller Kvantitativ
+
+**Kildetyper**: Primær eller Sekundær
+
+1. Et selskap har blitt oppkjøpt og har nå et morselskap. Dataforskerne har mottatt et regneark med kundetelefonnumre fra morselskapet.
+
+Strukturtype:
+
+Verditype:
+
+Kildetype:
+
+---
+
+2. En smartklokke har samlet inn pulsdata fra brukeren, og rådataene er i JSON-format.
+
+Strukturtype:
+
+Verditype:
+
+Kildetype:
+
+---
+
+3. En arbeidsplassundersøkelse om ansattes moral som er lagret i en CSV-fil.
+
+Strukturtype:
+
+Verditype:
+
+Kildetype:
+
+---
+
+4. Astrofysikere har tilgang til en database over galakser som er samlet inn av en romsonde. Dataene inneholder antall planeter i hver galakse.
+
+Strukturtype:
+
+Verditype:
+
+Kildetype:
+
+---
+
+5. En personlig økonomi-app bruker API-er for å koble til en brukers finansielle kontoer for å beregne nettoformuen deres. De kan se alle transaksjonene sine i et format med rader og kolonner som ser ut som et regneark.
+
+Strukturtype:
+
+Verditype:
+
+Kildetype:
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Identifiserer korrekt alle struktur-, verdi- og kildetyper |Identifiserer korrekt 3 struktur-, verdi- og kildetyper|Identifiserer korrekt 2 eller færre struktur-, verdi- og kildetyper|
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/04-stats-and-probability/README.md b/translations/no/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..f2bb32cf
--- /dev/null
+++ b/translations/no/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# En Kort Introduksjon til Statistikk og Sannsynlighet
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Statistikk og Sannsynlighet - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Statistikk og sannsynlighetsteori er to nært relaterte områder innen matematikk som er svært relevante for datavitenskap. Det er mulig å jobbe med data uten dyp kunnskap om matematikk, men det er likevel bedre å kjenne til noen grunnleggende konsepter. Her vil vi presentere en kort introduksjon som kan hjelpe deg i gang.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Sannsynlighet og Tilfeldige Variabler
+
+**Sannsynlighet** er et tall mellom 0 og 1 som uttrykker hvor sannsynlig en **hendelse** er. Det defineres som antall positive utfall (som fører til hendelsen), delt på totalt antall utfall, gitt at alle utfall er like sannsynlige. For eksempel, når vi kaster en terning, er sannsynligheten for å få et partall 3/6 = 0.5.
+
+Når vi snakker om hendelser, bruker vi **tilfeldige variabler**. For eksempel, den tilfeldige variabelen som representerer tallet vi får når vi kaster en terning, vil ha verdier fra 1 til 6. Mengden av tall fra 1 til 6 kalles **utvalgsrom**. Vi kan snakke om sannsynligheten for at en tilfeldig variabel tar en bestemt verdi, for eksempel P(X=3)=1/6.
+
+Den tilfeldige variabelen i det forrige eksempelet kalles **diskret**, fordi den har et tellbart utvalgsrom, dvs. det finnes separate verdier som kan telles opp. Det finnes tilfeller der utvalgsrommet er et intervall av reelle tall, eller hele settet av reelle tall. Slike variabler kalles **kontinuerlige**. Et godt eksempel er tidspunktet når bussen ankommer.
+
+## Sannsynlighetsfordeling
+
+For diskrete tilfeldige variabler er det enkelt å beskrive sannsynligheten for hver hendelse med en funksjon P(X). For hver verdi *s* fra utvalgsrommet *S* vil den gi et tall fra 0 til 1, slik at summen av alle verdier av P(X=s) for alle hendelser blir 1.
+
+Den mest kjente diskrete fordelingen er **uniform fordeling**, der det finnes et utvalgsrom med N elementer, med lik sannsynlighet på 1/N for hver av dem.
+
+Det er mer utfordrende å beskrive sannsynlighetsfordelingen for en kontinuerlig variabel, med verdier trukket fra et intervall [a,b], eller hele settet av reelle tall ℝ. Tenk på tilfelle med busstider. Faktisk, for hvert eksakte tidspunkt *t*, er sannsynligheten for at bussen ankommer akkurat da lik 0!
+
+> Nå vet du at hendelser med sannsynlighet 0 skjer, og veldig ofte! I det minste hver gang bussen ankommer!
+
+Vi kan bare snakke om sannsynligheten for at en variabel faller innenfor et gitt intervall av verdier, f.eks. P(t1≤X2). I dette tilfellet beskrives sannsynlighetsfordelingen av en **sannsynlighetstetthetsfunksjon** p(x), slik at
+
+![P(t_1\le X1, x2, ..., xn. Vi kan definere **gjennomsnitt** (eller **aritmetisk middelverdi**) av sekvensen på tradisjonelt vis som (x1+x2+xn)/n. Når vi øker størrelsen på prøven (dvs. tar grensen med n→∞), vil vi få gjennomsnittet (også kalt **forventning**) av fordelingen. Vi vil betegne forventning med **E**(x).
+
+> Det kan vises at for enhver diskret fordeling med verdier {x1, x2, ..., xN} og tilsvarende sannsynligheter p1, p2, ..., pN, vil forventningen være E(X)=x1p1+x2p2+...+xNpN.
+
+For å identifisere hvor langt verdiene er spredt, kan vi beregne variansen σ2 = ∑(xi - μ)2/n, der μ er gjennomsnittet av sekvensen. Verdien σ kalles **standardavvik**, og σ2 kalles **varians**.
+
+## Typetall, Median og Kvartiler
+
+Noen ganger representerer ikke gjennomsnittet tilstrekkelig den "typiske" verdien for data. For eksempel, når det finnes noen ekstreme verdier som er helt utenfor rekkevidde, kan de påvirke gjennomsnittet. Et annet godt mål er **median**, en verdi slik at halvparten av datapunktene er lavere enn den, og den andre halvparten - høyere.
+
+For å hjelpe oss med å forstå fordelingen av data, er det nyttig å snakke om **kvartiler**:
+
+* Første kvartil, eller Q1, er en verdi slik at 25% av dataene faller under den
+* Tredje kvartil, eller Q3, er en verdi slik at 75% av dataene faller under den
+
+Grafisk kan vi representere forholdet mellom median og kvartiler i et diagram kalt **boksplott**:
+
+
+
+Her beregner vi også **interkvartilavstand** IQR=Q3-Q1, og såkalte **uteliggere** - verdier som ligger utenfor grensene [Q1-1.5*IQR,Q3+1.5*IQR].
+
+For en begrenset fordeling som inneholder et lite antall mulige verdier, er en god "typisk" verdi den som forekommer oftest, og som kalles **typetall**. Det brukes ofte på kategoriske data, som farger. Tenk på en situasjon der vi har to grupper mennesker - noen som sterkt foretrekker rødt, og andre som foretrekker blått. Hvis vi koder farger med tall, vil gjennomsnittsverdien for favorittfarge være et sted i det oransje-grønne spekteret, som ikke indikerer den faktiske preferansen til noen av gruppene. Typetallet vil imidlertid være enten en av fargene, eller begge fargene, hvis antallet personer som stemmer for dem er likt (i dette tilfellet kaller vi utvalget **multimodalt**).
+
+## Data fra Virkeligheten
+
+Når vi analyserer data fra virkeligheten, er de ofte ikke tilfeldige variabler i den forstand at vi ikke utfører eksperimenter med ukjent resultat. For eksempel, vurder et lag med baseballspillere og deres kroppslige data, som høyde, vekt og alder. Disse tallene er ikke akkurat tilfeldige, men vi kan fortsatt bruke de samme matematiske konseptene. For eksempel kan en sekvens av folks vekter betraktes som en sekvens av verdier trukket fra en tilfeldig variabel. Nedenfor er sekvensen av vekter til faktiske baseballspillere fra [Major League Baseball](http://mlb.mlb.com/index.jsp), hentet fra [dette datasettet](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (for enkelhets skyld vises bare de første 20 verdiene):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Merk**: For å se et eksempel på hvordan man jobber med dette datasettet, ta en titt på [den medfølgende notatboken](notebook.ipynb). Det finnes også en rekke utfordringer gjennom denne leksjonen, og du kan fullføre dem ved å legge til litt kode i den notatboken. Hvis du ikke er sikker på hvordan du opererer med data, ikke bekymre deg - vi kommer tilbake til å jobbe med data ved hjelp av Python senere. Hvis du ikke vet hvordan du kjører kode i Jupyter Notebook, ta en titt på [denne artikkelen](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Her er boksplottet som viser gjennomsnitt, median og kvartiler for våre data:
+
+
+
+Siden våre data inneholder informasjon om forskjellige spiller **roller**, kan vi også lage boksplott etter rolle - det vil gi oss en idé om hvordan parameterverdier varierer mellom roller. Denne gangen vil vi vurdere høyde:
+
+
+
+Dette diagrammet antyder at, i gjennomsnitt, er høyden til førstemenn høyere enn høyden til andremenn. Senere i denne leksjonen vil vi lære hvordan vi kan teste denne hypotesen mer formelt, og hvordan vi kan demonstrere at våre data er statistisk signifikante for å vise dette.
+
+> Når vi jobber med data fra virkeligheten, antar vi at alle datapunkter er prøver trukket fra en sannsynlighetsfordeling. Denne antagelsen lar oss bruke maskinlæringsteknikker og bygge fungerende prediktive modeller.
+
+For å se hva fordelingen av våre data er, kan vi lage et diagram kalt **histogram**. X-aksen vil inneholde et antall forskjellige vektintervaller (såkalte **bins**), og den vertikale aksen vil vise antall ganger vår tilfeldige variabelprøve var innenfor et gitt intervall.
+
+
+
+Fra dette histogrammet kan du se at alle verdier er sentrert rundt et visst gjennomsnittlig vekt, og jo lenger vi går fra den vekten - jo færre vekter av den verdien blir observert. Dvs., det er svært usannsynlig at vekten til en baseballspiller vil være veldig forskjellig fra gjennomsnittsvekten. Variansen i vekter viser i hvilken grad vekter sannsynligvis vil avvike fra gjennomsnittet.
+
+> Hvis vi tar vekter av andre mennesker, ikke fra baseballligaen, vil fordelingen sannsynligvis være annerledes. Imidlertid vil formen på fordelingen være den samme, men gjennomsnitt og varians vil endre seg. Så, hvis vi trener vår modell på baseballspillere, er det sannsynlig at den gir feil resultater når den brukes på studenter ved et universitet, fordi den underliggende fordelingen er forskjellig.
+
+## Normalfordeling
+
+Fordelingen av vekter som vi har sett ovenfor er svært typisk, og mange målinger fra virkeligheten følger samme type fordeling, men med forskjellig gjennomsnitt og varians. Denne fordelingen kalles **normalfordeling**, og den spiller en svært viktig rolle i statistikk.
+
+Å bruke normalfordeling er en korrekt måte å generere tilfeldige vekter av potensielle baseballspillere. Når vi kjenner gjennomsnittsvekt `mean` og standardavvik `std`, kan vi generere 1000 vektprøver på følgende måte:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Hvis vi plotter histogrammet av de genererte prøvene, vil vi se et bilde som ligner veldig på det som er vist ovenfor. Og hvis vi øker antall prøver og antall bins, kan vi generere et bilde av en normalfordeling som er nærmere ideell:
+
+
+
+*Normalfordeling med mean=0 og std.dev=1*
+
+## Konfidensintervaller
+
+Når vi snakker om vekter til baseballspillere, antar vi at det finnes en viss **tilfeldig variabel W** som tilsvarer den ideelle sannsynlighetsfordelingen av vektene til alle baseballspillere (såkalt **populasjon**). Vår sekvens av vekter tilsvarer et utvalg av alle baseballspillere som vi kaller **prøve**. Et interessant spørsmål er, kan vi kjenne parameterne til fordelingen av W, dvs. gjennomsnitt og varians for populasjonen?
+
+Det enkleste svaret ville være å beregne gjennomsnitt og varians for vår prøve. Imidlertid kan det hende at vårt tilfeldige utvalg ikke nøyaktig representerer hele populasjonen. Derfor gir det mening å snakke om **konfidensintervall**.
+> **Konfidensintervall** er en estimering av den sanne gjennomsnittet for en populasjon basert på vårt utvalg, som er nøyaktig med en viss sannsynlighet (eller **konfidensnivå**).
+Anta at vi har et utvalg X1, ..., Xn fra vår distribusjon. Hver gang vi trekker et utvalg fra distribusjonen, vil vi ende opp med en forskjellig gjennomsnittsverdi μ. Dermed kan μ betraktes som en tilfeldig variabel. Et **konfidensintervall** med konfidens p er et par verdier (Lp,Rp), slik at **P**(Lp≤μ≤Rp) = p, altså sannsynligheten for at den målte gjennomsnittsverdien faller innenfor intervallet er lik p.
+
+Det går utover vår korte introduksjon å diskutere i detalj hvordan disse konfidensintervallene beregnes. Noen flere detaljer kan finnes [på Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). Kort sagt definerer vi distribusjonen av beregnet utvalgsgjennomsnitt i forhold til den sanne gjennomsnittet av populasjonen, som kalles **studentdistribusjon**.
+
+> **Interessant fakta**: Studentdistribusjonen er oppkalt etter matematikeren William Sealy Gosset, som publiserte sitt arbeid under pseudonymet "Student". Han jobbet i Guinness-bryggeriet, og ifølge en av versjonene ønsket ikke arbeidsgiveren hans at allmennheten skulle vite at de brukte statistiske tester for å bestemme kvaliteten på råvarene.
+
+Hvis vi ønsker å estimere gjennomsnittet μ av vår populasjon med konfidens p, må vi ta *(1-p)/2-te percentil* av en Student-distribusjon A, som enten kan hentes fra tabeller eller beregnes ved hjelp av innebygde funksjoner i statistikkprogramvare (f.eks. Python, R, etc.). Deretter vil intervallet for μ være gitt av X±A*D/√n, der X er det oppnådde gjennomsnittet av utvalget, D er standardavviket.
+
+> **Merk**: Vi utelater også diskusjonen om et viktig konsept kalt [frihetsgrader](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), som er viktig i forhold til Student-distribusjonen. Du kan referere til mer komplette bøker om statistikk for å forstå dette konseptet bedre.
+
+Et eksempel på beregning av konfidensintervall for vekt og høyde er gitt i [tilhørende notatbøker](notebook.ipynb).
+
+| p | Vektgjennomsnitt |
+|-----|----------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Legg merke til at jo høyere konfidenssannsynligheten er, jo bredere er konfidensintervallet.
+
+## Hypotesetesting
+
+I vårt datasett med baseballspillere finnes det ulike spillerroller, som kan oppsummeres nedenfor (se [tilhørende notatbok](notebook.ipynb) for å se hvordan denne tabellen kan beregnes):
+
+| Rolle | Høyde | Vekt | Antall |
+|-------|-------|------|--------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Vi kan legge merke til at gjennomsnittshøyden til førstemenn er høyere enn den til andremenn. Dermed kan vi bli fristet til å konkludere med at **førstemenn er høyere enn andremenn**.
+
+> Denne uttalelsen kalles **en hypotese**, fordi vi ikke vet om dette faktisk er sant eller ikke.
+
+Det er imidlertid ikke alltid åpenbart om vi kan trekke denne konklusjonen. Fra diskusjonen ovenfor vet vi at hvert gjennomsnitt har et tilhørende konfidensintervall, og dermed kan denne forskjellen bare være en statistisk feil. Vi trenger en mer formell måte å teste hypotesen vår på.
+
+La oss beregne konfidensintervaller separat for høydene til førstemenn og andremenn:
+
+| Konfidens | Førstemenn | Andremenn |
+|-----------|------------|-----------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Vi kan se at under ingen konfidens overlapper intervallene. Det beviser hypotesen vår om at førstemenn er høyere enn andremenn.
+
+Mer formelt er problemet vi løser å se om **to sannsynlighetsfordelinger er de samme**, eller i det minste har de samme parametrene. Avhengig av distribusjonen må vi bruke forskjellige tester for dette. Hvis vi vet at distribusjonene våre er normale, kan vi bruke **[Student t-test](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+I Student t-test beregner vi den såkalte **t-verdien**, som indikerer forskjellen mellom gjennomsnittene, tatt i betraktning variansen. Det er demonstrert at t-verdien følger **studentdistribusjonen**, som lar oss få terskelverdien for et gitt konfidensnivå **p** (dette kan beregnes eller finnes i numeriske tabeller). Vi sammenligner deretter t-verdien med denne terskelen for å godkjenne eller avvise hypotesen.
+
+I Python kan vi bruke **SciPy**-pakken, som inkluderer funksjonen `ttest_ind` (i tillegg til mange andre nyttige statistiske funksjoner!). Den beregner t-verdien for oss, og gjør også den omvendte oppslaget av konfidens p-verdi, slik at vi bare kan se på konfidensen for å trekke konklusjonen.
+
+For eksempel gir vår sammenligning mellom høydene til førstemenn og andremenn oss følgende resultater:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+I vårt tilfelle er p-verdien svært lav, noe som betyr at det er sterk evidens som støtter at førstemenn er høyere.
+
+Det finnes også andre typer hypoteser vi kan teste, for eksempel:
+* Å bevise at et gitt utvalg følger en distribusjon. I vårt tilfelle har vi antatt at høyder er normalt fordelt, men det trenger formell statistisk verifikasjon.
+* Å bevise at gjennomsnittsverdien av et utvalg samsvarer med en forhåndsdefinert verdi
+* Å sammenligne gjennomsnittene av flere utvalg (f.eks. hva er forskjellen i lykkefølelse mellom ulike aldersgrupper)
+
+## Lov om store tall og sentralgrenseteoremet
+
+En av grunnene til at normalfordelingen er så viktig er det såkalte **sentralgrenseteoremet**. Anta at vi har et stort utvalg av uavhengige N verdier X1, ..., XN, hentet fra en hvilken som helst distribusjon med gjennomsnitt μ og varians σ2. Da, for tilstrekkelig stor N (med andre ord, når N→∞), vil gjennomsnittet ΣiXi være normalt fordelt, med gjennomsnitt μ og varians σ2/N.
+
+> En annen måte å tolke sentralgrenseteoremet på er å si at uavhengig av distribusjonen, når du beregner gjennomsnittet av en sum av tilfeldige variabelverdier, ender du opp med normalfordeling.
+
+Fra sentralgrenseteoremet følger det også at, når N→∞, blir sannsynligheten for at utvalgsgjennomsnittet er lik μ lik 1. Dette er kjent som **loven om store tall**.
+
+## Kovarians og korrelasjon
+
+En av tingene Data Science gjør er å finne relasjoner mellom data. Vi sier at to sekvenser **korrelerer** når de viser lignende oppførsel samtidig, dvs. de enten stiger/faller samtidig, eller én sekvens stiger når en annen faller og omvendt. Med andre ord ser det ut til å være en relasjon mellom to sekvenser.
+
+> Korrelasjon indikerer ikke nødvendigvis en årsakssammenheng mellom to sekvenser; noen ganger kan begge variablene avhenge av en ekstern årsak, eller det kan være ren tilfeldighet at de korrelerer. Sterk matematisk korrelasjon er imidlertid en god indikasjon på at to variabler er på en eller annen måte koblet.
+
+Matematisk er hovedkonseptet som viser relasjonen mellom to tilfeldige variabler **kovarians**, som beregnes slik: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Vi beregner avviket til begge variablene fra deres gjennomsnittsverdier, og deretter produktet av disse avvikene. Hvis begge variablene avviker sammen, vil produktet alltid være en positiv verdi, som vil gi positiv kovarians. Hvis begge variablene avviker usynkront (dvs. én faller under gjennomsnittet når en annen stiger over gjennomsnittet), vil vi alltid få negative tall, som vil gi negativ kovarians. Hvis avvikene ikke er avhengige, vil de gi omtrent null.
+
+Den absolutte verdien av kovarians sier ikke mye om hvor stor korrelasjonen er, fordi den avhenger av størrelsen på de faktiske verdiene. For å normalisere den kan vi dele kovariansen med standardavviket til begge variablene, for å få **korrelasjon**. Det fine er at korrelasjonen alltid er i området [-1,1], der 1 indikerer sterk positiv korrelasjon mellom verdier, -1 - sterk negativ korrelasjon, og 0 - ingen korrelasjon i det hele tatt (variablene er uavhengige).
+
+**Eksempel**: Vi kan beregne korrelasjon mellom vekt og høyde til baseballspillere fra datasettet nevnt ovenfor:
+```python
+print(np.corrcoef(weights,heights))
+```
+Som et resultat får vi **korrelasjonsmatrise** som denne:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Korrelasjonsmatrisen C kan beregnes for et hvilket som helst antall inngangssekvenser S1, ..., Sn. Verdien av Cij er korrelasjonen mellom Si og Sj, og diagonalelementene er alltid 1 (som også er selvkorrelasjon av Si).
+
+I vårt tilfelle indikerer verdien 0.53 at det er en viss korrelasjon mellom vekt og høyde til en person. Vi kan også lage et spredningsdiagram av én verdi mot den andre for å se relasjonen visuelt:
+
+
+
+> Flere eksempler på korrelasjon og kovarians kan finnes i [tilhørende notatbok](notebook.ipynb).
+
+## Konklusjon
+
+I denne seksjonen har vi lært:
+
+* grunnleggende statistiske egenskaper ved data, som gjennomsnitt, varians, modus og kvartiler
+* forskjellige fordelinger av tilfeldige variabler, inkludert normalfordeling
+* hvordan finne korrelasjon mellom forskjellige egenskaper
+* hvordan bruke matematisk og statistisk apparat for å bevise hypoteser
+* hvordan beregne konfidensintervaller for tilfeldige variabler gitt et dataprøve
+
+Selv om dette definitivt ikke er en uttømmende liste over emner innen sannsynlighet og statistikk, bør det være nok til å gi deg en god start på dette kurset.
+
+## 🚀 Utfordring
+
+Bruk eksempelkoden i notatboken for å teste andre hypoteser som:
+1. Førstemenn er eldre enn andremenn
+2. Førstemenn er høyere enn tredjemenn
+3. Shortstops er høyere enn andremenn
+
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Gjennomgang og selvstudium
+
+Sannsynlighet og statistikk er et så bredt tema at det fortjener sitt eget kurs. Hvis du er interessert i å gå dypere inn i teorien, kan du lese noen av følgende bøker:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) fra New York University har flotte forelesningsnotater [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (tilgjengelig online)
+1. [Peter og Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[eksempelkode i R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[eksempelkode i R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Oppgave
+
+[Small Diabetes Study](assignment.md)
+
+## Kreditering
+
+Denne leksjonen er skrevet med ♥️ av [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/04-stats-and-probability/assignment.md b/translations/no/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..77aacf51
--- /dev/null
+++ b/translations/no/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Liten Diabetesstudie
+
+I denne oppgaven skal vi jobbe med et lite datasett av diabetespasienter hentet fra [her](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | ALDER | KJØNN | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-------|-------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
+
+## Instruksjoner
+
+* Åpne [oppgavenotatboken](assignment.ipynb) i et jupyter-notatbokmiljø
+* Fullfør alle oppgaver som er listet opp i notatboken, nemlig:
+ * [ ] Beregn gjennomsnittsverdier og varians for alle verdier
+ * [ ] Lag boksplott for BMI, BP og Y avhengig av kjønn
+ * [ ] Hva er fordelingen av variablene Alder, Kjønn, BMI og Y?
+ * [ ] Test korrelasjonen mellom ulike variabler og sykdomsprogresjon (Y)
+ * [ ] Test hypotesen om at graden av diabetesprogresjon er forskjellig mellom menn og kvinner
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Alle påkrevde oppgaver er fullført, grafisk illustrert og forklart | De fleste oppgavene er fullført, forklaringer eller konklusjoner fra grafer og/eller oppnådde verdier mangler | Kun grunnleggende oppgaver som beregning av gjennomsnitt/varians og enkle grafer er fullført, ingen konklusjoner er gjort fra dataene
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/1-Introduction/README.md b/translations/no/1-Introduction/README.md
new file mode 100644
index 00000000..1cd9e059
--- /dev/null
+++ b/translations/no/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Introduksjon til Data Science
+
+
+> Foto av Stephen Dawson på Unsplash
+
+I disse leksjonene vil du oppdage hvordan Data Science defineres og lære om etiske hensyn som en dataforsker må ta i betraktning. Du vil også lære hvordan data defineres og få en introduksjon til statistikk og sannsynlighet, de sentrale akademiske områdene innen Data Science.
+
+### Emner
+
+1. [Definere Data Science](01-defining-data-science/README.md)
+2. [Etikk i Data Science](02-ethics/README.md)
+3. [Definere Data](03-defining-data/README.md)
+4. [Introduksjon til Statistikk og Sannsynlighet](04-stats-and-probability/README.md)
+
+### Kreditering
+
+Disse leksjonene ble skrevet med ❤️ av [Nitya Narasimhan](https://twitter.com/nitya) og [Dmitry Soshnikov](https://twitter.com/shwars).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/05-relational-databases/README.md b/translations/no/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..daef7e2f
--- /dev/null
+++ b/translations/no/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Arbeide med data: Relasjonsdatabaser
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Arbeide med data: Relasjonsdatabaser - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Sjansen er stor for at du tidligere har brukt et regneark for å lagre informasjon. Du hadde et sett med rader og kolonner, der radene inneholdt informasjonen (eller dataene), og kolonnene beskrev informasjonen (noen ganger kalt metadata). En relasjonsdatabase er bygget på dette grunnprinsippet med kolonner og rader i tabeller, som lar deg ha informasjon fordelt på flere tabeller. Dette gjør det mulig å jobbe med mer komplekse data, unngå duplisering og ha fleksibilitet i måten du utforsker dataene på. La oss utforske konseptene bak en relasjonsdatabase.
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Det starter med tabeller
+
+En relasjonsdatabase har tabeller som kjerne. Akkurat som med et regneark, er en tabell en samling av kolonner og rader. Radene inneholder dataene eller informasjonen vi ønsker å jobbe med, som navnet på en by eller mengden nedbør. Kolonnene beskriver dataene de lagrer.
+
+La oss begynne vår utforskning ved å lage en tabell for å lagre informasjon om byer. Vi kan starte med deres navn og land. Du kan lagre dette i en tabell som følger:
+
+| By | Land |
+| -------- | -------------- |
+| Tokyo | Japan |
+| Atlanta | USA |
+| Auckland | New Zealand |
+
+Legg merke til at kolonnenavnene **by**, **land** og **befolkning** beskriver dataene som lagres, og hver rad har informasjon om én by.
+
+## Begrensningene ved en enkelt tabell
+
+Sjansen er stor for at tabellen ovenfor virker relativt kjent for deg. La oss begynne å legge til noen ekstra data i vår voksende database – årlig nedbør (i millimeter). Vi fokuserer på årene 2018, 2019 og 2020. Hvis vi skulle legge det til for Tokyo, kan det se slik ut:
+
+| By | Land | År | Mengde |
+| ----- | ------ | --- | ------ |
+| Tokyo | Japan | 2020| 1690 |
+| Tokyo | Japan | 2019| 1874 |
+| Tokyo | Japan | 2018| 1445 |
+
+Hva legger du merke til med tabellen vår? Du ser kanskje at vi dupliserer navnet og landet til byen om og om igjen. Dette kan ta opp ganske mye lagringsplass og er stort sett unødvendig. Tross alt har Tokyo bare ett navn vi er interessert i.
+
+OK, la oss prøve noe annet. La oss legge til nye kolonner for hvert år:
+
+| By | Land | 2018 | 2019 | 2020 |
+| -------- | -------------- | ---- | ---- | ---- |
+| Tokyo | Japan | 1445 | 1874 | 1690 |
+| Atlanta | USA | 1779 | 1111 | 1683 |
+| Auckland | New Zealand | 1386 | 942 | 1176 |
+
+Selv om dette unngår duplisering av rader, introduserer det noen andre utfordringer. Vi må endre strukturen på tabellen hver gang det kommer et nytt år. I tillegg, etter hvert som dataene vokser, vil det å ha år som kolonner gjøre det vanskeligere å hente ut og beregne verdier.
+
+Dette er grunnen til at vi trenger flere tabeller og relasjoner. Ved å dele opp dataene kan vi unngå duplisering og ha mer fleksibilitet i hvordan vi jobber med dataene.
+
+## Konseptet med relasjoner
+
+La oss gå tilbake til dataene våre og bestemme hvordan vi vil dele dem opp. Vi vet at vi vil lagre navn og land for byene våre, så dette vil sannsynligvis fungere best i én tabell.
+
+| By | Land |
+| -------- | -------------- |
+| Tokyo | Japan |
+| Atlanta | USA |
+| Auckland | New Zealand |
+
+Men før vi oppretter neste tabell, må vi finne ut hvordan vi skal referere til hver by. Vi trenger en form for identifikator, ID eller (i tekniske databasetermer) en primærnøkkel. En primærnøkkel er en verdi som brukes til å identifisere én spesifikk rad i en tabell. Selv om dette kan være basert på en verdi i seg selv (vi kunne for eksempel bruke navnet på byen), bør det nesten alltid være et nummer eller en annen identifikator. Vi vil ikke at ID-en skal endres, da det vil bryte relasjonen. I de fleste tilfeller vil primærnøkkelen eller ID-en være et automatisk generert nummer.
+
+> ✅ Primærnøkkel forkortes ofte som PK
+
+### byer
+
+| by_id | By | Land |
+| ----- | -------- | -------------- |
+| 1 | Tokyo | Japan |
+| 2 | Atlanta | USA |
+| 3 | Auckland | New Zealand |
+
+> ✅ Du vil legge merke til at vi bruker begrepene "id" og "primærnøkkel" om hverandre i løpet av denne leksjonen. Konseptene her gjelder også for DataFrames, som du vil utforske senere. DataFrames bruker ikke terminologien "primærnøkkel", men du vil legge merke til at de oppfører seg på samme måte.
+
+Med vår **byer**-tabell opprettet, la oss lagre nedbøren. I stedet for å duplisere full informasjon om byen, kan vi bruke ID-en. Vi bør også sørge for at den nyopprettede tabellen har en *id*-kolonne, siden alle tabeller bør ha en ID eller primærnøkkel.
+
+### nedbør
+
+| nedbør_id | by_id | År | Mengde |
+| --------- | ----- | --- | ------ |
+| 1 | 1 | 2018| 1445 |
+| 2 | 1 | 2019| 1874 |
+| 3 | 1 | 2020| 1690 |
+| 4 | 2 | 2018| 1779 |
+| 5 | 2 | 2019| 1111 |
+| 6 | 2 | 2020| 1683 |
+| 7 | 3 | 2018| 1386 |
+| 8 | 3 | 2019| 942 |
+| 9 | 3 | 2020| 1176 |
+
+Legg merke til **by_id**-kolonnen i den nyopprettede **nedbør**-tabellen. Denne kolonnen inneholder verdier som refererer til ID-ene i **byer**-tabellen. I tekniske relasjonsdatatermer kalles dette en **fremmednøkkel**; det er en primærnøkkel fra en annen tabell. Du kan bare tenke på det som en referanse eller en peker. **by_id** 1 refererer til Tokyo.
+
+> [!NOTE] Fremmednøkkel forkortes ofte som FK
+
+## Hente ut data
+
+Med dataene våre delt opp i to tabeller, lurer du kanskje på hvordan vi henter dem ut. Hvis vi bruker en relasjonsdatabase som MySQL, SQL Server eller Oracle, kan vi bruke et språk som heter Structured Query Language eller SQL. SQL (noen ganger uttalt "sequel") er et standard språk som brukes til å hente og endre data i en relasjonsdatabase.
+
+For å hente data bruker du kommandoen `SELECT`. I sin kjerne **velger** du kolonnene du vil se **fra** tabellen de er inneholdt i. Hvis du for eksempel bare vil vise navnene på byene, kan du bruke følgende:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` er der du lister opp kolonnene, og `FROM` er der du lister opp tabellene.
+
+> [NOTE] SQL-syntaks er ikke store- og småbokstavfølsom, noe som betyr at `select` og `SELECT` betyr det samme. Men avhengig av hvilken type database du bruker, kan kolonner og tabeller være store- og småbokstavfølsomme. Som et resultat er det en god praksis alltid å behandle alt i programmering som om det er store- og småbokstavfølsomt. Når du skriver SQL-spørringer, er det vanlig konvensjon å skrive nøkkelordene med store bokstaver.
+
+Spørringen ovenfor vil vise alle byene. La oss forestille oss at vi bare vil vise byer i New Zealand. Vi trenger en form for filter. SQL-nøkkelordet for dette er `WHERE`, eller "hvor noe er sant".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Slå sammen data
+
+Til nå har vi hentet data fra én enkelt tabell. Nå vil vi kombinere dataene fra både **byer** og **nedbør**. Dette gjøres ved å *slå dem sammen*. Du vil i praksis lage en kobling mellom de to tabellene og matche verdiene fra en kolonne i hver tabell.
+
+I vårt eksempel vil vi matche **by_id**-kolonnen i **nedbør** med **by_id**-kolonnen i **byer**. Dette vil matche nedbørverdien med sin respektive by. Typen sammenslåing vi vil utføre kalles en *inner join*, noe som betyr at hvis noen rader ikke matcher med noe fra den andre tabellen, vil de ikke bli vist. I vårt tilfelle har hver by nedbør, så alt vil bli vist.
+
+La oss hente nedbøren for 2019 for alle byene våre.
+
+Vi skal gjøre dette i trinn. Det første trinnet er å slå sammen dataene ved å indikere kolonnene for koblingen - **by_id** som fremhevet tidligere.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Vi har fremhevet de to kolonnene vi ønsker, og det faktum at vi vil slå sammen tabellene ved hjelp av **by_id**. Nå kan vi legge til `WHERE`-setningen for å filtrere ut kun år 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Oppsummering
+
+Relasjonsdatabaser er sentrert rundt å dele informasjon mellom flere tabeller som deretter bringes sammen for visning og analyse. Dette gir en høy grad av fleksibilitet til å utføre beregninger og ellers manipulere data. Du har sett kjernekonseptene i en relasjonsdatabase, og hvordan du utfører en sammenslåing mellom to tabeller.
+
+## 🚀 Utfordring
+
+Det finnes mange relasjonsdatabaser tilgjengelig på internett. Du kan utforske dataene ved å bruke ferdighetene du har lært ovenfor.
+
+## Quiz etter forelesning
+
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Gjennomgang og selvstudium
+
+Det finnes flere ressurser tilgjengelig på [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) for å fortsette din utforskning av SQL og relasjonsdatabasekonsepter:
+
+- [Beskriv konsepter for relasjonsdata](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Kom i gang med spørringer i Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL er en versjon av SQL)
+- [SQL-innhold på Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Oppgave
+
+[Oppgavetittel](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/05-relational-databases/assignment.md b/translations/no/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..dd40f0d6
--- /dev/null
+++ b/translations/no/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Vise flyplassdata
+
+Du har fått tilgang til en [database](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) bygget på [SQLite](https://sqlite.org/index.html) som inneholder informasjon om flyplasser. Skjemaet vises nedenfor. Du skal bruke [SQLite-utvidelsen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) i [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) for å vise informasjon om flyplasser i ulike byer.
+
+## Instruksjoner
+
+For å komme i gang med oppgaven må du utføre noen få trinn. Du må installere noen verktøy og laste ned eksempelbasen.
+
+### Sett opp systemet ditt
+
+Du kan bruke Visual Studio Code og SQLite-utvidelsen for å samhandle med databasen.
+
+1. Gå til [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) og følg instruksjonene for å installere Visual Studio Code
+1. Installer [SQLite-utvidelsen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) som beskrevet på Marketplace-siden
+
+### Last ned og åpne databasen
+
+Deretter laster du ned og åpner databasen.
+
+1. Last ned [databasefilen fra GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) og lagre den i en mappe
+1. Åpne Visual Studio Code
+1. Åpne databasen i SQLite-utvidelsen ved å velge **Ctrl-Shift-P** (eller **Cmd-Shift-P** på en Mac) og skrive `SQLite: Open database`
+1. Velg **Choose database from file** og åpne **airports.db**-filen du lastet ned tidligere
+1. Etter at databasen er åpnet (du vil ikke se en oppdatering på skjermen), opprett et nytt spørringsvindu ved å velge **Ctrl-Shift-P** (eller **Cmd-Shift-P** på en Mac) og skrive `SQLite: New query`
+
+Når det nye spørringsvinduet er åpent, kan det brukes til å kjøre SQL-setninger mot databasen. Du kan bruke kommandoen **Ctrl-Shift-Q** (eller **Cmd-Shift-Q** på en Mac) for å kjøre spørringer mot databasen.
+
+> [!NOTE] For mer informasjon om SQLite-utvidelsen kan du konsultere [dokumentasjonen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Databaseskjema
+
+Et databaseskjema er designet og strukturen til tabellene. **airports**-databasen har to tabeller, `cities`, som inneholder en liste over byer i Storbritannia og Irland, og `airports`, som inneholder en liste over alle flyplasser. Siden noen byer kan ha flere flyplasser, ble det opprettet to tabeller for å lagre informasjonen. I denne oppgaven vil du bruke joins for å vise informasjon for ulike byer.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (tekst) |
+| country (tekst) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (tekst) |
+| code (tekst) |
+| city_id (FK til id i **Cities**) |
+
+## Oppgave
+
+Lag spørringer for å hente følgende informasjon:
+
+1. alle bynavn i `Cities`-tabellen
+1. alle byer i Irland i `Cities`-tabellen
+1. alle flyplassnavn med deres by og land
+1. alle flyplasser i London, Storbritannia
+
+## Vurderingskriterier
+
+| Fremragende | Tilfredsstillende | Trenger forbedring |
+| ----------- | ----------------- | ------------------ |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/06-non-relational/README.md b/translations/no/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..4260d5f0
--- /dev/null
+++ b/translations/no/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Arbeide med data: Ikke-relasjonelle data
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Arbeide med NoSQL-data - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Data er ikke begrenset til relasjonsdatabaser. Denne leksjonen fokuserer på ikke-relasjonelle data og vil dekke det grunnleggende om regneark og NoSQL.
+
+## Regneark
+
+Regneark er en populær måte å lagre og utforske data på fordi det krever mindre arbeid for å sette opp og komme i gang. I denne leksjonen vil du lære de grunnleggende komponentene i et regneark, samt formler og funksjoner. Eksemplene vil bli illustrert med Microsoft Excel, men de fleste delene og temaene vil ha lignende navn og trinn sammenlignet med andre regnearkprogrammer.
+
+
+
+Et regneark er en fil og vil være tilgjengelig i filsystemet på en datamaskin, enhet eller skybasert filsystem. Selve programvaren kan være nettleserbasert eller en applikasjon som må installeres på en datamaskin eller lastes ned som en app. I Excel defineres disse filene også som **arbeidsbøker**, og denne terminologien vil bli brukt resten av denne leksjonen.
+
+En arbeidsbok inneholder ett eller flere **regneark**, der hvert regneark er merket med faner. Innenfor et regneark er det rektangler kalt **celler**, som inneholder selve dataene. En celle er skjæringspunktet mellom en rad og en kolonne, der kolonnene er merket med alfabetiske tegn og radene er merket numerisk. Noen regneark vil inneholde overskrifter i de første radene for å beskrive dataene i en celle.
+
+Med disse grunnleggende elementene i en Excel-arbeidsbok vil vi bruke et eksempel fra [Microsoft Templates](https://templates.office.com/) fokusert på et lager for å gå gjennom noen flere deler av et regneark.
+
+### Administrere et lager
+
+Regnearkfilen kalt "InventoryExample" er et formatert regneark med elementer i et lager som inneholder tre regneark, der fanene er merket "Inventory List", "Inventory Pick List" og "Bin Lookup". Rad 4 i regnearket Inventory List er overskriften, som beskriver verdien av hver celle i overskriftskolonnen.
+
+
+
+Det finnes tilfeller der en celle er avhengig av verdiene i andre celler for å generere sin verdi. Lagerlisten holder oversikt over kostnaden for hver vare i lageret, men hva om vi trenger å vite verdien av alt i lageret? [**Formler**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) utfører handlinger på celldata og brukes til å beregne lagerverdien i dette eksemplet. Dette regnearket brukte en formel i kolonnen Inventory Value for å beregne verdien av hver vare ved å multiplisere mengden under overskriften QTY og kostnadene under overskriften COST. Ved å dobbeltklikke eller markere en celle vil du se formelen. Du vil legge merke til at formler starter med et likhetstegn, etterfulgt av beregningen eller operasjonen.
+
+
+
+Vi kan bruke en annen formel for å legge sammen alle verdiene i Inventory Value for å få totalverdien. Dette kan beregnes ved å legge til hver celle for å generere summen, men det kan være en tidkrevende oppgave. Excel har [**funksjoner**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), eller forhåndsdefinerte formler for å utføre beregninger på celldata. Funksjoner krever argumenter, som er de nødvendige verdiene som brukes til å utføre disse beregningene. Når funksjoner krever mer enn ett argument, må de listes opp i en bestemt rekkefølge, ellers kan funksjonen beregne feil verdi. Dette eksemplet bruker SUM-funksjonen og bruker verdiene i Inventory Value som argument for å generere totalen oppført under rad 3, kolonne B (også referert til som B3).
+
+## NoSQL
+
+NoSQL er en samlebetegnelse for de forskjellige måtene å lagre ikke-relasjonelle data på og kan tolkes som "ikke-SQL", "ikke-relasjonell" eller "ikke bare SQL". Disse typene databasesystemer kan kategoriseres i fire typer.
+
+
+> Kilde fra [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[Nøkkel-verdi](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores)-databaser parer unike nøkler, som er en unik identifikator knyttet til en verdi. Disse parene lagres ved hjelp av en [hashtabell](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) med en passende hashfunksjon.
+
+
+> Kilde fra [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[Graf](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores)-databaser beskriver forhold i data og er representert som en samling av noder og kanter. En node representerer en enhet, noe som eksisterer i den virkelige verden, som en student eller en bankutskrift. Kanter representerer forholdet mellom to enheter. Hver node og kant har egenskaper som gir tilleggsinformasjon om hver node og kant.
+
+
+
+[Kolonnebaserte](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) databaser organiserer data i kolonner og rader som en relasjonell datastruktur, men hver kolonne er delt inn i grupper kalt kolonnefamilier, der alle dataene under én kolonne er relatert og kan hentes og endres som en enhet.
+
+### Dokumentdatabaser med Azure Cosmos DB
+
+[Dokument](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores)-databaser bygger på konseptet med en nøkkel-verdi-database og består av en serie felt og objekter. Denne delen vil utforske dokumentdatabaser med Cosmos DB-emulatoren.
+
+En Cosmos DB-database passer til definisjonen av "ikke bare SQL", der Cosmos DBs dokumentdatabase er avhengig av SQL for å hente data. [Forrige leksjon](../05-relational-databases/README.md) om SQL dekker det grunnleggende om språket, og vi vil kunne bruke noen av de samme spørringene på en dokumentdatabase her. Vi vil bruke Cosmos DB Emulator, som lar oss opprette og utforske en dokumentdatabase lokalt på en datamaskin. Les mer om emulatoren [her](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Et dokument er en samling av felt og objektverdier, der feltene beskriver hva objektverdien representerer. Nedenfor er et eksempel på et dokument.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Feltene av interesse i dette dokumentet er: `firstname`, `id` og `age`. Resten av feltene med understreker ble generert av Cosmos DB.
+
+#### Utforske data med Cosmos DB Emulator
+
+Du kan laste ned og installere emulatoren [for Windows her](https://aka.ms/cosmosdb-emulator). Se denne [dokumentasjonen](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) for alternativer for hvordan du kjører emulatoren for macOS og Linux.
+
+Emulatoren åpner et nettleservindu, der Explorer-visningen lar deg utforske dokumenter.
+
+
+
+Hvis du følger med, klikk på "Start with Sample" for å generere en eksempel-database kalt SampleDB. Hvis du utvider SampleDB ved å klikke på pilen, finner du en beholder kalt `Persons`. En beholder holder en samling av elementer, som er dokumentene i beholderen. Du kan utforske de fire individuelle dokumentene under `Items`.
+
+
+
+#### Spørring av dokumentdata med Cosmos DB Emulator
+
+Vi kan også spørring på eksempeldataene ved å klikke på knappen for ny SQL-spørring (andre knapp fra venstre).
+
+`SELECT * FROM c` returnerer alle dokumentene i beholderen. La oss legge til en where-setning og finne alle som er yngre enn 40.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Spørringen returnerer to dokumenter. Legg merke til at alder-verdien for hvert dokument er mindre enn 40.
+
+#### JSON og dokumenter
+
+Hvis du er kjent med JavaScript Object Notation (JSON), vil du legge merke til at dokumenter ligner på JSON. Det finnes en `PersonsData.json`-fil i denne katalogen med flere data som du kan laste opp til Persons-beholderen i emulatoren via `Upload Item`-knappen.
+
+I de fleste tilfeller kan API-er som returnerer JSON-data direkte overføres og lagres i dokumentdatabaser. Nedenfor er et annet dokument som representerer tweets fra Microsofts Twitter-konto, hentet ved hjelp av Twitter API og deretter satt inn i Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Feltene av interesse i dette dokumentet er: `created_at`, `id` og `text`.
+
+## 🚀 Utfordring
+
+Det finnes en `TwitterData.json`-fil som du kan laste opp til SampleDB-databasen. Det anbefales at du legger den til i en separat beholder. Dette kan gjøres ved å:
+
+1. Klikke på knappen for ny beholder øverst til høyre
+1. Velge den eksisterende databasen (SampleDB) og opprette en beholder-ID for beholderen
+1. Sette partisjonsnøkkelen til `/id`
+1. Klikke OK (du kan ignorere resten av informasjonen i denne visningen siden dette er et lite datasett som kjører lokalt på maskinen din)
+1. Åpne den nye beholderen din og laste opp TwitterData-filen med `Upload Item`-knappen
+
+Prøv å kjøre noen SELECT-spørringer for å finne dokumentene som har Microsoft i tekstfeltet. Tips: prøv å bruke [LIKE-nøkkelordet](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Gjennomgang og selvstudium
+
+- Det er noen ekstra formateringer og funksjoner lagt til i dette regnearket som ikke dekkes i denne leksjonen. Microsoft har et [stort bibliotek med dokumentasjon og videoer](https://support.microsoft.com/excel) om Excel hvis du er interessert i å lære mer.
+
+- Denne arkitekturdokumentasjonen beskriver egenskapene til de forskjellige typene ikke-relasjonelle data: [Ikke-relasjonelle data og NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Cosmos DB er en skybasert ikke-relasjonell database som også kan lagre de forskjellige NoSQL-typene nevnt i denne leksjonen. Lær mer om disse typene i dette [Cosmos DB Microsoft Learn-modulet](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Oppgave
+
+[Soda Profits](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/06-non-relational/assignment.md b/translations/no/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..5001196f
--- /dev/null
+++ b/translations/no/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Brusfortjenester
+
+## Instruksjoner
+
+[Coca Cola Co-regnearket](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) mangler noen beregninger. Din oppgave er å:
+
+1. Beregne bruttofortjenesten for regnskapsårene '15, '16, '17 og '18
+ - Bruttofortjeneste = Driftsinntekter - Varekostnader
+1. Beregne gjennomsnittet av alle bruttofortjenestene. Prøv å gjøre dette med en funksjon.
+ - Gjennomsnitt = Summen av bruttofortjenestene delt på antall regnskapsår (10)
+ - Dokumentasjon om [AVERAGE-funksjonen](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Dette er en Excel-fil, men den bør kunne redigeres i hvilken som helst regnearkplattform
+
+[Kreditering av datakilde til Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | ---
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/07-python/README.md b/translations/no/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..f15334fe
--- /dev/null
+++ b/translations/no/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Arbeide med Data: Python og Pandas-biblioteket
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Arbeide med Python - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Mens databaser tilbyr svært effektive måter å lagre data og hente dem ved hjelp av spørringsspråk, er den mest fleksible måten å behandle data på å skrive ditt eget program for å manipulere data. I mange tilfeller vil en databasespørring være en mer effektiv løsning. Men i noen tilfeller, når mer kompleks databehandling er nødvendig, kan det ikke enkelt gjøres med SQL.
+Databehandling kan programmeres i hvilket som helst programmeringsspråk, men det finnes visse språk som er mer høy-nivå når det gjelder arbeid med data. Dataforskere foretrekker vanligvis ett av følgende språk:
+
+* **[Python](https://www.python.org/)**, et allsidig programmeringsspråk, som ofte anses som et av de beste alternativene for nybegynnere på grunn av sin enkelhet. Python har mange tilleggslibraries som kan hjelpe deg med å løse praktiske problemer, som å hente data fra en ZIP-arkiv eller konvertere et bilde til gråtoner. I tillegg til dataforskning brukes Python også ofte til webutvikling.
+* **[R](https://www.r-project.org/)** er en tradisjonell verktøykasse utviklet med statistisk databehandling i tankene. Den inneholder også et stort biblioteklager (CRAN), som gjør det til et godt valg for databehandling. R er imidlertid ikke et allsidig programmeringsspråk og brukes sjelden utenfor dataforskningsområdet.
+* **[Julia](https://julialang.org/)** er et annet språk utviklet spesielt for dataforskning. Det er ment å gi bedre ytelse enn Python, noe som gjør det til et flott verktøy for vitenskapelige eksperimenter.
+
+I denne leksjonen vil vi fokusere på å bruke Python for enkel databehandling. Vi antar grunnleggende kjennskap til språket. Hvis du ønsker en dypere innføring i Python, kan du se på en av følgende ressurser:
+
+* [Lær Python på en morsom måte med Turtle Graphics og Fractals](https://github.com/shwars/pycourse) - GitHub-basert introduksjonskurs i Python-programmering
+* [Ta dine første steg med Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Læringssti på [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Data kan komme i mange former. I denne leksjonen vil vi se på tre former for data - **tabulære data**, **tekst** og **bilder**.
+
+Vi vil fokusere på noen få eksempler på databehandling, i stedet for å gi deg en full oversikt over alle relaterte biblioteker. Dette vil gi deg en idé om hva som er mulig, og gi deg forståelse for hvor du kan finne løsninger på dine problemer når du trenger dem.
+
+> **Det mest nyttige rådet**. Når du trenger å utføre en bestemt operasjon på data som du ikke vet hvordan du skal gjøre, prøv å søke etter det på internett. [Stackoverflow](https://stackoverflow.com/) inneholder ofte mange nyttige kodeeksempler i Python for mange typiske oppgaver.
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Tabulære data og Dataframes
+
+Du har allerede møtt tabulære data da vi snakket om relasjonsdatabaser. Når du har mye data, og det er lagret i mange forskjellige koblede tabeller, gir det definitivt mening å bruke SQL for å arbeide med det. Men det finnes mange tilfeller der vi har en tabell med data, og vi trenger å få en **forståelse** eller **innsikt** om disse dataene, som fordeling, korrelasjon mellom verdier, osv. I dataforskning er det mange tilfeller der vi trenger å utføre noen transformasjoner av de opprinnelige dataene, etterfulgt av visualisering. Begge disse trinnene kan enkelt gjøres med Python.
+
+Det finnes to mest nyttige biblioteker i Python som kan hjelpe deg med å arbeide med tabulære data:
+* **[Pandas](https://pandas.pydata.org/)** lar deg manipulere såkalte **Dataframes**, som er analoge med relasjonstabeller. Du kan ha navngitte kolonner og utføre forskjellige operasjoner på rader, kolonner og dataframes generelt.
+* **[Numpy](https://numpy.org/)** er et bibliotek for å arbeide med **tensore**, dvs. flerdimensjonale **arrays**. Arrays har verdier av samme underliggende type, og det er enklere enn dataframe, men det tilbyr flere matematiske operasjoner og skaper mindre overhead.
+
+Det finnes også et par andre biblioteker du bør kjenne til:
+* **[Matplotlib](https://matplotlib.org/)** er et bibliotek som brukes til datavisualisering og graftegning
+* **[SciPy](https://www.scipy.org/)** er et bibliotek med noen ekstra vitenskapelige funksjoner. Vi har allerede kommet over dette biblioteket da vi snakket om sannsynlighet og statistikk
+
+Her er et stykke kode som du vanligvis vil bruke for å importere disse bibliotekene i begynnelsen av Python-programmet ditt:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas er sentrert rundt noen få grunnleggende konsepter.
+
+### Series
+
+**Series** er en sekvens av verdier, lik en liste eller numpy-array. Den største forskjellen er at series også har en **indeks**, og når vi opererer på series (f.eks. legger dem sammen), tas indeksen med i betraktning. Indeksen kan være så enkel som et heltall radnummer (det er indeksen som brukes som standard når du oppretter en series fra en liste eller array), eller den kan ha en kompleks struktur, som et datointervall.
+
+> **Merk**: Det finnes noe innledende Pandas-kode i den medfølgende notebooken [`notebook.ipynb`](notebook.ipynb). Vi skisserer bare noen av eksemplene her, og du er definitivt velkommen til å sjekke ut hele notebooken.
+
+Tenk på et eksempel: vi ønsker å analysere salget fra vår iskrembutikk. La oss generere en series med salgsnumre (antall solgte varer hver dag) for en tidsperiode:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Nå antar vi at vi hver uke arrangerer en fest for venner, og vi tar med oss 10 ekstra pakker med iskrem til festen. Vi kan lage en annen series, indeksert etter uke, for å demonstrere dette:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Når vi legger sammen to series, får vi totalt antall:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Merk** at vi ikke bruker enkel syntaks `total_items+additional_items`. Hvis vi gjorde det, ville vi fått mange `NaN` (*Not a Number*) verdier i den resulterende series. Dette er fordi det mangler verdier for noen av indeksene i `additional_items`-serien, og å legge til `NaN` til noe resulterer i `NaN`. Derfor må vi spesifisere `fill_value`-parameteren under addisjonen.
+
+Med tidsserier kan vi også **resample** serien med forskjellige tidsintervaller. For eksempel, hvis vi ønsker å beregne gjennomsnittlig salgsvolum månedlig, kan vi bruke følgende kode:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+En DataFrame er i hovedsak en samling av series med samme indeks. Vi kan kombinere flere series sammen til en DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Dette vil lage en horisontal tabell som denne:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Vi kan også bruke Series som kolonner og spesifisere kolonnenavn ved hjelp av en ordbok:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Dette vil gi oss en tabell som denne:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Merk** at vi også kan få denne tabelloppsettet ved å transponere den forrige tabellen, f.eks. ved å skrive
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Her betyr `.T` operasjonen med å transponere DataFrame, dvs. bytte rader og kolonner, og `rename`-operasjonen lar oss gi nytt navn til kolonner for å matche det forrige eksemplet.
+
+Her er noen av de viktigste operasjonene vi kan utføre på DataFrames:
+
+**Kolonnevalg**. Vi kan velge individuelle kolonner ved å skrive `df['A']` - denne operasjonen returnerer en Series. Vi kan også velge et delsett av kolonner til en annen DataFrame ved å skrive `df[['B','A']]` - dette returnerer en annen DataFrame.
+
+**Filtrering** av kun visse rader basert på kriterier. For eksempel, for å beholde kun rader med kolonne `A` større enn 5, kan vi skrive `df[df['A']>5]`.
+
+> **Merk**: Måten filtrering fungerer på er som følger. Uttrykket `df['A']<5` returnerer en boolsk series, som indikerer om uttrykket er `True` eller `False` for hvert element i den opprinnelige serien `df['A']`. Når boolsk series brukes som indeks, returnerer det et delsett av rader i DataFrame. Dermed er det ikke mulig å bruke vilkårlige Python boolske uttrykk, for eksempel, å skrive `df[df['A']>5 and df['A']<7]` ville være feil. I stedet bør du bruke spesialoperasjonen `&` på boolske serier, ved å skrive `df[(df['A']>5) & (df['A']<7)]` (*parentesene er viktige her*).
+
+**Opprette nye beregnbare kolonner**. Vi kan enkelt opprette nye beregnbare kolonner for vår DataFrame ved å bruke intuitive uttrykk som dette:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Dette eksemplet beregner avviket til A fra gjennomsnittsverdien. Det som faktisk skjer her er at vi beregner en series og deretter tilordner denne serien til venstre side, og oppretter en ny kolonne. Dermed kan vi ikke bruke operasjoner som ikke er kompatible med series, for eksempel, koden nedenfor er feil:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Det siste eksemplet, selv om det er syntaktisk korrekt, gir oss feil resultat, fordi det tilordner lengden på serien `B` til alle verdier i kolonnen, og ikke lengden på individuelle elementer som vi hadde tenkt.
+
+Hvis vi trenger å beregne komplekse uttrykk som dette, kan vi bruke `apply`-funksjonen. Det siste eksemplet kan skrives som følger:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Etter operasjonene ovenfor vil vi ende opp med følgende DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Velge rader basert på tall** kan gjøres ved hjelp av `iloc`-konstruksjonen. For eksempel, for å velge de første 5 radene fra DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Gruppering** brukes ofte for å få et resultat som ligner på *pivot-tabeller* i Excel. Anta at vi ønsker å beregne gjennomsnittsverdien av kolonnen `A` for hver gitt verdi av `LenB`. Da kan vi gruppere vår DataFrame etter `LenB` og kalle `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Hvis vi trenger å beregne gjennomsnittet og antall elementer i gruppen, kan vi bruke den mer komplekse `aggregate`-funksjonen:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Dette gir oss følgende tabell:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Hente Data
+Vi har sett hvor enkelt det er å konstruere Series og DataFrames fra Python-objekter. Men data kommer vanligvis i form av en tekstfil eller en Excel-tabell. Heldigvis tilbyr Pandas oss en enkel måte å laste inn data fra disk. For eksempel, å lese en CSV-fil er så enkelt som dette:
+```python
+df = pd.read_csv('file.csv')
+```
+Vi vil se flere eksempler på å laste inn data, inkludert å hente det fra eksterne nettsteder, i "Utfordring"-seksjonen.
+
+### Utskrift og Visualisering
+
+En Data Scientist må ofte utforske dataene, og det er derfor viktig å kunne visualisere dem. Når en DataFrame er stor, ønsker vi ofte bare å forsikre oss om at vi gjør alt riktig ved å skrive ut de første radene. Dette kan gjøres ved å kalle `df.head()`. Hvis du kjører det fra Jupyter Notebook, vil det skrive ut DataFrame i en fin tabellform.
+
+Vi har også sett bruken av `plot`-funksjonen for å visualisere noen kolonner. Selv om `plot` er veldig nyttig for mange oppgaver og støtter mange forskjellige grafetyper via `kind=`-parameteren, kan du alltid bruke det rå `matplotlib`-biblioteket for å lage noe mer komplekst. Vi vil dekke datavisualisering i detalj i separate kursleksjoner.
+
+Denne oversikten dekker de viktigste konseptene i Pandas, men biblioteket er veldig rikt, og det er ingen grenser for hva du kan gjøre med det! La oss nå bruke denne kunnskapen til å løse et spesifikt problem.
+
+## 🚀 Utfordring 1: Analysere COVID-spredning
+
+Det første problemet vi skal fokusere på er modellering av epidemisk spredning av COVID-19. For å gjøre dette, vil vi bruke data om antall smittede individer i forskjellige land, levert av [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) ved [Johns Hopkins University](https://jhu.edu/). Datasettet er tilgjengelig i [denne GitHub-repositorien](https://github.com/CSSEGISandData/COVID-19).
+
+Siden vi ønsker å demonstrere hvordan man håndterer data, inviterer vi deg til å åpne [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) og lese den fra topp til bunn. Du kan også kjøre cellene og gjøre noen utfordringer som vi har lagt igjen til deg på slutten.
+
+
+
+> Hvis du ikke vet hvordan du kjører kode i Jupyter Notebook, ta en titt på [denne artikkelen](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Arbeide med Ustrukturert Data
+
+Selv om data ofte kommer i tabellform, må vi i noen tilfeller håndtere mindre strukturert data, for eksempel tekst eller bilder. I slike tilfeller, for å bruke databehandlingsteknikker vi har sett ovenfor, må vi på en eller annen måte **ekstrahere** strukturert data. Her er noen eksempler:
+
+* Ekstrahere nøkkelord fra tekst og se hvor ofte disse nøkkelordene vises
+* Bruke nevrale nettverk for å hente informasjon om objekter på et bilde
+* Få informasjon om følelsene til mennesker på videokamera-feed
+
+## 🚀 Utfordring 2: Analysere COVID-artikler
+
+I denne utfordringen fortsetter vi med temaet COVID-pandemien og fokuserer på behandling av vitenskapelige artikler om emnet. Det finnes [CORD-19-datasettet](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) med mer enn 7000 (på tidspunktet for skriving) artikler om COVID, tilgjengelig med metadata og sammendrag (og for omtrent halvparten av dem er også fulltekst tilgjengelig).
+
+Et fullstendig eksempel på analyse av dette datasettet ved hjelp av [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) kognitive tjeneste er beskrevet [i denne bloggposten](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Vi vil diskutere en forenklet versjon av denne analysen.
+
+> **NOTE**: Vi gir ikke en kopi av datasettet som en del av denne repositorien. Du må kanskje først laste ned [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv)-filen fra [dette datasettet på Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Registrering hos Kaggle kan være nødvendig. Du kan også laste ned datasettet uten registrering [herfra](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), men det vil inkludere alle fulltekster i tillegg til metadatafilen.
+
+Åpne [`notebook-papers.ipynb`](notebook-papers.ipynb) og les den fra topp til bunn. Du kan også kjøre cellene og gjøre noen utfordringer som vi har lagt igjen til deg på slutten.
+
+
+
+## Behandling av Bildedata
+
+Nylig har svært kraftige AI-modeller blitt utviklet som lar oss forstå bilder. Det finnes mange oppgaver som kan løses ved hjelp av forhåndstrente nevrale nettverk eller skytjenester. Noen eksempler inkluderer:
+
+* **Bildeklassifisering**, som kan hjelpe deg med å kategorisere bildet i en av de forhåndsdefinerte klassene. Du kan enkelt trene dine egne bildeklassifiserere ved hjelp av tjenester som [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Objektdeteksjon** for å oppdage forskjellige objekter i bildet. Tjenester som [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) kan oppdage en rekke vanlige objekter, og du kan trene [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)-modellen til å oppdage spesifikke objekter av interesse.
+* **Ansiktsdeteksjon**, inkludert alder, kjønn og følelsesdeteksjon. Dette kan gjøres via [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Alle disse skytjenestene kan kalles ved hjelp av [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), og kan derfor enkelt integreres i din datautforskningsarbeidsflyt.
+
+Her er noen eksempler på utforsking av data fra bildedatakilder:
+* I bloggposten [Hvordan lære datavitenskap uten koding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) utforsker vi Instagram-bilder, og prøver å forstå hva som får folk til å gi flere likes til et bilde. Vi ekstraherer først så mye informasjon fra bilder som mulig ved hjelp av [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), og bruker deretter [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) for å bygge en tolkbar modell.
+* I [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) bruker vi [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) for å ekstrahere følelser hos mennesker på fotografier fra arrangementer, for å prøve å forstå hva som gjør folk glade.
+
+## Konklusjon
+
+Enten du allerede har strukturert eller ustrukturert data, kan du med Python utføre alle trinn relatert til databehandling og forståelse. Det er sannsynligvis den mest fleksible måten å behandle data på, og det er grunnen til at flertallet av dataforskere bruker Python som sitt primære verktøy. Å lære Python i dybden er sannsynligvis en god idé hvis du er seriøs med din datavitenskapsreise!
+
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Gjennomgang og Selvstudium
+
+**Bøker**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Nettressurser**
+* Offisiell [10 minutter til Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)-veiledning
+* [Dokumentasjon om Pandas-visualisering](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Lære Python**
+* [Lær Python på en morsom måte med Turtle Graphics og Fractals](https://github.com/shwars/pycourse)
+* [Ta dine første steg med Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Læringssti på [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Oppgave
+
+[Utfør en mer detaljert datastudie for utfordringene ovenfor](assignment.md)
+
+## Kreditering
+
+Denne leksjonen er skrevet med ♥️ av [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/07-python/assignment.md b/translations/no/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..97b439ed
--- /dev/null
+++ b/translations/no/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Oppgave for Databehandling i Python
+
+I denne oppgaven vil vi be deg utdype koden vi har begynt å utvikle i våre utfordringer. Oppgaven består av to deler:
+
+## Modellering av COVID-19 spredning
+
+ - [ ] Plot *R* grafer for 5-6 forskjellige land på én graf for sammenligning, eller ved å bruke flere grafer side om side.
+ - [ ] Se hvordan antall dødsfall og antall friskmeldte korrelerer med antall smittede tilfeller.
+ - [ ] Finn ut hvor lenge en typisk sykdom varer ved å visuelt korrelere smitterate og dødsrate og se etter noen avvik. Du må kanskje se på forskjellige land for å finne dette ut.
+ - [ ] Beregn dødelighetsraten og hvordan den endrer seg over tid. *Du kan vurdere å ta hensyn til sykdommens varighet i dager for å forskyve én tidsserie før du gjør beregningene.*
+
+## Analyse av COVID-19 artikler
+
+- [ ] Bygg en samforekomstmatrise for forskjellige medisiner, og se hvilke medisiner som ofte forekommer sammen (dvs. nevnt i samme sammendrag). Du kan modifisere koden for å bygge samforekomstmatrise for medisiner og diagnoser.
+- [ ] Visualiser denne matrisen ved hjelp av et varmekart.
+- [ ] Som et ekstra mål, visualiser samforekomsten av medisiner ved hjelp av [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram). [Dette biblioteket](https://pypi.org/project/chord/) kan hjelpe deg med å tegne et chord diagram.
+- [ ] Som et annet ekstra mål, trekk ut doseringer av forskjellige medisiner (slik som **400mg** i *ta 400mg klorokin daglig*) ved hjelp av regulære uttrykk, og bygg en dataframe som viser forskjellige doseringer for forskjellige medisiner. **Merk**: vurder numeriske verdier som er i nær tekstlig tilknytning til medisinens navn.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Alle oppgaver er fullført, grafisk illustrert og forklart, inkludert minst ett av to ekstra mål | Mer enn 5 oppgaver er fullført, ingen ekstra mål er forsøkt, eller resultatene er ikke klare | Mindre enn 5 (men mer enn 3) oppgaver er fullført, visualiseringene hjelper ikke med å demonstrere poenget
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/08-data-preparation/README.md b/translations/no/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..595e6512
--- /dev/null
+++ b/translations/no/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# Arbeide med data: Datapreparering
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Datapreparering - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Avhengig av kilden kan rådata inneholde noen inkonsistenser som skaper utfordringer i analyse og modellering. Med andre ord kan disse dataene kategoriseres som "skitne" og må rengjøres. Denne leksjonen fokuserer på teknikker for å rense og transformere data for å håndtere utfordringer som manglende, unøyaktige eller ufullstendige data. Temaene som dekkes i denne leksjonen vil bruke Python og Pandas-biblioteket og vil bli [demonstrert i notatboken](notebook.ipynb) i denne katalogen.
+
+## Viktigheten av å rense data
+
+- **Enkel bruk og gjenbruk**: Når data er riktig organisert og normalisert, er det lettere å søke, bruke og dele med andre.
+
+- **Konsistens**: Datascience krever ofte arbeid med mer enn ett datasett, der datasett fra ulike kilder må kobles sammen. Å sikre at hvert enkelt datasett har felles standardisering vil sikre at dataene fortsatt er nyttige når de kombineres til ett datasett.
+
+- **Modellnøyaktighet**: Rensede data forbedrer nøyaktigheten til modellene som er avhengige av dem.
+
+## Vanlige mål og strategier for datarensing
+
+- **Utforske et datasett**: Datautforskning, som dekkes i en [senere leksjon](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), kan hjelpe deg med å oppdage data som må renses. Visuell observasjon av verdier i et datasett kan sette forventninger til hvordan resten av det vil se ut, eller gi en idé om problemer som kan løses. Utforskning kan innebære grunnleggende spørringer, visualiseringer og prøvetaking.
+
+- **Formatering**: Avhengig av kilden kan data ha inkonsistenser i hvordan de presenteres. Dette kan skape problemer med å søke etter og representere verdien, der den er synlig i datasettet, men ikke riktig representert i visualiseringer eller spørringsresultater. Vanlige formateringsproblemer involverer å løse mellomrom, datoer og datatyper. Å løse formateringsproblemer er vanligvis opp til de som bruker dataene. For eksempel kan standarder for hvordan datoer og tall presenteres variere fra land til land.
+
+- **Duplikasjoner**: Data som har mer enn én forekomst kan gi unøyaktige resultater og bør vanligvis fjernes. Dette kan være en vanlig forekomst når to eller flere datasett kobles sammen. Imidlertid finnes det tilfeller der duplisering i sammenslåtte datasett inneholder deler som kan gi tilleggsinformasjon og kanskje må bevares.
+
+- **Manglende data**: Manglende data kan føre til unøyaktigheter samt svake eller skjeve resultater. Noen ganger kan dette løses ved å "laste inn" dataene på nytt, fylle inn de manglende verdiene med beregninger og kode som Python, eller rett og slett fjerne verdien og tilhørende data. Det finnes mange grunner til hvorfor data kan mangle, og handlingene som tas for å løse disse manglende verdiene kan avhenge av hvordan og hvorfor de forsvant.
+
+## Utforske informasjon i DataFrame
+> **Læringsmål:** Ved slutten av denne delen bør du være komfortabel med å finne generell informasjon om data lagret i pandas DataFrames.
+
+Når du har lastet inn dataene dine i pandas, vil de mest sannsynlig være i en DataFrame (se den forrige [leksjonen](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) for en detaljert oversikt). Men hvis datasettet i din DataFrame har 60 000 rader og 400 kolonner, hvordan begynner du å få en følelse av hva du jobber med? Heldigvis gir [pandas](https://pandas.pydata.org/) noen praktiske verktøy for raskt å se overordnet informasjon om en DataFrame i tillegg til de første og siste radene.
+
+For å utforske denne funksjonaliteten, vil vi importere Python scikit-learn-biblioteket og bruke et ikonisk datasett: **Iris-datasettet**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal lengde (cm)|sepal bredde (cm)|petal lengde (cm)|petal bredde (cm)|
+|----------------------------------------|-----------------|-----------------|-----------------|-----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: For å begynne, brukes `info()`-metoden til å skrive ut en oppsummering av innholdet i en `DataFrame`. La oss se på dette datasettet for å se hva vi har:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Fra dette vet vi at *Iris*-datasettet har 150 oppføringer i fire kolonner uten nullverdier. Alle dataene er lagret som 64-biters flyttall.
+
+- **DataFrame.head()**: Deretter, for å sjekke det faktiske innholdet i `DataFrame`, bruker vi `head()`-metoden. La oss se hva de første radene i vår `iris_df` ser ut som:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: For å sjekke de siste radene i `DataFrame`, bruker vi `tail()`-metoden:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Oppsummering:** Bare ved å se på metadataene om informasjonen i en DataFrame eller de første og siste verdiene, kan du få en umiddelbar idé om størrelsen, formen og innholdet i dataene du jobber med.
+
+## Håndtering av manglende data
+> **Læringsmål:** Ved slutten av denne delen bør du vite hvordan du erstatter eller fjerner nullverdier fra DataFrames.
+
+Ofte har datasettene du ønsker å bruke (eller må bruke) manglende verdier. Hvordan manglende data håndteres innebærer subtile avveininger som kan påvirke din endelige analyse og virkelige resultater.
+
+Pandas håndterer manglende verdier på to måter. Den første har du sett før i tidligere seksjoner: `NaN`, eller Not a Number. Dette er faktisk en spesiell verdi som er en del av IEEE-flyttallsstandarden og brukes kun til å indikere manglende flyttallsverdier.
+
+For manglende verdier som ikke er flyttall, bruker pandas Python-objektet `None`. Selv om det kan virke forvirrende at du vil møte to forskjellige typer verdier som i hovedsak sier det samme, er det gode programmatiske grunner for dette designvalget, og i praksis gir denne tilnærmingen pandas en god balanse for de aller fleste tilfeller. Likevel har både `None` og `NaN` begrensninger som du må være oppmerksom på med hensyn til hvordan de kan brukes.
+
+Les mer om `NaN` og `None` fra [notatboken](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Oppdage nullverdier**: I `pandas` er `isnull()` og `notnull()` metodene dine primære verktøy for å oppdage nullverdier. Begge returnerer boolske masker over dataene dine. Vi vil bruke `numpy` for `NaN`-verdier:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Se nøye på utdataene. Er noe av det overraskende? Selv om `0` er en aritmetisk null, er det likevel et fullverdig heltall, og pandas behandler det som sådan. `''` er litt mer subtil. Selv om vi brukte det i seksjon 1 for å representere en tom strengverdi, er det likevel et strengobjekt og ikke en representasjon av null i pandas.
+
+Nå, la oss snu dette rundt og bruke disse metodene på en måte som ligner mer på hvordan du vil bruke dem i praksis. Du kan bruke boolske masker direkte som en ``Series`` eller ``DataFrame``-indeks, noe som kan være nyttig når du prøver å jobbe med isolerte manglende (eller tilstedeværende) verdier.
+
+> **Oppsummering**: Både `isnull()` og `notnull()`-metodene gir lignende resultater når du bruker dem i `DataFrame`s: de viser resultatene og indeksen til disse resultatene, noe som vil hjelpe deg enormt når du jobber med dataene dine.
+
+- **Fjerne nullverdier**: Utover å identifisere manglende verdier, gir pandas en praktisk måte å fjerne nullverdier fra `Series` og `DataFrame`s. (Spesielt for store datasett er det ofte mer tilrådelig å bare fjerne manglende [NA] verdier fra analysen din enn å håndtere dem på andre måter.) For å se dette i praksis, la oss gå tilbake til `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Merk at dette bør se ut som utdataene dine fra `example3[example3.notnull()]`. Forskjellen her er at, i stedet for bare å indeksere på de maskerte verdiene, har `dropna` fjernet de manglende verdiene fra `Series` `example1`.
+
+Siden `DataFrame`s har to dimensjoner, gir de flere alternativer for å fjerne data.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(La du merke til at pandas oppgraderte to av kolonnene til flyttall for å imøtekomme `NaN`-ene?)
+
+Du kan ikke fjerne en enkelt verdi fra en `DataFrame`, så du må fjerne hele rader eller kolonner. Avhengig av hva du gjør, kan du ønske å gjøre det ene eller det andre, og pandas gir deg alternativer for begge. Siden kolonner vanligvis representerer variabler og rader representerer observasjoner i datavitenskap, er det mer sannsynlig at du fjerner rader med data; standardinnstillingen for `dropna()` er å fjerne alle rader som inneholder nullverdier:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Hvis nødvendig, kan du fjerne NA-verdier fra kolonner. Bruk `axis=1` for å gjøre dette:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Merk at dette kan fjerne mye data som du kanskje vil beholde, spesielt i mindre datasett. Hva om du bare vil fjerne rader eller kolonner som inneholder flere eller til og med bare alle nullverdier? Du spesifiserer disse innstillingene i `dropna` med `how` og `thresh`-parametrene.
+
+Som standard er `how='any'` (hvis du vil sjekke selv eller se hvilke andre parametere metoden har, kjør `example4.dropna?` i en kodecelle). Du kan alternativt spesifisere `how='all'` for å bare fjerne rader eller kolonner som inneholder alle nullverdier. La oss utvide vårt eksempel `DataFrame` for å se dette i praksis.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+`thresh`-parameteren gir deg mer detaljert kontroll: du angir antall *ikke-null* verdier som en rad eller kolonne må ha for å beholdes:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Her har den første og siste raden blitt fjernet, fordi de inneholder bare to ikke-null verdier.
+
+- **Fylle nullverdier**: Avhengig av datasettet ditt, kan det noen ganger være mer fornuftig å fylle nullverdier med gyldige verdier i stedet for å fjerne dem. Du kan bruke `isnull` til å gjøre dette direkte, men det kan være arbeidskrevende, spesielt hvis du har mange verdier å fylle. Siden dette er en så vanlig oppgave i datavitenskap, gir pandas `fillna`, som returnerer en kopi av `Series` eller `DataFrame` med de manglende verdiene erstattet med en verdi du velger. La oss lage et annet eksempel `Series` for å se hvordan dette fungerer i praksis.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Du kan fylle alle nullverdiene med en enkelt verdi, som `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Du kan **fremoverfylle** nullverdier, som vil bruke den siste gyldige verdien til å fylle en null:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Du kan også **bakoverfylle** for å propagere den neste gyldige verdien bakover for å fylle en null:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Som du kanskje gjetter, fungerer dette på samme måte med `DataFrame`s, men du kan også spesifisere en `axis` langs hvilken du vil fylle nullverdier. Ved å bruke det tidligere brukte `example2` igjen:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Merk at når en tidligere verdi ikke er tilgjengelig for fremoverfylling, forblir nullverdien.
+> **Hovedpoeng:** Det finnes flere måter å håndtere manglende verdier i datasettene dine. Den spesifikke strategien du velger (fjerne dem, erstatte dem, eller hvordan du erstatter dem) bør styres av egenskapene til dataene. Du vil utvikle en bedre forståelse for hvordan du håndterer manglende verdier jo mer du jobber med og interagerer med datasett.
+
+## Fjerne dupliserte data
+
+> **Læringsmål:** Etter denne delen bør du være komfortabel med å identifisere og fjerne dupliserte verdier fra DataFrames.
+
+I tillegg til manglende data vil du ofte støte på dupliserte data i virkelige datasett. Heldigvis gir `pandas` en enkel måte å oppdage og fjerne dupliserte oppføringer.
+
+- **Identifisere duplikater: `duplicated`**: Du kan enkelt finne dupliserte verdier ved å bruke `duplicated`-metoden i pandas, som returnerer en boolsk maske som indikerer om en oppføring i en `DataFrame` er en duplikat av en tidligere. La oss lage et annet eksempel på en `DataFrame` for å se dette i praksis.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Fjerne duplikater: `drop_duplicates`:** returnerer enkelt en kopi av dataene der alle `duplicated`-verdier er `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Både `duplicated` og `drop_duplicates` vurderer som standard alle kolonner, men du kan spesifisere at de kun skal undersøke et delsett av kolonner i din `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Hovedpoeng:** Å fjerne dupliserte data er en essensiell del av nesten alle dataanalyseprosjekter. Dupliserte data kan endre resultatene av analysene dine og gi deg unøyaktige resultater!
+
+
+## 🚀 Utfordring
+
+Alt materiale som er diskutert er tilgjengelig som en [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). I tillegg finnes det øvelser etter hver seksjon, prøv dem!
+
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Gjennomgang & Selvstudie
+
+Det finnes mange måter å oppdage og tilnærme seg forberedelse av data for analyse og modellering, og rengjøring av data er et viktig steg som krever praktisk erfaring. Prøv disse utfordringene fra Kaggle for å utforske teknikker som ikke ble dekket i denne leksjonen.
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Oppgave
+
+[Evaluering av data fra et skjema](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/08-data-preparation/assignment.md b/translations/no/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..4c300fd2
--- /dev/null
+++ b/translations/no/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Evaluere Data fra et Skjema
+
+En klient har testet et [lite skjema](../../../../2-Working-With-Data/08-data-preparation/index.html) for å samle inn grunnleggende data om sin kundebase. De har tatt med sine funn til deg for å validere dataene de har samlet inn. Du kan åpne `index.html`-siden i nettleseren for å se på skjemaet.
+
+Du har fått tilgang til et [datasett med csv-poster](../../../../data/form.csv) som inneholder oppføringer fra skjemaet samt noen grunnleggende visualiseringer. Klienten påpekte at noen av visualiseringene ser feil ut, men de er usikre på hvordan de skal løse dette. Du kan utforske det i [oppgavenotatboken](assignment.ipynb).
+
+## Instruksjoner
+
+Bruk teknikkene i denne leksjonen for å komme med anbefalinger om skjemaet slik at det fanger opp nøyaktig og konsistent informasjon.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger Forbedring
+--- | --- | --- |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/2-Working-With-Data/README.md b/translations/no/2-Working-With-Data/README.md
new file mode 100644
index 00000000..c2fa941b
--- /dev/null
+++ b/translations/no/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Arbeide med data
+
+
+> Foto av Alexander Sinn på Unsplash
+
+I disse leksjonene vil du lære noen av måtene data kan administreres, manipuleres og brukes i applikasjoner. Du vil lære om relasjonelle og ikke-relasjonelle databaser og hvordan data kan lagres i dem. Du vil lære det grunnleggende om å jobbe med Python for å håndtere data, og du vil oppdage noen av de mange måtene du kan bruke Python til å administrere og analysere data.
+
+### Emner
+
+1. [Relasjonelle databaser](05-relational-databases/README.md)
+2. [Ikke-relasjonelle databaser](06-non-relational/README.md)
+3. [Arbeide med Python](07-python/README.md)
+4. [Forberede data](08-data-preparation/README.md)
+
+### Kreditering
+
+Disse leksjonene ble skrevet med ❤️ av [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) og [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/09-visualization-quantities/README.md b/translations/no/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..91dbd51b
--- /dev/null
+++ b/translations/no/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Visualisering av mengder
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisering av mengder - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I denne leksjonen skal du utforske hvordan du kan bruke et av de mange tilgjengelige Python-bibliotekene for å lære å lage interessante visualiseringer rundt konseptet mengde. Ved å bruke et renset datasett om fugler i Minnesota, kan du lære mange interessante fakta om det lokale dyrelivet.
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observer vingespenn med Matplotlib
+
+Et utmerket bibliotek for å lage både enkle og avanserte diagrammer og grafer av ulike typer er [Matplotlib](https://matplotlib.org/stable/index.html). Generelt sett innebærer prosessen med å plotte data ved hjelp av disse bibliotekene å identifisere delene av datarammen du vil fokusere på, utføre nødvendige transformasjoner på dataene, tilordne verdier til x- og y-aksen, bestemme hvilken type diagram du vil vise, og deretter vise diagrammet. Matplotlib tilbyr et stort utvalg av visualiseringer, men for denne leksjonen skal vi fokusere på de som er mest passende for å visualisere mengder: linjediagrammer, spredningsdiagrammer og stolpediagrammer.
+
+> ✅ Bruk det beste diagrammet som passer til datastrukturen og historien du vil fortelle.
+> - For å analysere trender over tid: linje
+> - For å sammenligne verdier: stolpe, kolonne, pai, spredningsdiagram
+> - For å vise hvordan deler forholder seg til helheten: pai
+> - For å vise distribusjon av data: spredningsdiagram, stolpe
+> - For å vise trender: linje, kolonne
+> - For å vise relasjoner mellom verdier: linje, spredningsdiagram, boble
+
+Hvis du har et datasett og trenger å finne ut hvor mye av en gitt vare som er inkludert, vil en av de første oppgavene være å inspisere verdiene.
+
+✅ Det finnes veldig gode 'jukseark' tilgjengelig for Matplotlib [her](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Lag et linjediagram om fuglenes vingespennverdier
+
+Åpne filen `notebook.ipynb` i roten av denne leksjonsmappen og legg til en celle.
+
+> Merk: dataene er lagret i roten av dette repoet i `/data`-mappen.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Disse dataene er en blanding av tekst og tall:
+
+| | Navn | VitenskapeligNavn | Kategori | Orden | Familie | Slekt | Bevaringsstatus | MinLengde | MaksLengde | MinKroppsmasse | MaksKroppsmasse | MinVingespenn | MaksVingespenn |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ------------: | -------------: | ------------: | ------------: |
+| 0 | Svartbukket plystreand | Dendrocygna autumnalis | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Rødplystreand | Dendrocygna bicolor | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snøgås | Anser caerulescens | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Større hvitkinngås | Anser albifrons | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+La oss begynne med å plotte noen av de numeriske dataene ved hjelp av et grunnleggende linjediagram. Anta at du ønsker en oversikt over det maksimale vingespennet for disse interessante fuglene.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Hva legger du merke til med en gang? Det ser ut til å være minst én uteligger - det er et ganske imponerende vingespenn! Et vingespenn på 2300 centimeter tilsvarer 23 meter - er det Pterodaktyler som flyr rundt i Minnesota? La oss undersøke.
+
+Selv om du kunne gjort et raskt sorteringsarbeid i Excel for å finne disse uteliggerne, som sannsynligvis er skrivefeil, fortsett visualiseringsprosessen ved å jobbe fra diagrammet.
+
+Legg til etiketter på x-aksen for å vise hvilke fugler det er snakk om:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Selv med rotasjonen av etikettene satt til 45 grader, er det for mange til å lese. La oss prøve en annen strategi: merk bare uteliggerne og sett etikettene innenfor diagrammet. Du kan bruke et spredningsdiagram for å få mer plass til merkingen:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Hva skjer her? Du brukte `tick_params` for å skjule de nederste etikettene og deretter opprettet en løkke over fugledatasettet ditt. Ved å plotte diagrammet med små runde blå prikker ved hjelp av `bo`, sjekket du etter fugler med et maksimalt vingespenn over 500 og viste etiketten deres ved siden av prikken hvis det var tilfelle. Du forskjøv etikettene litt på y-aksen (`y * (1 - 0.05)`) og brukte fuglenavnet som etikett.
+
+Hva oppdaget du?
+
+
+## Filtrer dataene dine
+
+Både Hodeørn og Præriefalk, selv om de sannsynligvis er veldig store fugler, ser ut til å være feilmerket, med en ekstra `0` lagt til deres maksimale vingespenn. Det er lite sannsynlig at du vil møte en Hodeørn med et vingespenn på 25 meter, men hvis du gjør det, gi oss beskjed! La oss lage en ny dataramme uten disse to uteliggerne:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Ved å filtrere ut uteliggerne er dataene dine nå mer sammenhengende og forståelige.
+
+
+
+Nå som vi har et renere datasett, i det minste når det gjelder vingespenn, la oss oppdage mer om disse fuglene.
+
+Mens linje- og spredningsdiagrammer kan vise informasjon om dataverdier og deres distribusjoner, ønsker vi å tenke på verdiene som ligger i dette datasettet. Du kan lage visualiseringer for å svare på følgende spørsmål om mengde:
+
+> Hvor mange kategorier av fugler finnes det, og hva er antallet?
+> Hvor mange fugler er utdødd, truet, sjeldne eller vanlige?
+> Hvor mange finnes det av de ulike slektene og ordenene i Linnés terminologi?
+## Utforsk stolpediagrammer
+
+Stolpediagrammer er praktiske når du trenger å vise grupperinger av data. La oss utforske fuglekategoriene som finnes i dette datasettet for å se hvilken som er mest vanlig i antall.
+
+I notebook-filen, lag et grunnleggende stolpediagram.
+
+✅ Merk, du kan enten filtrere ut de to uteliggerfuglene vi identifiserte i forrige seksjon, redigere skrivefeilen i deres vingespenn, eller la dem være med for disse øvelsene som ikke avhenger av vingespennverdier.
+
+Hvis du vil lage et stolpediagram, kan du velge dataene du vil fokusere på. Stolpediagrammer kan opprettes fra rådata:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Dette stolpediagrammet er imidlertid uleselig fordi det er for mye ugruppert data. Du må velge bare dataene du vil plotte, så la oss se på lengden av fugler basert på deres kategori.
+
+Filtrer dataene dine til å inkludere bare fuglens kategori.
+
+✅ Legg merke til at du bruker Pandas for å administrere dataene, og deretter lar Matplotlib gjøre diagrammene.
+
+Siden det er mange kategorier, kan du vise dette diagrammet vertikalt og justere høyden for å ta hensyn til alle dataene:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Dette stolpediagrammet gir en god oversikt over antallet fugler i hver kategori. Med et blikk ser du at det største antallet fugler i denne regionen er i kategorien Ender/Gjess/Vannfugler. Minnesota er 'landet med 10 000 innsjøer', så dette er ikke overraskende!
+
+✅ Prøv noen andre tellinger på dette datasettet. Er det noe som overrasker deg?
+
+## Sammenligne data
+
+Du kan prøve forskjellige sammenligninger av gruppert data ved å lage nye akser. Prøv en sammenligning av MaksLengde på en fugl, basert på dens kategori:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Ingenting er overraskende her: kolibrier har den minste MaksLengde sammenlignet med pelikaner eller gjess. Det er bra når data gir logisk mening!
+
+Du kan lage mer interessante visualiseringer av stolpediagrammer ved å legge data oppå hverandre. La oss legge Minimum og Maksimum Lengde oppå en gitt fuglekategori:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+I dette diagrammet kan du se området per fuglekategori for Minimum Lengde og Maksimum Lengde. Du kan trygt si at, gitt disse dataene, jo større fuglen er, desto større er lengdeområdet. Fascinerende!
+
+
+
+## 🚀 Utfordring
+
+Dette fugledatasettet tilbyr en mengde informasjon om ulike typer fugler innenfor et bestemt økosystem. Søk rundt på internett og se om du kan finne andre fugleorienterte datasett. Øv på å lage diagrammer og grafer rundt disse fuglene for å oppdage fakta du ikke visste.
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Gjennomgang & Selvstudium
+
+Denne første leksjonen har gitt deg litt informasjon om hvordan du kan bruke Matplotlib til å visualisere mengder. Gjør litt research rundt andre måter å jobbe med datasett for visualisering. [Plotly](https://github.com/plotly/plotly.py) er et verktøy vi ikke vil dekke i disse leksjonene, så ta en titt på hva det kan tilby.
+## Oppgave
+
+[Linjer, Spredninger og Stolper](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/no/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..e3567925
--- /dev/null
+++ b/translations/no/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linjer, spredningsdiagrammer og stolpediagrammer
+
+## Instruksjoner
+
+I denne leksjonen jobbet du med linjediagrammer, spredningsdiagrammer og stolpediagrammer for å vise interessante fakta om dette datasettet. I denne oppgaven skal du utforske datasettet nærmere for å oppdage en fakta om en gitt type fugl. For eksempel kan du lage en notatbok som visualiserer all interessant data du kan finne om Snøgås. Bruk de tre diagramtypene nevnt ovenfor for å fortelle en historie i notatboken din.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+En notatbok presenteres med gode kommentarer, solid historiefortelling og attraktive grafer | Notatboken mangler ett av disse elementene | Notatboken mangler to av disse elementene
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/10-visualization-distributions/README.md b/translations/no/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..f281a8e0
--- /dev/null
+++ b/translations/no/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,216 @@
+
+# Visualisering av fordelinger
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisering av fordelinger - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I forrige leksjon lærte du noen interessante fakta om et datasett om fuglene i Minnesota. Du oppdaget feilaktige data ved å visualisere uteliggere og så på forskjellene mellom fuglekategorier basert på deres maksimale lengde.
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Utforsk fugledatasettet
+
+En annen måte å utforske data på er ved å se på fordelingen, eller hvordan dataene er organisert langs en akse. Kanskje du for eksempel ønsker å lære om den generelle fordelingen i dette datasettet av maksimal vingespenn eller maksimal kroppsmasse for fuglene i Minnesota.
+
+La oss oppdage noen fakta om fordelingen av data i dette datasettet. I _notebook.ipynb_-filen i roten av denne leksjonsmappen, importer Pandas, Matplotlib og dataene dine:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Navn | VitenskapeligNavn | Kategori | Orden | Familie | Slekt | Bevaringsstatus | MinLengde | MaxLengde | MinKroppsmasse | MaxKroppsmasse | MinVingespenn | MaxVingespenn |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | -------------: | -------------: | ------------: | ------------: |
+| 0 | Svartbukfløyteand | Dendrocygna autumnalis | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Brunfløyteand | Dendrocygna bicolor | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snøgås | Anser caerulescens | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Rossgås | Anser rossii | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Tundragås | Anser albifrons | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Generelt kan du raskt se hvordan dataene er fordelt ved å bruke et spredningsdiagram, slik vi gjorde i forrige leksjon:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Dette gir en oversikt over den generelle fordelingen av kroppslengde per fugleorden, men det er ikke den optimale måten å vise sanne fordelinger på. Denne oppgaven håndteres vanligvis ved å lage et histogram.
+## Arbeid med histogrammer
+
+Matplotlib tilbyr svært gode måter å visualisere datafordeling ved hjelp av histogrammer. Denne typen diagram ligner et stolpediagram der fordelingen kan sees gjennom stigning og fall av stolpene. For å lage et histogram trenger du numeriske data. For å lage et histogram kan du plotte et diagram og definere typen som 'hist' for histogram. Dette diagrammet viser fordelingen av MaxBodyMass for hele datasettets numeriske data. Ved å dele opp datasettet i mindre grupper (bins), kan det vise fordelingen av verdiene:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Som du kan se, faller de fleste av de 400+ fuglene i dette datasettet innenfor området under 2000 for deres maksimale kroppsmasse. Få mer innsikt i dataene ved å endre `bins`-parameteren til et høyere tall, for eksempel 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Dette diagrammet viser fordelingen på en litt mer detaljert måte. Et diagram som er mindre skjevt mot venstre kan opprettes ved å sørge for at du bare velger data innenfor et gitt område:
+
+Filtrer dataene dine for å få kun de fuglene som har kroppsmasse under 60, og vis 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Prøv noen andre filtre og datapunkter. For å se hele fordelingen av dataene, fjern `['MaxBodyMass']`-filteret for å vise merkede fordelinger.
+
+Histogrammet tilbyr også noen fine farge- og merkeforbedringer å prøve:
+
+Lag et 2D-histogram for å sammenligne forholdet mellom to fordelinger. La oss sammenligne `MaxBodyMass` og `MaxLength`. Matplotlib tilbyr en innebygd måte å vise konvergens ved hjelp av lysere farger:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Det ser ut til å være en forventet korrelasjon mellom disse to elementene langs en forventet akse, med ett spesielt sterkt punkt av konvergens:
+
+
+
+Histogrammer fungerer godt som standard for numeriske data. Hva om du trenger å se fordelinger basert på tekstdata?
+## Utforsk datasettet for fordelinger ved hjelp av tekstdata
+
+Dette datasettet inkluderer også god informasjon om fuglekategori, slekt, art og familie, samt bevaringsstatus. La oss grave i denne bevaringsinformasjonen. Hva er fordelingen av fuglene i henhold til deres bevaringsstatus?
+
+> ✅ I datasettet brukes flere akronymer for å beskrive bevaringsstatus. Disse akronymene kommer fra [IUCNs rødlistekategorier](https://www.iucnredlist.org/), en organisasjon som katalogiserer arters status.
+>
+> - CR: Kritisk truet
+> - EN: Truet
+> - EX: Utdødd
+> - LC: Livskraftig
+> - NT: Nær truet
+> - VU: Sårbar
+
+Dette er tekstbaserte verdier, så du må gjøre en transformasjon for å lage et histogram. Ved å bruke `filteredBirds`-dataframen, vis bevaringsstatusen sammen med minimum vingespenn. Hva ser du?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Det ser ikke ut til å være en god korrelasjon mellom minimum vingespenn og bevaringsstatus. Test andre elementer i datasettet ved hjelp av denne metoden. Du kan også prøve forskjellige filtre. Finner du noen korrelasjon?
+
+## Tetthetsdiagrammer
+
+Du har kanskje lagt merke til at histogrammene vi har sett på så langt er 'trinnvise' og ikke flyter jevnt i en bue. For å vise et jevnere tetthetsdiagram kan du prøve et tetthetsplott.
+
+For å jobbe med tetthetsdiagrammer, gjør deg kjent med et nytt plottebibliotek, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Last inn Seaborn og prøv et grunnleggende tetthetsdiagram:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Du kan se hvordan diagrammet gjenspeiler det forrige for Minimum Vingespenn-data; det er bare litt jevnere. Ifølge Seaborns dokumentasjon, "Sammenlignet med et histogram kan KDE produsere et diagram som er mindre rotete og mer tolkningsbart, spesielt når man tegner flere fordelinger. Men det har potensial til å introdusere forvrengninger hvis den underliggende fordelingen er avgrenset eller ikke jevn. Som et histogram avhenger også kvaliteten på representasjonen av valget av gode jevningsparametere." [kilde](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Med andre ord, uteliggere vil som alltid få diagrammene dine til å oppføre seg dårlig.
+
+Hvis du ønsket å se på den hakkete MaxBodyMass-linjen i det andre diagrammet du bygde, kunne du jevne den ut veldig godt ved å gjenskape den ved hjelp av denne metoden:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Hvis du ønsket en jevn, men ikke for jevn linje, kan du redigere `bw_adjust`-parameteren:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Les om parameterne som er tilgjengelige for denne typen diagram og eksperimenter!
+
+Denne typen diagram tilbyr vakkert forklarende visualiseringer. Med noen få linjer kode kan du for eksempel vise maksimal kroppsmasse-tetthet per fugleorden:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Du kan også kartlegge tettheten av flere variabler i ett diagram. Test MaxLength og MinLength for en fugl sammenlignet med deres bevaringsstatus:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Kanskje det er verdt å undersøke om klyngen av 'Sårbare' fugler i henhold til lengdene deres er meningsfull eller ikke.
+
+## 🚀 Utfordring
+
+Histogrammer er en mer sofistikert type diagram enn grunnleggende spredningsdiagrammer, stolpediagrammer eller linjediagrammer. Gjør et søk på internett for å finne gode eksempler på bruk av histogrammer. Hvordan brukes de, hva demonstrerer de, og i hvilke felt eller områder brukes de vanligvis?
+
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Gjennomgang og selvstudium
+
+I denne leksjonen brukte du Matplotlib og begynte å jobbe med Seaborn for å lage mer sofistikerte diagrammer. Gjør litt research på `kdeplot` i Seaborn, en "kontinuerlig sannsynlighetstetthetskurve i en eller flere dimensjoner". Les gjennom [dokumentasjonen](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) for å forstå hvordan det fungerer.
+
+## Oppgave
+
+[Bruk ferdighetene dine](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/no/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..88441b21
--- /dev/null
+++ b/translations/no/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Bruk ferdighetene dine
+
+## Instruksjoner
+
+Så langt har du jobbet med datasettet om fugler i Minnesota for å finne informasjon om fugleantall og populasjonstetthet. Øv på å anvende disse teknikkene ved å prøve et annet datasett, kanskje hentet fra [Kaggle](https://www.kaggle.com/). Lag en notebook som forteller en historie om dette datasettet, og sørg for å bruke histogrammer når du diskuterer det.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+En notebook presenteres med kommentarer om dette datasettet, inkludert dets kilde, og bruker minst 5 histogrammer for å finne fakta om dataene. | En notebook presenteres med ufullstendige kommentarer eller feil. | En notebook presenteres uten kommentarer og inneholder feil.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/11-visualization-proportions/README.md b/translations/no/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..d53913a1
--- /dev/null
+++ b/translations/no/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,204 @@
+
+# Visualisering av proporsjoner
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisering av proporsjoner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I denne leksjonen skal du bruke et annet naturfokusert datasett for å visualisere proporsjoner, som hvor mange forskjellige typer sopp som finnes i et gitt datasett om sopper. La oss utforske disse fascinerende soppene ved hjelp av et datasett hentet fra Audubon, som inneholder detaljer om 23 arter av skivesopper i Agaricus- og Lepiota-familiene. Du vil eksperimentere med smakfulle visualiseringer som:
+
+- Kakediagrammer 🥧
+- Smultringdiagrammer 🍩
+- Vaffeldiagrammer 🧇
+
+> 💡 Et veldig interessant prosjekt kalt [Charticulator](https://charticulator.com) fra Microsoft Research tilbyr et gratis dra-og-slipp-grensesnitt for datavisualiseringer. I en av deres opplæringer bruker de også dette soppdatasettet! Så du kan utforske dataene og lære biblioteket samtidig: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Bli kjent med soppene dine 🍄
+
+Sopper er veldig interessante. La oss importere et datasett for å studere dem:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+En tabell skrives ut med noen flotte data for analyse:
+
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Giftig | Konveks | Glatt | Brun | Blåmerker | Stikkende | Fri | Tett | Smal | Svart | Forstørret | Lik | Glatt | Glatt | Hvit | Hvit | Delvis | Hvit | En | Hengende | Svart | Spredd | Urban |
+| Spiselig | Konveks | Glatt | Gul | Blåmerker | Mandel | Fri | Tett | Bred | Svart | Forstørret | Klubbe | Glatt | Glatt | Hvit | Hvit | Delvis | Hvit | En | Hengende | Brun | Tallrik | Gress |
+| Spiselig | Klokke | Glatt | Hvit | Blåmerker | Anis | Fri | Tett | Bred | Brun | Forstørret | Klubbe | Glatt | Glatt | Hvit | Hvit | Delvis | Hvit | En | Hengende | Brun | Tallrik | Enger |
+| Giftig | Konveks | Skjellete | Hvit | Blåmerker | Stikkende | Fri | Tett | Smal | Brun | Forstørret | Lik | Glatt | Glatt | Hvit | Hvit | Delvis | Hvit | En | Hengende | Svart | Spredd | Urban |
+
+Med en gang legger du merke til at alle dataene er tekstbaserte. Du må konvertere disse dataene for å kunne bruke dem i et diagram. De fleste dataene er faktisk representert som et objekt:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Utdataene er:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Ta disse dataene og konverter 'class'-kolonnen til en kategori:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Nå, hvis du skriver ut soppdataene, kan du se at de har blitt gruppert i kategorier i henhold til giftig/spiselig-klassene:
+
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Spiselig | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Giftig | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Hvis du følger rekkefølgen presentert i denne tabellen for å lage etikettene for klassene dine, kan du lage et kakediagram:
+
+## Kake!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voila, et kakediagram som viser proporsjonene av disse dataene i henhold til de to klassene av sopper. Det er ganske viktig å få rekkefølgen på etikettene riktig, spesielt her, så sørg for å verifisere rekkefølgen når du bygger etikettarrayet!
+
+
+
+## Smultringer!
+
+Et litt mer visuelt interessant kakediagram er et smultringdiagram, som er et kakediagram med et hull i midten. La oss se på dataene våre ved hjelp av denne metoden.
+
+Se på de forskjellige habitatene hvor sopper vokser:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Her grupperer du dataene dine etter habitat. Det er 7 oppførte, så bruk disse som etiketter for smultringdiagrammet ditt:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Denne koden tegner et diagram og en sirkel i midten, og legger deretter til den sirkelen i diagrammet. Endre bredden på sirkelen i midten ved å justere `0.40` til en annen verdi.
+
+Smultringdiagrammer kan justeres på flere måter for å endre etikettene. Etikettene kan spesielt fremheves for bedre lesbarhet. Lær mer i [dokumentasjonen](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Nå som du vet hvordan du grupperer dataene dine og deretter viser dem som kake eller smultring, kan du utforske andre typer diagrammer. Prøv et vaffeldiagram, som bare er en annen måte å utforske mengder på.
+## Vafler!
+
+Et 'vaffel'-type diagram er en annen måte å visualisere mengder som et 2D-array av firkanter. Prøv å visualisere de forskjellige mengdene av soppens hattfarger i dette datasettet. For å gjøre dette må du installere et hjelpebibliotek kalt [PyWaffle](https://pypi.org/project/pywaffle/) og bruke Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Velg et segment av dataene dine for å gruppere:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Lag et vaffeldiagram ved å lage etiketter og deretter gruppere dataene dine:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Ved hjelp av et vaffeldiagram kan du tydelig se proporsjonene av hattfarger i dette soppdatasettet. Interessant nok er det mange sopper med grønne hatter!
+
+
+
+✅ Pywaffle støtter ikoner i diagrammene som bruker alle ikoner tilgjengelige i [Font Awesome](https://fontawesome.com/). Gjør noen eksperimenter for å lage et enda mer interessant vaffeldiagram ved å bruke ikoner i stedet for firkanter.
+
+I denne leksjonen lærte du tre måter å visualisere proporsjoner på. Først må du gruppere dataene dine i kategorier og deretter bestemme hvilken som er den beste måten å vise dataene på - kake, smultring eller vaffel. Alle er deilige og gir brukeren et øyeblikksbilde av et datasett.
+
+## 🚀 Utfordring
+
+Prøv å gjenskape disse smakfulle diagrammene i [Charticulator](https://charticulator.com).
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Gjennomgang og selvstudium
+
+Noen ganger er det ikke åpenbart når man skal bruke et kake-, smultring- eller vaffeldiagram. Her er noen artikler du kan lese om dette emnet:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Gjør litt research for å finne mer informasjon om denne vanskelige avgjørelsen.
+## Oppgave
+
+[Prøv det i Excel](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/no/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..062fef1d
--- /dev/null
+++ b/translations/no/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Prøv det i Excel
+
+## Instruksjoner
+
+Visste du at du kan lage smultring-, pai- og vaffeldiagrammer i Excel? Ved å bruke et datasett du selv velger, kan du lage disse tre diagrammene direkte i et Excel-regneark.
+
+## Vurderingskriterier
+
+| Eksemplarisk | Tilfredsstillende | Trenger forbedring |
+| ------------------------------------------------------- | ------------------------------------------------- | ---------------------------------------------------- |
+| Et Excel-regneark presenteres med alle tre diagrammer | Et Excel-regneark presenteres med to diagrammer | Et Excel-regneark presenteres med kun ett diagram |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/12-visualization-relationships/README.md b/translations/no/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..4783dc0b
--- /dev/null
+++ b/translations/no/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# Visualisering av relasjoner: Alt om honning 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisering av relasjoner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Vi fortsetter med naturfokuset i forskningen vår og utforsker interessante visualiseringer for å vise relasjoner mellom ulike typer honning, basert på et datasett fra [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Dette datasettet, som inneholder rundt 600 elementer, viser honningproduksjon i mange amerikanske delstater. For eksempel kan du se på antall bikuber, avkastning per kube, total produksjon, lagerbeholdning, pris per pund og verdien av honningen produsert i en gitt stat fra 1998-2012, med én rad per år for hver stat.
+
+Det kan være interessant å visualisere relasjonen mellom en gitt stats produksjon per år og for eksempel prisen på honning i den staten. Alternativt kan du visualisere relasjonen mellom avkastning per kube i ulike stater. Denne tidsperioden dekker også den ødeleggende 'CCD' eller 'Colony Collapse Disorder', som først ble observert i 2006 (http://npic.orst.edu/envir/ccd.html), noe som gjør dette til et tankevekkende datasett å studere. 🐝
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+I denne leksjonen kan du bruke Seaborn, som du har brukt tidligere, som et godt bibliotek for å visualisere relasjoner mellom variabler. Spesielt interessant er bruken av Seaborns `relplot`-funksjon, som lar deg lage spredningsdiagrammer og linjediagrammer for raskt å visualisere '[statistiske relasjoner](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', noe som hjelper dataforskere med å forstå hvordan variabler henger sammen.
+
+## Spredningsdiagrammer
+
+Bruk et spredningsdiagram for å vise hvordan prisen på honning har utviklet seg år for år i hver stat. Seaborn, ved bruk av `relplot`, grupperer praktisk talt dataene etter stat og viser datapunkter for både kategoriske og numeriske data.
+
+La oss starte med å importere dataene og Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Du vil legge merke til at honningdataene har flere interessante kolonner, inkludert år og pris per pund. La oss utforske disse dataene, gruppert etter amerikansk stat:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Lag et enkelt spredningsdiagram for å vise relasjonen mellom prisen per pund honning og dens opprinnelsesstat. Gjør `y`-aksen høy nok til å vise alle statene:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Vis nå de samme dataene med et honningfarget fargeskjema for å vise hvordan prisen utvikler seg over årene. Dette kan gjøres ved å legge til en 'hue'-parameter for å vise endringen år for år:
+
+> ✅ Lær mer om [fargepalettene du kan bruke i Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - prøv et vakkert regnbuefargeskjema!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Med denne fargeendringen kan du tydelig se en sterk progresjon i prisen per pund honning over årene. Hvis du ser på et utvalg i dataene for å bekrefte (for eksempel Arizona), kan du se et mønster med prisøkninger år for år, med få unntak:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+En annen måte å visualisere denne progresjonen på er å bruke størrelse i stedet for farge. For fargeblinde brukere kan dette være et bedre alternativ. Endre visualiseringen din for å vise prisøkningen ved å øke prikkens omkrets:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Du kan se at størrelsen på prikkene gradvis øker.
+
+
+
+Er dette et enkelt tilfelle av tilbud og etterspørsel? På grunn av faktorer som klimaendringer og kollaps i bikolonier, er det mindre honning tilgjengelig for kjøp år for år, og dermed øker prisen?
+
+For å oppdage en korrelasjon mellom noen av variablene i dette datasettet, la oss utforske noen linjediagrammer.
+
+## Linjediagrammer
+
+Spørsmål: Er det en tydelig økning i prisen på honning per pund år for år? Dette kan enklest oppdages ved å lage et enkelt linjediagram:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Svar: Ja, med noen unntak rundt året 2003:
+
+
+
+✅ Fordi Seaborn aggregerer data rundt én linje, viser den "de flere målingene ved hver x-verdi ved å plotte gjennomsnittet og 95 % konfidensintervallet rundt gjennomsnittet". [Kilde](https://seaborn.pydata.org/tutorial/relational.html). Denne tidkrevende oppførselen kan deaktiveres ved å legge til `ci=None`.
+
+Spørsmål: Vel, kan vi også se en topp i honningtilførselen i 2003? Hva om du ser på total produksjon år for år?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Svar: Ikke egentlig. Hvis du ser på total produksjon, ser det faktisk ut til at den økte det året, selv om mengden honning som produseres generelt sett er i tilbakegang i løpet av disse årene.
+
+Spørsmål: I så fall, hva kan ha forårsaket den prisspikingen på honning rundt 2003?
+
+For å oppdage dette kan du utforske et facet grid.
+
+## Facet grids
+
+Facet grids tar én fasett av datasettet ditt (i vårt tilfelle kan du velge 'år' for å unngå at det produseres for mange fasetter). Seaborn kan deretter lage et diagram for hver av disse fasettene med dine valgte x- og y-koordinater for enklere visuell sammenligning. Skiller 2003 seg ut i denne typen sammenligning?
+
+Lag et facet grid ved å fortsette å bruke `relplot` som anbefalt av [Seaborns dokumentasjon](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+I denne visualiseringen kan du sammenligne avkastning per kube og antall bikuber år for år, side om side med en wrap satt til 3 for kolonnene:
+
+
+
+For dette datasettet er det ingenting spesielt som skiller seg ut med hensyn til antall bikuber og deres avkastning, år for år og stat for stat. Finnes det en annen måte å se etter en korrelasjon mellom disse to variablene?
+
+## To-linjers diagrammer
+
+Prøv et flerliniært diagram ved å legge to linjediagrammer oppå hverandre, ved å bruke Seaborns 'despine' for å fjerne topp- og høyrekanter, og bruke `ax.twinx` [fra Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx lar et diagram dele x-aksen og vise to y-akser. Så, vis avkastning per kube og antall bikuber, lagt oppå hverandre:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Selv om ingenting skiller seg ut rundt året 2003, lar det oss avslutte denne leksjonen på en litt gladere tone: selv om det totalt sett er en nedgang i antall bikuber, stabiliserer antallet seg, selv om avkastningen per kube synker.
+
+Heia, bier, heia!
+
+🐝❤️
+## 🚀 Utfordring
+
+I denne leksjonen lærte du litt mer om andre bruksområder for spredningsdiagrammer og linjediagrammer, inkludert facet grids. Utfordre deg selv til å lage et facet grid ved hjelp av et annet datasett, kanskje et du brukte tidligere i disse leksjonene. Legg merke til hvor lang tid det tar å lage dem, og hvor forsiktig du må være med hvor mange grids du trenger å tegne ved hjelp av disse teknikkene.
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Gjennomgang og selvstudium
+
+Linjediagrammer kan være enkle eller ganske komplekse. Les litt i [Seaborns dokumentasjon](https://seaborn.pydata.org/generated/seaborn.lineplot.html) om de ulike måtene du kan bygge dem på. Prøv å forbedre linjediagrammene du laget i denne leksjonen med andre metoder som er oppført i dokumentasjonen.
+## Oppgave
+
+[Utforsk bikuben](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/no/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..b94f25f9
--- /dev/null
+++ b/translations/no/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Utforsk bikuben
+
+## Instruksjoner
+
+I denne leksjonen begynte du å se på et datasett om bier og deres honningproduksjon over en tidsperiode som også viste tap i biepopulasjonen generelt. Gå dypere inn i dette datasettet og bygg en notatbok som kan fortelle historien om helsen til biepopulasjonen, stat for stat og år for år. Oppdager du noe interessant om dette datasettet?
+
+## Vurderingskriterier
+
+| Eksemplarisk | Tilfredsstillende | Trenger forbedring |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| En notatbok presenteres med en historie annotert med minst tre forskjellige diagrammer som viser aspekter av datasettet, stat for stat og år for år | Notatboken mangler ett av disse elementene | Notatboken mangler to av disse elementene |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/no/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..5166c410
--- /dev/null
+++ b/translations/no/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Lage Meningsfulle Visualiseringer
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Meningsfulle Visualiseringer - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+> "Hvis du torturerer dataene lenge nok, vil de tilstå hva som helst" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+En av de grunnleggende ferdighetene til en dataforsker er evnen til å lage en meningsfull datavisualisering som hjelper til med å svare på spørsmål du måtte ha. Før du visualiserer dataene dine, må du sørge for at de er renset og forberedt, slik du gjorde i tidligere leksjoner. Etter det kan du begynne å bestemme hvordan du best presenterer dataene.
+
+I denne leksjonen vil du gjennomgå:
+
+1. Hvordan velge riktig diagramtype
+2. Hvordan unngå villedende diagrammer
+3. Hvordan jobbe med farger
+4. Hvordan style diagrammene dine for lesbarhet
+5. Hvordan lage animerte eller 3D-diagrammer
+6. Hvordan lage en kreativ visualisering
+
+## [Forhåndsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Velg riktig diagramtype
+
+I tidligere leksjoner eksperimenterte du med å lage ulike interessante datavisualiseringer ved hjelp av Matplotlib og Seaborn. Generelt kan du velge [riktig type diagram](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) for spørsmålet du stiller ved hjelp av denne tabellen:
+
+| Du trenger å: | Du bør bruke: |
+| -------------------------- | ----------------------------- |
+| Vise datatrender over tid | Linje |
+| Sammenligne kategorier | Stolpe, Sektordiagram |
+| Sammenligne totaler | Sektordiagram, Stablet Stolpe |
+| Vise relasjoner | Punkt, Linje, Facet, Dobbel Linje |
+| Vise fordelinger | Punkt, Histogram, Boks |
+| Vise proporsjoner | Sektordiagram, Donut, Vaffel |
+
+> ✅ Avhengig av sammensetningen av dataene dine, kan det hende du må konvertere dem fra tekst til numerisk for å få et gitt diagram til å fungere.
+
+## Unngå villedning
+
+Selv om en dataforsker er nøye med å velge riktig diagram for riktige data, finnes det mange måter data kan vises på for å bevise et poeng, ofte på bekostning av å undergrave dataene selv. Det finnes mange eksempler på villedende diagrammer og infografikk!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klikk på bildet over for en konferansesnakk om villedende diagrammer
+
+Dette diagrammet snur X-aksen for å vise det motsatte av sannheten, basert på dato:
+
+
+
+[Dette diagrammet](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) er enda mer villedende, da øyet trekkes mot høyre for å konkludere med at COVID-tilfeller har gått ned over tid i de ulike fylkene. Faktisk, hvis du ser nøye på datoene, oppdager du at de har blitt omorganisert for å gi en villedende nedadgående trend.
+
+
+
+Dette beryktede eksempelet bruker farge OG en snudd Y-akse for å villede: i stedet for å konkludere med at våpendødsfall økte etter vedtakelsen av våpenvennlig lovgivning, blir øyet lurt til å tro det motsatte:
+
+
+
+Dette merkelige diagrammet viser hvordan proporsjoner kan manipuleres, til komisk effekt:
+
+
+
+Å sammenligne det som ikke kan sammenlignes er enda et skyggefullt triks. Det finnes et [fantastisk nettsted](https://tylervigen.com/spurious-correlations) fullt av 'spuriøse korrelasjoner' som viser 'fakta' som korrelerer ting som skilsmisseraten i Maine og forbruket av margarin. En Reddit-gruppe samler også [stygge eksempler](https://www.reddit.com/r/dataisugly/top/?t=all) på databruk.
+
+Det er viktig å forstå hvor lett øyet kan bli lurt av villedende diagrammer. Selv om dataforskerens intensjon er god, kan valget av en dårlig diagramtype, som et sektordiagram med for mange kategorier, være villedende.
+
+## Farge
+
+Du så i diagrammet om 'våpenvold i Florida' hvordan farge kan gi et ekstra lag med mening til diagrammer, spesielt de som ikke er designet ved hjelp av biblioteker som Matplotlib og Seaborn, som kommer med ulike godkjente fargebiblioteker og paletter. Hvis du lager et diagram for hånd, bør du studere litt [fargeteori](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Vær oppmerksom på at tilgjengelighet er en viktig del av visualisering når du designer diagrammer. Noen av brukerne dine kan være fargeblinde – vises diagrammet ditt godt for brukere med synshemminger?
+
+Vær forsiktig når du velger farger for diagrammet ditt, da farge kan formidle betydning du kanskje ikke har til hensikt. De 'rosa damene' i 'høyde'-diagrammet over gir en tydelig 'feminin' tilskrevet mening som legger til det absurde i diagrammet selv.
+
+Selv om [fargebetydning](https://colormatters.com/color-symbolism/the-meanings-of-colors) kan variere i ulike deler av verden og har en tendens til å endre seg avhengig av nyansen, inkluderer generelle fargebetydninger:
+
+| Farge | Betydning |
+| ------- | -------------------- |
+| rød | makt |
+| blå | tillit, lojalitet |
+| gul | glede, forsiktighet |
+| grønn | økologi, flaks, misunnelse |
+| lilla | glede |
+| oransje | energi |
+
+Hvis du blir bedt om å lage et diagram med egendefinerte farger, sørg for at diagrammene dine både er tilgjengelige og at fargen du velger samsvarer med betydningen du prøver å formidle.
+
+## Style diagrammene dine for lesbarhet
+
+Diagrammer er ikke meningsfulle hvis de ikke er lesbare! Ta deg tid til å vurdere å justere bredden og høyden på diagrammet ditt slik at det skalerer godt med dataene. Hvis en variabel (som alle 50 stater) må vises, vis dem vertikalt på Y-aksen hvis mulig for å unngå et horisontalt rullbart diagram.
+
+Merk aksene dine, legg til en forklaring hvis nødvendig, og tilby verktøytips for bedre forståelse av dataene.
+
+Hvis dataene dine er tekstbaserte og detaljerte på X-aksen, kan du vinkle teksten for bedre lesbarhet. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) tilbyr 3D-plotting hvis dataene dine støtter det. Sofistikerte datavisualiseringer kan produseres ved hjelp av `mpl_toolkits.mplot3d`.
+
+
+
+## Animasjon og 3D-diagrammer
+
+Noen av de beste datavisualiseringene i dag er animerte. Shirley Wu har laget fantastiske visualiseringer med D3, som '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', hvor hver blomst er en visualisering av en film. Et annet eksempel for Guardian er 'bussed out', en interaktiv opplevelse som kombinerer visualiseringer med Greensock og D3, pluss en scrollytelling-artikkelformat for å vise hvordan NYC håndterer sitt hjemløse problem ved å sende folk ut av byen.
+
+
+
+> "Bussed Out: How America Moves its Homeless" fra [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualiseringer av Nadieh Bremer & Shirley Wu
+
+Selv om denne leksjonen ikke går i dybden på å lære disse kraftige visualiseringsbibliotekene, kan du prøve deg på D3 i en Vue.js-app ved hjelp av et bibliotek for å vise en visualisering av boken "Dangerous Liaisons" som et animert sosialt nettverk.
+
+> "Les Liaisons Dangereuses" er en brevroman, eller en roman presentert som en serie brev. Skrevet i 1782 av Choderlos de Laclos, forteller den historien om de ondskapsfulle, moralsk korrupte sosiale manøvrene til to rivaliserende protagonister i det franske aristokratiet på slutten av 1700-tallet, Vicomte de Valmont og Marquise de Merteuil. Begge møter sin undergang til slutt, men ikke uten å forårsake betydelig sosial skade. Romanen utfolder seg som en serie brev skrevet til ulike personer i deres kretser, med planer om hevn eller bare for å skape trøbbel. Lag en visualisering av disse brevene for å oppdage de sentrale aktørene i fortellingen, visuelt.
+
+Du vil fullføre en webapp som viser en animert visning av dette sosiale nettverket. Den bruker et bibliotek som ble bygget for å lage en [visualisering av et nettverk](https://github.com/emiliorizzo/vue-d3-network) ved hjelp av Vue.js og D3. Når appen kjører, kan du dra nodene rundt på skjermen for å omorganisere dataene.
+
+
+
+## Prosjekt: Lag et diagram for å vise et nettverk ved hjelp av D3.js
+
+> Denne leksjonsmappen inkluderer en `solution`-mappe hvor du kan finne det fullførte prosjektet som referanse.
+
+1. Følg instruksjonene i README.md-filen i rotmappen til startpakken. Sørg for at du har NPM og Node.js installert på maskinen din før du installerer prosjektets avhengigheter.
+
+2. Åpne `starter/src`-mappen. Du vil finne en `assets`-mappe hvor du kan finne en .json-fil med alle brevene fra romanen, nummerert, med en 'til' og 'fra'-annotasjon.
+
+3. Fullfør koden i `components/Nodes.vue` for å aktivere visualiseringen. Se etter metoden kalt `createLinks()` og legg til følgende nestede løkke.
+
+Gå gjennom .json-objektet for å fange opp 'til' og 'fra'-dataene for brevene og bygg opp `links`-objektet slik at visualiseringsbiblioteket kan bruke det:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Kjør appen din fra terminalen (npm run serve) og nyt visualiseringen!
+
+## 🚀 Utfordring
+
+Ta en tur på internett for å oppdage villedende visualiseringer. Hvordan lurer forfatteren brukeren, og er det med vilje? Prøv å korrigere visualiseringene for å vise hvordan de burde se ut.
+
+## [Etter-quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Gjennomgang og Selvstudium
+
+Her er noen artikler om villedende datavisualisering:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Ta en titt på disse interessante visualiseringene for historiske eiendeler og gjenstander:
+
+https://handbook.pubpub.org/
+
+Se gjennom denne artikkelen om hvordan animasjon kan forbedre visualiseringene dine:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Oppgave
+
+[Bygg din egen tilpassede visualisering](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/no/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..e9c1d8f6
--- /dev/null
+++ b/translations/no/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Bygg din egen tilpassede vis
+
+## Instruksjoner
+
+Bruk kodeeksempelet i dette prosjektet for å lage et sosialt nettverk, og lag dine egne data basert på dine sosiale interaksjoner. Du kan kartlegge din bruk av sosiale medier eller lage et diagram over familiemedlemmene dine. Lag en interessant webapplikasjon som viser en unik visualisering av et sosialt nettverk.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Et GitHub-repositorium presenteres med kode som fungerer som den skal (prøv å distribuere det som en statisk webapplikasjon) og har en annotert README som forklarer prosjektet | Repositoriet fungerer ikke som det skal eller er ikke godt dokumentert | Repositoriet fungerer ikke som det skal og er ikke godt dokumentert
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/no/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..681a15b6
--- /dev/null
+++ b/translations/no/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons datavisualiseringsprosjekt
+
+For å komme i gang må du sørge for at du har NPM og Node installert og kjører på maskinen din. Installer avhengighetene (npm install) og kjør deretter prosjektet lokalt (npm run serve):
+
+## Prosjektoppsett
+```
+npm install
+```
+
+### Kompilerer og oppdaterer automatisk for utvikling
+```
+npm run serve
+```
+
+### Kompilerer og minifiserer for produksjon
+```
+npm run build
+```
+
+### Utfører linting og fikser filer
+```
+npm run lint
+```
+
+### Tilpass konfigurasjonen
+Se [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/no/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..03abc1bc
--- /dev/null
+++ b/translations/no/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons datavisualiseringsprosjekt
+
+For å komme i gang, må du sørge for at du har NPM og Node installert på maskinen din. Installer avhengighetene (npm install) og kjør deretter prosjektet lokalt (npm run serve):
+
+## Prosjektoppsett
+```
+npm install
+```
+
+### Kompilerer og oppdaterer automatisk for utvikling
+```
+npm run serve
+```
+
+### Kompilerer og minimerer for produksjon
+```
+npm run build
+```
+
+### Utfører linting og fikser filer
+```
+npm run lint
+```
+
+### Tilpass konfigurasjonen
+Se [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/no/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..69dbc886
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,232 @@
+
+# Visualisering av Mengder
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisering av Mengder - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I denne leksjonen vil du utforske hvordan du kan bruke noen av de mange tilgjengelige R-pakkene for å lære å lage interessante visualiseringer rundt konseptet mengde. Ved å bruke et renset datasett om fuglene i Minnesota, kan du lære mange interessante fakta om det lokale dyrelivet.
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observer vingespenn med ggplot2
+Et utmerket bibliotek for å lage både enkle og avanserte diagrammer og grafer av ulike typer er [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Generelt sett innebærer prosessen med å plotte data ved hjelp av disse bibliotekene å identifisere delene av dataframen du vil fokusere på, utføre nødvendige transformasjoner på dataene, tilordne verdier til x- og y-aksen, bestemme hvilken type diagram du vil vise, og deretter vise diagrammet.
+
+`ggplot2` er et system for deklarativt å lage grafikk, basert på The Grammar of Graphics. [Grammar of Graphics](https://en.wikipedia.org/wiki/Ggplot2) er et generelt rammeverk for datavisualisering som deler opp grafer i semantiske komponenter som skalaer og lag. Med andre ord gjør enkelheten i å lage grafer for univariat eller multivariat data med lite kode `ggplot2` til den mest populære pakken for visualiseringer i R. Brukeren forteller `ggplot2` hvordan variablene skal kartlegges til estetikk, hvilke grafiske elementer som skal brukes, og `ggplot2` tar seg av resten.
+
+> ✅ Diagram = Data + Estetikk + Geometri
+> - Data refererer til datasettet
+> - Estetikk indikerer variablene som skal studeres (x- og y-variabler)
+> - Geometri refererer til typen diagram (linjediagram, stolpediagram, osv.)
+
+Velg den beste geometrien (typen diagram) i henhold til dataene dine og historien du vil fortelle gjennom diagrammet.
+
+> - For å analysere trender: linje, kolonne
+> - For å sammenligne verdier: stolpe, kolonne, sektordiagram, spredningsdiagram
+> - For å vise hvordan deler forholder seg til helheten: sektordiagram
+> - For å vise distribusjon av data: spredningsdiagram, stolpe
+> - For å vise relasjoner mellom verdier: linje, spredningsdiagram, boble
+
+✅ Du kan også sjekke ut dette beskrivende [juksearket](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) for ggplot2.
+
+## Lag et linjediagram om fuglenes vingespennverdier
+
+Åpne R-konsollen og importer datasettet.
+> Merk: Datasettet er lagret i roten av dette repoet i `/data`-mappen.
+
+La oss importere datasettet og observere toppen (de første 5 radene) av dataene.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Toppen av dataene inneholder en blanding av tekst og tall:
+
+| | Navn | VitenskapeligNavn | Kategori | Orden | Familie | Slekt | Bevaringsstatus | MinLengde | MaksLengde | MinKroppsmasse | MaksKroppsmasse | MinVingespenn | MaksVingespenn |
+| ---: | :---------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ------------: | -------------: | ------------: | ------------: |
+| 0 | Svartbukket plystreand | Dendrocygna autumnalis | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Rødplystreand | Dendrocygna bicolor | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snøgås | Anser caerulescens | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Større hvitkinngås | Anser albifrons | Ender/Gjess/Vannfugl | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+La oss begynne med å plotte noen av de numeriske dataene ved hjelp av et grunnleggende linjediagram. Anta at du ønsker en oversikt over det maksimale vingespennet for disse interessante fuglene.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Her installerer du `ggplot2`-pakken og importerer den deretter til arbeidsområdet ved hjelp av kommandoen `library("ggplot2")`. For å plotte et diagram i ggplot brukes funksjonen `ggplot()`, og du spesifiserer datasettet, x- og y-variablene som attributter. I dette tilfellet bruker vi funksjonen `geom_line()` siden vi ønsker å plotte et linjediagram.
+
+
+
+Hva legger du merke til med en gang? Det ser ut til å være minst én uteligger - det er et ganske vingespenn! Et vingespenn på over 2000 centimeter tilsvarer mer enn 20 meter - er det Pterodaktyler som flyr rundt i Minnesota? La oss undersøke.
+
+Selv om du kunne gjort en rask sortering i Excel for å finne disse uteliggerne, som sannsynligvis er skrivefeil, fortsetter vi visualiseringsprosessen ved å jobbe fra diagrammet.
+
+Legg til etiketter på x-aksen for å vise hvilke fugler det er snakk om:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Vi spesifiserer vinkelen i `theme` og angir x- og y-akseetiketter i `xlab()` og `ylab()` henholdsvis. `ggtitle()` gir diagrammet et navn.
+
+
+
+Selv med rotasjonen av etikettene satt til 45 grader, er det for mange til å lese. La oss prøve en annen strategi: merk bare uteliggerne og sett etikettene innenfor diagrammet. Du kan bruke et spredningsdiagram for å få mer plass til merkingen:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Hva skjer her? Du brukte funksjonen `geom_point()` for å plotte spredningspunkter. Med dette la du til etiketter for fugler som hadde `MaxWingspan > 500` og skjulte også etikettene på x-aksen for å rydde opp i diagrammet.
+
+Hva oppdager du?
+
+
+
+## Filtrer dataene dine
+
+Både Hodeørn og Præriefalk, selv om de sannsynligvis er veldig store fugler, ser ut til å være feilmerket, med en ekstra 0 lagt til deres maksimale vingespenn. Det er lite sannsynlig at du møter en Hodeørn med et vingespenn på 25 meter, men hvis du gjør det, gi oss beskjed! La oss lage en ny dataframe uten disse to uteliggerne:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Vi laget en ny dataframe `birds_filtered` og plottet deretter et spredningsdiagram. Ved å filtrere ut uteliggerne er dataene dine nå mer sammenhengende og forståelige.
+
+
+
+Nå som vi har et renere datasett, i det minste når det gjelder vingespenn, la oss oppdage mer om disse fuglene.
+
+Mens linje- og spredningsdiagrammer kan vise informasjon om dataverdier og deres distribusjoner, vil vi tenke på verdiene som ligger i dette datasettet. Du kan lage visualiseringer for å svare på følgende spørsmål om mengde:
+
+> Hvor mange kategorier av fugler finnes det, og hva er antallet?
+> Hvor mange fugler er utdødd, truet, sjeldne eller vanlige?
+> Hvor mange finnes det av de ulike slektene og ordenene i Linnés terminologi?
+
+## Utforsk stolpediagrammer
+
+Stolpediagrammer er praktiske når du trenger å vise grupperinger av data. La oss utforske kategoriene av fugler som finnes i dette datasettet for å se hvilken som er den vanligste etter antall.
+La oss lage et stolpediagram basert på filtrerte data.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+I følgende kodebit installerer vi [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8)- og [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0)-pakkene for å hjelpe med å manipulere og gruppere data for å plotte et stablet stolpediagram. Først grupperer du dataene etter fuglenes `Category` og oppsummerer deretter kolonnene `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Deretter plotter du stolpediagrammet ved hjelp av `ggplot2`-pakken og spesifiserer farger for de ulike kategoriene og etikettene.
+
+
+
+Dette stolpediagrammet er imidlertid uleselig fordi det er for mye ugruppert data. Du må velge bare dataene du vil plotte, så la oss se på lengden av fugler basert på deres kategori.
+
+Filtrer dataene dine for å inkludere bare fuglenes kategori.
+
+Siden det er mange kategorier, kan du vise dette diagrammet vertikalt og justere høyden for å ta hensyn til alle dataene:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Du teller først unike verdier i `Category`-kolonnen og sorterer dem deretter inn i en ny dataframe `birds_count`. Disse sorterte dataene faktoreres deretter på samme nivå slik at de plottes i sortert rekkefølge. Ved hjelp av `ggplot2` plotter du deretter dataene i et stolpediagram. `coord_flip()` plasserer horisontale stolper.
+
+
+
+Dette stolpediagrammet gir et godt innblikk i antallet fugler i hver kategori. Med et blikk ser du at det største antallet fugler i denne regionen er i kategorien Ender/Gjess/Vannfugl. Minnesota er "landet med 10 000 innsjøer", så dette er ikke overraskende!
+
+✅ Prøv noen andre tellinger på dette datasettet. Er det noe som overrasker deg?
+
+## Sammenligne data
+
+Du kan prøve ulike sammenligninger av grupperte data ved å lage nye akser. Prøv en sammenligning av fuglenes MaksLengde basert på deres kategori:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Vi grupperer `birds_filtered`-dataene etter `Category` og plottet deretter et stolpediagram.
+
+
+
+Ingenting er overraskende her: kolibrier har den minste MaksLengden sammenlignet med pelikaner eller gjess. Det er bra når data gir logisk mening!
+
+Du kan lage mer interessante visualiseringer av stolpediagrammer ved å legge data oppå hverandre. La oss legge Minimum og Maksimum Lengde oppå en gitt fuglekategori:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Utfordring
+
+Dette fugledatasettet tilbyr en mengde informasjon om ulike typer fugler innenfor et bestemt økosystem. Søk rundt på internett og se om du kan finne andre fugleorienterte datasett. Øv på å lage diagrammer og grafer rundt disse fuglene for å oppdage fakta du ikke visste.
+
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Gjennomgang & Selvstudium
+
+Denne første leksjonen har gitt deg litt informasjon om hvordan du bruker `ggplot2` til å visualisere mengder. Gjør litt research rundt andre måter å jobbe med datasett for visualisering. Undersøk og se etter datasett som du kan visualisere ved hjelp av andre pakker som [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) og [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Oppgave
+[Linjer, Spredning og Stolper](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/no/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..ba4eeb2a
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linjer, spredningsdiagrammer og stolpediagrammer
+
+## Instruksjoner
+
+I denne leksjonen jobbet du med linjediagrammer, spredningsdiagrammer og stolpediagrammer for å vise interessante fakta om dette datasettet. I denne oppgaven skal du gå dypere inn i datasettet for å oppdage en fakta om en gitt type fugl. For eksempel, lag et skript som visualiserer all interessant data du kan finne om Snøgås. Bruk de tre diagramtypene nevnt ovenfor for å fortelle en historie i notatboken din.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Et skript presenteres med gode kommentarer, solid historiefortelling og attraktive grafer | Skriptet mangler ett av disse elementene | Skriptet mangler to av disse elementene
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/no/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..cb6b3008
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,183 @@
+
+# Visualisering av fordelinger
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisering av fordelinger - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I forrige leksjon lærte du noen interessante fakta om et datasett om fuglene i Minnesota. Du oppdaget feilaktige data ved å visualisere uteliggere og så på forskjellene mellom fuglekategorier basert på deres maksimale lengde.
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Utforsk fugledatasettet
+
+En annen måte å grave i data på er ved å se på fordelingen, eller hvordan dataene er organisert langs en akse. Kanskje du for eksempel ønsker å lære om den generelle fordelingen i dette datasettet av maksimal vingespenn eller maksimal kroppsmasse for fuglene i Minnesota.
+
+La oss oppdage noen fakta om fordelingen av data i dette datasettet. I din R-konsoll, importer `ggplot2` og databasen. Fjern uteliggere fra databasen slik som i forrige tema.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Navn | VitenskapeligNavn | Kategori | Orden | Familie | Slekt | Bevaringsstatus | MinLengde | MaksLengde | MinKroppsmasse | MaksKroppsmasse | MinVingespenn | MaksVingespenn |
+| ---: | :-------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ------------: | -------------: | ------------: | -------------: |
+| 0 | Svartbukfløyteand | Dendrocygna autumnalis | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Brunfløyteand | Dendrocygna bicolor | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snøgås | Anser caerulescens | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Rossgås | Anser rossii | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Større hvitkinngås | Anser albifrons | Ender/Gjess/Vannfugler | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Generelt kan du raskt se hvordan data er fordelt ved å bruke et spredningsdiagram, slik vi gjorde i forrige leksjon:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Dette gir en oversikt over den generelle fordelingen av kroppslengde per fugleorden, men det er ikke den optimale måten å vise sanne fordelinger på. Den oppgaven håndteres vanligvis ved å lage et histogram.
+## Arbeide med histogrammer
+
+`ggplot2` tilbyr svært gode måter å visualisere datafordeling ved hjelp av histogrammer. Denne typen diagram ligner et stolpediagram hvor fordelingen kan sees gjennom stigning og fall av stolpene. For å lage et histogram trenger du numeriske data. For å lage et histogram kan du plotte et diagram og definere typen som 'hist' for histogram. Dette diagrammet viser fordelingen av MaksKroppsmasse for hele datasettets numeriske data. Ved å dele opp datasettet i mindre grupper kan det vise fordelingen av verdiene:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Som du kan se, faller de fleste av de 400+ fuglene i dette datasettet innenfor området under 2000 for deres Maks Kroppsmasse. Få mer innsikt i dataene ved å endre `bins`-parameteren til et høyere tall, for eksempel 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Dette diagrammet viser fordelingen på en litt mer detaljert måte. Et diagram som er mindre skjevt mot venstre kan opprettes ved å sørge for at du bare velger data innenfor et gitt område:
+
+Filtrer dataene dine for å få kun de fuglene som har kroppsmasse under 60, og vis 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Prøv noen andre filtre og datapunkter. For å se hele fordelingen av dataene, fjern `['MaxBodyMass']`-filteret for å vise merkede fordelinger.
+
+Histogrammet tilbyr også noen fine farge- og merkeforbedringer å prøve:
+
+Lag et 2D-histogram for å sammenligne forholdet mellom to fordelinger. La oss sammenligne `MaxBodyMass` vs. `MaxLength`. `ggplot2` tilbyr en innebygd måte å vise konvergens ved hjelp av lysere farger:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Det ser ut til å være en forventet korrelasjon mellom disse to elementene langs en forventet akse, med ett spesielt sterkt punkt av konvergens:
+
+
+
+Histogrammer fungerer godt som standard for numeriske data. Hva om du trenger å se fordelinger basert på tekstdata?
+## Utforsk datasettet for fordelinger ved hjelp av tekstdata
+
+Dette datasettet inkluderer også god informasjon om fuglekategori og dens slekt, art og familie, samt dens bevaringsstatus. La oss grave i denne bevaringsinformasjonen. Hva er fordelingen av fuglene i henhold til deres bevaringsstatus?
+
+> ✅ I datasettet brukes flere forkortelser for å beskrive bevaringsstatus. Disse forkortelsene kommer fra [IUCN Red List Categories](https://www.iucnredlist.org/), en organisasjon som katalogiserer arters status.
+>
+> - CR: Kritisk truet
+> - EN: Truet
+> - EX: Utdødd
+> - LC: Livskraftig
+> - NT: Nær truet
+> - VU: Sårbar
+
+Dette er tekstbaserte verdier, så du må gjøre en transformasjon for å lage et histogram. Bruk den filtrerteBirds-datarammen til å vise dens bevaringsstatus sammen med dens Minimum Vingespenn. Hva ser du?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Det ser ikke ut til å være en god korrelasjon mellom minimum vingespenn og bevaringsstatus. Test andre elementer i datasettet ved hjelp av denne metoden. Du kan også prøve forskjellige filtre. Finner du noen korrelasjon?
+
+## Tetthetsdiagrammer
+
+Du har kanskje lagt merke til at histogrammene vi har sett på så langt er 'trappetrinnsformede' og ikke flyter jevnt i en bue. For å vise et jevnere tetthetsdiagram kan du prøve et tetthetsdiagram.
+
+La oss jobbe med tetthetsdiagrammer nå!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Du kan se hvordan diagrammet gjenspeiler det forrige for Minimum Vingespenn-data; det er bare litt jevnere. Hvis du ønsket å gå tilbake til den hakkete MaksKroppsmasse-linjen i det andre diagrammet du laget, kunne du jevne den ut veldig godt ved å gjenskape den ved hjelp av denne metoden:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Hvis du ønsket en jevn, men ikke for jevn linje, rediger `adjust`-parameteren:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Les om parameterne som er tilgjengelige for denne typen diagram og eksperimenter!
+
+Denne typen diagram tilbyr vakkert forklarende visualiseringer. Med noen få linjer kode kan du for eksempel vise maks kroppsmasse tetthet per fugleorden:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Utfordring
+
+Histogrammer er en mer sofistikert type diagram enn grunnleggende spredningsdiagrammer, stolpediagrammer eller linjediagrammer. Gjør et søk på internett for å finne gode eksempler på bruk av histogrammer. Hvordan brukes de, hva viser de, og innen hvilke felt eller områder brukes de vanligvis?
+
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Gjennomgang og selvstudium
+
+I denne leksjonen brukte du `ggplot2` og begynte å jobbe med å vise mer sofistikerte diagrammer. Gjør litt research på `geom_density_2d()` en "kontinuerlig sannsynlighetstetthetskurve i en eller flere dimensjoner". Les gjennom [dokumentasjonen](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) for å forstå hvordan det fungerer.
+
+## Oppgave
+
+[Bruk ferdighetene dine](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/no/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..be3c40ac
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Bruk ferdighetene dine
+
+## Instruksjoner
+
+Så langt har du jobbet med datasettet om fugler i Minnesota for å finne informasjon om fuglemengder og populasjonstetthet. Øv på å anvende disse teknikkene ved å prøve et annet datasett, kanskje hentet fra [Kaggle](https://www.kaggle.com/). Lag et R-skript som forteller en historie om dette datasettet, og sørg for å bruke histogrammer når du diskuterer det.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | --- |
+Et skript presenteres med kommentarer om dette datasettet, inkludert dets kilde, og bruker minst 5 histogrammer for å finne fakta om dataene. | Et skript presenteres med ufullstendige kommentarer eller feil. | Et skript presenteres uten kommentarer og inneholder feil.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/no/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..352025ce
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,201 @@
+
+# Visualisering av proporsjoner
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisering av proporsjoner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I denne leksjonen skal du bruke et naturfokusert datasett for å visualisere proporsjoner, som for eksempel hvor mange forskjellige typer sopp som finnes i et gitt datasett om sopp. La oss utforske disse fascinerende soppene ved hjelp av et datasett hentet fra Audubon som inneholder detaljer om 23 arter av skivesopper i Agaricus- og Lepiota-familiene. Du vil eksperimentere med smakfulle visualiseringer som:
+
+- Kakediagrammer 🥧
+- Smultringdiagrammer 🍩
+- Vaffeldiagrammer 🧇
+
+> 💡 Et veldig interessant prosjekt kalt [Charticulator](https://charticulator.com) fra Microsoft Research tilbyr et gratis dra-og-slipp-grensesnitt for datavisualiseringer. I en av deres opplæringer bruker de også dette soppdatasettet! Så du kan utforske dataene og lære biblioteket samtidig: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Bli kjent med soppene dine 🍄
+
+Sopp er veldig interessante. La oss importere et datasett for å studere dem:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+En tabell vises med noen flotte data for analyse:
+
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Poisonous | Convex | Smooth | Brown | Bruises | Pungent | Free | Close | Narrow | Black | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+| Edible | Convex | Smooth | Yellow | Bruises | Almond | Free | Close | Broad | Black | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Grasses |
+| Edible | Bell | Smooth | White | Bruises | Anise | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Meadows |
+| Poisonous | Convex | Scaly | White | Bruises | Pungent | Free | Close | Narrow | Brown | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban
+| Edible | Convex |Smooth | Green | No Bruises| None |Free | Crowded | Broad | Black | Tapering | Equal | Smooth | Smooth | White | White | Partial | White | One | Evanescent | Brown | Abundant | Grasses
+|Edible | Convex | Scaly | Yellow | Bruises | Almond | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Numerous | Grasses
+
+Med en gang legger du merke til at alle dataene er tekstbaserte. Du må konvertere disse dataene for å kunne bruke dem i et diagram. Faktisk er de fleste dataene representert som et objekt:
+
+```r
+names(mushrooms)
+```
+
+Resultatet er:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Ta disse dataene og konverter 'class'-kolonnen til en kategori:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+
+Nå, hvis du skriver ut soppdataene, kan du se at de har blitt gruppert i kategorier basert på klassen giftig/spiselig:
+```r
+View(grouped)
+```
+
+
+| class | count |
+| --------- | --------- |
+| Edible | 4208 |
+| Poisonous| 3916 |
+
+
+
+Hvis du følger rekkefølgen presentert i denne tabellen for å lage dine klassekategorietiketter, kan du lage et kakediagram.
+
+## Kake!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voila, et kakediagram som viser proporsjonene av disse dataene basert på de to klassene av sopp. Det er ganske viktig å få rekkefølgen på etikettene riktig, spesielt her, så sørg for å verifisere rekkefølgen etikettarrayet er bygget med!
+
+
+
+## Smultringer!
+
+Et litt mer visuelt interessant kakediagram er et smultringdiagram, som er et kakediagram med et hull i midten. La oss se på dataene våre ved hjelp av denne metoden.
+
+Se på de forskjellige habitatene hvor sopp vokser:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Resultatet er:
+| habitat| count |
+| --------- | --------- |
+| Grasses | 2148 |
+| Leaves| 832 |
+| Meadows | 292 |
+| Paths| 1144 |
+| Urban | 368 |
+| Waste| 192 |
+| Wood| 3148 |
+
+
+Her grupperer du dataene dine etter habitat. Det er 7 oppførte, så bruk disse som etiketter for smultringdiagrammet ditt:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Denne koden bruker de to bibliotekene - ggplot2 og webr. Ved å bruke PieDonut-funksjonen i webr-biblioteket kan vi enkelt lage et smultringdiagram!
+
+Smultringdiagrammer i R kan også lages ved hjelp av kun ggplot2-biblioteket. Du kan lære mer om det [her](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) og prøve det selv.
+
+Nå som du vet hvordan du grupperer dataene dine og deretter viser dem som kake eller smultring, kan du utforske andre typer diagrammer. Prøv et vaffeldiagram, som er en annen måte å utforske mengder på.
+## Vafler!
+
+Et 'vaffel'-type diagram er en annen måte å visualisere mengder som et 2D-array av firkanter. Prøv å visualisere de forskjellige mengdene av soppens hattfarger i dette datasettet. For å gjøre dette må du installere et hjelpebibliotek kalt [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) og bruke det til å generere visualiseringen din:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Velg et segment av dataene dine for å gruppere:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Lag et vaffeldiagram ved å lage etiketter og deretter gruppere dataene dine:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Ved å bruke et vaffeldiagram kan du tydelig se proporsjonene av hattfarger i dette soppdatasettet. Interessant nok er det mange sopper med grønne hatter!
+
+
+
+I denne leksjonen lærte du tre måter å visualisere proporsjoner på. Først må du gruppere dataene dine i kategorier og deretter bestemme hvilken som er den beste måten å vise dataene på - kake, smultring eller vaffel. Alle er smakfulle og gir brukeren et øyeblikkelig innblikk i et datasett.
+
+## 🚀 Utfordring
+
+Prøv å gjenskape disse smakfulle diagrammene i [Charticulator](https://charticulator.com).
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Gjennomgang & Selvstudium
+
+Noen ganger er det ikke åpenbart når man skal bruke et kake-, smultring- eller vaffeldiagram. Her er noen artikler du kan lese om dette emnet:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Gjør litt research for å finne mer informasjon om denne vanskelige avgjørelsen.
+## Oppgave
+
+[Prøv det i Excel](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/no/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..43cf86d8
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# Visualisering av relasjoner: Alt om honning 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisering av relasjoner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Vi fortsetter med naturfokuset i vår forskning og utforsker interessante visualiseringer for å vise relasjoner mellom ulike typer honning, basert på et datasett fra [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Dette datasettet, som inneholder rundt 600 elementer, viser honningproduksjon i mange amerikanske stater. For eksempel kan du se på antall kolonier, avkastning per koloni, total produksjon, lagerbeholdning, pris per pund og verdien av honningen produsert i en gitt stat fra 1998-2012, med én rad per år for hver stat.
+
+Det vil være interessant å visualisere relasjonen mellom en gitt stats produksjon per år og for eksempel prisen på honning i den staten. Alternativt kan du visualisere relasjonen mellom statenes honningavkastning per koloni. Denne tidsperioden dekker den ødeleggende 'CCD' eller 'Colony Collapse Disorder', som først ble observert i 2006 (http://npic.orst.edu/envir/ccd.html), så det er et tankevekkende datasett å studere. 🐝
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+I denne leksjonen kan du bruke ggplot2, som du har brukt tidligere, som et godt bibliotek for å visualisere relasjoner mellom variabler. Spesielt interessant er bruken av ggplot2s `geom_point` og `qplot`-funksjon, som lar deg lage spredningsdiagrammer og linjediagrammer for raskt å visualisere '[statistiske relasjoner](https://ggplot2.tidyverse.org/)', som hjelper dataforskeren med å forstå hvordan variabler henger sammen.
+
+## Spredningsdiagrammer
+
+Bruk et spredningsdiagram for å vise hvordan prisen på honning har utviklet seg år for år, per stat. ggplot2, ved bruk av `ggplot` og `geom_point`, grupperer praktisk statens data og viser datapunkter for både kategoriske og numeriske data.
+
+La oss starte med å importere dataene og Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Du legger merke til at honningdataene har flere interessante kolonner, inkludert år og pris per pund. La oss utforske disse dataene, gruppert etter amerikansk stat:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Lag et enkelt spredningsdiagram for å vise relasjonen mellom prisen per pund honning og dens opprinnelsesstat i USA. Gjør `y`-aksen høy nok til å vise alle statene:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Vis nå de samme dataene med et honningfarget fargeskjema for å vise hvordan prisen utvikler seg over årene. Du kan gjøre dette ved å legge til en 'scale_color_gradientn'-parameter for å vise endringen år for år:
+
+> ✅ Lær mer om [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - prøv et vakkert regnbuefargeskjema!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Med denne fargeendringen kan du tydelig se en sterk progresjon over årene når det gjelder honningpris per pund. Faktisk, hvis du ser på et utvalg i dataene for å verifisere (velg en gitt stat, for eksempel Arizona), kan du se et mønster med prisøkninger år for år, med få unntak:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+En annen måte å visualisere denne progresjonen på er å bruke størrelse i stedet for farge. For fargeblinde brukere kan dette være et bedre alternativ. Rediger visualiseringen din for å vise en økning i pris ved en økning i prikkens omkrets:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Du kan se at størrelsen på prikkene gradvis øker.
+
+
+
+Er dette et enkelt tilfelle av tilbud og etterspørsel? På grunn av faktorer som klimaendringer og kollaps av kolonier, er det mindre honning tilgjengelig for kjøp år for år, og dermed øker prisen?
+
+For å oppdage en korrelasjon mellom noen av variablene i dette datasettet, la oss utforske noen linjediagrammer.
+
+## Linjediagrammer
+
+Spørsmål: Er det en klar økning i prisen på honning per pund år for år? Du kan enklest oppdage dette ved å lage et enkelt linjediagram:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Svar: Ja, med noen unntak rundt året 2003:
+
+
+
+Spørsmål: Vel, i 2003 kan vi også se en topp i honningforsyningen? Hva om du ser på total produksjon år for år?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Svar: Ikke egentlig. Hvis du ser på total produksjon, ser det faktisk ut til å ha økt det året, selv om mengden honning som produseres generelt sett er i nedgang i disse årene.
+
+Spørsmål: I så fall, hva kan ha forårsaket den toppen i prisen på honning rundt 2003?
+
+For å oppdage dette kan du utforske et facet grid.
+
+## Facet grids
+
+Facet grids tar én fasett av datasettet ditt (i vårt tilfelle kan du velge 'år' for å unngå å produsere for mange fasetter). Seaborn kan deretter lage et diagram for hver av disse fasettene av dine valgte x- og y-koordinater for enklere visuell sammenligning. Skiller 2003 seg ut i denne typen sammenligning?
+
+Lag et facet grid ved å bruke `facet_wrap` som anbefalt av [ggplot2s dokumentasjon](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+I denne visualiseringen kan du sammenligne avkastning per koloni og antall kolonier år for år, side om side med en wrap satt til 3 for kolonnene:
+
+
+
+For dette datasettet skiller ingenting seg spesielt ut når det gjelder antall kolonier og deres avkastning, år for år og stat for stat. Er det en annen måte å finne en korrelasjon mellom disse to variablene?
+
+## Dual-line Plots
+
+Prøv et multiline diagram ved å legge to linjediagrammer oppå hverandre, ved bruk av Rs `par` og `plot`-funksjon. Vi vil plotte året på x-aksen og vise to y-akser. Så, vis avkastning per koloni og antall kolonier, superimponert:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Selv om ingenting skiller seg ut rundt året 2003, lar det oss avslutte denne leksjonen på en litt lykkeligere tone: selv om det generelt er et synkende antall kolonier, stabiliserer antallet kolonier seg, selv om deres avkastning per koloni avtar.
+
+Heia, bier, heia!
+
+🐝❤️
+## 🚀 Utfordring
+
+I denne leksjonen lærte du litt mer om andre bruksområder for spredningsdiagrammer og linjenett, inkludert facet grids. Utfordre deg selv til å lage et facet grid ved hjelp av et annet datasett, kanskje et du brukte tidligere i disse leksjonene. Legg merke til hvor lang tid det tar å lage og hvor forsiktig du må være med hvor mange grids du trenger å tegne ved hjelp av disse teknikkene.
+## [Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Gjennomgang & Selvstudium
+
+Linjediagrammer kan være enkle eller ganske komplekse. Les litt i [ggplot2-dokumentasjonen](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) om de ulike måtene du kan bygge dem på. Prøv å forbedre linjediagrammene du bygde i denne leksjonen med andre metoder som er oppført i dokumentasjonen.
+## Oppgave
+
+[Dykk inn i bikuben](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/no/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..24bb1bff
--- /dev/null
+++ b/translations/no/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Lage Meningsfulle Visualiseringer
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Meningsfulle Visualiseringer - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+> "Hvis du torturerer dataene lenge nok, vil de tilstå hva som helst" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+En av de grunnleggende ferdighetene til en dataforsker er evnen til å lage en meningsfull datavisualisering som hjelper deg med å besvare spørsmål du måtte ha. Før du visualiserer dataene dine, må du sørge for at de er renset og forberedt, slik du gjorde i tidligere leksjoner. Deretter kan du begynne å bestemme hvordan du best kan presentere dataene.
+
+I denne leksjonen vil du gå gjennom:
+
+1. Hvordan velge riktig diagramtype
+2. Hvordan unngå villedende diagrammer
+3. Hvordan jobbe med farger
+4. Hvordan style diagrammene dine for lesbarhet
+5. Hvordan lage animerte eller 3D-diagramløsninger
+6. Hvordan lage en kreativ visualisering
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Velg riktig diagramtype
+
+I tidligere leksjoner eksperimenterte du med å lage alle slags interessante datavisualiseringer ved hjelp av Matplotlib og Seaborn for diagrammer. Generelt kan du velge [riktig type diagram](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) for spørsmålet du stiller ved hjelp av denne tabellen:
+
+| Du trenger å: | Du bør bruke: |
+| -------------------------- | ------------------------------ |
+| Vise datatrender over tid | Linje |
+| Sammenligne kategorier | Stolpe, Kakediagram |
+| Sammenligne totaler | Kakediagram, Stablet stolpe |
+| Vise relasjoner | Punktdiagram, Linje, Facet, Dobbel linje |
+| Vise distribusjoner | Punktdiagram, Histogram, Boks |
+| Vise proporsjoner | Kakediagram, Donut, Vaffel |
+
+> ✅ Avhengig av sammensetningen av dataene dine, kan det hende du må konvertere dem fra tekst til numerisk for å få et gitt diagram til å støtte det.
+
+## Unngå villedning
+
+Selv om en dataforsker er nøye med å velge riktig diagram for riktige data, finnes det mange måter data kan vises på for å bevise et poeng, ofte på bekostning av å undergrave dataene selv. Det finnes mange eksempler på villedende diagrammer og infografikk!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klikk på bildet over for en konferansesamtale om villedende diagrammer
+
+Dette diagrammet reverserer X-aksen for å vise det motsatte av sannheten, basert på dato:
+
+
+
+[Dette diagrammet](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) er enda mer villedende, da øyet trekkes mot høyre for å konkludere med at COVID-tilfeller har gått ned over tid i de ulike fylkene. Faktisk, hvis du ser nøye på datoene, finner du at de har blitt omorganisert for å gi den villedende nedadgående trenden.
+
+
+
+Dette beryktede eksempelet bruker farge OG en snudd Y-akse for å villede: i stedet for å konkludere med at våpendødsfall økte etter vedtaket av våpenvennlig lovgivning, blir øyet lurt til å tro at det motsatte er sant:
+
+
+
+Dette merkelige diagrammet viser hvordan proporsjoner kan manipuleres, til komisk effekt:
+
+
+
+Å sammenligne det som ikke kan sammenlignes er nok et skyggefullt triks. Det finnes et [fantastisk nettsted](https://tylervigen.com/spurious-correlations) som handler om 'spuriøse korrelasjoner' og viser 'fakta' som korrelerer ting som skilsmisseraten i Maine og forbruket av margarin. En Reddit-gruppe samler også [stygge eksempler](https://www.reddit.com/r/dataisugly/top/?t=all) på databruk.
+
+Det er viktig å forstå hvor lett øyet kan bli lurt av villedende diagrammer. Selv om dataforskerens intensjon er god, kan valget av en dårlig type diagram, som et kakediagram som viser for mange kategorier, være villedende.
+
+## Farge
+
+Du så i diagrammet om 'våpenvold i Florida' hvordan farge kan gi et ekstra lag med mening til diagrammer, spesielt de som ikke er designet ved hjelp av biblioteker som ggplot2 og RColorBrewer, som kommer med ulike godkjente fargebiblioteker og paletter. Hvis du lager et diagram for hånd, bør du studere litt [fargeteori](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Vær oppmerksom på at tilgjengelighet er en viktig del av visualisering når du designer diagrammer. Noen av brukerne dine kan være fargeblinde - vises diagrammet ditt godt for brukere med synshemminger?
+
+Vær forsiktig når du velger farger for diagrammet ditt, da farge kan formidle mening du kanskje ikke har til hensikt. De 'rosa damene' i diagrammet om 'høyde' ovenfor gir en tydelig 'feminin' tilskrevet mening som legger til det bisarre ved diagrammet.
+
+Selv om [fargemening](https://colormatters.com/color-symbolism/the-meanings-of-colors) kan være forskjellig i ulike deler av verden og har en tendens til å endre mening avhengig av nyansen, inkluderer generelle fargemeninger:
+
+| Farge | Betydning |
+| ------- | -------------------- |
+| rød | kraft |
+| blå | tillit, lojalitet |
+| gul | lykke, forsiktighet |
+| grønn | økologi, flaks, misunnelse |
+| lilla | lykke |
+| oransje | livlighet |
+
+Hvis du får i oppgave å lage et diagram med tilpassede farger, sørg for at diagrammene dine både er tilgjengelige og at fargen du velger samsvarer med meningen du prøver å formidle.
+
+## Style diagrammene dine for lesbarhet
+
+Diagrammer er ikke meningsfulle hvis de ikke er lesbare! Ta deg tid til å vurdere å style bredden og høyden på diagrammet ditt slik at det skalerer godt med dataene. Hvis én variabel (som alle 50 stater) må vises, vis dem vertikalt på Y-aksen hvis mulig for å unngå et diagram som må rulles horisontalt.
+
+Merk aksene dine, gi en legende hvis nødvendig, og tilby verktøytips for bedre forståelse av dataene.
+
+Hvis dataene dine er tekstbaserte og detaljerte på X-aksen, kan du vinkle teksten for bedre lesbarhet. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) tilbyr 3D-plotting, hvis dataene dine støtter det. Sofistikerte datavisualiseringer kan produseres ved hjelp av det.
+
+
+
+## Animasjon og 3D-diagramvisning
+
+Noen av de beste datavisualiseringene i dag er animerte. Shirley Wu har fantastiske eksempler laget med D3, som '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', hvor hver blomst er en visualisering av en film. Et annet eksempel for Guardian er 'bussed out', en interaktiv opplevelse som kombinerer visualiseringer med Greensock og D3 pluss en scrollytelling-artikkelformat for å vise hvordan NYC håndterer sitt hjemløse problem ved å sende folk ut av byen.
+
+
+
+> "Bussed Out: How America Moves its Homeless" fra [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualiseringer av Nadieh Bremer & Shirley Wu
+
+Selv om denne leksjonen ikke går i dybden for å lære disse kraftige visualiseringsbibliotekene, kan du prøve deg på D3 i en Vue.js-app ved hjelp av et bibliotek for å vise en visualisering av boken "Dangerous Liaisons" som et animert sosialt nettverk.
+
+> "Les Liaisons Dangereuses" er en epistolær roman, eller en roman presentert som en serie brev. Skrevet i 1782 av Choderlos de Laclos, forteller den historien om de ondskapsfulle, moralsk korrupte sosiale manøvrene til to rivaliserende protagonister fra det franske aristokratiet på slutten av 1700-tallet, Vicomte de Valmont og Marquise de Merteuil. Begge møter sin undergang til slutt, men ikke uten å forårsake betydelig sosial skade. Romanen utfolder seg som en serie brev skrevet til ulike personer i deres kretser, med planer om hevn eller bare for å lage trøbbel. Lag en visualisering av disse brevene for å oppdage de viktigste aktørene i narrativet, visuelt.
+
+Du vil fullføre en webapp som viser en animert visning av dette sosiale nettverket. Den bruker et bibliotek som ble bygget for å lage en [visualisering av et nettverk](https://github.com/emiliorizzo/vue-d3-network) ved hjelp av Vue.js og D3. Når appen kjører, kan du dra nodene rundt på skjermen for å omorganisere dataene.
+
+
+
+## Prosjekt: Lag et diagram for å vise et nettverk ved hjelp av D3.js
+
+> Denne leksjonsmappen inkluderer en `solution`-mappe hvor du kan finne det fullførte prosjektet som referanse.
+
+1. Følg instruksjonene i README.md-filen i rotmappen til startmappen. Sørg for at du har NPM og Node.js installert på maskinen din før du installerer prosjektets avhengigheter.
+
+2. Åpne `starter/src`-mappen. Du vil finne en `assets`-mappe hvor du kan finne en .json-fil med alle brevene fra romanen, nummerert, med en 'til' og 'fra'-annotasjon.
+
+3. Fullfør koden i `components/Nodes.vue` for å aktivere visualiseringen. Se etter metoden kalt `createLinks()` og legg til følgende nestede løkke.
+
+Loop gjennom .json-objektet for å fange opp 'til' og 'fra'-dataene for brevene og bygge opp `links`-objektet slik at visualiseringsbiblioteket kan bruke det:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Kjør appen din fra terminalen (npm run serve) og nyt visualiseringen!
+
+## 🚀 Utfordring
+
+Ta en tur på internett for å oppdage villedende visualiseringer. Hvordan lurer forfatteren brukeren, og er det med vilje? Prøv å korrigere visualiseringene for å vise hvordan de burde se ut.
+
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Gjennomgang & Selvstudium
+
+Her er noen artikler om villedende datavisualisering:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Ta en titt på disse interessante visualiseringene for historiske eiendeler og artefakter:
+
+https://handbook.pubpub.org/
+
+Se gjennom denne artikkelen om hvordan animasjon kan forbedre visualiseringene dine:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Oppgave
+
+[Lag din egen tilpassede visualisering](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/3-Data-Visualization/README.md b/translations/no/3-Data-Visualization/README.md
new file mode 100644
index 00000000..25f95cac
--- /dev/null
+++ b/translations/no/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# Visualiseringer
+
+
+> Foto av Jenna Lee på Unsplash
+
+Å visualisere data er en av de viktigste oppgavene for en dataforsker. Bilder sier mer enn tusen ord, og en visualisering kan hjelpe deg med å identifisere alle slags interessante aspekter ved dataene dine, som topper, avvik, grupperinger, tendenser og mer, som kan hjelpe deg med å forstå historien dataene dine prøver å fortelle.
+
+I disse fem leksjonene vil du utforske data hentet fra naturen og lage interessante og vakre visualiseringer ved hjelp av ulike teknikker.
+
+| Emnenummer | Emne | Lenket leksjon | Forfatter |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | Visualisering av mengder | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Visualisering av fordeling | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Visualisering av proporsjoner | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Visualisering av relasjoner | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Lage meningsfulle visualiseringer | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Krediteringer
+
+Disse visualiseringsleksjonene ble skrevet med 🌸 av [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) og [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Data for honningproduksjon i USA er hentet fra Jessica Lis prosjekt på [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). [Dataene](https://usda.library.cornell.edu/concern/publications/rn301137d) er avledet fra [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Data for sopp er også hentet fra [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) revidert av Hatteras Dunton. Dette datasettet inkluderer beskrivelser av hypotetiske prøver som tilsvarer 23 arter av skivesopper i Agaricus- og Lepiota-familien. Soppene er hentet fra The Audubon Society Field Guide to North American Mushrooms (1981). Dette datasettet ble donert til UCI ML 27 i 1987.
+
+🦆 Data for fugler i Minnesota er hentet fra [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) skrapet fra [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) av Hannah Collins.
+
+Alle disse datasettene er lisensiert som [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/no/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..8e0cd2ee
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Introduksjon til livssyklusen for dataanalyse
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Introduksjon til livssyklusen for dataanalyse - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før forelesning](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+På dette tidspunktet har du sannsynligvis innsett at dataanalyse er en prosess. Denne prosessen kan deles inn i fem stadier:
+
+- Innsamling
+- Bearbeiding
+- Analyse
+- Kommunikasjon
+- Vedlikehold
+
+Denne leksjonen fokuserer på tre deler av livssyklusen: innsamling, bearbeiding og vedlikehold.
+
+
+> Foto av [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Innsamling
+
+Den første fasen av livssyklusen er svært viktig, da de neste fasene er avhengige av den. Den består praktisk talt av to stadier kombinert i ett: innhenting av data og definering av formål og problemer som må adresseres.
+Å definere målene for prosjektet krever en dypere forståelse av problemet eller spørsmålet. Først må vi identifisere og engasjere de som trenger å få løst sitt problem. Dette kan være interessenter i en bedrift eller sponsorer av prosjektet, som kan hjelpe med å identifisere hvem eller hva som vil dra nytte av prosjektet, samt hva og hvorfor de trenger det. Et godt definert mål bør være målbart og kvantifiserbart for å kunne definere et akseptabelt resultat.
+
+Spørsmål en dataanalytiker kan stille:
+- Har dette problemet blitt adressert tidligere? Hva ble oppdaget?
+- Er formålet og målet forstått av alle involverte?
+- Er det uklarheter, og hvordan kan de reduseres?
+- Hva er begrensningene?
+- Hvordan vil sluttresultatet potensielt se ut?
+- Hvor mye ressurser (tid, folk, datakraft) er tilgjengelig?
+
+Neste steg er å identifisere, samle inn og deretter utforske dataene som trengs for å oppnå de definerte målene. I denne fasen av innhenting må dataanalytikere også evaluere mengden og kvaliteten på dataene. Dette krever en viss datautforskning for å bekrefte at det som er samlet inn vil støtte oppnåelsen av ønsket resultat.
+
+Spørsmål en dataanalytiker kan stille om dataene:
+- Hvilke data er allerede tilgjengelige for meg?
+- Hvem eier disse dataene?
+- Hva er personvernrelaterte bekymringer?
+- Har jeg nok data til å løse dette problemet?
+- Er dataene av akseptabel kvalitet for dette problemet?
+- Hvis jeg oppdager tilleggsinformasjon gjennom disse dataene, bør vi vurdere å endre eller redefinere målene?
+
+## Bearbeiding
+
+Bearbeidingsfasen i livssyklusen fokuserer på å oppdage mønstre i dataene samt modellering. Noen teknikker som brukes i bearbeidingsfasen krever statistiske metoder for å avdekke mønstre. Typisk ville dette være en tidkrevende oppgave for et menneske med et stort datasett, og man vil derfor stole på datamaskiner for å gjøre det tunge arbeidet og akselerere prosessen. Denne fasen er også der dataanalyse og maskinlæring møtes. Som du lærte i den første leksjonen, er maskinlæring prosessen med å bygge modeller for å forstå dataene. Modeller er en representasjon av forholdet mellom variabler i dataene som hjelper med å forutsi resultater.
+
+Vanlige teknikker som brukes i denne fasen er dekket i ML for Beginners-kurset. Følg lenkene for å lære mer om dem:
+
+- [Klassifisering](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organisere data i kategorier for mer effektiv bruk.
+- [Klynging](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Gruppere data i lignende grupper.
+- [Regresjon](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Bestemme forholdet mellom variabler for å forutsi eller anslå verdier.
+
+## Vedlikehold
+
+I diagrammet over livssyklusen kan du ha lagt merke til at vedlikehold ligger mellom innsamling og bearbeiding. Vedlikehold er en kontinuerlig prosess med å administrere, lagre og sikre data gjennom hele prosjektets varighet og bør tas i betraktning gjennom hele prosjektet.
+
+### Lagring av data
+
+Hvordan og hvor dataene lagres kan påvirke kostnadene for lagring samt ytelsen til hvor raskt dataene kan hentes. Slike avgjørelser tas sannsynligvis ikke av en dataanalytiker alene, men de kan finne seg i å ta valg om hvordan de skal arbeide med dataene basert på hvordan de er lagret.
+
+Her er noen aspekter ved moderne datasystemer som kan påvirke disse valgene:
+
+**Lokal vs ekstern lagring vs offentlig eller privat sky**
+
+Lokal lagring refererer til å administrere dataene på eget utstyr, som å eie en server med harddisker som lagrer dataene, mens ekstern lagring avhenger av utstyr du ikke eier, som et datasenter. Den offentlige skyen er et populært valg for lagring av data som ikke krever kunnskap om hvordan eller hvor dataene lagres, hvor "offentlig" refererer til en felles underliggende infrastruktur som deles av alle som bruker skyen. Noen organisasjoner har strenge sikkerhetspolicyer som krever at de har full tilgang til utstyret der dataene er lagret, og vil derfor bruke en privat sky som tilbyr egne skytjenester. Du vil lære mer om data i skyen i [senere leksjoner](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Kald vs varm data**
+
+Når du trener modellene dine, kan du trenge mer treningsdata. Hvis du er fornøyd med modellen din, vil mer data komme inn for at modellen skal tjene sitt formål. Uansett vil kostnadene for lagring og tilgang til data øke etter hvert som du samler mer av det. Å skille sjelden brukt data, kjent som kald data, fra ofte brukt varm data kan være et billigere alternativ for datalagring gjennom maskinvare- eller programvaretjenester. Hvis kald data må hentes, kan det ta litt lengre tid å få tilgang til det sammenlignet med varm data.
+
+### Administrere data
+
+Når du arbeider med data, kan du oppdage at noen av dataene må rengjøres ved hjelp av noen av teknikkene som er dekket i leksjonen om [datapreparering](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) for å bygge nøyaktige modeller. Når nye data kommer inn, vil de trenge noen av de samme prosessene for å opprettholde konsistens i kvalitet. Noen prosjekter vil involvere bruk av et automatisert verktøy for rensing, aggregering og komprimering før dataene flyttes til sin endelige plassering. Azure Data Factory er et eksempel på et av disse verktøyene.
+
+### Sikre dataene
+
+Et av hovedmålene med å sikre data er å sørge for at de som arbeider med dem har kontroll over hva som samles inn og i hvilken kontekst det brukes. Å holde data sikre innebærer å begrense tilgang til kun de som trenger det, følge lokale lover og forskrifter, samt opprettholde etiske standarder, som dekket i [etikkleksjonen](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Her er noen ting et team kan gjøre med sikkerhet i tankene:
+- Bekrefte at alle data er kryptert
+- Gi kundene informasjon om hvordan dataene deres brukes
+- Fjerne dataadgang fra de som har forlatt prosjektet
+- La kun visse prosjektmedlemmer endre dataene
+
+## 🚀 Utfordring
+
+Det finnes mange versjoner av livssyklusen for dataanalyse, hvor hvert steg kan ha forskjellige navn og antall stadier, men vil inneholde de samme prosessene som er nevnt i denne leksjonen.
+
+Utforsk [Team Data Science Process-livssyklusen](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) og [Cross-industry standard process for data mining](https://www.datascience-pm.com/crisp-dm-2/). Nevn tre likheter og forskjeller mellom de to.
+
+|Team Data Science Process (TDSP)|Cross-industry standard process for data mining (CRISP-DM)|
+|--|--|
+| |  |
+| Bilde av [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Bilde av [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Quiz etter forelesning](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Gjennomgang og selvstudium
+
+Å anvende livssyklusen for dataanalyse innebærer flere roller og oppgaver, hvor noen kan fokusere på spesifikke deler av hver fase. Team Data Science Process gir noen ressurser som forklarer typene roller og oppgaver som noen kan ha i et prosjekt.
+
+* [Team Data Science Process roller og oppgaver](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Utføre dataanalyseoppgaver: utforskning, modellering og distribusjon](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Oppgave
+
+[Vurdere et datasett](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/no/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..45d2aa01
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,37 @@
+
+# Vurdere et Datasett
+
+En klient har kontaktet teamet ditt for hjelp med å undersøke en taxikundes sesongbaserte forbruksvaner i New York City.
+
+De ønsker å vite: **Gir passasjerer i gule taxier i New York City mer tips til sjåførene om vinteren eller sommeren?**
+
+Teamet ditt er i [Innsamlingsfasen](Readme.md#Capturing) av Data Science Livssyklusen, og du har ansvaret for å håndtere datasettet. Du har fått en notatbok og [data](../../../../data/taxi.csv) til å utforske.
+
+I denne mappen finnes en [notatbok](notebook.ipynb) som bruker Python for å laste inn data om gule taxiturer fra [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Du kan også åpne taxidatafilen i en teksteditor eller regnearkprogram som Excel.
+
+## Instruksjoner
+
+- Vurder om dataene i dette datasettet kan hjelpe med å svare på spørsmålet.
+- Utforsk [NYC Open Data-katalogen](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identifiser et ekstra datasett som potensielt kan være nyttig for å svare på klientens spørsmål.
+- Skriv 3 spørsmål som du ville stilt klienten for å få mer avklaring og bedre forståelse av problemet.
+
+Se [datasettets ordbok](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) og [brukerveiledning](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) for mer informasjon om dataene.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger Forbedring
+--- | --- | ---
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/no/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..0c748238
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,62 @@
+
+# Livssyklusen for Data Science: Analyse
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Livssyklusen for Data Science: Analyse - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## Quiz før forelesning
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Analysestadiet i datalivssyklusen bekrefter at dataene kan svare på de foreslåtte spørsmålene eller løse et spesifikt problem. Dette stadiet kan også fokusere på å bekrefte at en modell adresserer disse spørsmålene og problemene korrekt. Denne leksjonen fokuserer på Exploratory Data Analysis (EDA), som er teknikker for å definere egenskaper og relasjoner i dataene, og som kan brukes til å forberede dataene for modellering.
+
+Vi skal bruke et eksempel på et datasett fra [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) for å vise hvordan dette kan anvendes med Python og Pandas-biblioteket. Dette datasettet inneholder en telling av noen vanlige ord som finnes i e-poster, og kildene til disse e-postene er anonyme. Bruk [notebooken](notebook.ipynb) i denne katalogen for å følge med.
+
+## Utforskende dataanalyse
+
+Innsamlingsfasen i livssyklusen er der dataene hentes inn, samt problemene og spørsmålene som skal adresseres, men hvordan vet vi at dataene kan støtte sluttresultatet?
+Husk at en dataforsker kan stille følgende spørsmål når de får tilgang til dataene:
+- Har jeg nok data til å løse dette problemet?
+- Er dataene av akseptabel kvalitet for dette problemet?
+- Hvis jeg oppdager tilleggsinformasjon gjennom disse dataene, bør vi vurdere å endre eller omdefinere målene?
+
+Utforskende dataanalyse er prosessen med å bli kjent med dataene og kan brukes til å svare på disse spørsmålene, samt identifisere utfordringene ved å jobbe med datasettet. La oss fokusere på noen av teknikkene som brukes for å oppnå dette.
+
+## Dataprofilering, beskrivende statistikk og Pandas
+Hvordan vurderer vi om vi har nok data til å løse dette problemet? Dataprofilering kan oppsummere og samle generell informasjon om datasettet vårt gjennom teknikker for beskrivende statistikk. Dataprofilering hjelper oss med å forstå hva som er tilgjengelig for oss, og beskrivende statistikk hjelper oss med å forstå hvor mye som er tilgjengelig.
+
+I noen av de tidligere leksjonene har vi brukt Pandas til å gi noen beskrivende statistikker med [`describe()`-funksjonen](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Den gir antall, maks- og minverdier, gjennomsnitt, standardavvik og kvantiler for numeriske data. Ved å bruke beskrivende statistikk som `describe()`-funksjonen kan du vurdere hvor mye du har og om du trenger mer.
+
+## Utvalg og spørringer
+Å utforske alt i et stort datasett kan være svært tidkrevende og en oppgave som vanligvis overlates til en datamaskin. Imidlertid er utvalg et nyttig verktøy for å forstå dataene og gir oss en bedre forståelse av hva som finnes i datasettet og hva det representerer. Med et utvalg kan du bruke sannsynlighet og statistikk for å komme til noen generelle konklusjoner om dataene dine. Selv om det ikke finnes noen definert regel for hvor mye data du bør ta ut, er det viktig å merke seg at jo mer data du tar ut, desto mer presis blir generaliseringen du kan gjøre om dataene.
+
+Pandas har [`sample()`-funksjonen i sitt bibliotek](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) hvor du kan sende et argument for hvor mange tilfeldige utvalg du ønsker å motta og bruke.
+
+Generelle spørringer av dataene kan hjelpe deg med å svare på noen generelle spørsmål og teorier du måtte ha. I motsetning til utvalg gir spørringer deg kontroll og lar deg fokusere på spesifikke deler av dataene du har spørsmål om.
+[`query()`-funksjonen](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) i Pandas-biblioteket lar deg velge kolonner og motta enkle svar om dataene gjennom de radene som hentes.
+
+## Utforsking med visualiseringer
+Du trenger ikke vente til dataene er grundig renset og analysert før du begynner å lage visualiseringer. Faktisk kan det å ha en visuell representasjon mens du utforsker hjelpe med å identifisere mønstre, relasjoner og problemer i dataene. Videre gir visualiseringer en måte å kommunisere med de som ikke er involvert i håndteringen av dataene, og kan være en mulighet til å dele og klargjøre ytterligere spørsmål som ikke ble adressert i innsamlingsstadiet. Se [seksjonen om visualiseringer](../../../../../../../../../3-Data-Visualization) for å lære mer om noen populære måter å utforske visuelt.
+
+## Utforsking for å identifisere inkonsistenser
+Alle temaene i denne leksjonen kan hjelpe med å identifisere manglende eller inkonsekvente verdier, men Pandas gir funksjoner for å sjekke noen av disse. [isna() eller isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) kan sjekke for manglende verdier. En viktig del av utforskingen av disse verdiene i dataene dine er å undersøke hvorfor de endte opp slik i utgangspunktet. Dette kan hjelpe deg med å bestemme hvilke [tiltak som bør tas for å løse dem](/2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Oppgave
+
+[Utforske for svar](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/no/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..f908c8a9
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Utforske for svar
+
+Dette er en fortsettelse av [oppgaven](../14-Introduction/assignment.md) fra forrige leksjon, hvor vi tok en rask titt på datasettet. Nå skal vi se nærmere på dataene.
+
+Igjen, spørsmålet kunden ønsker svar på: **Gir passasjerer i gule taxier i New York City mer tips til sjåførene om vinteren eller sommeren?**
+
+Teamet ditt er i [Analyseringsfasen](README.md) av Data Science Lifecycle, hvor dere har ansvar for å utføre utforskende dataanalyse på datasettet. Dere har fått en notatbok og et datasett som inneholder 200 taxitransaksjoner fra januar og juli 2019.
+
+## Instruksjoner
+
+I denne mappen finner du en [notatbok](assignment.ipynb) og data fra [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Se på [dataordlisten](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) og [brukerveiledningen](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) for mer informasjon om dataene.
+
+Bruk noen av teknikkene fra denne leksjonen til å gjøre din egen EDA i notatboken (legg til celler hvis du ønsker) og svar på følgende spørsmål:
+
+- Hvilke andre faktorer i dataene kan påvirke tippsummen?
+- Hvilke kolonner vil mest sannsynlig ikke være nødvendige for å svare på kundens spørsmål?
+- Basert på det som er gitt så langt, ser dataene ut til å gi noen indikasjoner på sesongbasert tippeadferd?
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | ---
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/16-communication/README.md b/translations/no/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..2035e6b3
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,230 @@
+
+# Livssyklusen for Data Science: Kommunikasjon
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Livssyklusen for Data Science: Kommunikasjon - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Test kunnskapen din om det som kommer med quizzen før forelesningen!
+
+# Introduksjon
+
+### Hva er kommunikasjon?
+La oss starte denne leksjonen med å definere hva det betyr å kommunisere. **Å kommunisere er å formidle eller utveksle informasjon.** Informasjon kan være ideer, tanker, følelser, meldinger, skjulte signaler, data – alt som en **_sender_** (noen som sender informasjon) ønsker at en **_mottaker_** (noen som mottar informasjon) skal forstå. I denne leksjonen vil vi referere til sendere som kommunikatører og mottakere som publikum.
+
+### Datakommunikasjon og historiefortelling
+Vi forstår at målet med kommunikasjon er å formidle eller utveksle informasjon. Men når du kommuniserer data, bør målet ditt ikke bare være å overlevere tall til publikum. Målet ditt bør være å formidle en historie som er informert av dataene dine – effektiv datakommunikasjon og historiefortelling går hånd i hånd. Publikum husker mer sannsynlig en historie du forteller enn et tall du gir. Senere i denne leksjonen vil vi gå gjennom noen måter du kan bruke historiefortelling for å kommunisere dataene dine mer effektivt.
+
+### Typer kommunikasjon
+Gjennom denne leksjonen vil vi diskutere to forskjellige typer kommunikasjon: Énveis kommunikasjon og Toveis kommunikasjon.
+
+**Énveis kommunikasjon** skjer når en sender sender informasjon til en mottaker uten noen tilbakemelding eller respons. Vi ser eksempler på énveis kommunikasjon hver dag – i masseutsendte e-poster, når nyhetene leverer de siste historiene, eller når en TV-reklame forteller deg hvorfor produktet deres er fantastisk. I hver av disse tilfellene søker ikke senderen en utveksling av informasjon, men kun å formidle eller levere informasjon.
+
+**Toveis kommunikasjon** skjer når alle involverte parter fungerer som både sendere og mottakere. En sender begynner med å kommunisere til en mottaker, og mottakeren gir tilbakemelding eller respons. Toveis kommunikasjon er det vi tradisjonelt tenker på når vi snakker om kommunikasjon. Vi tenker vanligvis på folk som er engasjert i en samtale – enten personlig, over en telefonsamtale, på sosiale medier eller via tekstmelding.
+
+Når du kommuniserer data, vil det være tilfeller der du bruker énveis kommunikasjon (tenk på å presentere på en konferanse eller for en stor gruppe der spørsmål ikke stilles direkte etterpå) og tilfeller der du bruker toveis kommunikasjon (tenk på å bruke data for å overbevise noen interessenter om å støtte en idé, eller for å overbevise en kollega om at tid og ressurser bør brukes på å bygge noe nytt).
+
+# Effektiv kommunikasjon
+
+### Dine ansvarsområder som kommunikatør
+Når du kommuniserer, er det ditt ansvar å sørge for at mottakerne tar med seg den informasjonen du ønsker at de skal ta med seg. Når du kommuniserer data, vil du ikke bare at mottakerne skal ta med seg tall, men en historie som er informert av dataene dine. En god datakommunikatør er en god historieforteller.
+
+Hvordan forteller du en historie med data? Det finnes uendelige måter – men nedenfor er 6 som vi vil snakke om i denne leksjonen:
+1. Forstå publikum, kanalen og kommunikasjonsmetoden din
+2. Begynn med slutten i tankene
+3. Tilnærm det som en faktisk historie
+4. Bruk meningsfulle ord og uttrykk
+5. Bruk følelser
+
+Hver av disse strategiene er forklart mer detaljert nedenfor.
+
+### 1. Forstå publikum, kanalen og kommunikasjonsmetoden din
+Måten du kommuniserer med familiemedlemmer på er sannsynligvis annerledes enn måten du kommuniserer med vennene dine. Du bruker sannsynligvis forskjellige ord og uttrykk som de du snakker med er mer sannsynlig å forstå. Du bør ta samme tilnærming når du kommuniserer data. Tenk på hvem du kommuniserer med. Tenk på deres mål og konteksten de har rundt situasjonen du forklarer.
+
+Du kan sannsynligvis gruppere mesteparten av publikum innenfor en kategori. I en _Harvard Business Review_-artikkel, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/),” identifiserer Dell Executive Strategist Jim Stikeleather fem kategorier av publikum:
+
+- **Nybegynner**: første eksponering for emnet, men ønsker ikke
+ oversimplifisering
+- **Generalist**: kjent med temaet, men ser etter en oversikt
+ forståelse og hovedtemaer
+- **Leder**: dyptgående, handlingsrettet forståelse av detaljer og
+ sammenhenger med tilgang til detaljer
+- **Ekspert**: mer utforskning og oppdagelse og mindre historiefortelling med
+ stor detaljrikdom
+- **Direktør**: har kun tid til å forstå betydningen og konklusjonene av
+ sannsynlighetsvekting
+
+Disse kategoriene kan informere måten du presenterer data til publikum.
+
+I tillegg til å tenke på publikums kategori, bør du også vurdere kanalen du bruker for å kommunisere med dem. Tilnærmingen din bør være litt annerledes hvis du skriver et notat eller en e-post kontra å ha et møte eller presentere på en konferanse.
+
+På toppen av å forstå publikum, er det også kritisk å vite hvordan du vil kommunisere med dem (ved hjelp av énveis kommunikasjon eller toveis).
+
+Hvis du kommuniserer med et publikum som hovedsakelig er nybegynnere og bruker énveis kommunikasjon, må du først utdanne publikum og gi dem riktig kontekst. Deretter må du presentere dataene dine for dem og fortelle dem hva dataene dine betyr og hvorfor de er viktige. I dette tilfellet kan det være lurt å være laserfokusert på å skape klarhet, fordi publikum ikke vil kunne stille deg direkte spørsmål.
+
+Hvis du kommuniserer med et publikum som hovedsakelig er ledere og bruker toveis kommunikasjon, trenger du sannsynligvis ikke å utdanne publikum eller gi dem mye kontekst. Du kan kanskje gå rett inn i å diskutere dataene du har samlet og hvorfor de er viktige. I dette scenariet bør du imidlertid fokusere på timing og kontrollere presentasjonen din. Når du bruker toveis kommunikasjon (spesielt med et lederpublikum som søker en "handlingsrettet forståelse av detaljer og sammenhenger med tilgang til detaljer"), kan spørsmål dukke opp under interaksjonen som kan ta diskusjonen i en retning som ikke relaterer seg til historien du prøver å fortelle. Når dette skjer, kan du ta grep og bringe diskusjonen tilbake på sporet med historien din.
+
+### 2. Begynn med slutten i tankene
+Å begynne med slutten i tankene betyr å forstå hva du ønsker at publikum skal ta med seg før du begynner å kommunisere med dem. Å være gjennomtenkt om hva du ønsker at publikum skal ta med seg på forhånd kan hjelpe deg med å lage en historie som publikum kan følge. Å begynne med slutten i tankene er passende for både énveis kommunikasjon og toveis kommunikasjon.
+
+Hvordan begynner du med slutten i tankene? Før du kommuniserer dataene dine, skriv ned de viktigste punktene du ønsker å formidle. Deretter, hver steg på veien mens du forbereder historien du vil fortelle med dataene dine, spør deg selv: "Hvordan integreres dette i historien jeg forteller?"
+
+Vær oppmerksom – Selv om det er ideelt å starte med slutten i tankene, vil du ikke bare kommunisere data som støtter dine ønskede konklusjoner. Dette kalles "Cherry-Picking", som skjer når en kommunikatør kun kommuniserer data som støtter poenget de prøver å gjøre og ignorerer all annen data.
+
+Hvis alle dataene du har samlet tydelig støtter dine ønskede konklusjoner, flott. Men hvis det er data du har samlet som ikke støtter konklusjonene dine, eller til og med støtter et argument mot dine viktigste punkter, bør du kommunisere disse dataene også. Hvis dette skjer, vær ærlig med publikum og la dem vite hvorfor du velger å holde deg til historien din selv om alle dataene ikke nødvendigvis støtter den.
+
+### 3. Tilnærm det som en faktisk historie
+En tradisjonell historie skjer i 5 faser. Du har kanskje hørt disse fasene uttrykt som Eksposisjon, Stigende handling, Klimaks, Fallende handling og Avslutning. Eller de enklere å huske: Kontekst, Konflikt, Klimaks, Avslutning, Konklusjon. Når du kommuniserer dataene dine og historien din, kan du ta en lignende tilnærming.
+
+Du kan begynne med kontekst, sette scenen og sørge for at publikum er på samme side. Deretter introduserer du konflikten. Hvorfor trengte du å samle inn disse dataene? Hvilke problemer prøvde du å løse? Etter det, klimaks. Hva er dataene? Hva betyr dataene? Hvilke løsninger forteller dataene oss at vi trenger? Deretter kommer du til avslutningen, hvor du kan gjenta problemet og de foreslåtte løsningene. Til slutt kommer vi til konklusjonen, hvor du kan oppsummere de viktigste punktene og anbefale neste steg teamet bør ta.
+
+### 4. Bruk meningsfulle ord og uttrykk
+Hvis du og jeg jobbet sammen på et produkt, og jeg sa til deg "Våre brukere bruker lang tid på å onboarde på plattformen vår," hvor lang tid ville du anslå at "lang tid" er? En time? En uke? Det er vanskelig å vite. Hva om jeg sa det til et helt publikum? Alle i publikum kan ende opp med en annen idé om hvor lang tid brukerne bruker på å onboarde på plattformen vår.
+
+I stedet, hva om jeg sa "Våre brukere bruker i gjennomsnitt 3 minutter på å registrere seg og onboarde på plattformen vår."
+
+Den meldingen er mer tydelig. Når du kommuniserer data, kan det være lett å tro at alle i publikum tenker akkurat som deg. Men det er ikke alltid tilfelle. Å skape klarhet rundt dataene dine og hva de betyr er en av dine ansvarsområder som kommunikatør. Hvis dataene eller historien din ikke er tydelig, vil publikum ha vanskelig for å følge med, og det er mindre sannsynlig at de vil forstå dine viktigste punkter.
+
+Du kan kommunisere data mer tydelig når du bruker meningsfulle ord og uttrykk i stedet for vage. Nedenfor er noen eksempler.
+
+- Vi hadde et *imponerende* år!
+ - En person kan tro at imponerende betyr en økning på 2% - 3% i inntekter, og en annen kan tro at det betyr en økning på 50% - 60%.
+- Våre brukeres suksessrater økte *dramatisk*.
+ - Hvor stor økning er en dramatisk økning?
+- Dette prosjektet vil kreve *betydelig* innsats.
+ - Hvor mye innsats er betydelig?
+
+Å bruke vage ord kan være nyttig som en introduksjon til mer data som kommer, eller som en oppsummering av historien du nettopp har fortalt. Men vurder å sørge for at hver del av presentasjonen din er tydelig for publikum.
+
+### 5. Bruk følelser
+Følelser er nøkkelen i historiefortelling. Det er enda viktigere når du forteller en historie med data. Når du kommuniserer data, er alt fokusert på de viktigste punktene du ønsker at publikum skal ta med seg. Når du vekker en følelse hos publikum, hjelper det dem å føle empati og gjør dem mer sannsynlig å handle. Følelser øker også sannsynligheten for at publikum husker budskapet ditt.
+
+Du har kanskje opplevd dette før med TV-reklamer. Noen reklamer er veldig alvorlige og bruker en trist følelse for å knytte seg til publikum og få dataene de presenterer til å virkelig skille seg ut. Eller, noen reklamer er veldig optimistiske og glade og kan få deg til å assosiere dataene deres med en lykkelig følelse.
+
+Hvordan bruker du følelser når du kommuniserer data? Nedenfor er et par måter.
+
+- Bruk vitnesbyrd og personlige historier
+ - Når du samler inn data, prøv å samle både kvantitative og kvalitative data, og integrer begge typer data når du kommuniserer. Hvis dataene dine hovedsakelig er kvantitative, søk historier fra enkeltpersoner for å lære mer om deres erfaring med det dataene dine forteller deg.
+- Bruk bilder
+ - Bilder hjelper publikum med å se seg selv i en situasjon. Når du bruker bilder, kan du lede publikum mot følelsen du mener de bør ha om dataene dine.
+- Bruk farger
+ - Ulike farger vekker ulike følelser. Populære farger og følelsene de vekker er nedenfor. Vær oppmerksom på at farger kan ha forskjellige betydninger i ulike kulturer.
+ - Blå vekker vanligvis følelser av fred og tillit
+ - Grønn er vanligvis relatert til naturen og miljøet
+ - Rød er vanligvis lidenskap og spenning
+ - Gul er vanligvis optimisme og lykke
+
+# Kommunikasjonscase
+Emerson er produktsjef for en mobilapp. Emerson har lagt merke til at kunder sender inn 42% flere klager og feilrapporter i helgene. Emerson har også lagt merke til at kunder som sender inn en klage som forblir ubesvart etter 48 timer, er 32% mer sannsynlig å gi appen en vurdering på 1 eller 2 i appbutikken.
+
+Etter å ha gjort undersøkelser har Emerson et par løsninger som vil adressere problemet. Emerson setter opp et 30-minutters møte med de 3 selskapets ledere for å kommunisere dataene og de foreslåtte løsningene.
+
+Under dette møtet er Emersons mål å få selskapets ledere til å forstå at de 2 løsningene nedenfor kan forbedre appens vurdering, noe som sannsynligvis vil oversettes til høyere inntekter.
+
+**Løsning 1.** Ansette kundeservicerepresentanter til å jobbe i helgene
+
+**Løsning 2.** Kjøpe et nytt kundeservicesystem der kundeservicerepresentanter enkelt kan identifisere hvilke klager som har vært i køen lengst – slik at de kan se hvilke som bør adresseres mest umiddelbart.
+I møtet bruker Emerson 5 minutter på å forklare hvorfor det er dårlig å ha en lav vurdering i appbutikken, 10 minutter på å forklare forskningsprosessen og hvordan trendene ble identifisert, 10 minutter på å gå gjennom noen av de siste kundeklagene, og de siste 5 minuttene på å raskt nevne de to potensielle løsningene.
+
+Var dette en effektiv måte for Emerson å kommunisere på under dette møtet?
+
+Under møtet fokuserte en av selskapets ledere kun på de 10 minuttene med kundeklager som Emerson gikk gjennom. Etter møtet var disse klagene det eneste denne lederen husket. En annen leder fokuserte primært på Emersons beskrivelse av forskningsprosessen. Den tredje lederen husket de foreslåtte løsningene, men var usikker på hvordan disse løsningene kunne implementeres.
+
+I situasjonen ovenfor ser vi at det var et betydelig gap mellom hva Emerson ønsket at lederne skulle ta med seg, og hva de faktisk tok med seg fra møtet. Nedenfor er en annen tilnærming som Emerson kunne vurdere.
+
+Hvordan kan Emerson forbedre denne tilnærmingen?
+Kontekst, Konflikt, Klimaks, Avslutning, Konklusjon
+**Kontekst** - Emerson kunne bruke de første 5 minuttene på å introdusere hele situasjonen og sørge for at lederne forstår hvordan problemene påvirker nøkkeltall som er kritiske for selskapet, som inntekter.
+
+Det kunne legges opp slik: "For øyeblikket er vurderingen av appen vår i appbutikken 2,5. Vurderinger i appbutikken er avgjørende for App Store-optimalisering, som påvirker hvor mange brukere som ser appen vår i søk, og hvordan appen vår oppfattes av potensielle brukere. Og selvfølgelig er antallet brukere vi har direkte knyttet til inntektene."
+
+**Konflikt** Emerson kunne deretter bruke de neste 5 minuttene på å snakke om konflikten.
+
+Det kunne høres slik ut: "Brukere sender inn 42 % flere klager og feilrapporter i helgene. Kunder som sender inn en klage som ikke blir besvart innen 48 timer, er 32 % mindre tilbøyelige til å gi appen vår en vurdering over 2 i appbutikken. Å forbedre vurderingen av appen vår i appbutikken til 4 ville forbedre synligheten vår med 20–30 %, noe jeg anslår ville øke inntektene med 10 %." Selvfølgelig bør Emerson være forberedt på å begrunne disse tallene.
+
+**Klimaks** Etter å ha lagt grunnlaget, kunne Emerson deretter gå videre til klimakset i omtrent 5 minutter.
+
+Emerson kunne introdusere de foreslåtte løsningene, forklare hvordan disse løsningene vil adressere de nevnte problemene, hvordan løsningene kan implementeres i eksisterende arbeidsflyter, hvor mye løsningene koster, hva avkastningen på investeringene vil være, og kanskje til og med vise noen skjermbilder eller wireframes av hvordan løsningene vil se ut hvis de implementeres. Emerson kunne også dele uttalelser fra brukere som opplevde over 48 timers ventetid på å få klagen sin behandlet, og en uttalelse fra en nåværende kundeservicemedarbeider i selskapet som har kommentarer til det nåværende billettsystemet.
+
+**Avslutning** Nå kan Emerson bruke 5 minutter på å oppsummere problemene selskapet står overfor, gå gjennom de foreslåtte løsningene, og forklare hvorfor disse løsningene er de riktige.
+
+**Konklusjon** Fordi dette er et møte med noen få interessenter hvor toveis kommunikasjon vil bli brukt, kunne Emerson deretter planlegge å sette av 10 minutter til spørsmål, for å sikre at alt som var uklart for lederne kunne avklares før møtet er over.
+
+Hvis Emerson tok tilnærming #2, er det mye mer sannsynlig at lederne vil ta med seg fra møtet akkurat det Emerson ønsket at de skulle ta med seg – at måten klager og feil håndteres på kan forbedres, og at det finnes to løsninger som kan implementeres for å gjøre denne forbedringen mulig. Denne tilnærmingen ville vært en mye mer effektiv måte å kommunisere dataene og historien som Emerson ønsker å formidle.
+
+
+# Konklusjon
+### Oppsummering av hovedpunkter
+- Å kommunisere betyr å formidle eller utveksle informasjon.
+- Når du kommuniserer data, bør målet ditt ikke bare være å overføre tall til publikum. Målet ditt bør være å formidle en historie som er informert av dataene dine.
+- Det finnes to typer kommunikasjon: Enveis kommunikasjon (informasjon formidles uten intensjon om respons) og Toveis kommunikasjon (informasjon formidles frem og tilbake).
+- Det finnes mange strategier du kan bruke for å fortelle en historie med dataene dine. Fem strategier vi gikk gjennom er:
+ - Forstå publikum, mediet ditt og kommunikasjonsmetoden din
+ - Begynn med slutten i tankene
+ - Tilnærm det som en faktisk historie
+ - Bruk meningsfulle ord og uttrykk
+ - Bruk følelser
+
+### Anbefalte ressurser for selvstudium
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+
+## [Etter-forelesningsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Gå gjennom det du nettopp har lært med Etter-forelesningsquizen ovenfor!
+
+
+## Oppgave
+
+[Markedsundersøkelse](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/no/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..7181ad62
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Fortell en historie
+
+## Instruksjoner
+
+Data Science handler om å fortelle historier. Velg et hvilket som helst datasett og skriv en kort artikkel om en historie du kan fortelle basert på det. Hva håper du datasettet ditt kan avsløre? Hva vil du gjøre hvis avsløringene viser seg å være problematiske? Hva hvis dataene dine ikke enkelt avslører sine hemmeligheter? Tenk på scenarioene datasettet ditt kan presentere og skriv dem ned.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+
+En én-sides essay presenteres i .doc-format med datasettet forklart, dokumentert, kreditert, og en sammenhengende historie presenteres med detaljerte eksempler fra dataene.| En kortere essay presenteres i mindre detaljert format | Essayet mangler en av de ovennevnte detaljene.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/4-Data-Science-Lifecycle/README.md b/translations/no/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..eab3f039
--- /dev/null
+++ b/translations/no/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Livssyklusen for Data Science
+
+
+> Foto av Headway på Unsplash
+
+I disse leksjonene vil du utforske noen av aspektene ved livssyklusen for Data Science, inkludert analyse og kommunikasjon rundt data.
+
+### Emner
+
+1. [Introduksjon](14-Introduction/README.md)
+2. [Analysering](15-analyzing/README.md)
+3. [Kommunikasjon](16-communication/README.md)
+
+### Kreditering
+
+Disse leksjonene ble skrevet med ❤️ av [Jalen McGee](https://twitter.com/JalenMCG) og [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/no/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..c6c5e262
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,114 @@
+
+# Introduksjon til Data Science i Skyen
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data Science i Skyen: Introduksjon - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+
+I denne leksjonen vil du lære de grunnleggende prinsippene for skyen, deretter vil du se hvorfor det kan være interessant for deg å bruke skytjenester til å kjøre dine data science-prosjekter, og vi skal se på noen eksempler på data science-prosjekter som kjøres i skyen.
+
+## [Quiz før leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Hva er skyen?
+
+Skyen, eller skybasert databehandling, er levering av et bredt spekter av betaling-etter-bruk databehandlingstjenester som er vert på en infrastruktur over internett. Tjenestene inkluderer løsninger som lagring, databaser, nettverk, programvare, analyse og intelligente tjenester.
+
+Vi skiller vanligvis mellom offentlig, privat og hybrid sky som følger:
+
+* Offentlig sky: en offentlig sky eies og drives av en tredjeparts skytjenesteleverandør som leverer sine databehandlingsressurser over internett til offentligheten.
+* Privat sky: refererer til databehandlingsressurser som brukes eksklusivt av en enkelt bedrift eller organisasjon, med tjenester og en infrastruktur som opprettholdes på et privat nettverk.
+* Hybrid sky: hybrid sky er et system som kombinerer offentlig og privat sky. Brukere velger et lokalt datasenter, samtidig som de tillater data og applikasjoner å kjøre på en eller flere offentlige skyer.
+
+De fleste skytjenester faller inn i tre kategorier: Infrastruktur som en tjeneste (IaaS), Plattform som en tjeneste (PaaS) og Programvare som en tjeneste (SaaS).
+
+* Infrastruktur som en tjeneste (IaaS): brukere leier en IT-infrastruktur som servere og virtuelle maskiner (VMs), lagring, nettverk, operativsystemer.
+* Plattform som en tjeneste (PaaS): brukere leier et miljø for utvikling, testing, levering og administrasjon av programvareapplikasjoner. Brukere trenger ikke å bekymre seg for å sette opp eller administrere den underliggende infrastrukturen av servere, lagring, nettverk og databaser som trengs for utvikling.
+* Programvare som en tjeneste (SaaS): brukere får tilgang til programvareapplikasjoner over internett, på forespørsel og vanligvis på abonnementsbasis. Brukere trenger ikke å bekymre seg for hosting og administrasjon av programvareapplikasjonen, den underliggende infrastrukturen eller vedlikehold, som programvareoppgraderinger og sikkerhetsoppdateringer.
+
+Noen av de største skyleverandørene er Amazon Web Services, Google Cloud Platform og Microsoft Azure.
+
+## Hvorfor velge skyen for Data Science?
+
+Utviklere og IT-profesjonelle velger å jobbe med skyen av mange grunner, inkludert følgende:
+
+* Innovasjon: du kan styrke applikasjonene dine ved å integrere innovative tjenester laget av skyleverandører direkte inn i appene dine.
+* Fleksibilitet: du betaler kun for tjenestene du trenger og kan velge fra et bredt spekter av tjenester. Du betaler vanligvis etter bruk og tilpasser tjenestene dine etter dine skiftende behov.
+* Budsjett: du trenger ikke å gjøre innledende investeringer for å kjøpe maskinvare og programvare, sette opp og drive lokale datasentre, og du kan bare betale for det du bruker.
+* Skalerbarhet: ressursene dine kan skaleres i henhold til behovene til prosjektet ditt, noe som betyr at appene dine kan bruke mer eller mindre datakraft, lagring og båndbredde, ved å tilpasse seg eksterne faktorer til enhver tid.
+* Produktivitet: du kan fokusere på virksomheten din i stedet for å bruke tid på oppgaver som kan administreres av andre, som å administrere datasentre.
+* Pålitelighet: skybasert databehandling tilbyr flere måter å kontinuerlig sikkerhetskopiere dataene dine, og du kan sette opp katastrofegjenopprettingsplaner for å holde virksomheten og tjenestene i gang, selv i krisetider.
+* Sikkerhet: du kan dra nytte av policyer, teknologier og kontroller som styrker sikkerheten til prosjektet ditt.
+
+Dette er noen av de vanligste grunnene til at folk velger å bruke skytjenester. Nå som vi har en bedre forståelse av hva skyen er og hva dens viktigste fordeler er, la oss se mer spesifikt på jobbene til dataforskere og utviklere som jobber med data, og hvordan skyen kan hjelpe dem med flere utfordringer de kan møte:
+
+* Lagring av store mengder data: i stedet for å kjøpe, administrere og beskytte store servere, kan du lagre dataene dine direkte i skyen, med løsninger som Azure Cosmos DB, Azure SQL Database og Azure Data Lake Storage.
+* Utføre dataintegrasjon: dataintegrasjon er en essensiell del av Data Science, som lar deg gjøre en overgang fra datainnsamling til å ta handlinger. Med dataintegrasjonstjenester som tilbys i skyen, kan du samle inn, transformere og integrere data fra ulike kilder til et enkelt datalager, med Data Factory.
+* Behandle data: behandling av store mengder data krever mye datakraft, og ikke alle har tilgang til maskiner som er kraftige nok til det, noe som er grunnen til at mange velger å direkte utnytte skyens enorme datakraft for å kjøre og distribuere løsningene sine.
+* Bruke dataanalyse-tjenester: skytjenester som Azure Synapse Analytics, Azure Stream Analytics og Azure Databricks hjelper deg med å gjøre dataene dine om til handlingsbare innsikter.
+* Bruke maskinlæring og dataintelligens-tjenester: i stedet for å starte fra bunnen av, kan du bruke maskinlæringsalgoritmer som tilbys av skyleverandøren, med tjenester som AzureML. Du kan også bruke kognitive tjenester som tale-til-tekst, tekst-til-tale, datamaskinsyn og mer.
+
+## Eksempler på Data Science i Skyen
+
+La oss gjøre dette mer konkret ved å se på et par scenarier.
+
+### Sanntidsanalyse av sosiale medier-sentiment
+Vi starter med et scenario som ofte studeres av folk som begynner med maskinlæring: sanntidsanalyse av sentiment på sosiale medier.
+
+La oss si at du driver et nyhetsnettsted og ønsker å utnytte live data for å forstå hvilket innhold leserne dine kan være interessert i. For å finne ut mer om dette, kan du bygge et program som utfører sanntidsanalyse av sentiment fra Twitter-publikasjoner, om emner som er relevante for leserne dine.
+
+De viktigste indikatorene du vil se på er volumet av tweets om spesifikke emner (hashtags) og sentiment, som etableres ved hjelp av analysetjenester som utfører sentimentanalyse rundt de spesifiserte emnene.
+
+Stegene som er nødvendige for å lage dette prosjektet er som følger:
+
+* Opprett en event hub for streaming input, som vil samle data fra Twitter
+* Konfigurer og start en Twitter-klientapplikasjon, som vil kalle Twitter Streaming APIs
+* Opprett en Stream Analytics-jobb
+* Spesifiser jobbinput og spørring
+* Opprett en output sink og spesifiser jobboutput
+* Start jobben
+
+For å se hele prosessen, sjekk ut [dokumentasjonen](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Analyse av vitenskapelige artikler
+La oss ta et annet eksempel på et prosjekt laget av [Dmitry Soshnikov](http://soshnikov.com), en av forfatterne av dette pensumet.
+
+Dmitry laget et verktøy som analyserer COVID-artikler. Ved å gjennomgå dette prosjektet vil du se hvordan du kan lage et verktøy som trekker ut kunnskap fra vitenskapelige artikler, får innsikter og hjelper forskere med å navigere gjennom store samlinger av artikler på en effektiv måte.
+
+La oss se på de forskjellige stegene som ble brukt for dette:
+* Ekstrahere og forhåndsbehandle informasjon med [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* Bruke [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) for å parallellisere behandlingen
+* Lagring og spørring av informasjon med [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* Opprette et interaktivt dashboard for datautforskning og visualisering ved hjelp av Power BI
+
+For å se hele prosessen, besøk [Dmitrys blogg](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Som du kan se, kan vi utnytte skytjenester på mange måter for å utføre Data Science.
+
+## Fotnote
+
+Kilder:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Quiz etter leksjonen
+
+[Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Oppgave
+
+[Markedsundersøkelse](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/no/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..b997e8f3
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Markedsundersøkelse
+
+## Instruksjoner
+
+I denne leksjonen lærte du at det finnes flere viktige skyleverandører. Gjør litt markedsundersøkelse for å finne ut hva hver av dem kan tilby en dataforsker. Er tilbudene sammenlignbare? Skriv et dokument som beskriver tilbudene til tre eller flere av disse skyleverandørene.
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Et dokument på én side beskriver tre skyleverandørers tilbud for dataforskning og skiller mellom dem. | Et kortere dokument presenteres | Et dokument presenteres uten å fullføre analysen
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/no/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..c7cc65c4
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,348 @@
+
+# Data Science i skyen: "Low code/No code"-metoden
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Data Science i skyen: Low Code - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Innholdsfortegnelse:
+
+- [Data Science i skyen: "Low code/No code"-metoden](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz før forelesning](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Introduksjon](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Hva er Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Prosjektet for prediksjon av hjertesvikt:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Dataset for hjertesvikt:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Low code/No code-trening av en modell i Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Opprett et Azure ML-arbeidsområde](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Databehandlingsressurser](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Velge riktige alternativer for databehandlingsressurser](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Opprette en databehandlingsklynge](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Laste inn datasettet](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Low code/No code-trening med AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Low code/No code-modellutplassering og bruk av endepunkter](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Modellutplassering](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Bruk av endepunkter](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Utfordring](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz etter forelesning](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Gjennomgang og selvstudium](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Oppgave](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Introduksjon
+### 1.1 Hva er Azure Machine Learning?
+
+Azure skyplattformen består av mer enn 200 produkter og skybaserte tjenester som er designet for å hjelpe deg med å realisere nye løsninger. Dataforskere bruker mye tid på å utforske og forbehandle data, samt teste ulike algoritmer for modelltrening for å produsere nøyaktige modeller. Disse oppgavene er tidkrevende og kan ofte føre til ineffektiv bruk av kostbare databehandlingsressurser.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) er en skybasert plattform for å bygge og drifte maskinlæringsløsninger i Azure. Den inkluderer et bredt spekter av funksjoner som hjelper dataforskere med å forberede data, trene modeller, publisere prediktive tjenester og overvåke bruken. Viktigst av alt, den øker effektiviteten ved å automatisere mange av de tidkrevende oppgavene knyttet til modelltrening, og den gjør det mulig å bruke skybaserte databehandlingsressurser som skalerer effektivt for å håndtere store datamengder, samtidig som kostnader kun påløper når ressursene faktisk brukes.
+
+Azure ML tilbyr alle verktøyene utviklere og dataforskere trenger for sine maskinlæringsarbeidsflyter. Disse inkluderer:
+
+- **Azure Machine Learning Studio**: En nettportal i Azure Machine Learning for lavkode- og kodefrie alternativer for modelltrening, utplassering, automatisering, sporing og ressursadministrasjon. Studioet integreres med Azure Machine Learning SDK for en sømløs opplevelse.
+- **Jupyter Notebooks**: Rask prototyping og testing av ML-modeller.
+- **Azure Machine Learning Designer**: Lar deg dra og slippe moduler for å bygge eksperimenter og deretter utplassere pipelines i et lavkode-miljø.
+- **Automated machine learning UI (AutoML)**: Automatiserer iterative oppgaver i utviklingen av maskinlæringsmodeller, slik at du kan bygge ML-modeller med høy skala, effektivitet og produktivitet, samtidig som modellkvaliteten opprettholdes.
+- **Data Labelling**: Et assistert ML-verktøy for automatisk merking av data.
+- **Maskinlæringsutvidelse for Visual Studio Code**: Gir et fullverdig utviklingsmiljø for bygging og administrasjon av ML-prosjekter.
+- **Maskinlærings-CLI**: Gir kommandoer for administrasjon av Azure ML-ressurser fra kommandolinjen.
+- **Integrasjon med åpen kildekode-rammeverk** som PyTorch, TensorFlow, Scikit-learn og mange flere for trening, utplassering og administrasjon av hele maskinlæringsprosessen.
+- **MLflow**: Et åpen kildekode-bibliotek for administrasjon av livssyklusen til maskinlæringseksperimenter. **MLFlow Tracking** er en komponent av MLflow som logger og sporer treningsløpsmetrikker og modellartefakter, uavhengig av eksperimentets miljø.
+
+### 1.2 Prosjektet for prediksjon av hjertesvikt:
+
+Det er ingen tvil om at det å lage og bygge prosjekter er den beste måten å teste ferdighetene og kunnskapen din på. I denne leksjonen skal vi utforske to forskjellige måter å bygge et datavitenskapsprosjekt for prediksjon av hjertesvikt i Azure ML Studio, gjennom Low code/No code og gjennom Azure ML SDK, som vist i følgende skjema:
+
+
+
+Hver metode har sine egne fordeler og ulemper. Low code/No code-metoden er enklere å starte med, da den innebærer interaksjon med en GUI (grafisk brukergrensesnitt) uten krav til forkunnskaper i koding. Denne metoden gjør det mulig å raskt teste prosjektets levedyktighet og lage en POC (Proof Of Concept). Men etter hvert som prosjektet vokser og må bli produksjonsklart, er det ikke praktisk å opprette ressurser gjennom GUI. Vi må programmere og automatisere alt, fra opprettelse av ressurser til utplassering av en modell. Dette er hvor kunnskap om bruk av Azure ML SDK blir avgjørende.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Kodeekspertise | Ikke nødvendig | Nødvendig |
+| Utviklingstid | Rask og enkel | Avhenger av kodeekspertise |
+| Produksjonsklar | Nei | Ja |
+
+### 1.3 Dataset for hjertesvikt:
+
+Kardiovaskulære sykdommer (CVDs) er den største dødsårsaken globalt, og står for 31 % av alle dødsfall verden over. Miljømessige og atferdsmessige risikofaktorer som bruk av tobakk, usunt kosthold og fedme, fysisk inaktivitet og skadelig bruk av alkohol kan brukes som funksjoner i estimeringsmodeller. Å kunne estimere sannsynligheten for utvikling av en CVD kan være svært nyttig for å forhindre angrep hos personer med høy risiko.
+
+Kaggle har gjort et [dataset for hjertesvikt](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) offentlig tilgjengelig, som vi skal bruke i dette prosjektet. Du kan laste ned datasettet nå. Dette er et tabellbasert dataset med 13 kolonner (12 funksjoner og 1 målvariabel) og 299 rader.
+
+| | Variabelnavn | Type | Beskrivelse | Eksempel |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numerisk | Pasientens alder | 25 |
+| 2 | anaemia | boolsk | Reduksjon av røde blodceller eller hemoglobin | 0 eller 1 |
+| 3 | creatinine_phosphokinase | numerisk | Nivå av CPK-enzym i blodet | 542 |
+| 4 | diabetes | boolsk | Om pasienten har diabetes | 0 eller 1 |
+| 5 | ejection_fraction | numerisk | Prosentandel blod som forlater hjertet ved hver kontraksjon | 45 |
+| 6 | high_blood_pressure | boolsk | Om pasienten har høyt blodtrykk | 0 eller 1 |
+| 7 | platelets | numerisk | Antall blodplater i blodet | 149000 |
+| 8 | serum_creatinine | numerisk | Nivå av serumkreatinin i blodet | 0.5 |
+| 9 | serum_sodium | numerisk | Nivå av serumnatrium i blodet | jun |
+| 10 | sex | boolsk | Kvinne eller mann | 0 eller 1 |
+| 11 | smoking | boolsk | Om pasienten røyker | 0 eller 1 |
+| 12 | time | numerisk | Oppfølgingsperiode (dager) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Målvariabel] | boolsk | Om pasienten dør i løpet av oppfølgingsperioden | 0 eller 1 |
+
+Når du har datasettet, kan vi starte prosjektet i Azure.
+
+## 2. Low code/No code-trening av en modell i Azure ML Studio
+### 2.1 Opprett et Azure ML-arbeidsområde
+For å trene en modell i Azure ML må du først opprette et Azure ML-arbeidsområde. Arbeidsområdet er den øverste ressursen for Azure Machine Learning, og gir et sentralisert sted for å arbeide med alle artefaktene du oppretter når du bruker Azure Machine Learning. Arbeidsområdet holder oversikt over alle treningsløp, inkludert logger, metrikker, utdata og et øyeblikksbilde av skriptene dine. Du bruker denne informasjonen til å avgjøre hvilket treningsløp som produserer den beste modellen. [Lær mer](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Det anbefales å bruke den mest oppdaterte nettleseren som er kompatibel med operativsystemet ditt. Følgende nettlesere støttes:
+
+- Microsoft Edge (Den nye Microsoft Edge, siste versjon. Ikke Microsoft Edge legacy)
+- Safari (siste versjon, kun Mac)
+- Chrome (siste versjon)
+- Firefox (siste versjon)
+
+For å bruke Azure Machine Learning, opprett et arbeidsområde i Azure-abonnementet ditt. Du kan deretter bruke dette arbeidsområdet til å administrere data, databehandlingsressurser, kode, modeller og andre artefakter relatert til maskinlæringsarbeidsmengder.
+
+> **_MERK:_** Azure-abonnementet ditt vil bli belastet et lite beløp for datalagring så lenge Azure Machine Learning-arbeidsområdet eksisterer i abonnementet ditt, så vi anbefaler at du sletter arbeidsområdet når du ikke lenger bruker det.
+
+1. Logg inn på [Azure-portalen](https://ms.portal.azure.com/) med Microsoft-legitimasjonen som er knyttet til Azure-abonnementet ditt.
+2. Velg **+Opprett en ressurs**
+
+ 
+
+ Søk etter Machine Learning og velg flisen for Machine Learning
+
+ 
+
+ Klikk på opprett-knappen
+
+ 
+
+ Fyll inn innstillingene som følger:
+ - Abonnement: Ditt Azure-abonnement
+ - Ressursgruppe: Opprett eller velg en ressursgruppe
+ - Arbeidsområdenavn: Skriv inn et unikt navn for arbeidsområdet ditt
+ - Region: Velg den geografiske regionen nærmest deg
+ - Lagringskonto: Merk den nye standardlagringskontoen som vil bli opprettet for arbeidsområdet ditt
+ - Nøkkelhvelv: Merk det nye standard nøkkelhvelvet som vil bli opprettet for arbeidsområdet ditt
+ - Application insights: Merk den nye standardressursen for Application Insights som vil bli opprettet for arbeidsområdet ditt
+ - Containerregister: Ingen (et vil bli opprettet automatisk første gang du utplasserer en modell til en container)
+
+ 
+
+ - Klikk på opprett + gjennomgang og deretter på opprett-knappen
+3. Vent til arbeidsområdet ditt blir opprettet (dette kan ta noen minutter). Gå deretter til det i portalen. Du finner det via Azure-tjenesten Machine Learning.
+4. På oversiktssiden for arbeidsområdet ditt, start Azure Machine Learning Studio (eller åpne en ny nettleserfane og naviger til https://ml.azure.com), og logg inn på Azure Machine Learning Studio med Microsoft-kontoen din. Hvis du blir bedt om det, velg Azure-katalogen og abonnementet ditt, samt Azure Machine Learning-arbeidsområdet ditt.
+
+
+
+5. I Azure Machine Learning Studio, bruk ☰-ikonet øverst til venstre for å vise de ulike sidene i grensesnittet. Du kan bruke disse sidene til å administrere ressursene i arbeidsområdet ditt.
+
+
+
+Du kan administrere arbeidsområdet ditt ved hjelp av Azure-portalen, men for dataforskere og maskinlæringsoperasjonsingeniører gir Azure Machine Learning Studio et mer fokusert brukergrensesnitt for administrasjon av arbeidsområderessurser.
+
+### 2.2 Databehandlingsressurser
+
+Databehandlingsressurser er skybaserte ressurser som du kan bruke til å kjøre modelltrening og datautforskningsprosesser. Det finnes fire typer databehandlingsressurser du kan opprette:
+
+- **Compute Instances**: Utviklingsarbeidsstasjoner som dataforskere kan bruke til å arbeide med data og modeller. Dette innebærer opprettelse av en virtuell maskin (VM) og oppstart av en notebook-instans. Du kan deretter trene en modell ved å kalle en databehandlingsklynge fra notebooken.
+- **Compute Clusters**: Skalerbare klynger av virtuelle maskiner for behovsbasert behandling av eksperimentkode. Du vil trenge dette når du trener en modell. Compute Clusters kan også bruke spesialiserte GPU- eller CPU-ressurser.
+- **Inference Clusters**: Utplasseringsmål for prediktive tjenester som bruker de trente modellene dine.
+- **Tilknyttet beregningsressurs**: Lenker til eksisterende Azure-beregningsressurser, som virtuelle maskiner eller Azure Databricks-klynger.
+
+#### 2.2.1 Velge riktige alternativer for beregningsressursene dine
+
+Noen viktige faktorer bør vurderes når du oppretter en beregningsressurs, og disse valgene kan være avgjørende.
+
+**Trenger du CPU eller GPU?**
+
+En CPU (Central Processing Unit) er den elektroniske kretsen som utfører instruksjoner som utgjør et dataprogram. En GPU (Graphics Processing Unit) er en spesialisert elektronisk krets som kan utføre grafikkrelatert kode i svært høy hastighet.
+
+Hovedforskjellen mellom CPU- og GPU-arkitektur er at en CPU er designet for å håndtere et bredt spekter av oppgaver raskt (målt ved CPU-klokkehastighet), men er begrenset i antall samtidige oppgaver som kan kjøres. GPU-er er designet for parallell databehandling og er derfor mye bedre egnet for oppgaver innen dyp læring.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Mindre kostbar | Mer kostbar |
+| Lavere nivå av samtidighet | Høyere nivå av samtidighet |
+| Langsommere i trening av modeller for dyp læring | Optimal for dyp læring |
+
+**Klyngestørrelse**
+
+Større klynger er dyrere, men gir bedre respons. Derfor, hvis du har tid, men ikke nok penger, bør du starte med en liten klynge. Omvendt, hvis du har penger, men ikke mye tid, bør du starte med en større klynge.
+
+**VM-størrelse**
+
+Avhengig av dine tids- og budsjettbegrensninger, kan du variere størrelsen på RAM, disk, antall kjerner og klokkehastighet. Å øke alle disse parameterne vil være dyrere, men vil gi bedre ytelse.
+
+**Dedikerte eller lavprioriterte instanser?**
+
+En lavprioritetsinstans betyr at den kan avbrytes: Microsoft Azure kan i hovedsak ta disse ressursene og tildele dem til en annen oppgave, og dermed avbryte en jobb. En dedikert instans, eller ikke-avbrytbar, betyr at jobben aldri vil bli avsluttet uten din tillatelse. Dette er en annen vurdering av tid kontra penger, siden avbrytbare instanser er mindre kostbare enn dedikerte.
+
+#### 2.2.2 Opprette en beregningsklynge
+
+I [Azure ML-arbeidsområdet](https://ml.azure.com/) som vi opprettet tidligere, gå til beregning, og du vil kunne se de forskjellige beregningsressursene vi nettopp diskuterte (dvs. beregningsinstanser, beregningsklynger, inferensklynger og tilknyttet beregning). For dette prosjektet trenger vi en beregningsklynge for modelltrening. I Studio, klikk på "Compute"-menyen, deretter "Compute cluster"-fanen, og klikk på "+ Ny"-knappen for å opprette en beregningsklynge.
+
+
+
+1. Velg dine alternativer: Dedikert vs lav prioritet, CPU eller GPU, VM-størrelse og antall kjerner (du kan beholde standardinnstillingene for dette prosjektet).
+2. Klikk på Neste-knappen.
+
+
+
+3. Gi klyngen et beregningsnavn.
+4. Velg dine alternativer: Minimum/maksimum antall noder, antall sekunder i inaktiv før nedskalering, SSH-tilgang. Merk at hvis minimum antall noder er 0, vil du spare penger når klyngen er inaktiv. Merk at jo høyere antall maksimum noder, desto kortere vil treningen være. Det anbefalte maksimum antall noder er 3.
+5. Klikk på "Opprett"-knappen. Dette trinnet kan ta noen minutter.
+
+
+
+Fantastisk! Nå som vi har en beregningsklynge, må vi laste dataene inn i Azure ML Studio.
+
+### 2.3 Laste inn datasettet
+
+1. I [Azure ML-arbeidsområdet](https://ml.azure.com/) som vi opprettet tidligere, klikk på "Datasett" i venstre meny og klikk på "+ Opprett datasett"-knappen for å opprette et datasett. Velg alternativet "Fra lokale filer" og velg Kaggle-datasettet vi lastet ned tidligere.
+
+ 
+
+2. Gi datasettet ditt et navn, en type og en beskrivelse. Klikk Neste. Last opp dataene fra filene. Klikk Neste.
+
+ 
+
+3. I skjemaet, endre datatype til Boolean for følgende funksjoner: anemi, diabetes, høyt blodtrykk, kjønn, røyking og DEATH_EVENT. Klikk Neste og klikk Opprett.
+
+ 
+
+Flott! Nå som datasettet er på plass og beregningsklyngen er opprettet, kan vi starte treningen av modellen!
+
+### 2.4 Lavkode/Ingen kode-trening med AutoML
+
+Tradisjonell utvikling av maskinlæringsmodeller er ressurskrevende, krever betydelig domenekunnskap og tid for å produsere og sammenligne dusinvis av modeller.
+Automatisert maskinlæring (AutoML) er prosessen med å automatisere de tidkrevende, iterative oppgavene ved utvikling av maskinlæringsmodeller. Det lar dataforskere, analytikere og utviklere bygge ML-modeller med høy skala, effektivitet og produktivitet, samtidig som modellkvaliteten opprettholdes. Det reduserer tiden det tar å få produksjonsklare ML-modeller, med stor enkelhet og effektivitet. [Lær mer](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. I [Azure ML-arbeidsområdet](https://ml.azure.com/) som vi opprettet tidligere, klikk på "Automated ML" i venstre meny og velg datasettet du nettopp lastet opp. Klikk Neste.
+
+ 
+
+2. Skriv inn et nytt eksperimentnavn, målkolonnen (DEATH_EVENT) og beregningsklyngen vi opprettet. Klikk Neste.
+
+ 
+
+3. Velg "Klassifisering" og klikk Fullfør. Dette trinnet kan ta mellom 30 minutter til 1 time, avhengig av størrelsen på beregningsklyngen.
+
+ 
+
+4. Når kjøringen er fullført, klikk på "Automated ML"-fanen, klikk på kjøringen din, og klikk på algoritmen i "Best model summary"-kortet.
+
+ 
+
+Her kan du se en detaljert beskrivelse av den beste modellen som AutoML genererte. Du kan også utforske andre modeller som er generert i Modeller-fanen. Ta noen minutter til å utforske modellene i forklaringsfanen (forhåndsvisning). Når du har valgt modellen du vil bruke (her vil vi velge den beste modellen valgt av AutoML), vil vi se hvordan vi kan distribuere den.
+
+## 3. Lavkode/Ingen kode-modellutplassering og forbruk av endepunkt
+### 3.1 Modellutplassering
+
+Grensesnittet for automatisert maskinlæring lar deg distribuere den beste modellen som en webtjeneste i noen få trinn. Distribusjon er integreringen av modellen slik at den kan gjøre prediksjoner basert på nye data og identifisere potensielle muligheter. For dette prosjektet betyr distribusjon til en webtjeneste at medisinske applikasjoner vil kunne bruke modellen til å gjøre sanntidsprediksjoner av pasientenes risiko for å få hjerteinfarkt.
+
+I den beste modellbeskrivelsen, klikk på "Deploy"-knappen.
+
+
+
+15. Gi den et navn, en beskrivelse, beregningstype (Azure Container Instance), aktiver autentisering og klikk på Deploy. Dette trinnet kan ta omtrent 20 minutter å fullføre. Distribusjonsprosessen innebærer flere trinn, inkludert registrering av modellen, generering av ressurser og konfigurering av dem for webtjenesten. En statusmelding vises under Deploy status. Velg Oppdater periodisk for å sjekke distribusjonsstatusen. Den er distribuert og kjører når statusen er "Healthy".
+
+
+
+16. Når den er distribuert, klikk på Endepunkt-fanen og klikk på endepunktet du nettopp distribuerte. Her finner du alle detaljene du trenger å vite om endepunktet.
+
+
+
+Fantastisk! Nå som vi har en modell distribuert, kan vi starte forbruket av endepunktet.
+
+### 3.2 Forbruk av endepunkt
+
+Klikk på "Consume"-fanen. Her finner du REST-endepunktet og et Python-skript i forbruksalternativet. Ta deg tid til å lese Python-koden.
+
+Dette skriptet kan kjøres direkte fra din lokale maskin og vil bruke endepunktet.
+
+
+
+Ta et øyeblikk til å sjekke disse 2 linjene med kode:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+Variabelen `url` er REST-endepunktet som finnes i forbruksfanen, og variabelen `api_key` er primærnøkkelen som også finnes i forbruksfanen (kun hvis du har aktivert autentisering). Dette er hvordan skriptet kan bruke endepunktet.
+
+18. Når du kjører skriptet, bør du se følgende utdata:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Dette betyr at prediksjonen for hjertesvikt for de gitte dataene er sann. Dette gir mening fordi hvis du ser nærmere på dataene som automatisk genereres i skriptet, er alt satt til 0 og falsk som standard. Du kan endre dataene med følgende eksempelinput:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Skriptet bør returnere:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Gratulerer! Du har nettopp brukt den distribuerte modellen og trent den på Azure ML!
+
+> **_MERK:_** Når du er ferdig med prosjektet, ikke glem å slette alle ressursene.
+## 🚀 Utfordring
+
+Se nøye på modellforklaringene og detaljene som AutoML genererte for de beste modellene. Prøv å forstå hvorfor den beste modellen er bedre enn de andre. Hvilke algoritmer ble sammenlignet? Hva er forskjellene mellom dem? Hvorfor presterer den beste modellen bedre i dette tilfellet?
+
+## [Etter-forelesningsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Gjennomgang og selvstudium
+
+I denne leksjonen lærte du hvordan du trener, distribuerer og bruker en modell for å forutsi risikoen for hjertesvikt på en lavkode/ingen kode-måte i skyen. Hvis du ikke har gjort det ennå, gå dypere inn i modellforklaringene som AutoML genererte for de beste modellene og prøv å forstå hvorfor den beste modellen er bedre enn de andre.
+
+Du kan gå videre med lavkode/ingen kode AutoML ved å lese denne [dokumentasjonen](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Oppgave
+
+[Lavkode/Ingen kode Data Science-prosjekt på Azure ML](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/no/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..d3614f82
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Lav kode/Ingen kode Data Science-prosjekt på Azure ML
+
+## Instruksjoner
+
+Vi så hvordan man kan bruke Azure ML-plattformen til å trene, distribuere og bruke en modell på en Lav kode/Ingen kode-måte. Nå kan du se deg rundt etter noen data som du kan bruke til å trene en annen modell, distribuere den og bruke den. Du kan finne datasett på [Kaggle](https://kaggle.com) og [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Vurderingskriterier
+
+| Eksemplarisk | Tilfredsstillende | Trenger forbedring |
+|--------------|-------------------|--------------------|
+|Når du lastet opp dataene, sørget du for å endre typen på funksjonene hvis nødvendig. Du renset også dataene hvis det var behov. Du kjørte en trening på et datasett gjennom AutoML, og du sjekket modellforklaringene. Du distribuerte den beste modellen og klarte å bruke den. | Når du lastet opp dataene, sørget du for å endre typen på funksjonene hvis nødvendig. Du kjørte en trening på et datasett gjennom AutoML, du distribuerte den beste modellen og klarte å bruke den. | Du har distribuert den beste modellen trent av AutoML og klarte å bruke den. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/no/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..4ac46917
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,324 @@
+
+# Data Science i skyen: "Azure ML SDK"-metoden
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Data Science i skyen: Azure ML SDK - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Innholdsfortegnelse:
+
+- [Data Science i skyen: "Azure ML SDK"-metoden](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz før forelesning](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Introduksjon](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Hva er Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Introduksjon til prosjektet og datasettet for hjertesviktprediksjon](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Trening av en modell med Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Opprett et Azure ML-arbeidsområde](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Opprett en beregningsinstans](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Laste inn datasettet](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Opprette Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Trening av en modell](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Konfigurer arbeidsområde, eksperiment, beregningsklynge og datasett](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML-konfigurasjon og trening](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Modellutrulling og bruk av endepunkt med Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Lagre den beste modellen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Modellutrulling](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Bruk av endepunkt](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Utfordring](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz etter forelesning](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Gjennomgang og selvstudium](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Oppgave](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Introduksjon
+
+### 1.1 Hva er Azure ML SDK?
+
+Dataforskere og AI-utviklere bruker Azure Machine Learning SDK for å bygge og kjøre maskinlæringsarbeidsflyter med Azure Machine Learning-tjenesten. Du kan bruke tjenesten i ethvert Python-miljø, inkludert Jupyter Notebooks, Visual Studio Code eller din foretrukne Python IDE.
+
+Hovedområder i SDK-en inkluderer:
+
+- Utforske, forberede og administrere livssyklusen til datasett som brukes i maskinlæringseksperimenter.
+- Administrere skyressurser for overvåking, logging og organisering av maskinlæringseksperimenter.
+- Trene modeller enten lokalt eller ved å bruke skyressurser, inkludert GPU-akselerert modelltrening.
+- Bruke automatisert maskinlæring, som aksepterer konfigurasjonsparametere og treningsdata. Den itererer automatisk gjennom algoritmer og hyperparameterinnstillinger for å finne den beste modellen for prediksjoner.
+- Utrulling av webtjenester for å konvertere dine trente modeller til RESTful-tjenester som kan brukes i enhver applikasjon.
+
+[Les mer om Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+I [forrige leksjon](../18-Low-Code/README.md) så vi hvordan vi kunne trene, rulle ut og bruke en modell på en Low code/No code-måte. Vi brukte hjertesvikt-datasettet for å generere en hjertesviktprediksjonsmodell. I denne leksjonen skal vi gjøre nøyaktig det samme, men ved hjelp av Azure Machine Learning SDK.
+
+
+
+### 1.2 Introduksjon til prosjektet og datasettet for hjertesviktprediksjon
+
+Se [her](../18-Low-Code/README.md) for introduksjon til prosjektet og datasettet for hjertesviktprediksjon.
+
+## 2. Trening av en modell med Azure ML SDK
+
+### 2.1 Opprett et Azure ML-arbeidsområde
+
+For enkelhets skyld skal vi jobbe i en Jupyter Notebook. Dette forutsetter at du allerede har et arbeidsområde og en beregningsinstans. Hvis du allerede har et arbeidsområde, kan du gå direkte til seksjon 2.3 Opprettelse av Notebook.
+
+Hvis ikke, følg instruksjonene i seksjonen **2.1 Opprett et Azure ML-arbeidsområde** i [forrige leksjon](../18-Low-Code/README.md) for å opprette et arbeidsområde.
+
+### 2.2 Opprett en beregningsinstans
+
+I [Azure ML-arbeidsområdet](https://ml.azure.com/) vi opprettet tidligere, gå til Compute-menyen, og du vil se de forskjellige beregningsressursene som er tilgjengelige.
+
+
+
+La oss opprette en beregningsinstans for å klargjøre en Jupyter Notebook.
+1. Klikk på + Ny-knappen.
+2. Gi et navn til beregningsinstansen din.
+3. Velg dine alternativer: CPU eller GPU, VM-størrelse og antall kjerner.
+4. Klikk på Opprett-knappen.
+
+Gratulerer, du har nettopp opprettet en beregningsinstans! Vi skal bruke denne beregningsinstansen til å opprette en Notebook i seksjonen [Opprette Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Laste inn datasettet
+
+Se seksjonen **2.3 Laste inn datasettet** i [forrige leksjon](../18-Low-Code/README.md) hvis du ikke har lastet opp datasettet ennå.
+
+### 2.4 Opprette Notebooks
+
+> **_MERK:_** For neste steg kan du enten opprette en ny Notebook fra bunnen av, eller du kan laste opp [Notebooken vi opprettet](notebook.ipynb) i Azure ML Studio. For å laste den opp, klikk ganske enkelt på "Notebook"-menyen og last opp Notebooken.
+
+Notebooks er en veldig viktig del av data science-prosessen. De kan brukes til å utføre utforskende dataanalyse (EDA), koble til en beregningsklynge for å trene en modell, eller koble til en inferanseklynge for å rulle ut et endepunkt.
+
+For å opprette en Notebook trenger vi en beregningsnode som kjører Jupyter Notebook-instansen. Gå tilbake til [Azure ML-arbeidsområdet](https://ml.azure.com/) og klikk på Beregningsinstanser. I listen over beregningsinstanser bør du se [beregningsinstansen vi opprettet tidligere](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. I seksjonen Applikasjoner, klikk på Jupyter-alternativet.
+2. Kryss av i boksen "Ja, jeg forstår" og klikk på Fortsett-knappen.
+
+3. Dette vil åpne en ny nettleserfane med Jupyter Notebook-instansen din som vist nedenfor. Klikk på "Ny"-knappen for å opprette en Notebook.
+
+
+
+Nå som vi har en Notebook, kan vi begynne å trene modellen med Azure ML SDK.
+
+### 2.5 Trening av en modell
+
+Først og fremst, hvis du noen gang er i tvil, se [Azure ML SDK-dokumentasjonen](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Den inneholder all nødvendig informasjon for å forstå modulene vi skal gjennomgå i denne leksjonen.
+
+#### 2.5.1 Konfigurer arbeidsområde, eksperiment, beregningsklynge og datasett
+
+Du må laste inn `workspace` fra konfigurasjonsfilen ved å bruke følgende kode:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Dette returnerer et objekt av typen `Workspace` som representerer arbeidsområdet. Deretter må du opprette et `eksperiment` ved å bruke følgende kode:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+
+For å hente eller opprette et eksperiment fra et arbeidsområde, ber du om eksperimentet ved hjelp av eksperimentnavnet. Eksperimentnavnet må være 3-36 tegn langt, starte med en bokstav eller et tall, og kan kun inneholde bokstaver, tall, understreker og bindestreker. Hvis eksperimentet ikke finnes i arbeidsområdet, opprettes et nytt eksperiment.
+
+Nå må du opprette en beregningsklynge for treningen ved å bruke følgende kode. Merk at dette steget kan ta noen minutter.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Du kan hente datasettet fra arbeidsområdet ved å bruke datasettets navn på følgende måte:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+
+#### 2.5.2 AutoML-konfigurasjon og trening
+
+For å sette opp AutoML-konfigurasjonen, bruk [AutoMLConfig-klassen](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Som beskrevet i dokumentasjonen, finnes det mange parametere du kan eksperimentere med. For dette prosjektet vil vi bruke følgende parametere:
+
+- `experiment_timeout_minutes`: Maksimal tid (i minutter) eksperimentet får kjøre før det automatisk stoppes og resultatene gjøres tilgjengelige.
+- `max_concurrent_iterations`: Maksimalt antall samtidige treningsiterasjoner tillatt for eksperimentet.
+- `primary_metric`: Den primære metrikken som brukes for å bestemme eksperimentets status.
+- `compute_target`: Azure Machine Learning-beregningsressursen som eksperimentet skal kjøres på.
+- `task`: Typen oppgave som skal kjøres. Verdier kan være 'classification', 'regression' eller 'forecasting' avhengig av typen AutoML-problem som skal løses.
+- `training_data`: Treningsdataene som skal brukes i eksperimentet. Det bør inneholde både treningsfunksjoner og en etikettkolonne (eventuelt en kolonne for prøvevekter).
+- `label_column_name`: Navnet på etikettkolonnen.
+- `path`: Den fullstendige banen til Azure Machine Learning-prosjektmappen.
+- `enable_early_stopping`: Om tidlig avslutning skal aktiveres hvis resultatene ikke forbedres på kort sikt.
+- `featurization`: Indikator for om featurization skal gjøres automatisk eller tilpasses.
+- `debug_log`: Loggfilen der feilsøkingsinformasjon skal skrives.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+
+Nå som konfigurasjonen er satt opp, kan du trene modellen ved å bruke følgende kode. Dette steget kan ta opptil en time, avhengig av størrelsen på klyngen din.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+
+Du kan kjøre RunDetails-widgeten for å vise de forskjellige eksperimentene.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+
+## 3. Modellutrulling og bruk av endepunkt med Azure ML SDK
+
+### 3.1 Lagre den beste modellen
+
+`remote_run` er et objekt av typen [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Dette objektet inneholder metoden `get_output()` som returnerer den beste kjøringen og den tilsvarende tilpassede modellen.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+
+Du kan se parameterne som ble brukt for den beste modellen ved å bare skrive ut `fitted_model` og se egenskapene til den beste modellen ved å bruke metoden [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Registrer deretter modellen med metoden [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+
+### 3.2 Modellutrulling
+
+Når den beste modellen er lagret, kan vi rulle den ut med klassen [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). InferenceConfig representerer konfigurasjonsinnstillingene for et tilpasset miljø som brukes til utrulling. Klassen [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) representerer en maskinlæringsmodell som er rullet ut som et webtjenesteendepunkt på Azure Container Instances. En utrullet tjeneste opprettes fra en modell, et skript og tilhørende filer. Den resulterende webtjenesten er et lastbalansert HTTP-endepunkt med en REST API. Du kan sende data til denne API-en og motta prediksjonen returnert av modellen.
+
+Modellen rulles ut ved hjelp av metoden [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+
+Dette steget kan ta noen minutter.
+
+### 3.3 Bruk av endepunkt
+
+Du bruker endepunktet ditt ved å opprette et eksempelinput:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+
+Og deretter kan du sende dette inputet til modellen din for prediksjon:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Dette bør gi `'{"result": [false]}'`. Dette betyr at pasientdataene vi sendte til endepunktet genererte prediksjonen `false`, som betyr at denne personen sannsynligvis ikke vil få et hjerteinfarkt.
+
+Gratulerer! Du har nettopp brukt modellen som er distribuert og trent på Azure ML med Azure ML SDK!
+
+
+> **_NOTE:_** Når du er ferdig med prosjektet, ikke glem å slette alle ressursene.
+
+## 🚀 Utfordring
+
+Det er mange andre ting du kan gjøre gjennom SDK-en, men dessverre kan vi ikke gå gjennom alt i denne leksjonen. Men gode nyheter, det å lære seg å navigere i SDK-dokumentasjonen kan ta deg langt på egen hånd. Ta en titt på dokumentasjonen for Azure ML SDK og finn `Pipeline`-klassen som lar deg lage pipelines. En pipeline er en samling av steg som kan utføres som en arbeidsflyt.
+
+**HINT:** Gå til [SDK-dokumentasjonen](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) og skriv inn nøkkelord i søkefeltet, som "Pipeline". Du bør få opp `azureml.pipeline.core.Pipeline`-klassen i søkeresultatene.
+
+## [Quiz etter leksjonen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Gjennomgang & Selvstudium
+
+I denne leksjonen lærte du hvordan du trener, distribuerer og bruker en modell for å forutsi risikoen for hjertesvikt med Azure ML SDK i skyen. Sjekk denne [dokumentasjonen](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) for mer informasjon om Azure ML SDK. Prøv å lage din egen modell med Azure ML SDK.
+
+## Oppgave
+
+[Data Science-prosjekt med Azure ML SDK](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/no/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..69f9f0db
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Datascience-prosjekt med Azure ML SDK
+
+## Instruksjoner
+
+Vi så hvordan man bruker Azure ML-plattformen til å trene, distribuere og bruke en modell med Azure ML SDK. Nå kan du finne noen data som du kan bruke til å trene en annen modell, distribuere den og bruke den. Du kan lete etter datasett på [Kaggle](https://kaggle.com) og [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Vurderingskriterier
+
+| Eksemplarisk | Tilfredsstillende | Trenger forbedring |
+|--------------|-------------------|--------------------|
+|Når du konfigurerte AutoML, gikk du gjennom SDK-dokumentasjonen for å se hvilke parametere du kunne bruke. Du kjørte en trening på et datasett gjennom AutoML ved hjelp av Azure ML SDK, og du sjekket modellforklaringene. Du distribuerte den beste modellen og klarte å bruke den gjennom Azure ML SDK. | Du kjørte en trening på et datasett gjennom AutoML ved hjelp av Azure ML SDK, og du sjekket modellforklaringene. Du distribuerte den beste modellen og klarte å bruke den gjennom Azure ML SDK. | Du kjørte en trening på et datasett gjennom AutoML ved hjelp av Azure ML SDK. Du distribuerte den beste modellen og klarte å bruke den gjennom Azure ML SDK. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/5-Data-Science-In-Cloud/README.md b/translations/no/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..ad0d3178
--- /dev/null
+++ b/translations/no/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Data Science i skyen
+
+
+
+> Foto av [Jelleke Vanooteghem](https://unsplash.com/@ilumire) fra [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Når det gjelder å utføre dataanalyse med store datamengder, kan skyen være en game changer. I de neste tre leksjonene skal vi se hva skyen er og hvorfor den kan være svært nyttig. Vi skal også utforske et datasett om hjertesvikt og bygge en modell for å vurdere sannsynligheten for at noen opplever hjertesvikt. Vi vil bruke kraften i skyen til å trene, distribuere og bruke en modell på to forskjellige måter. Den ene måten bruker kun brukergrensesnittet i en Low code/No code-tilnærming, den andre måten bruker Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Emner
+
+1. [Hvorfor bruke skyen til dataanalyse?](17-Introduction/README.md)
+2. [Dataanalyse i skyen: "Low code/No code"-tilnærmingen](18-Low-Code/README.md)
+3. [Dataanalyse i skyen: "Azure ML SDK"-tilnærmingen](19-Azure/README.md)
+
+### Krediteringer
+Disse leksjonene ble skrevet med ☁️ og 💕 av [Maud Levy](https://twitter.com/maudstweets) og [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Data for prosjektet om prediksjon av hjertesvikt er hentet fra [
+Larxel](https://www.kaggle.com/andrewmvd) på [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Det er lisensiert under [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/no/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..f3fab515
--- /dev/null
+++ b/translations/no/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,155 @@
+
+# Data Science i den virkelige verden
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Data Science i den virkelige verden - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Vi nærmer oss slutten av denne læringsreisen!
+
+Vi startet med definisjoner av data science og etikk, utforsket ulike verktøy og teknikker for dataanalyse og visualisering, gjennomgikk livssyklusen for data science, og så på hvordan man kan skalere og automatisere arbeidsflyter for data science med skytjenester. Så du lurer kanskje: _"Hvordan kan jeg egentlig koble all denne læringen til virkelige kontekster?"_
+
+I denne leksjonen skal vi utforske virkelige anvendelser av data science på tvers av bransjer og dykke ned i spesifikke eksempler innen forskning, digitale humaniora og bærekraft. Vi skal se på studentprosjektmuligheter og avslutte med nyttige ressurser som kan hjelpe deg med å fortsette din læringsreise!
+
+## Quiz før forelesning
+
+[Quiz før forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Data Science + Industri
+
+Takket være demokratiseringen av AI, finner utviklere det nå enklere å designe og integrere AI-drevet beslutningstaking og datadrevne innsikter i brukeropplevelser og utviklingsarbeidsflyter. Her er noen eksempler på hvordan data science "brukes" i virkelige applikasjoner på tvers av bransjer:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) brukte data science til å korrelere søketermer med influensatrender. Selv om tilnærmingen hadde feil, skapte den oppmerksomhet rundt mulighetene (og utfordringene) med datadrevne helseprediksjoner.
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - forklarer hvordan UPS bruker data science og maskinlæring for å forutsi optimale leveringsruter, med hensyn til værforhold, trafikkmønstre, leveringsfrister og mer.
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - data samlet inn ved hjelp av [Freedom Of Information Laws](https://chriswhong.com/open-data/foil_nyc_taxi/) hjalp med å visualisere en dag i livet til NYC-taxier, og ga innsikt i hvordan de navigerer i den travle byen, pengene de tjener, og varigheten av turer over en 24-timers periode.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - bruker data (om hente- og leveringssteder, turvarighet, foretrukne ruter osv.) samlet fra millioner av Uber-turer *daglig* for å bygge et dataanalyseverktøy som hjelper med prissetting, sikkerhet, svindeldeteksjon og navigasjonsbeslutninger.
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - fokuserer på _prediktiv analyse_ (lag- og spilleranalyse - tenk [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - og fanhåndtering) og _datavisualisering_ (lag- og fandashboards, spill osv.) med applikasjoner som talentspeiding, sportsbetting og inventar-/arenaadministrasjon.
+
+ * [Data Science i banksektoren](https://data-flair.training/blogs/data-science-in-banking/) - fremhever verdien av data science i finansindustrien med applikasjoner som risikomodellering og svindeldeteksjon, kundesegmentering, sanntidsprediksjon og anbefalingssystemer. Prediktiv analyse driver også kritiske tiltak som [kredittscore](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Data Science i helsevesenet](https://data-flair.training/blogs/data-science-in-healthcare/) - fremhever applikasjoner som medisinsk bildediagnostikk (f.eks. MR, røntgen, CT-skanning), genomikk (DNA-sekvensering), legemiddelutvikling (risikovurdering, suksessprediksjon), prediktiv analyse (pasientomsorg og logistikk), sykdomssporing og forebygging osv.
+
+ Bildekreditt: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Figuren viser andre domener og eksempler på bruk av data science-teknikker. Vil du utforske andre applikasjoner? Sjekk ut [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples)-seksjonen nedenfor.
+
+## Data Science + Forskning
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Forskning - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Mens virkelige applikasjoner ofte fokuserer på bruksområder i stor skala, kan _forskningsprosjekter_ være nyttige fra to perspektiver:
+
+* _innovasjonsmuligheter_ - utforske rask prototyping av avanserte konsepter og testing av brukeropplevelser for neste generasjons applikasjoner.
+* _utfordringer ved implementering_ - undersøke potensielle skader eller utilsiktede konsekvenser av data science-teknologier i virkelige kontekster.
+
+For studenter kan disse forskningsprosjektene gi både lærings- og samarbeidsmuligheter som kan forbedre forståelsen av emnet, og utvide bevisstheten og engasjementet med relevante personer eller team som arbeider innen interesseområder. Så hvordan ser forskningsprosjekter ut, og hvordan kan de gjøre en forskjell?
+
+La oss se på ett eksempel - [MIT Gender Shades Study](http://gendershades.org/overview.html) fra Joy Buolamwini (MIT Media Labs) med en [signatur forskningsartikkel](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) medforfattet av Timnit Gebru (den gang ved Microsoft Research) som fokuserte på:
+
+ * **Hva:** Målet med forskningsprosjektet var å _evaluere bias i automatiserte ansiktsanalysealgoritmer og datasett_ basert på kjønn og hudtype.
+ * **Hvorfor:** Ansiktsanalyse brukes i områder som rettshåndhevelse, flyplassikkerhet, ansettelsessystemer og mer - kontekster der unøyaktige klassifiseringer (f.eks. på grunn av bias) kan forårsake potensielle økonomiske og sosiale skader for berørte individer eller grupper. Å forstå (og eliminere eller redusere) bias er nøkkelen til rettferdighet i bruk.
+ * **Hvordan:** Forskerne oppdaget at eksisterende benchmarks hovedsakelig brukte lysere hudtoner, og kuraterte et nytt datasett (1000+ bilder) som var _mer balansert_ etter kjønn og hudtype. Datasettet ble brukt til å evaluere nøyaktigheten til tre kjønnsklassifiseringsprodukter (fra Microsoft, IBM & Face++).
+
+Resultatene viste at selv om den totale klassifiseringsnøyaktigheten var god, var det en merkbar forskjell i feilrater mellom ulike undergrupper - med **feilkjønning** som var høyere for kvinner eller personer med mørkere hudtoner, noe som indikerer bias.
+
+**Viktige resultater:** Skapte oppmerksomhet rundt at data science trenger mer _representative datasett_ (balanserte undergrupper) og mer _inkluderende team_ (mangfoldige bakgrunner) for å gjenkjenne og eliminere eller redusere slike bias tidlig i AI-løsninger. Forskningsinnsats som dette er også avgjørende for at mange organisasjoner skal definere prinsipper og praksis for _ansvarlig AI_ for å forbedre rettferdighet i deres AI-produkter og prosesser.
+
+**Vil du lære om relevante forskningsinnsatser hos Microsoft?**
+
+* Sjekk ut [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) innen kunstig intelligens.
+* Utforsk studentprosjekter fra [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Sjekk ut [Fairlearn](https://fairlearn.org/) prosjektet og [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) initiativer.
+
+## Data Science + Humaniora
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Digitale Humaniora - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Digitale humaniora [er definert](https://digitalhumanities.stanford.edu/about-dh-stanford) som "en samling av praksiser og tilnærminger som kombinerer beregningsmetoder med humanistisk forskning". [Stanford-prosjekter](https://digitalhumanities.stanford.edu/projects) som _"rebooting history"_ og _"poetic thinking"_ illustrerer koblingen mellom [Digitale Humaniora og Data Science](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - med vekt på teknikker som nettverksanalyse, informasjonsvisualisering, romlig og tekstanalyse som kan hjelpe oss med å gjenbesøke historiske og litterære datasett for å få nye innsikter og perspektiver.
+
+*Vil du utforske og utvide et prosjekt innen dette området?*
+
+Sjekk ut ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - et flott eksempel fra [Jen Looper](https://twitter.com/jenlooper) som spør hvordan vi kan bruke data science til å gjenbesøke kjent poesi og revurdere dens betydning og bidrag fra forfatteren i nye kontekster. For eksempel, _kan vi forutsi sesongen et dikt ble skrevet ved å analysere tonen eller sentimentet_ - og hva forteller dette oss om forfatterens sinnstilstand i den aktuelle perioden?
+
+For å svare på det spørsmålet følger vi trinnene i livssyklusen for data science:
+ * [`Data Acquisition`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - for å samle et relevant datasett for analyse. Alternativer inkluderer bruk av en API (f.eks. [Poetry DB API](https://poetrydb.org/index.html)) eller skraping av nettsider (f.eks. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) ved hjelp av verktøy som [Scrapy](https://scrapy.org/).
+ * [`Data Cleaning`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - forklarer hvordan tekst kan formateres, renses og forenkles ved hjelp av grunnleggende verktøy som Visual Studio Code og Microsoft Excel.
+ * [`Data Analysis`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - forklarer hvordan vi nå kan importere datasettet til "Notebooks" for analyse ved hjelp av Python-pakker (som pandas, numpy og matplotlib) for å organisere og visualisere dataene.
+ * [`Sentiment Analysis`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - forklarer hvordan vi kan integrere skytjenester som Text Analytics, ved bruk av lavkodeverktøy som [Power Automate](https://flow.microsoft.com/en-us/) for automatiserte databehandlingsarbeidsflyter.
+
+Ved å bruke denne arbeidsflyten kan vi utforske sesongmessige påvirkninger på sentimentet i diktene, og hjelpe oss med å forme våre egne perspektiver på forfatteren. Prøv det selv - og utvid deretter notatboken for å stille andre spørsmål eller visualisere dataene på nye måter!
+
+> Du kan bruke noen av verktøyene i [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) for å forfølge disse undersøkelsene.
+
+## Data Science + Bærekraft
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Bærekraft - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+[2030 Agenda For Sustainable Development](https://sdgs.un.org/2030agenda) - vedtatt av alle FN-medlemmer i 2015 - identifiserer 17 mål, inkludert de som fokuserer på **beskyttelse av planeten** mot nedbrytning og virkningen av klimaendringer. [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability)-initiativet støtter disse målene ved å utforske måter teknologi kan bidra til å bygge mer bærekraftige fremtider med et [fokus på 4 mål](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - å være karbonnegativ, vannpositiv, null avfall og biologisk mangfoldig innen 2030.
+
+Å takle disse utfordringene på en skalerbar og tidsriktig måte krever tenkning i sky-skala - og store mengder data. [Planetary Computer](https://planetarycomputer.microsoft.com/)-initiativet gir 4 komponenter for å hjelpe dataforskere og utviklere i denne innsatsen:
+
+ * [Data Catalog](https://planetarycomputer.microsoft.com/catalog) - med petabyte av Earth Systems-data (gratis og Azure-hostet).
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - for å hjelpe brukere med å søke etter relevante data på tvers av rom og tid.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - administrert miljø for forskere til å behandle massive geospatiale datasett.
+ * [Applications](https://planetarycomputer.microsoft.com/applications) - viser bruksområder og verktøy for bærekraftige innsikter.
+**Planetary Computer-prosjektet er for øyeblikket i forhåndsvisning (per september 2021)** - her er hvordan du kan komme i gang med å bidra til bærekraftige løsninger ved hjelp av dataanalyse.
+
+* [Be om tilgang](https://planetarycomputer.microsoft.com/account/request) for å starte utforskning og koble deg med andre.
+* [Utforsk dokumentasjon](https://planetarycomputer.microsoft.com/docs/overview/about) for å forstå støttede datasett og API-er.
+* Utforsk applikasjoner som [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) for inspirasjon til applikasjonsideer.
+
+Tenk på hvordan du kan bruke datavisualisering for å avdekke eller forsterke relevante innsikter innen områder som klimaendringer og avskoging. Eller vurder hvordan innsikter kan brukes til å skape nye brukeropplevelser som motiverer til atferdsendringer for en mer bærekraftig livsstil.
+
+## Dataanalyse + Studenter
+
+Vi har snakket om virkelige applikasjoner i industri og forskning, og utforsket eksempler på dataanalyseapplikasjoner innen digitale humaniora og bærekraft. Så hvordan kan du bygge ferdighetene dine og dele ekspertisen din som nybegynner innen dataanalyse?
+
+Her er noen eksempler på studentprosjekter innen dataanalyse for inspirasjon.
+
+ * [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) med GitHub [prosjekter](https://github.com/msr-ds3) som utforsker temaer som:
+ - [Rasistisk bias i politiets bruk av makt](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Påliteligheten til New Yorks T-banesystem](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+ * [Digitalisering av materiell kultur: Utforsking av sosioøkonomiske fordelinger i Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - fra [Ornella Altunyan](https://twitter.com/ornelladotcom) og teamet ved Claremont, ved bruk av [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Utfordring
+
+Søk etter artikler som anbefaler dataanalyseprosjekter som er nybegynnervennlige - som [disse 50 temaområdene](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) eller [disse 21 prosjektideene](https://www.intellspot.com/data-science-project-ideas) eller [disse 16 prosjektene med kildekode](https://data-flair.training/blogs/data-science-project-ideas/) som du kan dekonstruere og remikse. Og ikke glem å blogge om læringsreisen din og dele innsiktene dine med oss alle.
+
+## Quiz etter forelesning
+
+[Quiz etter forelesning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Gjennomgang & Selvstudium
+
+Vil du utforske flere bruksområder? Her er noen relevante artikler:
+ * [17 Dataanalyseapplikasjoner og eksempler](https://builtin.com/data-science/data-science-applications-examples) - juli 2021
+ * [11 Fantastiske dataanalyseapplikasjoner i den virkelige verden](https://myblindbird.com/data-science-applications-real-world/) - mai 2021
+ * [Dataanalyse i den virkelige verden](https://towardsdatascience.com/data-science-in-the-real-world/home) - Artikkelsamling
+ * Dataanalyse innen: [Utdanning](https://data-flair.training/blogs/data-science-in-education/), [Landbruk](https://data-flair.training/blogs/data-science-in-agriculture/), [Finans](https://data-flair.training/blogs/data-science-in-finance/), [Filmer](https://data-flair.training/blogs/data-science-at-movies/) og mer.
+
+## Oppgave
+
+[Utforsk et Planetary Computer-datasett](assignment.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/no/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..e3c590f3
--- /dev/null
+++ b/translations/no/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Utforsk et Planetary Computer-datasett
+
+## Instruksjoner
+
+I denne leksjonen snakket vi om ulike anvendelsesområder innen datavitenskap - med dypdykk i eksempler relatert til forskning, bærekraft og digitale humaniora. I denne oppgaven skal du utforske ett av disse eksemplene i mer detalj, og bruke noe av det du har lært om datavisualiseringer og analyse for å utlede innsikter om bærekraftsdata.
+
+Prosjektet [Planetary Computer](https://planetarycomputer.microsoft.com/) har datasett og API-er som kan nås med en konto - søk om tilgang hvis du vil prøve bonusdelen av oppgaven. Nettstedet tilbyr også en [Explorer](https://planetarycomputer.microsoft.com/explore)-funksjon som du kan bruke uten å opprette en konto.
+
+`Steg:`
+Grensesnittet til Explorer (vist i skjermbildet nedenfor) lar deg velge et datasett (fra tilgjengelige alternativer), en forhåndsdefinert spørring (for å filtrere data) og en visningsmetode (for å lage en relevant visualisering). I denne oppgaven er din oppgave å:
+
+ 1. Les [Explorer-dokumentasjonen](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - forstå alternativene.
+ 2. Utforsk datasettkatalogen [Catalog](https://planetarycomputer.microsoft.com/catalog) - lær formålet med hvert datasett.
+ 3. Bruk Explorer - velg et datasett som interesserer deg, velg en relevant spørring og visningsmetode.
+
+
+
+`Din oppgave:`
+Studer nå visualiseringen som vises i nettleseren og svar på følgende:
+ * Hvilke _funksjoner_ har datasettet?
+ * Hvilke _innsikter_ eller resultater gir visualiseringen?
+ * Hva er _implikasjonene_ av disse innsiktene for prosjektets bærekraftsmål?
+ * Hva er _begrensningene_ ved visualiseringen (dvs. hvilke innsikter fikk du ikke)?
+ * Hvis du kunne få rådataene, hvilke _alternative visualiseringer_ ville du lage, og hvorfor?
+
+`Bonuspoeng:`
+Søk om en konto - og logg inn når du har fått tilgang.
+ * Bruk _Launch Hub_-alternativet for å åpne rådataene i en Notebook.
+ * Utforsk dataene interaktivt, og implementer de alternative visualiseringene du tenkte på.
+ * Analyser nå dine tilpassede visualiseringer - klarte du å utlede de innsiktene du savnet tidligere?
+
+## Vurderingskriterier
+
+Eksemplarisk | Tilfredsstillende | Trenger forbedring
+--- | --- | -- |
+Alle fem kjernepunktene ble besvart. Studenten identifiserte tydelig hvordan nåværende og alternative visualiseringer kunne gi innsikter i bærekraftsmål eller -resultater. | Studenten besvarte minst de tre øverste spørsmålene i detalj, og viste at de hadde praktisk erfaring med Explorer. | Studenten unnlot å besvare flere spørsmål, eller ga utilstrekkelig detalj - noe som indikerer at det ikke ble gjort et meningsfullt forsøk på oppgaven. |
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/6-Data-Science-In-Wild/README.md b/translations/no/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..23cd4c4c
--- /dev/null
+++ b/translations/no/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Data Science i det virkelige liv
+
+Reelle anvendelser av data science på tvers av bransjer.
+
+### Emner
+
+1. [Data Science i den virkelige verden](20-Real-World-Examples/README.md)
+
+### Kreditering
+
+Skrevet med ❤️ av [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/CODE_OF_CONDUCT.md b/translations/no/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..44a35911
--- /dev/null
+++ b/translations/no/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Microsoft Open Source Code of Conduct
+
+Dette prosjektet har tatt i bruk [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/).
+
+Ressurser:
+
+- [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoft Code of Conduct FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+- Kontakt [opencode@microsoft.com](mailto:opencode@microsoft.com) for spørsmål eller bekymringer
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/CONTRIBUTING.md b/translations/no/CONTRIBUTING.md
new file mode 100644
index 00000000..441c6ef6
--- /dev/null
+++ b/translations/no/CONTRIBUTING.md
@@ -0,0 +1,28 @@
+
+# Bidra
+
+Dette prosjektet ønsker bidrag og forslag velkommen. De fleste bidrag krever at du
+godtar en Contributor License Agreement (CLA) som erklærer at du har rett til,
+og faktisk gir oss, rettighetene til å bruke ditt bidrag. For detaljer, besøk
+https://cla.microsoft.com.
+
+Når du sender inn en pull request, vil en CLA-bot automatisk avgjøre om du trenger
+å gi en CLA og dekorere PR-en deretter (f.eks. etikett, kommentar). Følg bare
+instruksjonene gitt av boten. Du trenger bare å gjøre dette én gang på tvers av alle repositorier som bruker vår CLA.
+
+Dette prosjektet har tatt i bruk [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/).
+For mer informasjon, se [Code of Conduct FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+eller kontakt [opencode@microsoft.com](mailto:opencode@microsoft.com) med eventuelle ytterligere spørsmål eller kommentarer.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/README.md b/translations/no/README.md
new file mode 100644
index 00000000..448e1134
--- /dev/null
+++ b/translations/no/README.md
@@ -0,0 +1,164 @@
+
+# Data Science for Nybegynnere - Et Pensum
+
+Azure Cloud Advocates hos Microsoft er glade for å tilby et 10-ukers, 20-leksjons pensum om Data Science. Hver leksjon inkluderer quiz før og etter leksjonen, skriftlige instruksjoner for å fullføre leksjonen, en løsning og en oppgave. Vår prosjektbaserte pedagogikk lar deg lære mens du bygger, en bevist metode for å få nye ferdigheter til å "sitte".
+
+**Stor takk til våre forfattere:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Spesiell takk 🙏 til våre [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) forfattere, anmeldere og innholdsbidragsytere,** spesielt Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200),
+[Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar , [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Data Science For Nybegynnere - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## Kunngjøring - Nytt pensum om Generativ AI er nettopp lansert!
+
+Vi har nettopp lansert et 12-leksjons pensum om generativ AI. Lær om ting som:
+
+- prompt og prompt engineering
+- tekst- og bildeapp-generering
+- søkeapper
+
+Som vanlig er det en leksjon, oppgaver å fullføre, kunnskapssjekker og utfordringer.
+
+Sjekk det ut:
+
+> https://aka.ms/genai-beginners
+
+# Er du student?
+
+Kom i gang med følgende ressurser:
+
+- [Student Hub-side](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) På denne siden finner du ressurser for nybegynnere, studentpakker og til og med måter å få en gratis sertifikatkupong. Dette er en side du vil bokmerke og sjekke fra tid til annen, da vi bytter ut innhold minst månedlig.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Bli med i et globalt fellesskap av studentambassadører, dette kan være din vei inn i Microsoft.
+
+# Kom i gang
+
+> **Lærere**: vi har [inkludert noen forslag](for-teachers.md) om hvordan du kan bruke dette pensumet. Vi vil gjerne ha tilbakemeldingen din [i vårt diskusjonsforum](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Studenter](https://aka.ms/student-page)**: for å bruke dette pensumet på egen hånd, fork hele repoet og fullfør oppgavene på egen hånd, start med en quiz før leksjonen. Les deretter leksjonen og fullfør resten av aktivitetene. Prøv å lage prosjektene ved å forstå leksjonene i stedet for å kopiere løsningskoden; denne koden er imidlertid tilgjengelig i /solutions-mappene i hver prosjektorienterte leksjon. En annen idé kan være å danne en studiegruppe med venner og gå gjennom innholdet sammen. For videre studier anbefaler vi [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Møt teamet
+
+[](https://youtu.be/8mzavjQSMM4 "Promo video")
+
+**Gif av** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Klikk på bildet ovenfor for en video om prosjektet og folkene som skapte det!
+
+## Pedagogikk
+
+Vi har valgt to pedagogiske prinsipper mens vi bygde dette pensumet: å sikre at det er prosjektbasert og at det inkluderer hyppige quizer. Ved slutten av denne serien vil studentene ha lært grunnleggende prinsipper for data science, inkludert etiske konsepter, dataklargjøring, ulike måter å jobbe med data på, datavisualisering, dataanalyse, virkelige brukstilfeller av data science og mer.
+
+I tillegg setter en lavterskelquiz før en klasse intensjonen til studenten mot å lære et emne, mens en andre quiz etter klassen sikrer ytterligere oppbevaring. Dette pensumet ble designet for å være fleksibelt og morsomt og kan tas i sin helhet eller delvis. Prosjektene starter små og blir stadig mer komplekse mot slutten av den 10-ukers syklusen.
+
+> Finn vår [Code of Conduct](CODE_OF_CONDUCT.md), [Contributing](CONTRIBUTING.md), [Translation](TRANSLATIONS.md) retningslinjer. Vi ønsker din konstruktive tilbakemelding velkommen!
+
+## Hver leksjon inkluderer:
+
+- Valgfri sketchnote
+- Valgfri tilleggsvideo
+- Oppvarmingsquiz før leksjonen
+- Skriftlig leksjon
+- For prosjektbaserte leksjoner, trinnvise guider om hvordan du bygger prosjektet
+- Kunnskapssjekker
+- En utfordring
+- Tilleggslesing
+- Oppgave
+- Quiz etter leksjonen
+
+> **En merknad om quizer**: Alle quizer er inneholdt i Quiz-App-mappen, for totalt 40 quizer med tre spørsmål hver. De er lenket fra leksjonene, men quiz-appen kan kjøres lokalt eller distribueres til Azure; følg instruksjonene i `quiz-app`-mappen. De blir gradvis lokalisert.
+
+## Leksjoner
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Data Science For Nybegynnere: Veikart - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+| Leksjonsnummer | Emne | Leksjonsgruppe | Læringsmål | Lenket leksjon | Forfatter |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definere Data Science | [Introduksjon](1-Introduction/README.md) | Lær de grunnleggende konseptene bak data science og hvordan det er relatert til kunstig intelligens, maskinlæring og big data. | [leksjon](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Data Science Etikk | [Introduksjon](1-Introduction/README.md) | Konsepter, utfordringer og rammeverk for dataetikk. | [leksjon](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definere Data | [Introduksjon](1-Introduction/README.md) | Hvordan data klassifiseres og vanlige kilder til data. | [leksjon](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introduksjon til Statistikk & Sannsynlighet | [Introduksjon](1-Introduction/README.md) | De matematiske teknikkene for sannsynlighet og statistikk for å forstå data. | [leksjon](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Arbeide med Relasjonelle Data | [Arbeide med Data](2-Working-With-Data/README.md) | Introduksjon til relasjonelle data og grunnleggende utforsking og analyse av relasjonelle data med Structured Query Language, også kjent som SQL (uttales "see-quell"). | [leksjon](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Arbeide med NoSQL Data | [Arbeide med Data](2-Working-With-Data/README.md) | Introduksjon til ikke-relasjonelle data, deres ulike typer og grunnleggende utforsking og analyse av dokumentdatabaser. | [leksjon](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Arbeide med Python | [Arbeide med Data](2-Working-With-Data/README.md) | Grunnleggende bruk av Python for datautforsking med biblioteker som Pandas. Grunnleggende forståelse av Python-programmering anbefales. | [leksjon](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Datapreparering | [Arbeide med data](2-Working-With-Data/README.md) | Temaer om datateknikker for å rense og transformere data for å håndtere utfordringer som manglende, unøyaktige eller ufullstendige data. | [leksjon](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualisering av mengder | [Datavisualisering](3-Data-Visualization/README.md) | Lær hvordan du bruker Matplotlib til å visualisere fugldata 🦆 | [leksjon](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualisering av datadistribusjoner | [Datavisualisering](3-Data-Visualization/README.md) | Visualisere observasjoner og trender innenfor et intervall. | [leksjon](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualisering av proporsjoner | [Datavisualisering](3-Data-Visualization/README.md) | Visualisere diskrete og grupperte prosentandeler. | [leksjon](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualisering av relasjoner | [Datavisualisering](3-Data-Visualization/README.md) | Visualisere forbindelser og korrelasjoner mellom datasett og deres variabler. | [leksjon](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Meningsfulle visualiseringer | [Datavisualisering](3-Data-Visualization/README.md) | Teknikker og veiledning for å gjøre visualiseringene dine verdifulle for effektiv problemløsning og innsikt. | [leksjon](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introduksjon til livssyklusen for datavitenskap | [Livssyklus](4-Data-Science-Lifecycle/README.md) | Introduksjon til livssyklusen for datavitenskap og det første steget med å skaffe og hente ut data. | [leksjon](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analyse | [Livssyklus](4-Data-Science-Lifecycle/README.md) | Denne fasen av livssyklusen for datavitenskap fokuserer på teknikker for å analysere data. | [leksjon](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Kommunikasjon | [Livssyklus](4-Data-Science-Lifecycle/README.md) | Denne fasen av livssyklusen for datavitenskap fokuserer på å presentere innsiktene fra dataene på en måte som gjør det enklere for beslutningstakere å forstå. | [leksjon](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Datavitenskap i skyen | [Skydata](5-Data-Science-In-Cloud/README.md) | Denne serien med leksjoner introduserer datavitenskap i skyen og fordelene med det. | [leksjon](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) og [Maud](https://twitter.com/maudstweets) |
+| 18 | Datavitenskap i skyen | [Skydata](5-Data-Science-In-Cloud/README.md) | Trene modeller ved hjelp av Low Code-verktøy. | [leksjon](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) og [Maud](https://twitter.com/maudstweets) |
+| 19 | Datavitenskap i skyen | [Skydata](5-Data-Science-In-Cloud/README.md) | Distribuere modeller med Azure Machine Learning Studio. | [leksjon](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) og [Maud](https://twitter.com/maudstweets) |
+| 20 | Datavitenskap i praksis | [I praksis](6-Data-Science-In-Wild/README.md) | Datavitenskapsdrevne prosjekter i den virkelige verden. | [leksjon](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Følg disse stegene for å åpne dette eksempelet i en Codespace:
+1. Klikk på Code-menyen og velg alternativet Open with Codespaces.
+2. Velg + New codespace nederst i panelet.
+For mer informasjon, sjekk ut [GitHub-dokumentasjonen](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Følg disse stegene for å åpne dette repoet i en container ved hjelp av din lokale maskin og VSCode med VS Code Remote - Containers-utvidelsen:
+
+1. Hvis dette er første gang du bruker en utviklingscontainer, sørg for at systemet ditt oppfyller kravene (f.eks. ha Docker installert) i [komme i gang-dokumentasjonen](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+For å bruke dette repoet kan du enten åpne det i et isolert Docker-volum:
+
+**Merk**: I bakgrunnen vil dette bruke kommandoen Remote-Containers: **Clone Repository in Container Volume...** for å klone kildekoden i et Docker-volum i stedet for det lokale filsystemet. [Volumer](https://docs.docker.com/storage/volumes/) er den foretrukne mekanismen for å vedvare containerdata.
+
+Eller åpne en lokalt klonet eller nedlastet versjon av repoet:
+
+- Klon dette repoet til ditt lokale filsystem.
+- Trykk F1 og velg kommandoen **Remote-Containers: Open Folder in Container...**.
+- Velg den klonede kopien av denne mappen, vent til containeren starter, og prøv ting ut.
+
+## Offline-tilgang
+
+Du kan kjøre denne dokumentasjonen offline ved å bruke [Docsify](https://docsify.js.org/#/). Fork dette repoet, [installer Docsify](https://docsify.js.org/#/quickstart) på din lokale maskin, og i rotmappen til dette repoet, skriv `docsify serve`. Nettstedet vil bli servert på port 3000 på localhost: `localhost:3000`.
+
+> Merk, notatbøker vil ikke bli gjengitt via Docsify, så når du trenger å kjøre en notatbok, gjør det separat i VS Code med en Python-kjerne.
+
+## Hjelp ønskes!
+
+Hvis du ønsker å oversette hele eller deler av pensumet, vennligst følg vår [Oversettelser](TRANSLATIONS.md)-veiledning.
+
+## Andre pensum
+
+Teamet vårt produserer andre pensum! Sjekk ut:
+
+- [Generativ AI for nybegynnere](https://aka.ms/genai-beginners)
+- [Generativ AI for nybegynnere .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generativ AI med JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generativ AI med Java](https://aka.ms/genaijava)
+- [AI for nybegynnere](https://aka.ms/ai-beginners)
+- [Datavitenskap for nybegynnere](https://aka.ms/datascience-beginners)
+- [Maskinlæring for nybegynnere](https://aka.ms/ml-beginners)
+- [Cybersikkerhet for nybegynnere](https://github.com/microsoft/Security-101)
+- [Webutvikling for nybegynnere](https://aka.ms/webdev-beginners)
+- [IoT for nybegynnere](https://aka.ms/iot-beginners)
+- [XR-utvikling for nybegynnere](https://github.com/microsoft/xr-development-for-beginners)
+- [Mestre GitHub Copilot for parprogrammering](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mestre GitHub Copilot for C#/.NET-utviklere](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Velg ditt eget Copilot-eventyr](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/SECURITY.md b/translations/no/SECURITY.md
new file mode 100644
index 00000000..38d60388
--- /dev/null
+++ b/translations/no/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Sikkerhet
+
+Microsoft tar sikkerheten til våre programvareprodukter og tjenester på alvor, inkludert alle kildekoderepositorier som administreres gjennom våre GitHub-organisasjoner, som inkluderer [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin), og [våre GitHub-organisasjoner](https://opensource.microsoft.com/).
+
+Hvis du mener at du har funnet en sikkerhetssårbarhet i et Microsoft-eid repository som oppfyller [Microsofts definisjon av en sikkerhetssårbarhet](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), vennligst rapporter det til oss som beskrevet nedenfor.
+
+## Rapportering av sikkerhetsproblemer
+
+**Vennligst ikke rapporter sikkerhetssårbarheter gjennom offentlige GitHub-issues.**
+
+Rapporter dem i stedet til Microsoft Security Response Center (MSRC) på [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Hvis du foretrekker å sende inn uten å logge inn, kan du sende e-post til [secure@microsoft.com](mailto:secure@microsoft.com). Hvis mulig, krypter meldingen din med vår PGP-nøkkel; last den ned fra [Microsoft Security Response Center PGP Key-siden](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Du bør motta svar innen 24 timer. Hvis du av en eller annen grunn ikke gjør det, vennligst følg opp via e-post for å sikre at vi mottok din opprinnelige melding. Ytterligere informasjon finner du på [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Vennligst inkluder den forespurte informasjonen nedenfor (så mye du kan gi) for å hjelpe oss med å forstå naturen og omfanget av det mulige problemet:
+
+ * Type problem (f.eks. buffer overflow, SQL-injeksjon, cross-site scripting, etc.)
+ * Fullstendige stier til kildefil(er) relatert til manifestasjonen av problemet
+ * Plasseringen av den berørte kildekoden (tag/branch/commit eller direkte URL)
+ * Eventuell spesiell konfigurasjon som kreves for å gjenskape problemet
+ * Trinnvise instruksjoner for å gjenskape problemet
+ * Proof-of-concept eller utnyttelseskode (hvis mulig)
+ * Innvirkning av problemet, inkludert hvordan en angriper kan utnytte det
+
+Denne informasjonen vil hjelpe oss med å prioritere rapporten din raskere.
+
+Hvis du rapporterer for en bug bounty, kan mer komplette rapporter bidra til en høyere belønning. Besøk vår [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty)-side for mer informasjon om våre aktive programmer.
+
+## Foretrukne språk
+
+Vi foretrekker at all kommunikasjon skjer på engelsk.
+
+## Retningslinjer
+
+Microsoft følger prinsippet om [Koordinert sårbarhetsavsløring](https://www.microsoft.com/en-us/msrc/cvd).
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/SUPPORT.md b/translations/no/SUPPORT.md
new file mode 100644
index 00000000..2dcc5bc8
--- /dev/null
+++ b/translations/no/SUPPORT.md
@@ -0,0 +1,26 @@
+
+# Støtte
+## Hvordan rapportere problemer og få hjelp
+
+Dette prosjektet bruker GitHub Issues for å spore feil og forespørsler om nye funksjoner. Vennligst søk gjennom eksisterende
+problemer før du rapporterer nye for å unngå duplikater. For nye problemer, rapporter feilen eller
+funksjonsforespørselen som en ny Issue.
+
+For hjelp og spørsmål om bruk av dette prosjektet, opprett en Issue.
+
+## Microsofts støttepolicy
+
+Støtte for dette arkivet er begrenset til ressursene som er oppført ovenfor.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/docs/_sidebar.md b/translations/no/docs/_sidebar.md
new file mode 100644
index 00000000..1ed04d31
--- /dev/null
+++ b/translations/no/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Introduksjon
+ - [Definere datavitenskap](../1-Introduction/01-defining-data-science/README.md)
+ - [Etikk i datavitenskap](../1-Introduction/02-ethics/README.md)
+ - [Definere data](../1-Introduction/03-defining-data/README.md)
+ - [Sannsynlighet og statistikk](../1-Introduction/04-stats-and-probability/README.md)
+- Arbeide med data
+ - [Relasjonsdatabaser](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Ikke-relasjonsdatabaser](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Datapreparering](../2-Working-With-Data/08-data-preparation/README.md)
+- Datavisualisering
+ - [Visualisere mengder](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualisere fordelinger](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualisere proporsjoner](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualisere relasjoner](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Meningsfulle visualiseringer](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Livssyklusen til datavitenskap
+ - [Introduksjon](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analysere](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Kommunikasjon](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Datavitenskap i skyen
+ - [Introduksjon](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Lavkode](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Datavitenskap i praksis
+ - [Datavitenskap i praksis](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/for-teachers.md b/translations/no/for-teachers.md
new file mode 100644
index 00000000..09eca581
--- /dev/null
+++ b/translations/no/for-teachers.md
@@ -0,0 +1,78 @@
+
+## For lærere
+
+Ønsker du å bruke dette pensumet i klasserommet ditt? Vær så god!
+
+Faktisk kan du bruke det direkte på GitHub ved å bruke GitHub Classroom.
+
+For å gjøre det, fork denne repoen. Du må opprette en repo for hver leksjon, så du må trekke ut hver mappe til en separat repo. På den måten kan [GitHub Classroom](https://classroom.github.com/classrooms) hente hver leksjon separat.
+
+Disse [fullstendige instruksjonene](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) gir deg en idé om hvordan du kan sette opp klasserommet ditt.
+
+## Bruke repoen som den er
+
+Hvis du ønsker å bruke denne repoen slik den står, uten å bruke GitHub Classroom, kan det også gjøres. Du må kommunisere med studentene dine om hvilken leksjon dere skal jobbe med sammen.
+
+I et nettbasert format (Zoom, Teams eller andre) kan du opprette grupperom for quizene og veilede studentene for å hjelpe dem med å forberede seg på læring. Deretter kan du invitere studentene til quizene og be dem sende inn svarene som 'issues' på et bestemt tidspunkt. Du kan gjøre det samme med oppgaver, hvis du ønsker at studentene skal jobbe sammen i det åpne.
+
+Hvis du foretrekker et mer privat format, kan du be studentene dine om å fork pensumet, leksjon for leksjon, til sine egne private GitHub-repoer og gi deg tilgang. Da kan de fullføre quizene og oppgavene privat og sende dem til deg via issues på klasseromsrepoen din.
+
+Det finnes mange måter å få dette til å fungere i et nettbasert klasseromsformat. Gi oss gjerne beskjed om hva som fungerer best for deg!
+
+## Inkludert i dette pensumet:
+
+20 leksjoner, 40 quizer og 20 oppgaver. Sketchnotes følger med leksjonene for visuelle elever. Mange leksjoner er tilgjengelige både i Python og R og kan fullføres ved hjelp av Jupyter-notebooks i VS Code. Lær mer om hvordan du kan sette opp klasserommet ditt for å bruke denne teknologistakken: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Alle sketchnotes, inkludert en storformat plakat, finnes i [denne mappen](../../sketchnotes).
+
+Hele pensumet er tilgjengelig [som en PDF](../../pdf/readme.pdf).
+
+Du kan også kjøre dette pensumet som et frittstående, offline-vennlig nettsted ved å bruke [Docsify](https://docsify.js.org/#/). [Installer Docsify](https://docsify.js.org/#/quickstart) på din lokale maskin, og skriv deretter `docsify serve` i rotmappen til din lokale kopi av denne repoen. Nettstedet vil bli servert på port 3000 på localhost: `localhost:3000`.
+
+En offline-vennlig versjon av pensumet vil åpne som en frittstående nettside: https://localhost:3000
+
+Leksjonene er gruppert i 6 deler:
+
+- 1: Introduksjon
+ - 1: Definere datavitenskap
+ - 2: Etikk
+ - 3: Definere data
+ - 4: Oversikt over sannsynlighet og statistikk
+- 2: Arbeide med data
+ - 5: Relasjonsdatabaser
+ - 6: Ikke-relasjonsdatabaser
+ - 7: Python
+ - 8: Datapreparering
+- 3: Datavisualisering
+ - 9: Visualisering av mengder
+ - 10: Visualisering av fordelinger
+ - 11: Visualisering av proporsjoner
+ - 12: Visualisering av relasjoner
+ - 13: Meningsfulle visualiseringer
+- 4: Livssyklus for datavitenskap
+ - 14: Introduksjon
+ - 15: Analyse
+ - 16: Kommunikasjon
+- 5: Datavitenskap i skyen
+ - 17: Introduksjon
+ - 18: Lavkode-alternativer
+ - 19: Azure
+- 6: Datavitenskap i praksis
+ - 20: Oversikt
+
+## Gi oss dine tanker!
+
+Vi ønsker å gjøre dette pensumet nyttig for deg og dine studenter. Gi oss tilbakemelding på diskusjonsforumene! Du kan gjerne opprette et klasseromsområde på diskusjonsforumene for studentene dine.
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi streber etter nøyaktighet, vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør anses som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/quiz-app/README.md b/translations/no/quiz-app/README.md
new file mode 100644
index 00000000..a9b500dd
--- /dev/null
+++ b/translations/no/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Quizer
+
+Disse quizene er forhånds- og etterforelesningsquizer for data science-læreplanen på https://aka.ms/datascience-beginners
+
+## Legge til et oversatt quizsett
+
+Legg til en quizoversettelse ved å lage tilsvarende quizstrukturer i `assets/translations`-mappene. De originale quizene finnes i `assets/translations/en`. Quizene er delt inn i flere grupperinger. Sørg for å justere nummereringen med riktig quizseksjon. Det er totalt 40 quizer i denne læreplanen, med nummereringen som starter på 0.
+
+Etter at du har redigert oversettelsene, rediger `index.js`-filen i oversettelsesmappen for å importere alle filene i henhold til konvensjonene i `en`.
+
+Rediger `index.js`-filen i `assets/translations` for å importere de nye oversatte filene.
+
+Deretter redigerer du nedtrekksmenyen i `App.vue` i denne appen for å legge til språket ditt. Match den lokaliserte forkortelsen med mappenavnet for språket ditt.
+
+Til slutt, rediger alle quizlenkene i de oversatte leksjonene, hvis de finnes, for å inkludere denne lokaliseringen som en spørringsparameter: `?loc=fr` for eksempel.
+
+## Prosjektoppsett
+
+```
+npm install
+```
+
+### Kompilerer og oppdaterer for utvikling
+
+```
+npm run serve
+```
+
+### Kompilerer og minimerer for produksjon
+
+```
+npm run build
+```
+
+### Linter og fikser filer
+
+```
+npm run lint
+```
+
+### Tilpass konfigurasjon
+
+Se [Konfigurasjonsreferanse](https://cli.vuejs.org/config/).
+
+Kreditering: Takk til den originale versjonen av denne quiz-appen: https://github.com/arpan45/simple-quiz-vue
+
+## Distribuere til Azure
+
+Her er en steg-for-steg guide for å komme i gang:
+
+1. Fork en GitHub-repositorium
+Sørg for at koden til din statiske webapp ligger i din GitHub-repositorium. Fork denne repositoriumen.
+
+2. Opprett en Azure Static Web App
+- Opprett en [Azure-konto](http://azure.microsoft.com)
+- Gå til [Azure-portalen](https://portal.azure.com)
+- Klikk på "Create a resource" og søk etter "Static Web App".
+- Klikk "Create".
+
+3. Konfigurer den statiske webappen
+- Grunnleggende:
+ - Abonnement: Velg ditt Azure-abonnement.
+ - Ressursgruppe: Opprett en ny ressursgruppe eller bruk en eksisterende.
+ - Navn: Gi et navn til din statiske webapp.
+ - Region: Velg regionen nærmest brukerne dine.
+
+- #### Distribusjonsdetaljer:
+ - Kilde: Velg "GitHub".
+ - GitHub-konto: Autoriser Azure til å få tilgang til din GitHub-konto.
+ - Organisasjon: Velg din GitHub-organisasjon.
+ - Repositorium: Velg repositoriet som inneholder din statiske webapp.
+ - Gren: Velg grenen du vil distribuere fra.
+
+- #### Byggdetaljer:
+ - Byggeforhåndsinnstillinger: Velg rammeverket appen din er bygget med (f.eks. React, Angular, Vue, osv.).
+ - App-plassering: Angi mappen som inneholder appkoden din (f.eks. / hvis den er i roten).
+ - API-plassering: Hvis du har en API, angi dens plassering (valgfritt).
+ - Utdata-plassering: Angi mappen der byggeutdataene genereres (f.eks. build eller dist).
+
+4. Gjennomgå og opprett
+Gjennomgå innstillingene dine og klikk "Create". Azure vil sette opp de nødvendige ressursene og opprette en GitHub Actions-arbeidsflyt i repositoriet ditt.
+
+5. GitHub Actions-arbeidsflyt
+Azure vil automatisk opprette en GitHub Actions-arbeidsflytfil i repositoriet ditt (.github/workflows/azure-static-web-apps-.yml). Denne arbeidsflyten vil håndtere bygge- og distribusjonsprosessen.
+
+6. Overvåk distribusjonen
+Gå til "Actions"-fanen i ditt GitHub-repositorium.
+Du bør se en arbeidsflyt som kjører. Denne arbeidsflyten vil bygge og distribuere din statiske webapp til Azure.
+Når arbeidsflyten er fullført, vil appen din være live på den oppgitte Azure-URL-en.
+
+### Eksempel på arbeidsflytfil
+
+Her er et eksempel på hvordan GitHub Actions-arbeidsflytfilen kan se ut:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Ekstra ressurser
+- [Azure Static Web Apps Dokumentasjon](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Dokumentasjon](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/no/sketchnotes/README.md b/translations/no/sketchnotes/README.md
new file mode 100644
index 00000000..053f0592
--- /dev/null
+++ b/translations/no/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Finn alle sketchnoter her!
+
+## Kreditering
+
+Nitya Narasimhan, kunstner
+
+
+
+---
+
+**Ansvarsfraskrivelse**:
+Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten [Co-op Translator](https://github.com/Azure/co-op-translator). Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på sitt opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/01-defining-data-science/README.md b/translations/sv/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..60de2024
--- /dev/null
+++ b/translations/sv/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## Typer av data
+
+Som vi redan har nämnt, finns data överallt. Vi behöver bara fånga den på rätt sätt! Det är användbart att skilja mellan **strukturerad** och **ostrukturerad** data. Den förstnämnda representeras vanligtvis i en välstrukturerad form, ofta som en tabell eller flera tabeller, medan den sistnämnda bara är en samling filer. Ibland kan vi också tala om **semistrukturerad** data, som har någon form av struktur som kan variera mycket.
+
+| Strukturerad | Semistrukturerad | Ostrukturerad |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | --------------------------------------- |
+| Lista över personer med deras telefonnummer | Wikipedia-sidor med länkar | Text från Encyclopedia Britannica |
+| Temperatur i alla rum i en byggnad varje minut under de senaste 20 åren | Samling av vetenskapliga artiklar i JSON-format med författare, publiceringsdatum och abstrakt | Filarkiv med företagsdokument |
+| Data om ålder och kön för alla som går in i byggnaden | Internetsidor | Rå videoström från övervakningskamera |
+
+## Var man kan få tag på data
+
+Det finns många möjliga källor till data, och det är omöjligt att lista alla! Men låt oss nämna några typiska platser där du kan få tag på data:
+
+* **Strukturerad**
+ - **Internet of Things** (IoT), inklusive data från olika sensorer, såsom temperatur- eller trycksensorer, ger mycket användbar data. Till exempel, om en kontorsbyggnad är utrustad med IoT-sensorer, kan vi automatiskt kontrollera uppvärmning och belysning för att minimera kostnader.
+ - **Enkäter** som vi ber användare att fylla i efter ett köp eller efter att ha besökt en webbplats.
+ - **Beteendeanalys** kan till exempel hjälpa oss att förstå hur djupt en användare går in på en webbplats och vad som är den typiska orsaken till att lämna sidan.
+* **Ostrukturerad**
+ - **Texter** kan vara en rik källa till insikter, såsom ett övergripande **sentimentsbetyg** eller att extrahera nyckelord och semantisk betydelse.
+ - **Bilder** eller **Video**. En video från en övervakningskamera kan användas för att uppskatta trafik på vägen och informera människor om potentiella trafikstockningar.
+ - **Loggar** från webbservrar kan användas för att förstå vilka sidor på vår webbplats som besöks mest och hur länge.
+* **Semistrukturerad**
+ - **Sociala nätverks**-grafer kan vara utmärkta källor till data om användares personligheter och potentiell effektivitet i att sprida information.
+ - När vi har en samling fotografier från en fest kan vi försöka extrahera data om **gruppdynamik** genom att bygga en graf över personer som tar bilder med varandra.
+
+Genom att känna till olika möjliga datakällor kan du försöka tänka på olika scenarier där datavetenskapliga tekniker kan tillämpas för att förstå situationen bättre och förbättra affärsprocesser.
+
+## Vad du kan göra med data
+
+Inom datavetenskap fokuserar vi på följande steg i datans resa:
+
+## Digitalisering och digital transformation
+
+Under det senaste decenniet har många företag börjat förstå vikten av data vid beslutsfattande. För att tillämpa datavetenskapliga principer på att driva ett företag måste man först samla in data, det vill säga översätta affärsprocesser till digital form. Detta kallas **digitalisering**. Att använda datavetenskapliga tekniker på denna data för att vägleda beslut kan leda till betydande produktivitetsökningar (eller till och med en affärsomvandling), vilket kallas **digital transformation**.
+
+Låt oss överväga ett exempel. Anta att vi har en datavetenskapskurs (som denna) som vi levererar online till studenter, och vi vill använda datavetenskap för att förbättra den. Hur kan vi göra det?
+
+Vi kan börja med att fråga "Vad kan digitaliseras?" Det enklaste sättet skulle vara att mäta tiden det tar för varje student att slutföra varje modul och att mäta den förvärvade kunskapen genom att ge ett flervalsprov i slutet av varje modul. Genom att beräkna genomsnittlig tid för att slutföra modulerna över alla studenter kan vi ta reda på vilka moduler som orsakar mest svårigheter för studenterna och arbeta på att förenkla dem.
+Du kanske hävdar att denna metod inte är optimal, eftersom moduler kan ha olika längder. Det är förmodligen mer rättvist att dela tiden med modulens längd (i antal tecken) och jämföra dessa värden istället.
+När vi börjar analysera resultaten från flervalsprov kan vi försöka identifiera vilka koncept som elever har svårt att förstå, och använda den informationen för att förbättra innehållet. För att göra detta behöver vi utforma prov på ett sätt där varje fråga kopplas till ett visst koncept eller kunskapsområde.
+
+Om vi vill göra det ännu mer avancerat kan vi plotta den tid som krävs för varje modul mot studenternas ålderskategori. Vi kanske upptäcker att det för vissa ålderskategorier tar oproportionerligt lång tid att slutföra modulen, eller att studenter hoppar av innan de är klara. Detta kan hjälpa oss att ge åldersrekommendationer för modulen och minimera missnöje från felaktiga förväntningar.
+
+## 🚀 Utmaning
+
+I denna utmaning ska vi försöka hitta koncept som är relevanta för området Data Science genom att analysera texter. Vi kommer att ta en Wikipedia-artikel om Data Science, ladda ner och bearbeta texten, och sedan skapa ett ordmoln som detta:
+
+
+
+Besök [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') för att läsa igenom koden. Du kan också köra koden och se hur den utför alla datatransformationer i realtid.
+
+> Om du inte vet hur man kör kod i en Jupyter Notebook, ta en titt på [denna artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Uppgifter
+
+* **Uppgift 1**: Modifiera koden ovan för att hitta relaterade koncept för områdena **Big Data** och **Machine Learning**
+* **Uppgift 2**: [Fundera över Data Science-scenarier](assignment.md)
+
+## Krediter
+
+Denna lektion har skapats med ♥️ av [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/01-defining-data-science/assignment.md b/translations/sv/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..36bae8b0
--- /dev/null
+++ b/translations/sv/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Uppgift: Scenarier inom Data Science
+
+I denna första uppgift ber vi dig att fundera på några verkliga processer eller problem inom olika problemområden, och hur du kan förbättra dem med hjälp av Data Science-processen. Fundera på följande:
+
+1. Vilka data kan du samla in?
+1. Hur skulle du samla in dem?
+1. Hur skulle du lagra datan? Hur stor är datan troligtvis?
+1. Vilka insikter kan du få från denna data? Vilka beslut skulle vi kunna fatta baserat på datan?
+
+Försök att tänka på tre olika problem/processer och beskriv varje punkt ovan för varje problemområde.
+
+Här är några problemområden och problem som kan hjälpa dig att komma igång:
+
+1. Hur kan du använda data för att förbättra utbildningsprocessen för barn i skolor?
+1. Hur kan du använda data för att kontrollera vaccination under pandemin?
+1. Hur kan du använda data för att säkerställa att du är produktiv på jobbet?
+
+## Instruktioner
+
+Fyll i följande tabell (byt ut föreslagna problemområden mot egna om det behövs):
+
+| Problemområde | Problem | Vilka data att samla in | Hur man lagrar datan | Vilka insikter/beslut vi kan göra |
+|---------------|---------|-------------------------|-----------------------|-----------------------------------|
+| Utbildning | | | | |
+| Vaccination | | | | |
+| Produktivitet | | | | |
+
+## Bedömningskriterier
+
+Exemplariskt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Man kunde identifiera rimliga datakällor, sätt att lagra data och möjliga beslut/insikter för alla problemområden | Vissa aspekter av lösningen är inte detaljerade, datalagring diskuteras inte, minst två problemområden är beskrivna | Endast delar av datalösningen är beskrivna, endast ett problemområde är övervägt.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/sv/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..10ded119
--- /dev/null
+++ b/translations/sv/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Uppgift: Scenarier inom Data Science
+
+I denna första uppgift ber vi dig att tänka på några verkliga processer eller problem inom olika problemområden, och hur du kan förbättra dem med hjälp av Data Science-processen. Fundera på följande:
+
+1. Vilka data kan du samla in?
+1. Hur skulle du samla in dem?
+1. Hur skulle du lagra datan? Hur stor är datan troligtvis?
+1. Vilka insikter kan du få från dessa data? Vilka beslut kan vi ta baserat på datan?
+
+Försök att tänka på tre olika problem/processer och beskriv varje punkt ovan för varje problemområde.
+
+Här är några problemområden och problem som kan hjälpa dig att komma igång:
+
+1. Hur kan du använda data för att förbättra utbildningsprocessen för barn i skolor?
+1. Hur kan du använda data för att kontrollera vaccination under pandemin?
+1. Hur kan du använda data för att säkerställa att du är produktiv på jobbet?
+
+## Instruktioner
+
+Fyll i följande tabell (byt ut föreslagna problemområden mot dina egna om det behövs):
+
+| Problemområde | Problem | Vilka data att samla in | Hur man lagrar datan | Vilka insikter/beslut vi kan ta |
+|---------------|---------|-------------------------|-----------------------|---------------------------------|
+| Utbildning | På universitetet har vi vanligtvis låg närvaro på föreläsningar, och vi har hypotesen att studenter som deltar i föreläsningar i genomsnitt presterar bättre på tentor. Vi vill stimulera närvaro och testa hypotesen. | Vi kan spåra närvaro genom bilder tagna av säkerhetskameran i klassrummet, eller genom att spåra bluetooth/wifi-adresser från studenternas mobiltelefoner i klassrummet. Tentadata finns redan tillgängligt i universitetets databas. | Om vi spårar bilder från säkerhetskameror - behöver vi lagra några (5-10) fotografier under lektionen (ostrukturerad data), och sedan använda AI för att identifiera studenternas ansikten (konvertera data till strukturerad form). | Vi kan beräkna genomsnittlig närvarodata för varje student och se om det finns någon korrelation med tentabetyg. Vi kommer att prata mer om korrelation i avsnittet [sannolikhet och statistik](../../04-stats-and-probability/README.md). För att stimulera studentnärvaro kan vi publicera veckovisa närvarorapporter på skolans portal och lotta ut priser bland de med högst närvaro. |
+| Vaccination | | | | |
+| Produktivitet | | | | |
+
+> *Vi ger bara ett svar som exempel, så att du kan få en idé om vad som förväntas i denna uppgift.*
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Man kunde identifiera rimliga datakällor, sätt att lagra data och möjliga beslut/insikter för alla problemområden | Vissa aspekter av lösningen är inte detaljerade, datalagring diskuteras inte, minst två problemområden beskrivs | Endast delar av datalösningen beskrivs, endast ett problemområde beaktas.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som kan uppstå vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/02-ethics/README.md b/translations/sv/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..f4881d15
--- /dev/null
+++ b/translations/sv/1-Introduction/02-ethics/README.md
@@ -0,0 +1,267 @@
+
+# Introduktion till Dataetik
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Dataetik inom Data Science - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Vi är alla datamedborgare som lever i en datadriven värld.
+
+Marknadstrender visar att år 2022 kommer 1 av 3 stora organisationer att köpa och sälja sin data via online-[marknadsplatser och börser](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Som **apputvecklare** kommer vi att upptäcka att det blir enklare och billigare att integrera datadrivna insikter och algoritmstyrd automation i dagliga användarupplevelser. Men när AI blir alltmer utbrett måste vi också förstå de potentiella skador som kan orsakas av [vapenisering](https://www.youtube.com/watch?v=TQHs8SA1qpk) av sådana algoritmer i stor skala.
+
+Trender visar också att vi kommer att skapa och konsumera över [180 zettabyte](https://www.statista.com/statistics/871513/worldwide-data-created/) data år 2025. Som **dataforskare** ger detta oss enastående tillgång till personlig data. Det innebär att vi kan bygga beteendeprofiler av användare och påverka beslutsfattande på sätt som skapar en [illusion av fritt val](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), samtidigt som vi potentiellt styr användare mot resultat vi föredrar. Detta väcker också bredare frågor om dataintegritet och användarskydd.
+
+Dataetik är nu _nödvändiga skyddsräcken_ för data science och ingenjörskonst, som hjälper oss att minimera potentiella skador och oavsiktliga konsekvenser av våra datadrivna handlingar. [Gartner Hype Cycle för AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifierar relevanta trender inom digital etik, ansvarsfull AI och AI-styrning som nyckeldrivkrafter för större megatrender kring _demokratisering_ och _industrialisering_ av AI.
+
+
+
+I denna lektion kommer vi att utforska det fascinerande området dataetik - från grundläggande koncept och utmaningar till fallstudier och tillämpade AI-koncept som styrning - som hjälper till att etablera en etikkultur i team och organisationer som arbetar med data och AI.
+
+## [Förtest innan föreläsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Grundläggande Definitioner
+
+Låt oss börja med att förstå den grundläggande terminologin.
+
+Ordet "etik" kommer från det [grekiska ordet "ethikos"](https://en.wikipedia.org/wiki/Ethics) (och dess rot "ethos") som betyder _karaktär eller moralisk natur_.
+
+**Etik** handlar om de gemensamma värderingar och moraliska principer som styr vårt beteende i samhället. Etik baseras inte på lagar utan på allmänt accepterade normer för vad som är "rätt kontra fel". Etiska överväganden kan dock påverka företagsstyrningsinitiativ och regeringsregleringar som skapar fler incitament för efterlevnad.
+
+**Dataetik** är en [ny gren av etiken](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) som "studerar och utvärderar moraliska problem relaterade till _data, algoritmer och motsvarande praxis_". Här fokuserar **"data"** på åtgärder relaterade till generering, registrering, kurering, bearbetning, spridning, delning och användning, **"algoritmer"** fokuserar på AI, agenter, maskininlärning och robotar, och **"praxis"** fokuserar på ämnen som ansvarsfull innovation, programmering, hacking och etiska koder.
+
+**Tillämpad etik** är den [praktiska tillämpningen av moraliska överväganden](https://en.wikipedia.org/wiki/Applied_ethics). Det är processen att aktivt undersöka etiska frågor i sammanhanget av _verkliga handlingar, produkter och processer_ och vidta korrigerande åtgärder för att säkerställa att dessa förblir i linje med våra definierade etiska värderingar.
+
+**Etikkultur** handlar om [_operationalisering_ av tillämpad etik](https://hbr.org/2019/05/how-to-design-an-ethical-organization) för att säkerställa att våra etiska principer och praxis antas på ett konsekvent och skalbart sätt i hela organisationen. Framgångsrika etikkulturer definierar organisationsövergripande etiska principer, tillhandahåller meningsfulla incitament för efterlevnad och förstärker etiska normer genom att uppmuntra och förstärka önskade beteenden på alla nivåer i organisationen.
+
+## Etiska Koncept
+
+I denna sektion kommer vi att diskutera koncept som **gemensamma värderingar** (principer) och **etiska utmaningar** (problem) för dataetik - och utforska **fallstudier** som hjälper dig att förstå dessa koncept i verkliga sammanhang.
+
+### 1. Etiska Principer
+
+Varje strategi för dataetik börjar med att definiera _etiska principer_ - de "gemensamma värderingar" som beskriver acceptabla beteenden och vägleder efterlevnad i våra data- och AI-projekt. Du kan definiera dessa på individuell eller teamnivå. De flesta stora organisationer beskriver dock dessa i ett _etiskt AI_-uppdrag eller ramverk som definieras på företagsnivå och tillämpas konsekvent över alla team.
+
+**Exempel:** Microsofts [Ansvarsfull AI](https://www.microsoft.com/en-us/ai/responsible-ai) uppdrag lyder: _"Vi är engagerade i att främja AI som drivs av etiska principer som sätter människor i första hand"_ - och identifierar 6 etiska principer i ramverket nedan:
+
+
+
+Låt oss kortfattat utforska dessa principer. _Transparens_ och _ansvarighet_ är grundläggande värderingar som andra principer bygger på - så låt oss börja där:
+
+* [**Ansvarighet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) gör praktiker _ansvariga_ för sina data- och AI-operationer och efterlevnad av dessa etiska principer.
+* [**Transparens**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) säkerställer att data- och AI-åtgärder är _förståeliga_ (tolkbara) för användare och förklarar vad och varför bakom beslut.
+* [**Rättvisa**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - fokuserar på att säkerställa att AI behandlar _alla människor_ rättvist och adresserar eventuella systemiska eller implicita socio-tekniska fördomar i data och system.
+* [**Tillförlitlighet och Säkerhet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - säkerställer att AI beter sig _konsekvent_ med definierade värderingar och minimerar potentiella skador eller oavsiktliga konsekvenser.
+* [**Integritet och Säkerhet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - handlar om att förstå datahärkomst och tillhandahålla _dataintegritet och relaterade skydd_ för användare.
+* [**Inkludering**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - handlar om att designa AI-lösningar med avsikt och anpassa dem för att möta ett _brett spektrum av mänskliga behov_ och förmågor.
+
+> 🚨 Fundera på vad ditt dataetiska uppdrag skulle kunna vara. Utforska etiska AI-ramverk från andra organisationer - här är exempel från [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) och [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Vilka gemensamma värderingar har de? Hur relaterar dessa principer till AI-produkten eller branschen de verkar inom?
+
+### 2. Etiska Utmaningar
+
+När vi har definierat etiska principer är nästa steg att utvärdera våra data- och AI-åtgärder för att se om de är i linje med dessa gemensamma värderingar. Tänk på dina åtgärder i två kategorier: _datainsamling_ och _algoritmdesign_.
+
+Vid datainsamling kommer åtgärder sannolikt att involvera **personlig data** eller personligt identifierbar information (PII) för identifierbara levande individer. Detta inkluderar [olika typer av icke-personlig data](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) som _tillsammans_ kan identifiera en individ. Etiska utmaningar kan relatera till _dataintegritet_, _dataägande_ och relaterade ämnen som _informerat samtycke_ och _immateriella rättigheter_ för användare.
+
+Vid algoritmdesign kommer åtgärder att involvera insamling och kurering av **datamängder**, och sedan använda dem för att träna och distribuera **datamodeller** som förutspår resultat eller automatiserar beslut i verkliga sammanhang. Etiska utmaningar kan uppstå från _datamängdsfördomar_, _datakvalitetsproblem_, _orättvisor_ och _missrepresentation_ i algoritmer - inklusive vissa problem som är systemiska till sin natur.
+
+I båda fallen belyser etiska utmaningar områden där våra åtgärder kan komma i konflikt med våra gemensamma värderingar. För att upptäcka, mildra, minimera eller eliminera dessa bekymmer måste vi ställa moraliska "ja/nej"-frågor relaterade till våra åtgärder och sedan vidta korrigerande åtgärder vid behov. Låt oss titta på några etiska utmaningar och de moraliska frågor de väcker:
+
+#### 2.1 Dataägande
+
+Datainsamling involverar ofta personlig data som kan identifiera datasubjekt. [Dataägande](https://permission.io/blog/data-ownership) handlar om _kontroll_ och [_användarrättigheter_](https://permission.io/blog/data-ownership) relaterade till skapande, bearbetning och spridning av data.
+
+De moraliska frågor vi behöver ställa är:
+ * Vem äger datan? (användare eller organisation)
+ * Vilka rättigheter har datasubjekt? (ex: åtkomst, radering, portabilitet)
+ * Vilka rättigheter har organisationer? (ex: rätta illvilliga användarrecensioner)
+
+#### 2.2 Informerat Samtycke
+
+[Informerat samtycke](https://legaldictionary.net/informed-consent/) definierar handlingen där användare samtycker till en åtgärd (som datainsamling) med en _full förståelse_ av relevanta fakta inklusive syfte, potentiella risker och alternativ.
+
+Frågor att utforska här är:
+ * Gav användaren (datasubjektet) tillstånd för datainsamling och användning?
+ * Förstod användaren syftet med att datan samlades in?
+ * Förstod användaren de potentiella riskerna med sitt deltagande?
+
+#### 2.3 Immateriella Rättigheter
+
+[Immateriella rättigheter](https://en.wikipedia.org/wiki/Intellectual_property) avser immateriella skapelser som härrör från mänskligt initiativ och som kan _ha ekonomiskt värde_ för individer eller företag.
+
+Frågor att utforska här är:
+ * Hade den insamlade datan ekonomiskt värde för en användare eller ett företag?
+ * Har **användaren** immateriella rättigheter här?
+ * Har **organisationen** immateriella rättigheter här?
+ * Om dessa rättigheter existerar, hur skyddar vi dem?
+
+#### 2.4 Dataintegritet
+
+[Dataintegritet](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) eller informationsintegritet avser bevarandet av användarens integritet och skyddet av användarens identitet med avseende på personligt identifierbar information.
+
+Frågor att utforska här är:
+ * Är användarnas (personliga) data säkrad mot hack och läckor?
+ * Är användarnas data endast tillgänglig för auktoriserade användare och sammanhang?
+ * Bevaras användarnas anonymitet när data delas eller sprids?
+ * Kan en användare avidentifieras från anonymiserade datamängder?
+
+#### 2.5 Rätten att Bli Glömd
+
+[Rätten att bli glömd](https://en.wikipedia.org/wiki/Right_to_be_forgotten) eller [Rätten till Radering](https://www.gdpreu.org/right-to-be-forgotten/) ger ytterligare skydd för personlig data till användare. Specifikt ger det användare rätt att begära radering eller borttagning av personlig data från internetsökningar och andra platser, _under specifika omständigheter_ - vilket ger dem en ny start online utan att tidigare handlingar hålls emot dem.
+
+Frågor att utforska här är:
+ * Tillåter systemet datasubjekt att begära radering?
+ * Bör återkallande av användarsamtycke utlösa automatisk radering?
+ * Samlades data in utan samtycke eller på olagliga sätt?
+ * Är vi kompatibla med regeringsregler för dataintegritet?
+
+#### 2.6 Datamängdsfördomar
+
+Datamängds- eller [insamlingfördomar](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) handlar om att välja en _icke-representativ_ delmängd av data för algoritmutveckling, vilket skapar potentiell orättvisa i resultat för olika grupper. Typer av fördomar inkluderar urvals- eller samplingsfördomar, frivilligfördomar och instrumentfördomar.
+
+Frågor att utforska här är:
+ * Rekryterade vi en representativ uppsättning datasubjekt?
+ * Testade vi vår insamlade eller kuraterade datamängd för olika fördomar?
+ * Kan vi mildra eller ta bort några upptäckta fördomar?
+
+#### 2.7 Datakvalitet
+
+[Datakvalitet](https://lakefs.io/data-quality-testing/) handlar om att kontrollera giltigheten hos den kuraterade datamängden som används för att utveckla våra algoritmer, och säkerställa att funktioner och poster uppfyller kraven för den nivå av noggrannhet och konsekvens som behövs för vårt AI-syfte.
+
+Frågor att utforska här är:
+ * Fångade vi giltiga _funktioner_ för vårt användningsfall?
+ * Samlades data in _konsekvent_ över olika datakällor?
+ * Är datamängden _komplett_ för olika förhållanden eller scenarier?
+ * Är informationen som samlades in _korrekt_ i att återspegla verkligheten?
+
+#### 2.8 Algoritmisk Rättvisa
+[Algoritmisk rättvisa](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) handlar om att undersöka om algoritmdesignen systematiskt diskriminerar specifika undergrupper av datamottagare, vilket kan leda till [potentiella skador](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) inom _resursfördelning_ (där resurser nekas eller undanhålls från den gruppen) och _servicekvalitet_ (där AI inte är lika exakt för vissa undergrupper som för andra).
+
+Frågor att utforska här är:
+ * Har vi utvärderat modellens noggrannhet för olika undergrupper och förhållanden?
+ * Har vi granskat systemet för potentiella skador (t.ex. stereotyper)?
+ * Kan vi revidera data eller träna om modeller för att minska identifierade skador?
+
+Utforska resurser som [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) för att lära dig mer.
+
+#### 2.9 Missrepresentation
+
+[Datamissrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) handlar om att fråga om vi kommunicerar insikter från ärligt rapporterad data på ett vilseledande sätt för att stödja en önskad berättelse.
+
+Frågor att utforska här är:
+ * Rapporterar vi ofullständig eller felaktig data?
+ * Visualiserar vi data på ett sätt som leder till vilseledande slutsatser?
+ * Använder vi selektiva statistiska tekniker för att manipulera resultat?
+ * Finns det alternativa förklaringar som kan ge en annan slutsats?
+
+#### 2.10 Fri vilja
+[Illusionen av fri vilja](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) uppstår när systemets "valarkitekturer" använder beslutsalgoritmer för att påverka människor att ta ett föredraget resultat, samtidigt som det verkar ge dem alternativ och kontroll. Dessa [mörka mönster](https://www.darkpatterns.org/) kan orsaka social och ekonomisk skada för användare. Eftersom användarbeslut påverkar beteendeprofiler kan dessa handlingar potentiellt driva framtida val som förstärker eller förlänger effekten av dessa skador.
+
+Frågor att utforska här är:
+ * Förstod användaren konsekvenserna av att göra det valet?
+ * Var användaren medveten om (alternativa) val och för- och nackdelarna med varje?
+ * Kan användaren senare ändra ett automatiserat eller påverkat val?
+
+### 3. Fallstudier
+
+För att sätta dessa etiska utmaningar i verkliga sammanhang kan det vara hjälpsamt att titta på fallstudier som belyser potentiella skador och konsekvenser för individer och samhället när sådana etiska överträdelser förbises.
+
+Här är några exempel:
+
+| Etisk utmaning | Fallstudie |
+|--- |--- |
+| **Informerat samtycke** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afroamerikanska män som deltog i studien lovades gratis medicinsk vård _men blev lurade_ av forskare som inte informerade deltagarna om deras diagnos eller om tillgänglig behandling. Många deltagare dog och deras partners eller barn påverkades; studien pågick i 40 år. |
+| **Datasekretess** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) gav forskare _10M anonymiserade filmrankningar från 50K kunder_ för att förbättra rekommendationsalgoritmer. Forskare kunde dock korrelera anonymiserad data med personligt identifierbar data i _externa dataset_ (t.ex. IMDb-kommentarer) - vilket effektivt "de-anonymiserade" vissa Netflix-abonnenter.|
+| **Insamlingsbias** | 2013 - Staden Boston [utvecklade Street Bump](https://www.boston.gov/transportation/street-bump), en app som lät medborgare rapportera potthål, vilket gav staden bättre vägdata för att hitta och åtgärda problem. Dock hade [personer i låginkomstgrupper mindre tillgång till bilar och telefoner](https://hbr.org/2013/04/the-hidden-biases-in-big-data), vilket gjorde deras vägproblem osynliga i appen. Utvecklare samarbetade med akademiker för att hantera _rättvis tillgång och digitala klyftor_. |
+| **Algoritmisk rättvisa** | 2018 - MIT:s [Gender Shades Study](http://gendershades.org/overview.html) utvärderade noggrannheten hos AI-produkter för könsklassificering och avslöjade brister i noggrannhet för kvinnor och personer med mörkare hudton. Ett [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) verkade erbjuda mindre kredit till kvinnor än män. Båda exemplen illustrerade problem med algoritmisk bias som leder till socioekonomiska skador.|
+| **Datamissrepresentation** | 2020 - [Georgia Department of Public Health släppte COVID-19-diagram](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) som verkade vilseleda medborgare om trender i bekräftade fall med icke-kronologisk ordning på x-axeln. Detta illustrerar missrepresentation genom visualiseringstrick. |
+| **Illusionen av fri vilja** | 2020 - Läroappen [ABCmouse betalade $10M för att lösa en FTC-klagan](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) där föräldrar fastnade i att betala för abonnemang de inte kunde avsluta. Detta illustrerar mörka mönster i valarkitekturer, där användare påverkades att göra potentiellt skadliga val. |
+| **Datasekretess & användarrättigheter** | 2021 - Facebook [Data Breach](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) exponerade data från 530M användare, vilket resulterade i en $5B-uppgörelse med FTC. Företaget vägrade dock att informera användare om dataintrånget, vilket bröt mot användarrättigheter kring datatransparens och åtkomst. |
+
+Vill du utforska fler fallstudier? Kolla in dessa resurser:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - etiska dilemman inom olika branscher.
+* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - fallstudier som utforskas.
+* [Where things have gone wrong](https://deon.drivendata.org/examples/) - deon-checklista med exempel.
+
+> 🚨 Tänk på de fallstudier du har sett - har du upplevt eller blivit påverkad av en liknande etisk utmaning i ditt liv? Kan du komma på minst en annan fallstudie som illustrerar en av de etiska utmaningarna vi har diskuterat i detta avsnitt?
+
+## Tillämpad etik
+
+Vi har pratat om etiska koncept, utmaningar och fallstudier i verkliga sammanhang. Men hur börjar vi _tillämpa_ etiska principer och praxis i våra projekt? Och hur _operationaliserar_ vi dessa praxis för bättre styrning? Låt oss utforska några verkliga lösningar:
+
+### 1. Professionella koder
+
+Professionella koder erbjuder ett alternativ för organisationer att "motivera" medlemmar att stödja deras etiska principer och uppdragsbeskrivning. Koder är _moraliska riktlinjer_ för professionellt beteende och hjälper anställda eller medlemmar att fatta beslut som överensstämmer med organisationens principer. De är endast effektiva om medlemmarna frivilligt följer dem; dock erbjuder många organisationer ytterligare belöningar och straff för att motivera efterlevnad.
+
+Exempel inkluderar:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (skapad 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (sedan 1993)
+
+> 🚨 Tillhör du en professionell ingenjörs- eller datavetenskapsorganisation? Utforska deras webbplats för att se om de definierar en professionell etisk kod. Vad säger detta om deras etiska principer? Hur motiverar de medlemmar att följa koden?
+
+### 2. Etiska checklistor
+
+Medan professionella koder definierar nödvändigt _etiskt beteende_ från praktiker, har de [kända begränsningar](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) i efterlevnad, särskilt i storskaliga projekt. Istället förespråkar många datavetenskapsexperter [checklistor](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) som kan **koppla principer till praxis** på mer deterministiska och handlingsbara sätt.
+
+Checklistor omvandlar frågor till "ja/nej"-uppgifter som kan operationaliseras, vilket gör att de kan spåras som en del av standardarbetsflöden för produktlansering.
+
+Exempel inkluderar:
+ * [Deon](https://deon.drivendata.org/) - en allmän datavetenskaplig etisk checklista skapad från [branschrekommendationer](https://deon.drivendata.org/#checklist-citations) med ett kommandoradsverktyg för enkel integration.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - ger allmän vägledning för informationshantering ur juridiska och sociala perspektiv.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - skapad av AI-praktiker för att stödja adoption och integration av rättvisekontroller i AI-utvecklingscykler.
+ * [22 frågor för etik inom data och AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - en mer öppen ram, strukturerad för initial utforskning av etiska frågor i design, implementering och organisatoriska sammanhang.
+
+### 3. Etiska regleringar
+
+Etik handlar om att definiera gemensamma värderingar och göra det rätta _frivilligt_. **Efterlevnad** handlar om att _följa lagen_ där den är definierad. **Styrning** täcker brett alla sätt som organisationer arbetar för att upprätthålla etiska principer och följa etablerade lagar.
+
+Idag tar styrning två former inom organisationer. För det första handlar det om att definiera **etiska AI**-principer och etablera praxis för att operationalisera adoption över alla AI-relaterade projekt i organisationen. För det andra handlar det om att följa alla statligt föreskrivna **dataskyddsregleringar** för regioner där organisationen verkar.
+
+Exempel på dataskydds- och sekretessregleringar:
+
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - reglerar _federala myndigheters_ insamling, användning och spridning av personlig information.
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - skyddar personlig hälsodata.
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - skyddar datasekretess för barn under 13 år.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ger användarrättigheter, dataskydd och sekretess.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) ger konsumenter fler _rättigheter_ över deras (personliga) data.
+ * `2021`, Kinas [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) antogs nyligen och skapar en av de starkaste regleringarna för datasekretess online i världen.
+
+> 🚨 Europeiska unionens GDPR (General Data Protection Regulation) är fortfarande en av de mest inflytelserika regleringarna för datasekretess idag. Visste du att den också definierar [8 användarrättigheter](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) för att skydda medborgares digitala sekretess och personliga data? Lär dig vad dessa är och varför de är viktiga.
+
+### 4. Etisk kultur
+
+Observera att det fortfarande finns en immateriell klyfta mellan _efterlevnad_ (att göra tillräckligt för att uppfylla "lagens bokstav") och att adressera [systemiska problem](https://www.coursera.org/learn/data-science-ethics/home/week/4) (som stelbenthet, informationsasymmetri och orättvis fördelning) som kan påskynda vapeniseringen av AI.
+
+Det senare kräver [samarbetsmetoder för att definiera etiska kulturer](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) som bygger känslomässiga kopplingar och konsekventa gemensamma värderingar _över organisationer_ inom branschen. Detta kräver mer [formaliserade datavetenskapliga etiska kulturer](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) i organisationer - vilket gör det möjligt för _vem som helst_ att [dra Andon-snöret](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (för att lyfta etiska problem tidigt i processen) och göra _etiska bedömningar_ (t.ex. vid rekrytering) till ett kärnkriterium för teamformation i AI-projekt.
+
+---
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Granskning & Självstudier
+
+Kurser och böcker hjälper till att förstå grundläggande etiska koncept och utmaningar, medan fallstudier och verktyg hjälper till med tillämpad etik i verkliga sammanhang. Här är några resurser att börja med.
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - lektion om rättvisa, från Microsoft.
+* [Principer för Ansvarsfull AI](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - gratis utbildningsväg från Microsoft Learn.
+* [Etik och Data Science](https://resources.oreilly.com/examples/0636920203964) - O'Reilly EBook (M. Loukides, H. Mason m.fl.)
+* [Data Science Etik](https://www.coursera.org/learn/data-science-ethics#syllabus) - onlinekurs från University of Michigan.
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - fallstudier från University of Texas.
+
+# Uppgift
+
+[Skriv en fallstudie om dataetik](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som kan uppstå vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/02-ethics/assignment.md b/translations/sv/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..8450b5fb
--- /dev/null
+++ b/translations/sv/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Skriv en fallstudie om dataetik
+
+## Instruktioner
+
+Du har lärt dig om olika [utmaningar inom dataetik](README.md#2-ethics-challenges) och sett exempel på [fallstudier](README.md#3-case-studies) som speglar utmaningar inom dataetik i verkliga sammanhang.
+
+I den här uppgiften ska du skriva din egen fallstudie som speglar en utmaning inom dataetik från din egen erfarenhet eller från ett relevant verkligt sammanhang som du är bekant med. Följ bara dessa steg:
+
+1. `Välj en utmaning inom dataetik`. Titta på [exemplen från lektionen](README.md#2-ethics-challenges) eller utforska exempel online som [Deon Checklist](https://deon.drivendata.org/examples/) för att få inspiration.
+
+2. `Beskriv ett verkligt exempel`. Tänk på en situation du har hört talas om (nyhetsrubriker, forskningsstudie etc.) eller upplevt (lokalsamhälle), där denna specifika utmaning inträffade. Fundera på de dataetiska frågorna kopplade till utmaningen – och diskutera de potentiella skadorna eller oavsiktliga konsekvenserna som uppstår på grund av detta problem. Bonuspoäng: fundera på potentiella lösningar eller processer som kan tillämpas här för att eliminera eller mildra den negativa påverkan av denna utmaning.
+
+3. `Tillhandahåll en lista med relaterade resurser`. Dela en eller flera resurser (länkar till en artikel, ett personligt blogginlägg eller bild, onlineforskningspapper etc.) för att bevisa att detta var en verklig händelse. Bonuspoäng: dela resurser som också visar de potentiella skadorna och konsekvenserna av händelsen, eller lyfter fram positiva åtgärder som vidtagits för att förhindra att det händer igen.
+
+
+
+## Bedömningskriterier
+
+Föredömligt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+En eller flera utmaningar inom dataetik identifieras.
Fallstudien beskriver tydligt en verklig händelse som speglar denna utmaning och lyfter fram oönskade konsekvenser eller skador som den orsakade.
Det finns minst en länkad resurs som bevisar att detta inträffade. | En utmaning inom dataetik identifieras.
Minst en relevant skada eller konsekvens diskuteras kortfattat.
Diskussionen är dock begränsad eller saknar bevis på att det inträffade i verkligheten. | En utmaning inom dataetik identifieras.
Beskrivningen eller resurserna återspeglar dock inte tillräckligt utmaningen eller bevisar att den inträffade i verkligheten. |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/03-defining-data/README.md b/translations/sv/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..0fd98017
--- /dev/null
+++ b/translations/sv/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,84 @@
+
+# Definiera Data
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definiera Data - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Data är fakta, information, observationer och mätningar som används för att göra upptäckter och stödja välgrundade beslut. En datapunkt är en enskild enhet av data inom en dataset, som är en samling av datapunkter. Dataset kan ha olika format och strukturer och baseras ofta på sin källa, det vill säga var datan kommer ifrån. Till exempel kan ett företags månatliga intäkter finnas i ett kalkylblad, medan timvisa pulsmätningar från en smartklocka kan vara i [JSON](https://stackoverflow.com/a/383699)-format. Det är vanligt att dataforskare arbetar med olika typer av data inom en dataset.
+
+Denna lektion fokuserar på att identifiera och klassificera data utifrån dess egenskaper och källor.
+
+## [Förtest](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## Hur Data Beskrivs
+
+### Rådata
+Rådata är data som kommer direkt från sin källa i sitt ursprungliga tillstånd och som inte har analyserats eller organiserats. För att förstå vad som händer i en dataset måste den organiseras i ett format som kan förstås av både människor och den teknik som används för att analysera den vidare. Strukturen av en dataset beskriver hur den är organiserad och kan klassificeras som strukturerad, ostrukturerad eller semistrukturerad. Dessa typer av strukturer varierar beroende på källan men passar i slutändan in i dessa tre kategorier.
+
+### Kvantitativ Data
+Kvantitativ data är numeriska observationer inom en dataset och kan vanligtvis analyseras, mätas och användas matematiskt. Några exempel på kvantitativ data är: ett lands befolkning, en persons längd eller ett företags kvartalsintäkter. Med ytterligare analys kan kvantitativ data användas för att upptäcka säsongstrender i luftkvalitetsindexet (AQI) eller uppskatta sannolikheten för rusningstrafik under en typisk arbetsdag.
+
+### Kvalitativ Data
+Kvalitativ data, även känd som kategorisk data, är data som inte kan mätas objektivt som kvantitativ data. Det är generellt olika format av subjektiv data som fångar kvaliteten på något, som en produkt eller en process. Ibland är kvalitativ data numerisk men används inte typiskt matematiskt, som telefonnummer eller tidsstämplar. Några exempel på kvalitativ data är: videokommentarer, bilmärken och modeller eller dina närmaste vänners favoritfärg. Kvalitativ data kan användas för att förstå vilka produkter konsumenter gillar bäst eller för att identifiera populära nyckelord i jobbansökningar.
+
+### Strukturerad Data
+Strukturerad data är data som är organiserad i rader och kolumner, där varje rad har samma uppsättning kolumner. Kolumner representerar ett värde av en viss typ och identifieras med ett namn som beskriver vad värdet representerar, medan rader innehåller de faktiska värdena. Kolumner har ofta en specifik uppsättning regler eller begränsningar för värdena för att säkerställa att värdena korrekt representerar kolumnen. Till exempel, föreställ dig ett kalkylblad med kunder där varje rad måste ha ett telefonnummer och telefonnumren aldrig innehåller bokstäver. Det kan finnas regler för telefonnummerkolumnen för att säkerställa att den aldrig är tom och endast innehåller siffror.
+
+En fördel med strukturerad data är att den kan organiseras på ett sätt som gör att den kan relateras till annan strukturerad data. Men eftersom datan är designad för att vara organiserad på ett specifikt sätt kan det krävas mycket arbete att ändra dess övergripande struktur. Till exempel, om du lägger till en e-postkolumn i kundkalkylbladet som inte får vara tom, måste du lista ut hur du ska lägga till dessa värden i de befintliga raderna i datasetet.
+
+Exempel på strukturerad data: kalkylblad, relationsdatabaser, telefonnummer, kontoutdrag
+
+### Ostrukturerad Data
+Ostrukturerad data kan vanligtvis inte kategoriseras i rader eller kolumner och innehåller inget format eller uppsättning regler att följa. Eftersom ostrukturerad data har färre begränsningar på sin struktur är det enklare att lägga till ny information jämfört med en strukturerad dataset. Om en sensor som mäter barometertryck varannan minut får en uppdatering som gör att den nu kan mäta och registrera temperatur, kräver det ingen ändring av den befintliga datan om den är ostrukturerad. Detta kan dock göra det mer tidskrävande att analysera eller undersöka denna typ av data. Till exempel, en forskare som vill hitta medeltemperaturen för föregående månad från sensorens data men upptäcker att sensorn registrerat ett "e" i vissa av sina data för att indikera att den var trasig istället för ett typiskt nummer, vilket innebär att datan är ofullständig.
+
+Exempel på ostrukturerad data: textfiler, textmeddelanden, videofiler
+
+### Semistrukturerad Data
+Semistrukturerad data har egenskaper som gör den till en kombination av strukturerad och ostrukturerad data. Den följer vanligtvis inte ett format av rader och kolumner men är organiserad på ett sätt som anses strukturerat och kan följa ett fast format eller en uppsättning regler. Strukturen varierar mellan källor, från en väl definierad hierarki till något mer flexibelt som möjliggör enkel integration av ny information. Metadata är indikatorer som hjälper till att avgöra hur datan är organiserad och lagrad och har olika namn beroende på datatypen. Några vanliga namn för metadata är taggar, element, entiteter och attribut. Till exempel, ett typiskt e-postmeddelande har ett ämne, en brödtext och en uppsättning mottagare och kan organiseras efter vem eller när det skickades.
+
+Exempel på semistrukturerad data: HTML, CSV-filer, JavaScript Object Notation (JSON)
+
+## Datakällor
+
+En datakälla är den ursprungliga platsen där datan genererades eller där den "finns" och varierar beroende på hur och när den samlades in. Data som genereras av dess användare kallas primärdata medan sekundärdata kommer från en källa som har samlat in data för allmänt bruk. Till exempel, en grupp forskare som samlar observationer i en regnskog skulle betraktas som primärdata, och om de bestämmer sig för att dela den med andra forskare skulle den betraktas som sekundärdata för dem som använder den.
+
+Databaser är en vanlig källa och förlitar sig på ett databashanteringssystem för att vara värd för och underhålla datan där användare använder kommandon som kallas frågor för att utforska datan. Filer som datakällor kan vara ljud-, bild- och videofiler samt kalkylblad som Excel. Internetsidor är en vanlig plats för att vara värd för data, där både databaser och filer kan hittas. Applikationsprogrammeringsgränssnitt, även kända som API:er, gör det möjligt för programmerare att skapa sätt att dela data med externa användare via internet, medan processen för web scraping extraherar data från en webbsida. [Lektionerna i Arbeta med Data](../../../../../../../../../2-Working-With-Data) fokuserar på hur man använder olika datakällor.
+
+## Slutsats
+
+I denna lektion har vi lärt oss:
+
+- Vad data är
+- Hur data beskrivs
+- Hur data klassificeras och kategoriseras
+- Var data kan hittas
+
+## 🚀 Utmaning
+
+Kaggle är en utmärkt källa för öppna dataset. Använd [verktyget för dataset-sökning](https://www.kaggle.com/datasets) för att hitta några intressanta dataset och klassificera 3-5 dataset enligt följande kriterier:
+
+- Är datan kvantitativ eller kvalitativ?
+- Är datan strukturerad, ostrukturerad eller semistrukturerad?
+
+## [Eftertest](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Granskning & Självstudier
+
+- Denna Microsoft Learn-enhet, med titeln [Klassificera din Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data), har en detaljerad genomgång av strukturerad, semistrukturerad och ostrukturerad data.
+
+## Uppgift
+
+[Klassificera Dataset](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/03-defining-data/assignment.md b/translations/sv/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..337ad308
--- /dev/null
+++ b/translations/sv/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Klassificering av dataset
+
+## Instruktioner
+
+Följ instruktionerna i denna uppgift för att identifiera och klassificera data med en av varje av följande datatyper:
+
+**Strukturtyper**: Strukturerad, Semi-strukturerad eller Ostrukturerad
+
+**Värdetyper**: Kvalitativ eller Kvantitativ
+
+**Källtyper**: Primär eller Sekundär
+
+1. Ett företag har blivit uppköpt och har nu ett moderbolag. Datascientisterna har fått ett kalkylblad med kundtelefonnummer från moderbolaget.
+
+Strukturtyp:
+
+Värdetyp:
+
+Källtyp:
+
+---
+
+2. En smartklocka har samlat in pulsdata från sin användare, och rådata är i JSON-format.
+
+Strukturtyp:
+
+Värdetyp:
+
+Källtyp:
+
+---
+
+3. En arbetsplatsundersökning om medarbetarnas moral som är lagrad i en CSV-fil.
+
+Strukturtyp:
+
+Värdetyp:
+
+Källtyp:
+
+---
+
+4. Astrofysiker har tillgång till en databas med galaxer som har samlats in av en rymdsond. Databasen innehåller antalet planeter i varje galax.
+
+Strukturtyp:
+
+Värdetyp:
+
+Källtyp:
+
+---
+
+5. En personlig finansapp använder API:er för att ansluta till en användares finansiella konton för att beräkna deras nettoförmögenhet. Användaren kan se alla sina transaktioner i ett format med rader och kolumner som liknar ett kalkylblad.
+
+Strukturtyp:
+
+Värdetyp:
+
+Källtyp:
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Identifierar korrekt alla struktur-, värde- och källtyper |Identifierar korrekt 3 struktur-, värde- och källtyper|Identifierar korrekt 2 eller färre struktur-, värde- och källtyper|
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/04-stats-and-probability/README.md b/translations/sv/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..dcf10d8a
--- /dev/null
+++ b/translations/sv/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# En kort introduktion till statistik och sannolikhet
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Statistik och sannolikhet - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Statistik och sannolikhetsteori är två starkt relaterade områden inom matematik som är mycket relevanta för datavetenskap. Det är möjligt att arbeta med data utan djupgående kunskaper i matematik, men det är ändå bättre att känna till åtminstone några grundläggande begrepp. Här presenterar vi en kort introduktion som hjälper dig att komma igång.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Sannolikhet och slumpmässiga variabler
+
+**Sannolikhet** är ett tal mellan 0 och 1 som uttrycker hur sannolikt en **händelse** är. Det definieras som antalet positiva utfall (som leder till händelsen), dividerat med det totala antalet utfall, givet att alla utfall är lika sannolika. Till exempel, när vi kastar en tärning är sannolikheten att vi får ett jämnt tal 3/6 = 0,5.
+
+När vi pratar om händelser använder vi **slumpmässiga variabler**. Till exempel, den slumpmässiga variabeln som representerar ett tal som erhålls vid kast med en tärning skulle anta värden från 1 till 6. Mängden av tal från 1 till 6 kallas **utfallsrum**. Vi kan prata om sannolikheten för att en slumpmässig variabel antar ett visst värde, till exempel P(X=3)=1/6.
+
+Den slumpmässiga variabeln i det tidigare exemplet kallas **diskret**, eftersom den har ett räkneligt utfallsrum, dvs. det finns separata värden som kan numreras. Det finns fall där utfallsrummet är ett intervall av reella tal, eller hela mängden av reella tal. Sådana variabler kallas **kontinuerliga**. Ett bra exempel är tiden när bussen anländer.
+
+## Sannolikhetsfördelning
+
+För diskreta slumpmässiga variabler är det enkelt att beskriva sannolikheten för varje händelse med en funktion P(X). För varje värde *s* från utfallsrummet *S* ger den ett tal mellan 0 och 1, så att summan av alla värden av P(X=s) för alla händelser blir 1.
+
+Den mest kända diskreta fördelningen är **likformig fördelning**, där det finns ett utfallsrum med N element, med lika sannolikhet 1/N för vart och ett av dem.
+
+Det är svårare att beskriva sannolikhetsfördelningen för en kontinuerlig variabel, med värden från ett intervall [a,b], eller hela mängden av reella tal ℝ. Tänk på fallet med busstider. Faktum är att för varje exakt ankomsttid *t* är sannolikheten att en buss anländer exakt vid den tiden 0!
+
+> Nu vet du att händelser med sannolikhet 0 inträffar, och väldigt ofta! Åtminstone varje gång bussen anländer!
+
+Vi kan bara prata om sannolikheten för att en variabel faller inom ett givet intervall av värden, t.ex. P(t1≤X2). I detta fall beskrivs sannolikhetsfördelningen av en **sannolikhetstäthetsfunktion** p(x), så att
+
+![P(t_1\le X1, x2, ..., xn. Vi kan definiera **medelvärde** (eller **aritmetiskt medelvärde**) för sekvensen på traditionellt sätt som (x1+x2+xn)/n. När vi ökar storleken på provet (dvs. tar gränsen med n→∞), får vi medelvärdet (även kallat **förväntan**) för fördelningen. Vi betecknar förväntan med **E**(x).
+
+> Det kan visas att för varje diskret fördelning med värden {x1, x2, ..., xN} och motsvarande sannolikheter p1, p2, ..., pN, skulle förväntan vara E(X)=x1p1+x2p2+...+xNpN.
+
+För att identifiera hur långt värdena är spridda kan vi beräkna variansen σ2 = ∑(xi - μ)2/n, där μ är medelvärdet för sekvensen. Värdet σ kallas **standardavvikelse**, och σ2 kallas **varians**.
+
+## Typvärde, median och kvartiler
+
+Ibland representerar medelvärdet inte tillräckligt väl det "typiska" värdet för data. Till exempel, när det finns några extrema värden som är helt utanför intervallet, kan de påverka medelvärdet. Ett annat bra mått är **median**, ett värde sådant att hälften av datapunkterna är lägre än det och den andra hälften är högre.
+
+För att hjälpa oss förstå fördelningen av data är det användbart att prata om **kvartiler**:
+
+* Första kvartilen, eller Q1, är ett värde sådant att 25% av data ligger under det
+* Tredje kvartilen, eller Q3, är ett värde sådant att 75% av data ligger under det
+
+Grafiskt kan vi representera förhållandet mellan median och kvartiler i ett diagram som kallas **låddiagram**:
+
+
+
+Här beräknar vi också **interkvartilavstånd** IQR=Q3-Q1, och så kallade **uteliggare** - värden som ligger utanför gränserna [Q1-1.5*IQR,Q3+1.5*IQR].
+
+För en ändlig fördelning som innehåller ett litet antal möjliga värden är ett bra "typiskt" värde det som förekommer mest frekvent, vilket kallas **typvärde**. Det används ofta för kategoriska data, såsom färger. Tänk på en situation där vi har två grupper av människor - några som starkt föredrar rött, och andra som föredrar blått. Om vi kodar färger med siffror skulle medelvärdet för en favoritfärg vara någonstans i det orange-gröna spektrumet, vilket inte indikerar den faktiska preferensen för någon av grupperna. Däremot skulle typvärdet vara antingen en av färgerna, eller båda färgerna, om antalet personer som röstar på dem är lika (i detta fall kallar vi provet **multimodalt**).
+
+## Data från verkligheten
+
+När vi analyserar data från verkligheten är de ofta inte slumpmässiga variabler i den bemärkelsen att vi inte utför experiment med okänt resultat. Till exempel, tänk på ett lag med basebollspelare och deras kroppsliga data, såsom längd, vikt och ålder. Dessa siffror är inte exakt slumpmässiga, men vi kan ändå tillämpa samma matematiska begrepp. Till exempel kan en sekvens av människors vikter betraktas som en sekvens av värden som dras från en slumpmässig variabel. Nedan är sekvensen av vikter för faktiska basebollspelare från [Major League Baseball](http://mlb.mlb.com/index.jsp), hämtad från [denna dataset](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (för din bekvämlighet visas endast de första 20 värdena):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Note**: För att se ett exempel på hur man arbetar med denna dataset, ta en titt på [den medföljande notebooken](notebook.ipynb). Det finns också ett antal utmaningar genom hela lektionen, och du kan slutföra dem genom att lägga till lite kod i den notebooken. Om du inte är säker på hur man arbetar med data, oroa dig inte - vi kommer tillbaka till att arbeta med data med Python vid ett senare tillfälle. Om du inte vet hur man kör kod i Jupyter Notebook, ta en titt på [denna artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Här är låddiagrammet som visar medelvärde, median och kvartiler för våra data:
+
+
+
+Eftersom våra data innehåller information om olika spelarroller kan vi också göra ett låddiagram baserat på roller - det låter oss få en uppfattning om hur parametrar skiljer sig mellan roller. Den här gången tittar vi på längd:
+
+
+
+Detta diagram antyder att, i genomsnitt, är längden på första basmän högre än längden på andra basmän. Senare i denna lektion kommer vi att lära oss hur vi kan testa denna hypotes mer formellt och hur vi kan visa att våra data är statistiskt signifikanta för att bevisa detta.
+
+> När vi arbetar med data från verkligheten antar vi att alla datapunkter är prover som dras från någon sannolikhetsfördelning. Detta antagande gör det möjligt för oss att tillämpa maskininlärningstekniker och bygga fungerande prediktiva modeller.
+
+För att se hur fördelningen av våra data ser ut kan vi rita ett diagram som kallas **histogram**. X-axeln innehåller ett antal olika viktintervall (så kallade **bins**), och Y-axeln visar antalet gånger vår slumpmässiga variabels prov låg inom ett givet intervall.
+
+
+
+Från detta histogram kan du se att alla värden är centrerade kring ett visst medelvärde, och ju längre vi går från det medelvärdet - desto färre vikter av det värdet förekommer. Dvs. det är mycket osannolikt att vikten på en basebollspelare skulle skilja sig mycket från medelvikten. Variansen i vikterna visar i vilken utsträckning vikterna sannolikt skiljer sig från medelvärdet.
+
+> Om vi tar vikter från andra människor, inte från basebolligan, är fördelningen sannolikt annorlunda. Men formen på fördelningen kommer att vara densamma, även om medelvärdet och variansen skulle förändras. Så, om vi tränar vår modell på basebollspelare, är det sannolikt att den ger fel resultat när den tillämpas på universitetsstudenter, eftersom den underliggande fördelningen är annorlunda.
+
+## Normalfördelning
+
+Fördelningen av vikter som vi har sett ovan är mycket typisk, och många mätningar från verkligheten följer samma typ av fördelning, men med olika medelvärde och varians. Denna fördelning kallas **normalfördelning**, och den spelar en mycket viktig roll inom statistik.
+
+Att använda normalfördelning är ett korrekt sätt att generera slumpmässiga vikter för potentiella basebollspelare. När vi väl känner till medelvikten `mean` och standardavvikelsen `std`, kan vi generera 1000 viktprover på följande sätt:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Om vi ritar histogrammet för de genererade proverna kommer vi att se en bild som liknar den som visas ovan. Och om vi ökar antalet prover och antalet bins kan vi generera en bild av en normalfördelning som är närmare idealet:
+
+
+
+*Normalfördelning med medelvärde=0 och std.avvikelse=1*
+
+## Konfidensintervall
+
+När vi pratar om vikter på basebollspelare antar vi att det finns en viss **slumpmässig variabel W** som motsvarar den ideala sannolikhetsfördelningen av vikter för alla basebollspelare (så kallad **population**). Vår sekvens av vikter motsvarar en delmängd av alla basebollspelare som vi kallar **prov**. En intressant fråga är, kan vi känna till parametrarna för fördelningen av W, dvs. medelvärde och varians för populationen?
+
+Det enklaste svaret skulle vara att beräkna medelvärde och varians för vårt prov. Men det kan hända att vårt slumpmässiga prov inte exakt representerar hela populationen. Därför är det meningsfullt att prata om **konfidensintervall**.
+> **Konfidensintervall** är en uppskattning av den sanna medelvärdet för populationen baserat på vårt urval, vilket är korrekt med en viss sannolikhet (eller **konfidensnivå**).
+Anta att vi har ett urval X1, ..., Xn från vår fördelning. Varje gång vi drar ett urval från vår fördelning får vi ett annat medelvärde μ. Därför kan μ betraktas som en slumpvariabel. Ett **konfidensintervall** med konfidens p är ett par värden (Lp,Rp), sådant att **P**(Lp≤μ≤Rp) = p, dvs. sannolikheten att det uppmätta medelvärdet faller inom intervallet är lika med p.
+
+Det går utanför vår korta introduktion att diskutera i detalj hur dessa konfidensintervall beräknas. Mer information finns [på Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). Kort sagt definierar vi fördelningen av det beräknade urvalsmedelvärdet i förhållande till populationens sanna medelvärde, vilket kallas **studentfördelning**.
+
+> **Intressant fakta**: Studentfördelningen är uppkallad efter matematikern William Sealy Gosset, som publicerade sin artikel under pseudonymen "Student". Han arbetade på Guinness bryggeri, och enligt en av versionerna ville hans arbetsgivare inte att allmänheten skulle veta att de använde statistiska tester för att bedöma kvaliteten på råvaror.
+
+Om vi vill uppskatta medelvärdet μ för vår population med konfidens p, behöver vi ta *(1-p)/2-percentilen* av en Studentfördelning A, som antingen kan tas från tabeller eller beräknas med hjälp av inbyggda funktioner i statistisk mjukvara (t.ex. Python, R, etc.). Då ges intervallet för μ av X±A*D/√n, där X är det erhållna medelvärdet för urvalet och D är standardavvikelsen.
+
+> **Notera**: Vi utelämnar också diskussionen om ett viktigt begrepp, [frihetsgrader](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), som är relevant i förhållande till Studentfördelningen. Du kan hänvisa till mer kompletta böcker om statistik för att förstå detta begrepp djupare.
+
+Ett exempel på att beräkna konfidensintervall för vikter och längder ges i [medföljande notebook](notebook.ipynb).
+
+| p | Viktmedelvärde |
+|-----|-----------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Observera att ju högre konfidenssannolikheten är, desto bredare är konfidensintervallet.
+
+## Hypotesprövning
+
+I vår dataset med basebollspelare finns det olika spelarroller, som kan sammanfattas nedan (se [medföljande notebook](notebook.ipynb) för att se hur denna tabell kan beräknas):
+
+| Roll | Längd | Vikt | Antal |
+|------|--------|--------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Vi kan notera att medellängden för första basmän är högre än för andra basmän. Därför kan vi frestas att dra slutsatsen att **första basmän är längre än andra basmän**.
+
+> Detta uttalande kallas **en hypotes**, eftersom vi inte vet om det faktiskt är sant eller inte.
+
+Det är dock inte alltid uppenbart om vi kan dra denna slutsats. Från diskussionen ovan vet vi att varje medelvärde har ett associerat konfidensintervall, och därför kan denna skillnad bara vara ett statistiskt fel. Vi behöver ett mer formellt sätt att testa vår hypotes.
+
+Låt oss beräkna konfidensintervall separat för längderna hos första och andra basmän:
+
+| Konfidens | Första basmän | Andra basmän |
+|------------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Vi kan se att under ingen konfidens överlappar intervallen. Det bevisar vår hypotes att första basmän är längre än andra basmän.
+
+Mer formellt är problemet vi löser att se om **två sannolikhetsfördelningar är desamma**, eller åtminstone har samma parametrar. Beroende på fördelningen behöver vi använda olika tester för detta. Om vi vet att våra fördelningar är normala kan vi använda **[Student t-test](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+I Student t-test beräknar vi den så kallade **t-värdet**, som indikerar skillnaden mellan medelvärden, med hänsyn till variansen. Det har visats att t-värdet följer **studentfördelningen**, vilket gör att vi kan få tröskelvärdet för en given konfidensnivå **p** (detta kan beräknas eller hittas i numeriska tabeller). Vi jämför sedan t-värdet med denna tröskel för att godkänna eller förkasta hypotesen.
+
+I Python kan vi använda paketet **SciPy**, som inkluderar funktionen `ttest_ind` (förutom många andra användbara statistiska funktioner!). Den beräknar t-värdet åt oss och gör också den omvända uppslagningen av konfidens p-värde, så att vi bara kan titta på konfidensen för att dra slutsatsen.
+
+Till exempel ger vår jämförelse mellan längderna hos första och andra basmän följande resultat:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+I vårt fall är p-värdet mycket lågt, vilket innebär att det finns starka bevis som stödjer att första basmän är längre.
+
+Det finns också olika andra typer av hypoteser som vi kanske vill testa, till exempel:
+* Att bevisa att ett givet urval följer en viss fördelning. I vårt fall har vi antagit att längder är normalfördelade, men det behöver formell statistisk verifiering.
+* Att bevisa att medelvärdet för ett urval motsvarar ett fördefinierat värde
+* Att jämföra medelvärden för ett antal urval (t.ex. vad är skillnaden i lyckonivåer mellan olika åldersgrupper)
+
+## Lagen om stora tal och centrala gränsvärdessatsen
+
+En av anledningarna till att normalfördelningen är så viktig är den så kallade **centrala gränsvärdessatsen**. Anta att vi har ett stort urval av oberoende N värden X1, ..., XN, tagna från vilken fördelning som helst med medelvärde μ och varians σ2. Då, för tillräckligt stort N (med andra ord, när N→∞), kommer medelvärdet ΣiXi att vara normalfördelat, med medelvärde μ och varians σ2/N.
+
+> Ett annat sätt att tolka den centrala gränsvärdessatsen är att säga att oavsett fördelning, när du beräknar medelvärdet av summan av slumpmässiga variabelvärden hamnar du med en normalfördelning.
+
+Från den centrala gränsvärdessatsen följer också att, när N→∞, blir sannolikheten att urvalsmedelvärdet är lika med μ lika med 1. Detta är känt som **lagen om stora tal**.
+
+## Kovarians och korrelation
+
+En av sakerna Data Science gör är att hitta relationer mellan data. Vi säger att två sekvenser **korrelerar** när de uppvisar liknande beteende vid samma tidpunkt, dvs. de stiger/faller samtidigt, eller en sekvens stiger när en annan faller och vice versa. Med andra ord verkar det finnas någon relation mellan två sekvenser.
+
+> Korrelation indikerar inte nödvändigtvis ett orsakssamband mellan två sekvenser; ibland kan båda variablerna bero på någon extern orsak, eller det kan vara ren slump att de två sekvenserna korrelerar. Men stark matematisk korrelation är en bra indikation på att två variabler på något sätt är kopplade.
+
+Matematiskt är det huvudsakliga begreppet som visar relationen mellan två slumpvariabler **kovarians**, som beräknas så här: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Vi beräknar avvikelsen för båda variablerna från deras medelvärden och sedan produkten av dessa avvikelser. Om båda variablerna avviker tillsammans kommer produkten alltid att vara ett positivt värde, vilket leder till positiv kovarians. Om båda variablerna avviker osynkroniserat (dvs. en faller under genomsnittet när en annan stiger över genomsnittet) kommer vi alltid att få negativa tal, vilket leder till negativ kovarians. Om avvikelserna inte är beroende kommer de att summeras till ungefär noll.
+
+Det absoluta värdet av kovarians säger inte mycket om hur stor korrelationen är, eftersom det beror på storleken på de faktiska värdena. För att normalisera det kan vi dela kovariansen med standardavvikelsen för båda variablerna för att få **korrelation**. Det bra är att korrelation alltid ligger inom intervallet [-1,1], där 1 indikerar stark positiv korrelation mellan värden, -1 - stark negativ korrelation, och 0 - ingen korrelation alls (variablerna är oberoende).
+
+**Exempel**: Vi kan beräkna korrelationen mellan vikter och längder hos basebollspelare från datasetet som nämns ovan:
+```python
+print(np.corrcoef(weights,heights))
+```
+Som resultat får vi **korrelationsmatris** som denna:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Korrelationsmatrisen C kan beräknas för valfritt antal inmatningssekvenser S1, ..., Sn. Värdet av Cij är korrelationen mellan Si och Sj, och diagonalelementen är alltid 1 (vilket också är självkorrelationen för Si).
+
+I vårt fall indikerar värdet 0.53 att det finns viss korrelation mellan en persons vikt och längd. Vi kan också göra ett spridningsdiagram av ett värde mot det andra för att se relationen visuellt:
+
+
+
+> Fler exempel på korrelation och kovarians finns i [medföljande notebook](notebook.ipynb).
+
+## Slutsats
+
+I denna sektion har vi lärt oss:
+
+* grundläggande statistiska egenskaper hos data, såsom medelvärde, varians, typvärde och kvartiler
+* olika fördelningar av slumpvariabler, inklusive normalfördelning
+* hur man hittar korrelation mellan olika egenskaper
+* hur man använder matematiska och statistiska metoder för att bevisa vissa hypoteser
+* hur man beräknar konfidensintervall för slumpvariabler baserat på urval
+
+Även om detta definitivt inte är en uttömmande lista över ämnen inom sannolikhet och statistik, bör det vara tillräckligt för att ge dig en bra start i denna kurs.
+
+## 🚀 Utmaning
+
+Använd exempelkoden i notebooken för att testa andra hypoteser:
+1. Första basmän är äldre än andra basmän
+2. Första basmän är längre än tredje basmän
+3. Shortstops är längre än andra basmän
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Granskning & Självstudier
+
+Sannolikhet och statistik är ett så brett ämne att det förtjänar sin egen kurs. Om du är intresserad av att fördjupa dig i teorin kan du fortsätta läsa några av följande böcker:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) från New York University har utmärkta föreläsningsanteckningar [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (tillgängliga online)
+1. [Peter och Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[exempelkod i R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[exempelkod i R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Uppgift
+
+[Small Diabetes Study](assignment.md)
+
+## Krediter
+
+Denna lektion har skrivits med ♥️ av [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/04-stats-and-probability/assignment.md b/translations/sv/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..432ad3b8
--- /dev/null
+++ b/translations/sv/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Liten Diabetesstudie
+
+I denna uppgift kommer vi att arbeta med en liten dataset av diabetespatienter hämtad från [här](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | ÅLDER | KÖN | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-------|-----|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## Instruktioner
+
+* Öppna [uppgiftsnotebooken](assignment.ipynb) i en jupyter notebook-miljö
+* Slutför alla uppgifter som anges i notebooken, nämligen:
+ * [ ] Beräkna medelvärden och varians för alla värden
+ * [ ] Rita boxplots för BMI, BP och Y beroende på kön
+ * [ ] Hur ser fördelningen ut för variablerna Ålder, Kön, BMI och Y?
+ * [ ] Testa korrelationen mellan olika variabler och sjukdomsprogression (Y)
+ * [ ] Testa hypotesen att graden av diabetesprogression skiljer sig mellan män och kvinnor
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Alla uppgifter är slutförda, grafiskt illustrerade och förklarade | De flesta uppgifter är slutförda, förklaringar eller slutsatser från grafer och/eller erhållna värden saknas | Endast grundläggande uppgifter som beräkning av medelvärde/varians och grundläggande grafer är slutförda, inga slutsatser dras från datan
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/1-Introduction/README.md b/translations/sv/1-Introduction/README.md
new file mode 100644
index 00000000..eb569ece
--- /dev/null
+++ b/translations/sv/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Introduktion till Data Science
+
+
+> Foto av Stephen Dawson på Unsplash
+
+I dessa lektioner kommer du att upptäcka hur Data Science definieras och lära dig om etiska överväganden som en dataanalytiker måste ta hänsyn till. Du kommer också att lära dig hur data definieras och få en introduktion till statistik och sannolikhet, de centrala akademiska områdena inom Data Science.
+
+### Ämnen
+
+1. [Att definiera Data Science](01-defining-data-science/README.md)
+2. [Etik inom Data Science](02-ethics/README.md)
+3. [Att definiera data](03-defining-data/README.md)
+4. [Introduktion till statistik och sannolikhet](04-stats-and-probability/README.md)
+
+### Krediter
+
+Dessa lektioner skrevs med ❤️ av [Nitya Narasimhan](https://twitter.com/nitya) och [Dmitry Soshnikov](https://twitter.com/shwars).
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/05-relational-databases/README.md b/translations/sv/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..0d93ffd2
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Arbeta med data: Relationsdatabaser
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Arbeta med data: Relationsdatabaser - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Chansen är stor att du tidigare har använt ett kalkylblad för att lagra information. Du hade en uppsättning rader och kolumner, där raderna innehöll informationen (eller datan) och kolumnerna beskrev informationen (ibland kallad metadata). En relationsdatabas bygger på denna grundprincip med kolumner och rader i tabeller, vilket gör det möjligt att sprida information över flera tabeller. Detta gör att du kan arbeta med mer komplex data, undvika duplicering och ha flexibilitet i hur du utforskar datan. Låt oss utforska koncepten kring en relationsdatabas.
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Det börjar med tabeller
+
+En relationsdatabas har tabeller som sin kärna. Precis som med kalkylbladet är en tabell en samling av kolumner och rader. Raden innehåller den data eller information vi vill arbeta med, som namnet på en stad eller mängden nederbörd. Kolumnerna beskriver den data de lagrar.
+
+Låt oss börja vår utforskning genom att skapa en tabell för att lagra information om städer. Vi kan börja med deras namn och land. Du kan lagra detta i en tabell som följande:
+
+| Stad | Land |
+| --------- | ------------- |
+| Tokyo | Japan |
+| Atlanta | USA |
+| Auckland | Nya Zeeland |
+
+Observera att kolumnnamnen **stad**, **land** och **befolkning** beskriver den data som lagras, och varje rad har information om en stad.
+
+## Begränsningar med en enda tabell
+
+Chansen är stor att tabellen ovan verkar relativt bekant för dig. Låt oss börja lägga till ytterligare data till vår växande databas - årlig nederbörd (i millimeter). Vi fokuserar på åren 2018, 2019 och 2020. Om vi skulle lägga till det för Tokyo, kan det se ut så här:
+
+| Stad | Land | År | Mängd |
+| ----- | ------ | ---- | ----- |
+| Tokyo | Japan | 2020 | 1690 |
+| Tokyo | Japan | 2019 | 1874 |
+| Tokyo | Japan | 2018 | 1445 |
+
+Vad märker du med vår tabell? Du kanske märker att vi duplicerar stadens namn och land om och om igen. Det kan ta upp ganska mycket lagringsutrymme och är i stort sett onödigt att ha flera kopior av. Tokyo har ju bara ett namn som vi är intresserade av.
+
+OK, låt oss prova något annat. Låt oss lägga till nya kolumner för varje år:
+
+| Stad | Land | 2018 | 2019 | 2020 |
+| --------- | ------------- | ---- | ---- | ---- |
+| Tokyo | Japan | 1445 | 1874 | 1690 |
+| Atlanta | USA | 1779 | 1111 | 1683 |
+| Auckland | Nya Zeeland | 1386 | 942 | 1176 |
+
+Även om detta undviker radduplicering, tillför det ett par andra utmaningar. Vi skulle behöva ändra strukturen på vår tabell varje gång det finns ett nytt år. Dessutom, när vår data växer, kommer det att bli svårare att hämta och beräkna värden med år som kolumner.
+
+Det är därför vi behöver flera tabeller och relationer. Genom att dela upp vår data kan vi undvika duplicering och ha mer flexibilitet i hur vi arbetar med datan.
+
+## Konceptet med relationer
+
+Låt oss återgå till vår data och bestämma hur vi vill dela upp den. Vi vet att vi vill lagra namn och land för våra städer, så detta fungerar förmodligen bäst i en tabell.
+
+| Stad | Land |
+| --------- | ------------- |
+| Tokyo | Japan |
+| Atlanta | USA |
+| Auckland | Nya Zeeland |
+
+Men innan vi skapar nästa tabell behöver vi lista ut hur vi ska referera till varje stad. Vi behöver någon form av identifierare, ID eller (i tekniska databasvillkor) en primärnyckel. En primärnyckel är ett värde som används för att identifiera en specifik rad i en tabell. Även om detta kan baseras på ett värde i sig (vi skulle kunna använda stadens namn, till exempel), bör det nästan alltid vara ett nummer eller annan identifierare. Vi vill inte att ID:t någonsin ska ändras eftersom det skulle bryta relationen. I de flesta fall kommer primärnyckeln eller ID:t att vara ett automatiskt genererat nummer.
+
+> ✅ Primärnyckel förkortas ofta som PK
+
+### städer
+
+| stad_id | Stad | Land |
+| ------- | --------- | ------------- |
+| 1 | Tokyo | Japan |
+| 2 | Atlanta | USA |
+| 3 | Auckland | Nya Zeeland |
+
+> ✅ Du kommer att märka att vi använder termerna "id" och "primärnyckel" omväxlande under denna lektion. Koncepten här gäller DataFrames, som du kommer att utforska senare. DataFrames använder inte terminologin "primärnyckel", men du kommer att märka att de fungerar på samma sätt.
+
+Med vår stadstabell skapad, låt oss lagra nederbörden. Istället för att duplicera den fullständiga informationen om staden kan vi använda ID:t. Vi bör också se till att den nyss skapade tabellen har en *id*-kolumn också, eftersom alla tabeller bör ha ett ID eller en primärnyckel.
+
+### nederbörd
+
+| nederbörd_id | stad_id | År | Mängd |
+| ------------ | ------- | ---- | ----- |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Observera kolumnen **stad_id** i den nyss skapade tabellen **nederbörd**. Denna kolumn innehåller värden som refererar till ID:n i tabellen **städer**. I tekniska relationsdatatermer kallas detta en **främmande nyckel**; det är en primärnyckel från en annan tabell. Du kan tänka på det som en referens eller pekare. **stad_id** 1 refererar till Tokyo.
+
+> [!NOTE] Främmande nyckel förkortas ofta som FK
+
+## Hämta data
+
+Med vår data separerad i två tabeller kanske du undrar hur vi hämtar den. Om vi använder en relationsdatabas som MySQL, SQL Server eller Oracle kan vi använda ett språk som kallas Structured Query Language eller SQL. SQL (ibland uttalat "sequel") är ett standardiserat språk som används för att hämta och modifiera data i en relationsdatabas.
+
+För att hämta data använder du kommandot `SELECT`. I grunden **väljer** du de kolumner du vill se **från** tabellen de finns i. Om du ville visa bara namnen på städerna kan du använda följande:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` är där du listar kolumnerna, och `FROM` är där du listar tabellerna.
+
+> [NOTE] SQL-syntax är inte skiftlägeskänslig, vilket betyder att `select` och `SELECT` betyder samma sak. Men beroende på vilken typ av databas du använder kan kolumner och tabeller vara skiftlägeskänsliga. Därför är det en bra praxis att alltid behandla allt i programmering som om det vore skiftlägeskänsligt. När du skriver SQL-frågor är det vanligt att skriva nyckelord med stora bokstäver.
+
+Frågan ovan kommer att visa alla städer. Låt oss föreställa oss att vi bara ville visa städer i Nya Zeeland. Vi behöver någon form av filter. SQL-nyckelordet för detta är `WHERE`, eller "där något är sant".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Kombinera data
+
+Hittills har vi hämtat data från en enda tabell. Nu vill vi sammanföra data från både **städer** och **nederbörd**. Detta görs genom att *kombinera* dem. Du skapar i princip en koppling mellan de två tabellerna och matchar värdena från en kolumn i varje tabell.
+
+I vårt exempel kommer vi att matcha kolumnen **stad_id** i **nederbörd** med kolumnen **stad_id** i **städer**. Detta kommer att matcha nederbördsvärdet med dess respektive stad. Den typ av kombination vi kommer att utföra kallas en *inner join*, vilket betyder att om några rader inte matchar med något från den andra tabellen kommer de inte att visas. I vårt fall har varje stad nederbörd, så allt kommer att visas.
+
+Låt oss hämta nederbörden för 2019 för alla våra städer.
+
+Vi kommer att göra detta i steg. Det första steget är att kombinera datan genom att ange kolumnerna för kopplingen - **stad_id** som vi nämnde tidigare.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Vi har markerat de två kolumner vi vill ha och att vi vill kombinera tabellerna genom **stad_id**. Nu kan vi lägga till `WHERE`-satsen för att filtrera ut endast år 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Sammanfattning
+
+Relationsdatabaser är centrerade kring att dela upp information mellan flera tabeller som sedan sammanförs för visning och analys. Detta ger en hög grad av flexibilitet för att utföra beräkningar och manipulera data. Du har sett kärnkoncepten för en relationsdatabas och hur man utför en kombination mellan två tabeller.
+
+## 🚀 Utmaning
+
+Det finns många relationsdatabaser tillgängliga på internet. Du kan utforska datan genom att använda de färdigheter du har lärt dig ovan.
+
+## Quiz efter föreläsningen
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Granskning & Självstudier
+
+Det finns flera resurser tillgängliga på [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) för att fortsätta din utforskning av SQL och koncepten kring relationsdatabaser.
+
+- [Beskriv koncepten kring relationsdata](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Kom igång med att göra frågor med Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL är en version av SQL)
+- [SQL-innehåll på Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Uppgift
+
+[Uppgiftstitel](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/05-relational-databases/assignment.md b/translations/sv/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..5ce4c9af
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Visa flygplatsdata
+
+Du har fått en [databas](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) byggd på [SQLite](https://sqlite.org/index.html) som innehåller information om flygplatser. Schemat visas nedan. Du kommer att använda [SQLite-tillägget](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) i [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) för att visa information om olika städers flygplatser.
+
+## Instruktioner
+
+För att komma igång med uppgiften behöver du genomföra några steg. Du måste installera vissa verktyg och ladda ner exempeldatabasen.
+
+### Ställ in ditt system
+
+Du kan använda Visual Studio Code och SQLite-tillägget för att interagera med databasen.
+
+1. Gå till [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) och följ instruktionerna för att installera Visual Studio Code
+1. Installera [SQLite-tillägget](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) enligt instruktionerna på Marketplace-sidan
+
+### Ladda ner och öppna databasen
+
+Nästa steg är att ladda ner och öppna databasen.
+
+1. Ladda ner [databasfilen från GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) och spara den i en katalog
+1. Öppna Visual Studio Code
+1. Öppna databasen i SQLite-tillägget genom att välja **Ctrl-Shift-P** (eller **Cmd-Shift-P** på en Mac) och skriva `SQLite: Open database`
+1. Välj **Choose database from file** och öppna **airports.db**-filen som du laddade ner tidigare
+1. Efter att ha öppnat databasen (du kommer inte att se någon uppdatering på skärmen), skapa ett nytt frågefönster genom att välja **Ctrl-Shift-P** (eller **Cmd-Shift-P** på en Mac) och skriva `SQLite: New query`
+
+När det nya frågefönstret är öppet kan du använda det för att köra SQL-kommandon mot databasen. Du kan använda kommandot **Ctrl-Shift-Q** (eller **Cmd-Shift-Q** på en Mac) för att köra frågor mot databasen.
+
+> [!NOTE] För mer information om SQLite-tillägget kan du läsa [dokumentationen](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Databasschema
+
+En databas schema är dess tabellstruktur och design. **airports**-databasen har två tabeller: `cities`, som innehåller en lista över städer i Storbritannien och Irland, och `airports`, som innehåller en lista över alla flygplatser. Eftersom vissa städer kan ha flera flygplatser skapades två tabeller för att lagra informationen. I denna övning kommer du att använda joins för att visa information för olika städer.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK till id i **Cities**) |
+
+## Uppgift
+
+Skapa frågor för att returnera följande information:
+
+1. Alla stadsnamn i tabellen `Cities`
+1. Alla städer i Irland i tabellen `Cities`
+1. Alla flygplatsnamn med deras stad och land
+1. Alla flygplatser i London, Storbritannien
+
+## Bedömningskriterier
+
+| Exemplariskt | Tillräckligt | Behöver förbättras |
+| ------------ | ------------ | ------------------ |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/06-non-relational/README.md b/translations/sv/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..e7257935
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Arbeta med data: Icke-relationell data
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Arbeta med NoSQL-data - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Förtest](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Data är inte begränsat till relationsdatabaser. Den här lektionen fokuserar på icke-relationell data och kommer att täcka grunderna i kalkylblad och NoSQL.
+
+## Kalkylblad
+
+Kalkylblad är ett populärt sätt att lagra och utforska data eftersom det kräver mindre arbete att sätta upp och komma igång. I den här lektionen kommer du att lära dig de grundläggande komponenterna i ett kalkylblad, samt formler och funktioner. Exemplen kommer att illustreras med Microsoft Excel, men de flesta delar och ämnen kommer att ha liknande namn och steg jämfört med andra kalkylbladsprogram.
+
+
+
+Ett kalkylblad är en fil och kommer att vara tillgänglig i filsystemet på en dator, enhet eller molnbaserat filsystem. Själva programvaran kan vara webbläsarbaserad eller en applikation som måste installeras på en dator eller laddas ner som en app. I Excel definieras dessa filer också som **arbetsböcker**, och denna terminologi kommer att användas resten av lektionen.
+
+En arbetsbok innehåller ett eller flera **kalkylblad**, där varje kalkylblad är märkt med flikar. Inom ett kalkylblad finns rektanglar som kallas **celler**, vilka innehåller själva datan. En cell är skärningspunkten mellan en rad och en kolumn, där kolumnerna är märkta med alfabetiska tecken och rader märkta numeriskt. Vissa kalkylblad innehåller rubriker i de första raderna för att beskriva datan i en cell.
+
+Med dessa grundläggande element i en Excel-arbetsbok kommer vi att använda ett exempel från [Microsoft Templates](https://templates.office.com/) som fokuserar på ett lager för att gå igenom några ytterligare delar av ett kalkylblad.
+
+### Hantera ett lager
+
+Kalkylbladsfilen som heter "InventoryExample" är ett formaterat kalkylblad över objekt i ett lager som innehåller tre kalkylblad, där flikarna är märkta "Inventory List", "Inventory Pick List" och "Bin Lookup". Rad 4 i kalkylbladet Inventory List är rubriken, som beskriver värdet av varje cell i rubrikkolumnen.
+
+
+
+Det finns tillfällen då en cell är beroende av värdena i andra celler för att generera sitt värde. Kalkylbladet Inventory List håller reda på kostnaden för varje objekt i sitt lager, men vad händer om vi behöver veta värdet av allt i lagret? [**Formler**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) utför åtgärder på celldata och används för att beräkna lagrets värde i detta exempel. Detta kalkylblad använde en formel i kolumnen Inventory Value för att beräkna värdet av varje objekt genom att multiplicera kvantiteten under rubriken QTY och dess kostnader under rubriken COST. Genom att dubbelklicka eller markera en cell visas formeln. Du kommer att märka att formler börjar med ett likhetstecken, följt av beräkningen eller operationen.
+
+
+
+Vi kan använda en annan formel för att lägga till alla värden i Inventory Value för att få dess totala värde. Detta kan beräknas genom att lägga till varje cell för att generera summan, men det kan vara en tidskrävande uppgift. Excel har [**funktioner**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), eller fördefinierade formler för att utföra beräkningar på celldata. Funktioner kräver argument, vilket är de värden som behövs för att utföra dessa beräkningar. När funktioner kräver mer än ett argument måste de listas i en viss ordning, annars kanske funktionen inte beräknar rätt värde. Detta exempel använder funktionen SUM och använder värdena i Inventory Value som argument för att generera summan som listas under rad 3, kolumn B (även kallad B3).
+
+## NoSQL
+
+NoSQL är ett paraplybegrepp för de olika sätten att lagra icke-relationell data och kan tolkas som "icke-SQL", "icke-relationell" eller "inte bara SQL". Dessa typer av databassystem kan kategoriseras i fyra typer.
+
+
+> Källa från [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[Nyckel-värde](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores)-databaser parar unika nycklar, som är en unik identifierare, med ett värde. Dessa par lagras med hjälp av en [hashtabell](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) med en lämplig hashfunktion.
+
+
+> Källa från [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[Graf](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores)-databaser beskriver relationer i data och representeras som en samling noder och kanter. En nod representerar en entitet, något som existerar i verkligheten, såsom en student eller ett bankutdrag. Kanter representerar relationen mellan två entiteter. Varje nod och kant har egenskaper som ger ytterligare information om varje nod och kant.
+
+
+
+[Kolumnär](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores)-databaser organiserar data i kolumner och rader som en relationell datastruktur, men varje kolumn är uppdelad i grupper som kallas kolumnfamiljer, där all data under en kolumn är relaterad och kan hämtas och ändras som en enhet.
+
+### Dokumentdatabaser med Azure Cosmos DB
+
+[Dokument](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores)-databaser bygger på konceptet med en nyckel-värde-databas och består av en serie fält och objekt. Den här sektionen kommer att utforska dokumentdatabaser med Cosmos DB-emulatorn.
+
+En Cosmos DB-databas passar definitionen av "Inte bara SQL", där Cosmos DB:s dokumentdatabas förlitar sig på SQL för att fråga data. [Föregående lektion](../05-relational-databases/README.md) om SQL täcker grunderna i språket, och vi kommer att kunna tillämpa några av samma frågor på en dokumentdatabas här. Vi kommer att använda Cosmos DB Emulator, som låter oss skapa och utforska en dokumentdatabas lokalt på en dator. Läs mer om Emulatorn [här](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Ett dokument är en samling av fält och objektvärden, där fälten beskriver vad objektvärdet representerar. Nedan är ett exempel på ett dokument.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+De intressanta fälten i detta dokument är: `firstname`, `id` och `age`. Resten av fälten med understreck genererades av Cosmos DB.
+
+#### Utforska data med Cosmos DB Emulator
+
+Du kan ladda ner och installera emulatorn [för Windows här](https://aka.ms/cosmosdb-emulator). Se denna [dokumentation](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) för alternativ om hur du kör Emulatorn för macOS och Linux.
+
+Emulatorn öppnar ett webbläsarfönster, där Explorer-vyn låter dig utforska dokument.
+
+
+
+Om du följer med, klicka på "Start with Sample" för att generera en exempel-databas som heter SampleDB. Om du expanderar SampleDB genom att klicka på pilen hittar du en container som heter `Persons`. En container håller en samling objekt, vilka är dokumenten i containern. Du kan utforska de fyra individuella dokumenten under `Items`.
+
+
+
+#### Fråga dokumentdata med Cosmos DB Emulator
+
+Vi kan också fråga exempeldata genom att klicka på knappen för ny SQL-fråga (andra knappen från vänster).
+
+`SELECT * FROM c` returnerar alla dokument i containern. Låt oss lägga till en where-sats och hitta alla som är yngre än 40.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Frågan returnerar två dokument, notera att age-värdet för varje dokument är mindre än 40.
+
+#### JSON och dokument
+
+Om du är bekant med JavaScript Object Notation (JSON) kommer du att märka att dokument liknar JSON. Det finns en `PersonsData.json`-fil i denna katalog med mer data som du kan ladda upp till Persons-containern i Emulatorn via knappen `Upload Item`.
+
+I de flesta fall kan API:er som returnerar JSON-data direkt överföras och lagras i dokumentdatabaser. Nedan är ett annat dokument, det representerar tweets från Microsofts Twitter-konto som hämtades med Twitter API och sedan infogades i Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+De intressanta fälten i detta dokument är: `created_at`, `id` och `text`.
+
+## 🚀 Utmaning
+
+Det finns en `TwitterData.json`-fil som du kan ladda upp till SampleDB-databasen. Det rekommenderas att du lägger till den i en separat container. Detta kan göras genom att:
+
+1. Klicka på knappen för ny container uppe till höger
+1. Välja den befintliga databasen (SampleDB) och skapa ett container-id för containern
+1. Ställa in partitionsnyckeln till `/id`
+1. Klicka på OK (du kan ignorera resten av informationen i denna vy eftersom detta är en liten dataset som körs lokalt på din dator)
+1. Öppna din nya container och ladda upp TwitterData-filen med knappen `Upload Item`
+
+Försök att köra några SELECT-frågor för att hitta dokument som har Microsoft i textfältet. Tips: försök använda [LIKE-nyckelordet](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Eftertest](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Granskning och självstudier
+
+- Det finns ytterligare formateringar och funktioner i detta kalkylblad som inte täcks i denna lektion. Microsoft har ett [stort bibliotek med dokumentation och videor](https://support.microsoft.com/excel) om Excel om du är intresserad av att lära dig mer.
+
+- Denna arkitekturdokumentation beskriver egenskaperna hos de olika typerna av icke-relationell data: [Icke-relationell data och NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data)
+
+- Cosmos DB är en molnbaserad icke-relationell databas som också kan lagra de olika NoSQL-typer som nämns i denna lektion. Läs mer om dessa typer i denna [Cosmos DB Microsoft Learn-modul](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/)
+
+## Uppgift
+
+[Soda Profits](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/06-non-relational/assignment.md b/translations/sv/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..a41e980e
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Soda Vinster
+
+## Instruktioner
+
+[Coca Cola Co-kalkylbladet](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) saknar några beräkningar. Din uppgift är att:
+
+1. Beräkna bruttovinsterna för räkenskapsåren '15, '16, '17 och '18
+ - Bruttovinst = Nettoomsättning - Kostnad för sålda varor
+1. Beräkna genomsnittet av alla bruttovinster. Försök att göra detta med en funktion.
+ - Genomsnitt = Summan av bruttovinster dividerat med antalet räkenskapsår (10)
+ - Dokumentation om [AVERAGE-funktionen](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Detta är en Excel-fil, men den bör kunna redigeras i vilken kalkylbladsplattform som helst
+
+[Datakälla tack till Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Bedömningskriterier
+
+Föredömlig | Tillräcklig | Behöver förbättras
+--- | --- | --- |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/07-python/README.md b/translations/sv/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..6e47bccf
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Arbeta med data: Python och Pandas-biblioteket
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Arbeta med Python - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Även om databaser erbjuder mycket effektiva sätt att lagra data och söka i dem med hjälp av frågespråk, är det mest flexibla sättet att bearbeta data att skriva ditt eget program för att manipulera data. I många fall skulle en databasfråga vara ett mer effektivt sätt. Men i vissa fall, när mer komplex databehandling behövs, kan det inte enkelt göras med SQL.
+Databehandling kan programmeras i vilket programmeringsspråk som helst, men det finns vissa språk som är mer hög nivå när det gäller att arbeta med data. Dataanalytiker föredrar vanligtvis ett av följande språk:
+
+* **[Python](https://www.python.org/)**, ett allmänt programmeringsspråk, som ofta anses vara ett av de bästa alternativen för nybörjare på grund av dess enkelhet. Python har många ytterligare bibliotek som kan hjälpa dig att lösa många praktiska problem, såsom att extrahera data från en ZIP-arkiv eller konvertera en bild till gråskala. Förutom dataanalys används Python också ofta för webbutveckling.
+* **[R](https://www.r-project.org/)** är en traditionell verktygslåda utvecklad med statistisk databehandling i åtanke. Det innehåller också ett stort bibliotek (CRAN), vilket gör det till ett bra val för databehandling. Dock är R inte ett allmänt programmeringsspråk och används sällan utanför dataanalysområdet.
+* **[Julia](https://julialang.org/)** är ett annat språk som är specifikt utvecklat för dataanalys. Det är avsett att ge bättre prestanda än Python, vilket gör det till ett utmärkt verktyg för vetenskapliga experiment.
+
+I denna lektion kommer vi att fokusera på att använda Python för enkel databehandling. Vi antar grundläggande kunskaper om språket. Om du vill ha en djupare introduktion till Python kan du hänvisa till en av följande resurser:
+
+* [Lär dig Python på ett roligt sätt med Turtle Graphics och Fraktaler](https://github.com/shwars/pycourse) - GitHub-baserad snabbkurs i Python-programmering
+* [Ta dina första steg med Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Lärväg på [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+Data kan komma i många former. I denna lektion kommer vi att titta på tre former av data - **tabellformad data**, **text** och **bilder**.
+
+Vi kommer att fokusera på några exempel på databehandling istället för att ge dig en fullständig översikt över alla relaterade bibliotek. Detta gör att du kan få en grundläggande förståelse för vad som är möjligt och ger dig insikt i var du kan hitta lösningar på dina problem när du behöver dem.
+
+> **Det mest användbara rådet**. När du behöver utföra en viss operation på data som du inte vet hur du ska göra, försök att söka efter det på internet. [Stackoverflow](https://stackoverflow.com/) innehåller ofta många användbara kodexempel i Python för många typiska uppgifter.
+
+## [Quiz före lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Tabellformad data och Dataframes
+
+Du har redan stött på tabellformad data när vi pratade om relationsdatabaser. När du har mycket data och det är lagrat i många olika länkade tabeller, är det definitivt vettigt att använda SQL för att arbeta med det. Men det finns många fall där vi har en tabell med data och vi behöver få **förståelse** eller **insikter** om denna data, såsom fördelning, korrelation mellan värden, etc. Inom dataanalys finns det många fall där vi behöver utföra vissa transformationer av den ursprungliga datan, följt av visualisering. Båda dessa steg kan enkelt göras med Python.
+
+Det finns två mest användbara bibliotek i Python som kan hjälpa dig att hantera tabellformad data:
+* **[Pandas](https://pandas.pydata.org/)** låter dig manipulera så kallade **Dataframes**, som är analoger till relationstabeller. Du kan ha namngivna kolumner och utföra olika operationer på rader, kolumner och dataframes i allmänhet.
+* **[Numpy](https://numpy.org/)** är ett bibliotek för att arbeta med **tensorer**, dvs. multidimensionella **arrayer**. En array har värden av samma underliggande typ och är enklare än en dataframe, men erbjuder fler matematiska operationer och skapar mindre overhead.
+
+Det finns också ett par andra bibliotek du bör känna till:
+* **[Matplotlib](https://matplotlib.org/)** är ett bibliotek som används för datavisualisering och att rita grafer
+* **[SciPy](https://www.scipy.org/)** är ett bibliotek med några ytterligare vetenskapliga funktioner. Vi har redan stött på detta bibliotek när vi pratade om sannolikhet och statistik
+
+Här är en kodsnutt som du vanligtvis skulle använda för att importera dessa bibliotek i början av ditt Python-program:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas är centrerat kring några grundläggande koncept.
+
+### Series
+
+**Series** är en sekvens av värden, liknande en lista eller numpy-array. Den största skillnaden är att en series också har ett **index**, och när vi arbetar med series (t.ex. lägger ihop dem) tas indexet med i beräkningen. Indexet kan vara så enkelt som ett heltals radnummer (det är standardindexet när man skapar en series från en lista eller array), eller det kan ha en komplex struktur, såsom ett datumintervall.
+
+> **Notera**: Det finns introducerande Pandas-kod i den medföljande notebooken [`notebook.ipynb`](notebook.ipynb). Vi skisserar bara några av exemplen här, och du är definitivt välkommen att kolla in hela notebooken.
+
+Tänk på ett exempel: vi vill analysera försäljningen av vår glasskiosk. Låt oss generera en series med försäljningssiffror (antal sålda artiklar varje dag) för en viss tidsperiod:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Anta nu att vi varje vecka organiserar en fest för vänner och tar med oss ytterligare 10 paket glass till festen. Vi kan skapa en annan series, indexerad per vecka, för att demonstrera detta:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+När vi lägger ihop två series får vi det totala antalet:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Notera** att vi inte använder den enkla syntaxen `total_items+additional_items`. Om vi gjorde det skulle vi få många `NaN` (*Not a Number*) värden i den resulterande serien. Detta beror på att det saknas värden för vissa indexpunkter i serien `additional_items`, och att lägga till `NaN` till något resulterar i `NaN`. Därför måste vi specificera parametern `fill_value` under additionen.
+
+Med tidsserier kan vi också **resampla** serien med olika tidsintervall. Till exempel, anta att vi vill beräkna genomsnittlig försäljningsvolym per månad. Vi kan använda följande kod:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+En DataFrame är i huvudsak en samling av series med samma index. Vi kan kombinera flera series tillsammans till en DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Detta skapar en horisontell tabell som denna:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Vi kan också använda Series som kolumner och specificera kolumnnamn med hjälp av en ordbok:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Detta ger oss en tabell som denna:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Notera** att vi också kan få denna tabellayout genom att transponera den tidigare tabellen, t.ex. genom att skriva
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Här betyder `.T` operationen att transponera DataFrame, dvs. byta rader och kolumner, och `rename`-operationen låter oss byta namn på kolumner för att matcha det tidigare exemplet.
+
+Här är några av de viktigaste operationerna vi kan utföra på DataFrames:
+
+**Kolumnval**. Vi kan välja enskilda kolumner genom att skriva `df['A']` - denna operation returnerar en Series. Vi kan också välja ett delmängd av kolumner till en annan DataFrame genom att skriva `df[['B','A']]` - detta returnerar en annan DataFrame.
+
+**Filtrering** av endast vissa rader baserat på kriterier. Till exempel, för att endast behålla rader där kolumn `A` är större än 5, kan vi skriva `df[df['A']>5]`.
+
+> **Notera**: Så här fungerar filtrering. Uttrycket `df['A']<5` returnerar en boolesk series, som indikerar om uttrycket är `True` eller `False` för varje element i den ursprungliga serien `df['A']`. När boolesk series används som index returnerar det en delmängd av rader i DataFrame. Därför är det inte möjligt att använda godtyckliga Python-booleska uttryck, till exempel skulle det vara fel att skriva `df[df['A']>5 and df['A']<7]`. Istället bör du använda den speciella `&`-operationen på booleska serier, genom att skriva `df[(df['A']>5) & (df['A']<7)]` (*parenteser är viktiga här*).
+
+**Skapa nya beräkningsbara kolumner**. Vi kan enkelt skapa nya beräkningsbara kolumner för vår DataFrame genom att använda intuitiva uttryck som detta:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Detta exempel beräknar avvikelsen för A från dess medelvärde. Vad som faktiskt händer här är att vi beräknar en series och sedan tilldelar denna series till vänster sida, vilket skapar en ny kolumn. Därför kan vi inte använda några operationer som inte är kompatibla med series, till exempel är koden nedan fel:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Det senare exemplet, även om det är syntaktiskt korrekt, ger oss fel resultat eftersom det tilldelar längden på serien `B` till alla värden i kolumnen, och inte längden på de enskilda elementen som vi avsåg.
+
+Om vi behöver beräkna komplexa uttryck som detta kan vi använda funktionen `apply`. Det sista exemplet kan skrivas som följer:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Efter ovanstående operationer kommer vi att ha följande DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Välja rader baserat på nummer** kan göras med hjälp av `iloc`-konstruktionen. Till exempel, för att välja de första 5 raderna från DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Gruppering** används ofta för att få ett resultat som liknar *pivot-tabeller* i Excel. Anta att vi vill beräkna medelvärdet för kolumn `A` för varje givet antal `LenB`. Då kan vi gruppera vår DataFrame efter `LenB` och kalla `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Om vi behöver beräkna medelvärdet och antalet element i gruppen kan vi använda den mer komplexa funktionen `aggregate`:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Detta ger oss följande tabell:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Hämta data
+Vi har sett hur enkelt det är att skapa Series och DataFrames från Python-objekt. Men data kommer oftast i form av en textfil eller en Excel-tabell. Lyckligtvis erbjuder Pandas ett enkelt sätt att läsa in data från disk. Till exempel, att läsa en CSV-fil är så enkelt som detta:
+```python
+df = pd.read_csv('file.csv')
+```
+Vi kommer att se fler exempel på att läsa in data, inklusive att hämta den från externa webbplatser, i avsnittet "Utmaning".
+
+### Utskrift och Visualisering
+
+En Data Scientist måste ofta utforska data, och därför är det viktigt att kunna visualisera den. När en DataFrame är stor vill vi ofta bara säkerställa att vi gör allt korrekt genom att skriva ut de första raderna. Detta kan göras genom att kalla på `df.head()`. Om du kör det från Jupyter Notebook kommer det att skriva ut DataFrame i en snygg tabellform.
+
+Vi har också sett användningen av funktionen `plot` för att visualisera vissa kolumner. Även om `plot` är mycket användbar för många uppgifter och stöder många olika typer av diagram via parametern `kind=`, kan du alltid använda det råa biblioteket `matplotlib` för att skapa något mer komplext. Vi kommer att gå igenom data-visualisering i detalj i separata kurslektioner.
+
+Denna översikt täcker de viktigaste koncepten i Pandas, men biblioteket är mycket rikt och det finns ingen gräns för vad du kan göra med det! Låt oss nu tillämpa denna kunskap för att lösa ett specifikt problem.
+
+## 🚀 Utmaning 1: Analysera COVID-spridning
+
+Det första problemet vi kommer att fokusera på är modellering av epidemisk spridning av COVID-19. För att göra det kommer vi att använda data om antalet smittade individer i olika länder, tillhandahållen av [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) vid [Johns Hopkins University](https://jhu.edu/). Datasetet finns tillgängligt i [detta GitHub Repository](https://github.com/CSSEGISandData/COVID-19).
+
+Eftersom vi vill demonstrera hur man hanterar data, uppmanar vi dig att öppna [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) och läsa den från början till slut. Du kan också köra celler och göra några utmaningar som vi har lämnat åt dig i slutet.
+
+
+
+> Om du inte vet hur man kör kod i Jupyter Notebook, ta en titt på [denna artikel](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Arbeta med Ostrukturerad Data
+
+Även om data ofta kommer i tabellform, måste vi i vissa fall hantera mindre strukturerad data, till exempel text eller bilder. I sådana fall, för att tillämpa databehandlingstekniker som vi har sett ovan, måste vi på något sätt **extrahera** strukturerad data. Här är några exempel:
+
+* Extrahera nyckelord från text och se hur ofta dessa nyckelord förekommer
+* Använda neurala nätverk för att extrahera information om objekt på en bild
+* Få information om människors känslor från en videokameraflöde
+
+## 🚀 Utmaning 2: Analysera COVID-artiklar
+
+I denna utmaning fortsätter vi med ämnet COVID-pandemin och fokuserar på att bearbeta vetenskapliga artiklar om ämnet. Det finns [CORD-19 Dataset](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) med mer än 7000 (vid tidpunkten för skrivandet) artiklar om COVID, tillgängliga med metadata och abstrakt (och för ungefär hälften av dem finns även fulltext tillgänglig).
+
+Ett komplett exempel på att analysera detta dataset med hjälp av [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) kognitiv tjänst beskrivs [i detta blogginlägg](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Vi kommer att diskutera en förenklad version av denna analys.
+
+> **NOTE**: Vi tillhandahåller inte en kopia av datasetet som en del av detta repository. Du kan först behöva ladda ner filen [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) från [detta dataset på Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Registrering hos Kaggle kan krävas. Du kan också ladda ner datasetet utan registrering [härifrån](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), men det kommer att inkludera alla fulltexter utöver metadatafilen.
+
+Öppna [`notebook-papers.ipynb`](notebook-papers.ipynb) och läs den från början till slut. Du kan också köra celler och göra några utmaningar som vi har lämnat åt dig i slutet.
+
+
+
+## Bearbeta Bilddata
+
+Nyligen har mycket kraftfulla AI-modeller utvecklats som gör det möjligt för oss att förstå bilder. Det finns många uppgifter som kan lösas med hjälp av förtränade neurala nätverk eller molntjänster. Några exempel inkluderar:
+
+* **Bildklassificering**, som kan hjälpa dig att kategorisera bilden i en av de fördefinierade klasserna. Du kan enkelt träna dina egna bildklassificerare med tjänster som [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Objektdetektering** för att identifiera olika objekt på bilden. Tjänster som [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) kan identifiera ett antal vanliga objekt, och du kan träna en [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) modell för att identifiera specifika objekt av intresse.
+* **Ansiktsdetektering**, inklusive ålder, kön och känslodetektering. Detta kan göras via [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Alla dessa molntjänster kan anropas med [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), och kan därför enkelt integreras i ditt datautforskningsflöde.
+
+Här är några exempel på att utforska data från bilddatakällor:
+* I blogginlägget [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) utforskar vi Instagram-foton och försöker förstå vad som får människor att ge fler likes till ett foto. Vi extraherar först så mycket information som möjligt från bilder med hjälp av [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), och använder sedan [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) för att bygga en tolkningsbar modell.
+* I [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) använder vi [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) för att extrahera känslor hos människor på fotografier från evenemang, för att försöka förstå vad som gör människor glada.
+
+## Slutsats
+
+Oavsett om du redan har strukturerad eller ostrukturerad data, kan du med Python utföra alla steg relaterade till databehandling och förståelse. Det är förmodligen det mest flexibla sättet att bearbeta data, och det är anledningen till att majoriteten av data scientists använder Python som sitt primära verktyg. Att lära sig Python på djupet är förmodligen en bra idé om du är seriös med din resa inom data science!
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Granskning & Självstudier
+
+**Böcker**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Online-resurser**
+* Officiell [10 minutes to Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) tutorial
+* [Dokumentation om Pandas-visualisering](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Lär dig Python**
+* [Lär dig Python på ett roligt sätt med Turtle Graphics och Fraktaler](https://github.com/shwars/pycourse)
+* [Ta dina första steg med Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Learning Path på [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Uppgift
+
+[Utför en mer detaljerad datastudie för ovanstående utmaningar](assignment.md)
+
+## Krediter
+
+Denna lektion har skrivits med ♥️ av [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/07-python/assignment.md b/translations/sv/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..6baed57d
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Uppgift för Databehandling i Python
+
+I denna uppgift kommer vi att be dig utveckla vidare på den kod vi har börjat skapa i våra utmaningar. Uppgiften består av två delar:
+
+## Modellering av COVID-19 spridning
+
+ - [ ] Rita *R* grafer för 5-6 olika länder på en graf för jämförelse, eller använd flera grafer sida vid sida.
+ - [ ] Undersök hur antalet dödsfall och tillfrisknade korrelerar med antalet smittade fall.
+ - [ ] Ta reda på hur länge en typisk sjukdom varar genom att visuellt korrelera infektionshastighet och dödsfallshastighet och leta efter vissa avvikelser. Du kan behöva titta på olika länder för att ta reda på detta.
+ - [ ] Beräkna dödlighetsgraden och hur den förändras över tid. *Du kanske vill ta hänsyn till sjukdomens längd i dagar för att förskjuta en tidsserie innan du gör beräkningar.*
+
+## Analys av COVID-19 artiklar
+
+- [ ] Bygg en samförekomstmatris för olika mediciner och se vilka mediciner som ofta förekommer tillsammans (dvs. nämns i samma abstrakt). Du kan modifiera koden för att bygga en samförekomstmatris för mediciner och diagnoser.
+- [ ] Visualisera denna matris med hjälp av en värmekarta.
+- [ ] Som ett extra mål, visualisera samförekomsten av mediciner med hjälp av [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram). [Detta bibliotek](https://pypi.org/project/chord/) kan hjälpa dig att rita ett chord diagram.
+- [ ] Som ett annat extra mål, extrahera doseringar av olika mediciner (såsom **400mg** i *ta 400mg klorokin dagligen*) med hjälp av reguljära uttryck, och bygg en dataframe som visar olika doseringar för olika mediciner. **Obs**: överväg numeriska värden som är i nära textuell närhet till medicinens namn.
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Alla uppgifter är slutförda, grafiskt illustrerade och förklarade, inklusive minst ett av två extra mål | Mer än 5 uppgifter är slutförda, inga extra mål är försökte, eller resultaten är inte tydliga | Mindre än 5 (men mer än 3) uppgifter är slutförda, visualiseringar hjälper inte att demonstrera poängen
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/08-data-preparation/README.md b/translations/sv/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..c60f7c76
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# Arbeta med data: Datapreparation
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Datapreparation - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz före föreläsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Beroende på dess källa kan rådata innehålla vissa inkonsekvenser som skapar utmaningar vid analys och modellering. Med andra ord kan denna data kategoriseras som "smutsig" och behöver rengöras. Denna lektion fokuserar på tekniker för att rengöra och transformera data för att hantera utmaningar som saknad, felaktig eller ofullständig data. Ämnen som tas upp i denna lektion använder Python och Pandas-biblioteket och kommer att [demonstreras i notebooken](notebook.ipynb) inom denna katalog.
+
+## Vikten av att rengöra data
+
+- **Enkel användning och återanvändning**: När data är korrekt organiserad och normaliserad blir det enklare att söka, använda och dela med andra.
+
+- **Konsistens**: Dataanalys kräver ofta arbete med flera dataset, där dataset från olika källor behöver kombineras. Att säkerställa att varje dataset har gemensam standardisering gör att data fortfarande är användbar när de kombineras till ett dataset.
+
+- **Modellens noggrannhet**: Rengjord data förbättrar noggrannheten hos modeller som är beroende av den.
+
+## Vanliga mål och strategier för datarengöring
+
+- **Utforska ett dataset**: Datautforskning, som tas upp i en [senare lektion](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), kan hjälpa dig att identifiera data som behöver rengöras. Att visuellt observera värden inom ett dataset kan ge en förväntan om hur resten av det ser ut eller ge en idé om problem som kan lösas. Utforskning kan involvera grundläggande frågor, visualiseringar och sampling.
+
+- **Formatering**: Beroende på källan kan data ha inkonsekvenser i hur den presenteras. Detta kan orsaka problem vid sökning och representation av värden, där de syns inom datasetet men inte är korrekt representerade i visualiseringar eller frågeresultat. Vanliga formateringsproblem inkluderar att lösa problem med blanksteg, datum och datatyper. Att lösa formateringsproblem är vanligtvis upp till de som använder datan. Till exempel kan standarder för hur datum och siffror presenteras skilja sig mellan länder.
+
+- **Dupliceringar**: Data som förekommer mer än en gång kan ge felaktiga resultat och bör vanligtvis tas bort. Detta är vanligt när man kombinerar två eller fler dataset. Det finns dock tillfällen då duplicering i kombinerade dataset innehåller delar som kan ge ytterligare information och kan behöva bevaras.
+
+- **Saknad data**: Saknad data kan orsaka felaktigheter samt svaga eller partiska resultat. Ibland kan detta lösas genom att "ladda om" datan, fylla i de saknade värdena med beräkningar och kod som Python, eller helt enkelt ta bort värdet och motsvarande data. Det finns många anledningar till varför data kan saknas, och de åtgärder som vidtas för att lösa dessa saknade värden kan bero på hur och varför de försvann.
+
+## Utforska DataFrame-information
+> **Lärandemål:** I slutet av denna del ska du känna dig bekväm med att hitta generell information om data som lagras i pandas DataFrames.
+
+När du har laddat din data i pandas kommer den troligen att vara i en DataFrame (se den tidigare [lektionen](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) för en detaljerad översikt). Men om datasetet i din DataFrame har 60 000 rader och 400 kolumner, hur börjar du ens få en känsla för vad du arbetar med? Lyckligtvis erbjuder [pandas](https://pandas.pydata.org/) några praktiska verktyg för att snabbt titta på övergripande information om en DataFrame, samt de första och sista raderna.
+
+För att utforska denna funktionalitet kommer vi att importera Python-biblioteket scikit-learn och använda ett ikoniskt dataset: **Iris-datasetet**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: För att börja används metoden `info()` för att skriva ut en sammanfattning av innehållet i en `DataFrame`. Låt oss titta på detta dataset för att se vad vi har:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Från detta vet vi att *Iris*-datasetet har 150 poster i fyra kolumner utan några null-poster. All data lagras som 64-bitars flyttal.
+
+- **DataFrame.head()**: För att kontrollera det faktiska innehållet i `DataFrame` använder vi metoden `head()`. Låt oss se hur de första raderna i vår `iris_df` ser ut:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: För att kontrollera de sista raderna i `DataFrame` använder vi metoden `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Slutsats:** Genom att bara titta på metadata om informationen i en DataFrame eller de första och sista värdena kan du få en omedelbar uppfattning om storlek, form och innehåll i datan du arbetar med.
+
+## Hantera saknad data
+> **Lärandemål:** I slutet av denna del ska du veta hur du ersätter eller tar bort null-värden från DataFrames.
+
+Oftast har de dataset du vill använda (eller måste använda) saknade värden. Hur saknad data hanteras innebär subtila kompromisser som kan påverka din slutliga analys och verkliga resultat.
+
+Pandas hanterar saknade värden på två sätt. Det första har du sett tidigare i tidigare avsnitt: `NaN`, eller Not a Number. Detta är faktiskt ett specialvärde som är en del av IEEE-flyttalspecifikationen och används endast för att indikera saknade flyttalsvärden.
+
+För saknade värden utöver flyttal använder pandas Python-objektet `None`. Även om det kan verka förvirrande att du kommer att stöta på två olika typer av värden som i princip säger samma sak, finns det goda programmatiska skäl för detta designval och i praktiken möjliggör detta att pandas levererar en bra kompromiss för de allra flesta fall. Trots detta har både `None` och `NaN` begränsningar som du måste vara medveten om när det gäller hur de kan användas.
+
+Läs mer om `NaN` och `None` från [notebooken](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Upptäcka null-värden**: I `pandas` är metoderna `isnull()` och `notnull()` dina primära metoder för att upptäcka null-data. Båda returnerar Boolean-masker över din data. Vi kommer att använda `numpy` för `NaN`-värden:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Titta noga på utdata. Överraskar något dig? Även om `0` är en aritmetisk null är det ändå ett heltal och pandas behandlar det som sådant. `''` är lite mer subtilt. Även om vi använde det i avsnitt 1 för att representera ett tomt strängvärde, är det ändå ett strängobjekt och inte en representation av null enligt pandas.
+
+Nu ska vi vända på detta och använda dessa metoder på ett sätt som liknar hur du kommer att använda dem i praktiken. Du kan använda Boolean-masker direkt som ett ``Series`` eller ``DataFrame``-index, vilket kan vara användbart när du försöker arbeta med isolerade saknade (eller befintliga) värden.
+
+> **Slutsats**: Både metoderna `isnull()` och `notnull()` ger liknande resultat när du använder dem i `DataFrame`s: de visar resultaten och indexet för dessa resultat, vilket kommer att hjälpa dig enormt när du arbetar med din data.
+
+- **Ta bort null-värden**: Utöver att identifiera saknade värden erbjuder pandas ett bekvämt sätt att ta bort null-värden från `Series` och `DataFrame`s. (Särskilt för stora dataset är det ofta mer tillrådligt att helt enkelt ta bort saknade [NA] värden från din analys än att hantera dem på andra sätt.) För att se detta i praktiken, låt oss återgå till `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Observera att detta bör se ut som din utdata från `example3[example3.notnull()]`. Skillnaden här är att istället för att bara indexera på de maskerade värdena har `dropna` tagit bort dessa saknade värden från `Series` `example1`.
+
+Eftersom `DataFrame`s har två dimensioner erbjuder de fler alternativ för att ta bort data.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Lade du märke till att pandas uppgraderade två av kolumnerna till flyttal för att rymma `NaN`s?)
+
+Du kan inte ta bort ett enskilt värde från en `DataFrame`, så du måste ta bort hela rader eller kolumner. Beroende på vad du gör kanske du vill göra det ena eller det andra, och därför ger pandas dig alternativ för båda. Eftersom kolumner i data science generellt representerar variabler och rader representerar observationer är det mer sannolikt att du tar bort rader av data; standardinställningen för `dropna()` är att ta bort alla rader som innehåller några null-värden:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Om det behövs kan du ta bort NA-värden från kolumner. Använd `axis=1` för att göra det:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Observera att detta kan ta bort mycket data som du kanske vill behålla, särskilt i mindre dataset. Vad händer om du bara vill ta bort rader eller kolumner som innehåller flera eller till och med bara alla null-värden? Du specificerar dessa inställningar i `dropna` med parametrarna `how` och `thresh`.
+
+Som standard är `how='any'` (om du vill kontrollera själv eller se vilka andra parametrar metoden har, kör `example4.dropna?` i en kodcell). Du kan alternativt specificera `how='all'` för att endast ta bort rader eller kolumner som innehåller alla null-värden. Låt oss utöka vårt exempel `DataFrame` för att se detta i praktiken.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+Parametern `thresh` ger dig mer detaljerad kontroll: du anger antalet *icke-null* värden som en rad eller kolumn behöver ha för att behållas:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Här har den första och sista raden tagits bort eftersom de endast innehåller två icke-null-värden.
+
+- **Fylla null-värden**: Beroende på ditt dataset kan det ibland vara mer logiskt att fylla null-värden med giltiga värden istället för att ta bort dem. Du kan använda `isnull` för att göra detta direkt, men det kan vara arbetskrävande, särskilt om du har många värden att fylla. Eftersom detta är en så vanlig uppgift inom data science erbjuder pandas `fillna`, som returnerar en kopia av `Series` eller `DataFrame` med de saknade värdena ersatta med ett av ditt val. Låt oss skapa ett annat exempel `Series` för att se hur detta fungerar i praktiken.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Du kan fylla alla null-poster med ett enda värde, som `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Du kan **framåt-fylla** null-värden, vilket innebär att använda det senaste giltiga värdet för att fylla ett null:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Du kan också **bakåt-fylla** för att sprida nästa giltiga värde bakåt för att fylla ett null:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Som du kanske gissar fungerar detta på samma sätt med `DataFrame`s, men du kan också specificera en `axis` längs vilken du fyller null-värden. Genom att använda det tidigare använda `example2` igen:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Observera att när ett tidigare värde inte är tillgängligt för framåt-fyllning, förblir null-värdet kvar.
+> **Viktig insikt:** Det finns flera sätt att hantera saknade värden i dina dataset. Den specifika strategi du använder (ta bort dem, ersätta dem, eller hur du ersätter dem) bör styras av detaljerna i datan. Du kommer att utveckla en bättre känsla för hur du hanterar saknade värden ju mer du arbetar med och interagerar med dataset.
+
+## Ta bort duplicerad data
+
+> **Lärandemål:** Efter denna del ska du känna dig bekväm med att identifiera och ta bort duplicerade värden från DataFrames.
+
+Förutom saknade data kommer du ofta att stöta på duplicerad data i verkliga dataset. Lyckligtvis erbjuder `pandas` ett enkelt sätt att upptäcka och ta bort duplicerade poster.
+
+- **Identifiera duplicat: `duplicated`**: Du kan enkelt hitta duplicerade värden med metoden `duplicated` i pandas, som returnerar en Boolean-mask som indikerar om en post i en `DataFrame` är en kopia av en tidigare. Låt oss skapa ett annat exempel på en `DataFrame` för att se detta i praktiken.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |bokstäver|nummer|
+|------|---------|------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Ta bort duplicat: `drop_duplicates`:** returnerar helt enkelt en kopia av datan där alla värden som är `duplicated` är `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Både `duplicated` och `drop_duplicates` undersöker som standard alla kolumner, men du kan specificera att de endast ska granska en delmängd av kolumnerna i din `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Viktig insikt:** Att ta bort duplicerad data är en viktig del av nästan alla dataanalysprojekt. Duplicerad data kan förändra resultaten av dina analyser och ge dig felaktiga resultat!
+
+
+## 🚀 Utmaning
+
+Allt material som diskuterats finns tillgängligt som en [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Dessutom finns det övningar efter varje avsnitt, prova dem!
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Granskning & Självstudier
+
+Det finns många sätt att upptäcka och närma sig förberedelse av data för analys och modellering, och att rengöra data är ett viktigt steg som kräver praktisk erfarenhet. Prova dessa utmaningar från Kaggle för att utforska tekniker som inte täcktes i denna lektion.
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Uppgift
+
+[Utvärdera data från ett formulär](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/08-data-preparation/assignment.md b/translations/sv/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..58b9096e
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Utvärdera data från ett formulär
+
+En kund har testat ett [litet formulär](../../../../2-Working-With-Data/08-data-preparation/index.html) för att samla in grundläggande information om sin kundbas. De har tagit med sina resultat till dig för att validera den data de har samlat in. Du kan öppna sidan `index.html` i webbläsaren för att titta på formuläret.
+
+Du har fått en [dataset med csv-poster](../../../../data/form.csv) som innehåller inskrivningar från formuläret samt några grundläggande visualiseringar. Kunden påpekade att vissa av visualiseringarna ser felaktiga ut, men de är osäkra på hur de ska lösa detta. Du kan utforska detta i [uppgiftsnotebooken](assignment.ipynb).
+
+## Instruktioner
+
+Använd teknikerna i denna lektion för att ge rekommendationer om hur formuläret kan samla in korrekt och konsekvent information.
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | --- |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/2-Working-With-Data/README.md b/translations/sv/2-Working-With-Data/README.md
new file mode 100644
index 00000000..99fa7786
--- /dev/null
+++ b/translations/sv/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Arbeta med data
+
+
+> Foto av Alexander Sinn på Unsplash
+
+I dessa lektioner kommer du att lära dig några av de sätt som data kan hanteras, manipuleras och användas i applikationer. Du kommer att lära dig om relations- och icke-relationsdatabaser och hur data kan lagras i dem. Du kommer att lära dig grunderna i att arbeta med Python för att hantera data, och du kommer att upptäcka några av de många sätten du kan använda Python för att hantera och analysera data.
+
+### Ämnen
+
+1. [Relationsdatabaser](05-relational-databases/README.md)
+2. [Icke-relationsdatabaser](06-non-relational/README.md)
+3. [Arbeta med Python](07-python/README.md)
+4. [Förbereda data](08-data-preparation/README.md)
+
+### Krediter
+
+Dessa lektioner skrevs med ❤️ av [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) och [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/09-visualization-quantities/README.md b/translations/sv/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..772dfe35
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Visualisera kvantiteter
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisera kvantiteter - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I den här lektionen kommer du att utforska hur du kan använda ett av de många tillgängliga Python-biblioteken för att lära dig att skapa intressanta visualiseringar kring konceptet kvantitet. Med hjälp av en rensad dataset om fåglar i Minnesota kan du lära dig många intressanta fakta om det lokala djurlivet.
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observera vingbredd med Matplotlib
+
+Ett utmärkt bibliotek för att skapa både enkla och avancerade diagram och grafer av olika slag är [Matplotlib](https://matplotlib.org/stable/index.html). Generellt sett inkluderar processen för att plotta data med dessa bibliotek att identifiera de delar av din dataframe som du vill fokusera på, utföra nödvändiga transformationer på datan, tilldela dess x- och y-axelvärden, bestämma vilken typ av diagram som ska visas och sedan visa diagrammet. Matplotlib erbjuder ett stort utbud av visualiseringar, men för den här lektionen ska vi fokusera på de som är mest lämpliga för att visualisera kvantitet: linjediagram, spridningsdiagram och stapeldiagram.
+
+> ✅ Använd det bästa diagrammet för att passa din datas struktur och berättelsen du vill förmedla.
+> - För att analysera trender över tid: linje
+> - För att jämföra värden: stapel, kolumn, cirkel, spridningsdiagram
+> - För att visa hur delar relaterar till en helhet: cirkel
+> - För att visa datafördelning: spridningsdiagram, stapel
+> - För att visa trender: linje, kolumn
+> - För att visa relationer mellan värden: linje, spridningsdiagram, bubbeldiagram
+
+Om du har en dataset och behöver ta reda på hur mycket av en viss artikel som ingår, kommer en av de första uppgifterna att vara att inspektera dess värden.
+
+✅ Det finns mycket bra "fusklappar" tillgängliga för Matplotlib [här](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Skapa ett linjediagram om fåglars vingbreddsvärden
+
+Öppna filen `notebook.ipynb` i roten av den här lektionsmappen och lägg till en cell.
+
+> Obs: datan finns lagrad i roten av detta repo i mappen `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Denna data är en blandning av text och siffror:
+
+| | Namn | VetenskapligtNamn | Kategori | Ordning | Familj | Släkte | Bevarandestatus | MinLängd | MaxLängd | MinKroppsmassa | MaxKroppsmassa | MinVingbredd | MaxVingbredd |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Svartbukig visslande anka | Dendrocygna autumnalis | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Färgad visslande anka | Dendrocygna bicolor | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snögås | Anser caerulescens | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Större vitkindad gås | Anser albifrons | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Låt oss börja med att plotta några av de numeriska värdena med ett grundläggande linjediagram. Anta att du vill ha en översikt över den maximala vingbredden för dessa intressanta fåglar.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Vad märker du direkt? Det verkar finnas åtminstone en avvikelse - det är en ganska imponerande vingbredd! En vingbredd på 2300 centimeter motsvarar 23 meter - finns det Pterodactyls som strövar omkring i Minnesota? Låt oss undersöka.
+
+Även om du snabbt kan sortera i Excel för att hitta dessa avvikelser, som förmodligen är skrivfel, fortsätt visualiseringsprocessen genom att arbeta direkt från diagrammet.
+
+Lägg till etiketter på x-axeln för att visa vilken typ av fåglar det handlar om:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Även med etikettrotationen inställd på 45 grader är det för många för att läsa. Låt oss prova en annan strategi: märk endast avvikelserna och placera etiketterna inom diagrammet. Du kan använda ett spridningsdiagram för att skapa mer utrymme för märkningen:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Vad händer här? Du använde `tick_params` för att dölja de nedre etiketterna och skapade sedan en loop över din dataset med fåglar. Genom att plotta diagrammet med små runda blå prickar med hjälp av `bo`, kontrollerade du om någon fågel hade en maximal vingbredd över 500 och visade deras etikett bredvid pricken om så var fallet. Du försköt etiketterna lite på y-axeln (`y * (1 - 0.05)`) och använde fågelns namn som etikett.
+
+Vad upptäckte du?
+
+
+## Filtrera din data
+
+Både den vithövdade örnen och präriefalken, som förmodligen är mycket stora fåglar, verkar vara felmärkta, med ett extra `0` tillagt till deras maximala vingbredd. Det är osannolikt att du möter en vithövdad örn med en vingbredd på 25 meter, men om så är fallet, låt oss veta! Låt oss skapa en ny dataframe utan dessa två avvikelser:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Genom att filtrera bort avvikelser är din data nu mer sammanhängande och begriplig.
+
+
+
+Nu när vi har en renare dataset åtminstone när det gäller vingbredd, låt oss upptäcka mer om dessa fåglar.
+
+Medan linje- och spridningsdiagram kan visa information om datavärden och deras fördelningar, vill vi tänka på värdena som är inneboende i denna dataset. Du kan skapa visualiseringar för att besvara följande frågor om kvantitet:
+
+> Hur många kategorier av fåglar finns det, och vad är deras antal?
+> Hur många fåglar är utdöda, hotade, sällsynta eller vanliga?
+> Hur många finns det av de olika släkten och ordningar enligt Linnés terminologi?
+## Utforska stapeldiagram
+
+Stapeldiagram är praktiska när du behöver visa grupperingar av data. Låt oss utforska kategorierna av fåglar som finns i denna dataset för att se vilken som är den vanligaste till antalet.
+
+I notebook-filen, skapa ett grundläggande stapeldiagram.
+
+✅ Obs, du kan antingen filtrera bort de två avvikande fåglarna vi identifierade i föregående avsnitt, redigera skrivfelet i deras vingbredd eller lämna dem kvar för dessa övningar som inte beror på vingbreddsvärden.
+
+Om du vill skapa ett stapeldiagram kan du välja den data du vill fokusera på. Stapeldiagram kan skapas från rådata:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Detta stapeldiagram är dock oläsligt eftersom det finns för mycket icke-grupperad data. Du behöver välja endast den data du vill plotta, så låt oss titta på fåglarnas längd baserat på deras kategori.
+
+Filtrera din data för att endast inkludera fåglarnas kategori.
+
+✅ Observera att du använder Pandas för att hantera datan och sedan låter Matplotlib göra diagrammet.
+
+Eftersom det finns många kategorier kan du visa detta diagram vertikalt och justera dess höjd för att rymma all data:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Detta stapeldiagram visar en bra översikt över antalet fåglar i varje kategori. På ett ögonblick ser du att det största antalet fåglar i denna region tillhör kategorin Ankor/Gäss/Vattenfåglar. Minnesota är "landet med 10 000 sjöar", så detta är inte förvånande!
+
+✅ Prova några andra räkningar på denna dataset. Överraskar något dig?
+
+## Jämföra data
+
+Du kan prova olika jämförelser av grupperad data genom att skapa nya axlar. Prova en jämförelse av MaxLängd för en fågel, baserat på dess kategori:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Inget är förvånande här: kolibrier har den minsta MaxLängden jämfört med pelikaner eller gäss. Det är bra när data är logisk!
+
+Du kan skapa mer intressanta visualiseringar av stapeldiagram genom att lägga över data. Låt oss lägga över Minsta och Maximala Längd på en given fågelkategori:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+I detta diagram kan du se intervallet per fågelkategori för Minsta Längd och Maximala Längd. Du kan med säkerhet säga att, baserat på denna data, ju större fågeln är, desto större är dess längdintervall. Fascinerande!
+
+
+
+## 🚀 Utmaning
+
+Denna dataset om fåglar erbjuder en mängd information om olika typer av fåglar inom ett specifikt ekosystem. Sök runt på internet och se om du kan hitta andra dataset om fåglar. Öva på att skapa diagram och grafer kring dessa fåglar för att upptäcka fakta du inte kände till.
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Granskning & Självstudier
+
+Denna första lektion har gett dig viss information om hur du kan använda Matplotlib för att visualisera kvantiteter. Gör lite forskning kring andra sätt att arbeta med dataset för visualisering. [Plotly](https://github.com/plotly/plotly.py) är ett som vi inte kommer att täcka i dessa lektioner, så ta en titt på vad det kan erbjuda.
+## Uppgift
+
+[Linjer, Spridningar och Staplar](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/sv/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..18f20438
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linjer, Spridningsdiagram och Stapeldiagram
+
+## Instruktioner
+
+I denna lektion arbetade du med linjediagram, spridningsdiagram och stapeldiagram för att visa intressanta fakta om detta dataset. I denna uppgift ska du gräva djupare i datasetet för att upptäcka en fakta om en viss typ av fågel. Till exempel, skapa en notebook som visualiserar all intressant data du kan hitta om Snögäss. Använd de tre nämnda diagramtyperna för att berätta en historia i din notebook.
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+En notebook presenteras med bra kommentarer, stark berättarteknik och attraktiva diagram | Notebooken saknar ett av dessa element | Notebooken saknar två av dessa element
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/10-visualization-distributions/README.md b/translations/sv/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..868cd277
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,216 @@
+
+# Visualisera distributioner
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisera distributioner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I den föregående lektionen lärde du dig några intressanta fakta om en dataset om fåglar i Minnesota. Du hittade felaktiga data genom att visualisera avvikare och tittade på skillnaderna mellan fågelkategorier baserat på deras maximala längd.
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Utforska datasetet om fåglar
+
+Ett annat sätt att gräva i data är att titta på dess distribution, eller hur data är organiserad längs en axel. Kanske vill du till exempel lära dig om den generella distributionen, för detta dataset, av den maximala vingbredden eller den maximala kroppsmassan för fåglarna i Minnesota.
+
+Låt oss upptäcka några fakta om distributionerna av data i detta dataset. I filen _notebook.ipynb_ i roten av denna lektionsmapp, importera Pandas, Matplotlib och dina data:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Namn | VetenskapligtNamn | Kategori | Ordning | Familj | Släkte | Bevarandestatus | MinLängd | MaxLängd | MinKroppsmassa | MaxKroppsmassa | MinVingbredd | MaxVingbredd |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | -------------: | -------------: | -----------: | -----------: |
+| 0 | Svartbukig visslande anka | Dendrocygna autumnalis | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Rostfärgad visslande anka | Dendrocygna bicolor | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snögås | Anser caerulescens | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Större vitkindad gås | Anser albifrons | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Generellt kan du snabbt titta på hur data är fördelad genom att använda ett spridningsdiagram, som vi gjorde i den föregående lektionen:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Detta ger en översikt över den generella fördelningen av kroppslängd per fågelordning, men det är inte det optimala sättet att visa verkliga fördelningar. Den uppgiften hanteras vanligtvis genom att skapa ett histogram.
+## Arbeta med histogram
+
+Matplotlib erbjuder mycket bra sätt att visualisera datafördelning med hjälp av histogram. Denna typ av diagram liknar ett stapeldiagram där fördelningen kan ses via en uppgång och nedgång av staplarna. För att bygga ett histogram behöver du numeriska data. För att bygga ett histogram kan du plotta ett diagram och definiera typen som 'hist' för histogram. Detta diagram visar fördelningen av MaxKroppsmassa för hela datasetets numeriska data. Genom att dela upp den array av data som ges i mindre fack kan det visa fördelningen av datavärdena:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Som du kan se, faller de flesta av de 400+ fåglarna i detta dataset inom intervallet under 2000 för deras Max Kroppsmassa. Få mer insikt i data genom att ändra `bins`-parametern till ett högre nummer, något som 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Detta diagram visar fördelningen på ett lite mer detaljerat sätt. Ett diagram som är mindre snedvridet åt vänster kan skapas genom att säkerställa att du endast väljer data inom ett givet intervall:
+
+Filtrera dina data för att få endast de fåglar vars kroppsmassa är under 60, och visa 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Prova några andra filter och datapunkter. För att se den fullständiga fördelningen av data, ta bort `['MaxBodyMass']`-filtret för att visa märkta fördelningar.
+
+Histogrammet erbjuder också några trevliga färg- och märkningsförbättringar att prova:
+
+Skapa ett 2D-histogram för att jämföra relationen mellan två fördelningar. Låt oss jämföra `MaxBodyMass` vs. `MaxLength`. Matplotlib erbjuder ett inbyggt sätt att visa konvergens med hjälp av ljusare färger:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Det verkar finnas en förväntad korrelation mellan dessa två element längs en förväntad axel, med en särskilt stark konvergenspunkt:
+
+
+
+Histogram fungerar bra som standard för numeriska data. Vad händer om du behöver se fördelningar enligt textdata?
+## Utforska datasetet för fördelningar med hjälp av textdata
+
+Detta dataset innehåller också bra information om fågelkategorin och dess släkte, art och familj samt dess bevarandestatus. Låt oss gräva i denna bevarandestatusinformation. Vad är fördelningen av fåglar enligt deras bevarandestatus?
+
+> ✅ I datasetet används flera akronymer för att beskriva bevarandestatus. Dessa akronymer kommer från [IUCN Red List Categories](https://www.iucnredlist.org/), en organisation som katalogiserar arters status.
+>
+> - CR: Kritiskt hotad
+> - EN: Hotad
+> - EX: Utdöd
+> - LC: Minst bekymrad
+> - NT: Nära hotad
+> - VU: Sårbar
+
+Dessa är textbaserade värden, så du måste göra en transformering för att skapa ett histogram. Använd dataframe `filteredBirds` för att visa dess bevarandestatus tillsammans med dess MinVingbredd. Vad ser du?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Det verkar inte finnas någon bra korrelation mellan minsta vingbredd och bevarandestatus. Testa andra element i datasetet med denna metod. Du kan också prova olika filter. Hittar du någon korrelation?
+
+## Täthetsdiagram
+
+Du kanske har märkt att de histogram vi har tittat på hittills är "stegade" och inte flödar smidigt i en båge. För att visa ett smidigare täthetsdiagram kan du prova ett täthetsdiagram.
+
+För att arbeta med täthetsdiagram, bekanta dig med ett nytt plotbibliotek, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Ladda Seaborn och prova ett grundläggande täthetsdiagram:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Du kan se hur diagrammet ekar det tidigare för MinVingbredd-data; det är bara lite smidigare. Enligt Seaborns dokumentation, "Jämfört med ett histogram kan KDE producera ett diagram som är mindre rörigt och mer tolkningsbart, särskilt när man ritar flera fördelningar. Men det har potential att introducera förvrängningar om den underliggande fördelningen är begränsad eller inte smidig. Liksom ett histogram beror kvaliteten på representationen också på valet av bra utjämningsparametrar." [källa](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Med andra ord, avvikare kommer som alltid att få dina diagram att bete sig dåligt.
+
+Om du ville återbesöka den taggiga MaxKroppsmassa-linjen i det andra diagrammet du byggde, kunde du jämna ut den mycket väl genom att återskapa den med denna metod:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Om du ville ha en smidig, men inte för smidig linje, redigera `bw_adjust`-parametern:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Läs om de parametrar som finns tillgängliga för denna typ av diagram och experimentera!
+
+Denna typ av diagram erbjuder vackert förklarande visualiseringar. Med några få kodrader kan du till exempel visa tätheten av maximal kroppsmassa per fågelordning:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Du kan också kartlägga tätheten av flera variabler i ett diagram. Testa MaxLängd och MinLängd för en fågel jämfört med deras bevarandestatus:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Kanske är det värt att undersöka om klustret av "Sårbara" fåglar enligt deras längder är meningsfullt eller inte.
+
+## 🚀 Utmaning
+
+Histogram är en mer sofistikerad typ av diagram än grundläggande spridningsdiagram, stapeldiagram eller linjediagram. Gör en sökning på internet för att hitta bra exempel på användningen av histogram. Hur används de, vad demonstrerar de, och inom vilka områden eller forskningsfält tenderar de att användas?
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Granskning & Självstudie
+
+I denna lektion använde du Matplotlib och började arbeta med Seaborn för att visa mer sofistikerade diagram. Gör lite forskning om `kdeplot` i Seaborn, en "kontinuerlig sannolikhetstäthetskurva i en eller flera dimensioner". Läs igenom [dokumentationen](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) för att förstå hur det fungerar.
+
+## Uppgift
+
+[Använd dina färdigheter](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/sv/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..408f8c1b
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Tillämpa dina färdigheter
+
+## Instruktioner
+
+Hittills har du arbetat med datasetet om fåglar i Minnesota för att upptäcka information om fågelmängder och populationstäthet. Öva på att tillämpa dessa tekniker genom att prova ett annat dataset, kanske hämtat från [Kaggle](https://www.kaggle.com/). Skapa en notebook för att berätta en historia om detta dataset, och se till att använda histogram när du diskuterar det.
+
+## Bedömningskriterier
+
+Föredömligt | Tillräckligt | Behöver förbättras
+--- | --- | --- |
+En notebook presenteras med kommentarer om detta dataset, inklusive dess källa, och använder minst 5 histogram för att upptäcka fakta om datan. | En notebook presenteras med ofullständiga kommentarer eller buggar. | En notebook presenteras utan kommentarer och innehåller buggar.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/11-visualization-proportions/README.md b/translations/sv/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..863c031c
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,206 @@
+
+# Visualisera proportioner
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisera proportioner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I den här lektionen kommer du att använda en dataset med naturfokus för att visualisera proportioner, som hur många olika typer av svampar som finns i en dataset om champinjoner. Låt oss utforska dessa fascinerande svampar med hjälp av en dataset från Audubon som listar detaljer om 23 arter av skivlingar i Agaricus- och Lepiota-familjerna. Du kommer att experimentera med smakfulla visualiseringar som:
+
+- Cirkeldiagram 🥧
+- Donutdiagram 🍩
+- Våffeldiagram 🧇
+
+> 💡 Ett mycket intressant projekt som heter [Charticulator](https://charticulator.com) från Microsoft Research erbjuder ett gratis dra-och-släpp-gränssnitt för datavisualiseringar. I en av deras tutorials använder de också denna svampdataset! Så du kan utforska datan och lära dig biblioteket samtidigt: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Lär känna dina svampar 🍄
+
+Svampar är väldigt intressanta. Låt oss importera en dataset för att studera dem:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+En tabell skrivs ut med fantastisk data för analys:
+
+
+| klass | hattform | hattyta | hattfärg | blåmärken | lukt | skivfäste | skivavstånd | skivstorlek | skivfärg | fotform | fotrot | fotyta ovanför ring | fotyta under ring | fotfärg ovanför ring | fotfärg under ring | slöjtyp | slöjfärg | antal ringar | ringtyp | sportrycksfärg | population | habitat |
+| ---------- | ---------- | ----------- | ---------- | --------- | -------- | --------------- | ------------- | ----------- | ------------ | ------------ | ----------- | ----------------------- | ----------------------- | ---------------------- | ---------------------- | ---------- | ----------- | ------------ | ---------- | ------------------ | ---------- | ------- |
+| Giftig | Konvex | Slät | Brun | Blåmärken | Stickande | Fri | Tät | Smal | Svart | Förstorande | Jämn | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Svart | Spridd | Urban |
+| Ätlig | Konvex | Slät | Gul | Blåmärken | Mandel | Fri | Tät | Bred | Svart | Förstorande | Klubba | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Brun | Talrik | Gräs |
+| Ätlig | Klockformad| Slät | Vit | Blåmärken | Anis | Fri | Tät | Bred | Brun | Förstorande | Klubba | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Brun | Talrik | Ängar |
+| Giftig | Konvex | Fjällig | Vit | Blåmärken | Stickande | Fri | Tät | Smal | Brun | Förstorande | Jämn | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Svart | Spridd | Urban |
+
+Direkt märker du att all data är textbaserad. Du måste konvertera denna data för att kunna använda den i ett diagram. Faktum är att det mesta av datan representeras som ett objekt:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Utdata är:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Ta denna data och konvertera kolumnen 'klass' till en kategori:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Nu, om du skriver ut svampdatan, kan du se att den har grupperats i kategorier enligt klassen giftig/ätlig:
+
+
+| | hattform | hattyta | hattfärg | blåmärken | lukt | skivfäste | skivavstånd | skivstorlek | skivfärg | fotform | ... | fotyta under ring | fotfärg ovanför ring | fotfärg under ring | slöjtyp | slöjfärg | antal ringar | ringtyp | sportrycksfärg | population | habitat |
+| ----------| ---------- | ----------- | ---------- | --------- | ---- | --------------- | ------------- | ----------- | ------------ | ------------ | --- | ----------------------- | ---------------------- | ---------------------- | ---------- | ----------- | ------------ | ---------- | ------------------ | ---------- | ------- |
+| klass | | | | | | | | | | | | | | | | | | | | | |
+| Ätlig | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Giftig | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Om du följer ordningen som presenteras i denna tabell för att skapa dina klasskategorietiketter, kan du bygga ett cirkeldiagram:
+
+## Cirkeldiagram!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voila, ett cirkeldiagram som visar proportionerna av denna data enligt dessa två svampklasser. Det är ganska viktigt att få ordningen på etiketterna korrekt, särskilt här, så se till att verifiera ordningen med vilken etikettarrayen byggs!
+
+
+
+## Donutdiagram!
+
+Ett något mer visuellt intressant cirkeldiagram är ett donutdiagram, som är ett cirkeldiagram med ett hål i mitten. Låt oss titta på vår data med denna metod.
+
+Titta på de olika habitat där svampar växer:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Här grupperar du din data efter habitat. Det finns 7 listade, så använd dessa som etiketter för ditt donutdiagram:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Denna kod ritar ett diagram och en cirkel i mitten, och lägger sedan till den cirkeln i diagrammet. Ändra bredden på cirkeln i mitten genom att ändra `0.40` till ett annat värde.
+
+Donutdiagram kan justeras på flera sätt för att ändra etiketterna. Etiketterna kan särskilt framhävas för läsbarhet. Läs mer i [dokumentationen](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Nu när du vet hur du grupperar din data och sedan visar den som ett cirkel- eller donutdiagram, kan du utforska andra typer av diagram. Prova ett våffeldiagram, som är ett annat sätt att utforska kvantitet.
+
+## Våffeldiagram!
+
+Ett 'våffel'-typ diagram är ett annat sätt att visualisera kvantiteter som en 2D-array av fyrkanter. Prova att visualisera de olika kvantiteterna av svamphattfärger i denna dataset. För att göra detta behöver du installera ett hjälpbibliotek som heter [PyWaffle](https://pypi.org/project/pywaffle/) och använda Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Välj ett segment av din data att gruppera:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Skapa ett våffeldiagram genom att skapa etiketter och sedan gruppera din data:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Med ett våffeldiagram kan du tydligt se proportionerna av hattfärger i denna svampdataset. Intressant nog finns det många svampar med gröna hattar!
+
+
+
+✅ PyWaffle stöder ikoner inom diagram som använder alla ikoner som finns tillgängliga i [Font Awesome](https://fontawesome.com/). Gör några experiment för att skapa ett ännu mer intressant våffeldiagram med ikoner istället för fyrkanter.
+
+I denna lektion lärde du dig tre sätt att visualisera proportioner. Först behöver du gruppera din data i kategorier och sedan bestämma vilket som är det bästa sättet att visa datan - cirkel, donut eller våffel. Alla är läckra och ger användaren en omedelbar överblick av en dataset.
+
+## 🚀 Utmaning
+
+Försök att återskapa dessa smakfulla diagram i [Charticulator](https://charticulator.com).
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Granskning & Självstudier
+
+Ibland är det inte uppenbart när man ska använda ett cirkel-, donut- eller våffeldiagram. Här är några artiklar att läsa om detta ämne:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Gör lite forskning för att hitta mer information om detta kluriga beslut.
+
+## Uppgift
+
+[Prova det i Excel](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/sv/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..172ea1ea
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Prova det i Excel
+
+## Instruktioner
+
+Visste du att du kan skapa ring-, cirkel- och våffeldiagram i Excel? Använd en dataset du själv väljer och skapa dessa tre diagram direkt i ett Excel-kalkylblad.
+
+## Bedömningskriterier
+
+| Exemplariskt | Tillräckligt | Behöver förbättras |
+| ------------------------------------------------------ | ------------------------------------------------ | ---------------------------------------------------- |
+| Ett Excel-kalkylblad presenteras med alla tre diagram | Ett Excel-kalkylblad presenteras med två diagram | Ett Excel-kalkylblad presenteras med endast ett diagram |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/12-visualization-relationships/README.md b/translations/sv/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..3dbe6221
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# Visualisera relationer: Allt om honung 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisera relationer - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Fortsätt med naturfokuset i vår forskning och upptäck intressanta visualiseringar för att visa relationerna mellan olika typer av honung, baserat på en dataset från [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Denna dataset, som innehåller cirka 600 poster, visar honungsproduktionen i många amerikanska delstater. Till exempel kan du undersöka antalet bisamhällen, avkastning per samhälle, total produktion, lager, pris per pound och värdet av den producerade honungen i en viss delstat från 1998-2012, med en rad per år för varje delstat.
+
+Det kan vara intressant att visualisera relationen mellan en viss delstats produktion per år och till exempel priset på honung i den delstaten. Alternativt kan du visualisera relationen mellan delstaternas honungsavkastning per samhälle. Denna tidsperiod täcker den förödande 'CCD' eller 'Colony Collapse Disorder', som först observerades 2006 (http://npic.orst.edu/envir/ccd.html), vilket gör detta till en tankeväckande dataset att studera. 🐝
+
+## [Quiz före lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+I denna lektion kan du använda Seaborn, som du har använt tidigare, som ett bra bibliotek för att visualisera relationer mellan variabler. Särskilt intressant är användningen av Seaborns `relplot`-funktion, som möjliggör scatterplots och linjediagram för att snabbt visualisera '[statistiska relationer](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', vilket hjälper dataforskare att bättre förstå hur variabler relaterar till varandra.
+
+## Scatterplots
+
+Använd ett scatterplot för att visa hur priset på honung har utvecklats år för år per delstat. Seaborn, med hjälp av `relplot`, grupperar bekvämt delstatsdata och visar datapunkter för både kategoriska och numeriska data.
+
+Låt oss börja med att importera data och Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Du märker att honungsdatan har flera intressanta kolumner, inklusive år och pris per pound. Låt oss utforska denna data, grupperad efter amerikansk delstat:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Skapa ett grundläggande scatterplot för att visa relationen mellan priset per pound honung och dess ursprungsdelstat i USA. Gör `y`-axeln tillräckligt hög för att visa alla delstater:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Visa nu samma data med ett honungsfärgat tema för att visa hur priset utvecklas över åren. Du kan göra detta genom att lägga till en 'hue'-parameter för att visa förändringen år för år:
+
+> ✅ Läs mer om de [färgpaletter du kan använda i Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - prova ett vackert regnbågstema!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Med denna färgändring kan du tydligt se en stark progression över åren när det gäller priset på honung per pound. Om du tittar på ett urval av data för att verifiera (välj en viss delstat, till exempel Arizona) kan du se ett mönster av prisökningar år för år, med få undantag:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Ett annat sätt att visualisera denna progression är att använda storlek istället för färg. För färgblinda användare kan detta vara ett bättre alternativ. Ändra din visualisering för att visa en ökning av priset genom en ökning av punktens omkrets:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Du kan se att storleken på punkterna gradvis ökar.
+
+
+
+Är detta ett enkelt fall av utbud och efterfrågan? På grund av faktorer som klimatförändringar och kollaps av bisamhällen, finns det mindre honung tillgänglig för köp år för år, och därmed ökar priset?
+
+För att upptäcka en korrelation mellan några av variablerna i denna dataset, låt oss utforska några linjediagram.
+
+## Linjediagram
+
+Fråga: Finns det en tydlig ökning av priset på honung per pound år för år? Du kan enklast upptäcka det genom att skapa ett enda linjediagram:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Svar: Ja, med vissa undantag runt år 2003:
+
+
+
+✅ Eftersom Seaborn aggregerar data runt en linje, visar den "de flera mätningarna vid varje x-värde genom att plotta medelvärdet och 95 % konfidensintervallet runt medelvärdet". [Källa](https://seaborn.pydata.org/tutorial/relational.html). Detta tidskrävande beteende kan inaktiveras genom att lägga till `ci=None`.
+
+Fråga: Kan vi också se en topp i honungstillgången runt 2003? Vad händer om du tittar på den totala produktionen år för år?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Svar: Inte riktigt. Om du tittar på den totala produktionen verkar den faktiskt ha ökat det året, även om mängden producerad honung generellt sett minskar under dessa år.
+
+Fråga: I så fall, vad kan ha orsakat prisökningen på honung runt 2003?
+
+För att upptäcka detta kan du utforska ett facet grid.
+
+## Facet grids
+
+Facet grids tar en aspekt av din dataset (i vårt fall kan du välja 'år' för att undvika att för många facetter skapas). Seaborn kan sedan skapa en plot för var och en av dessa facetter av dina valda x- och y-koordinater för enklare visuell jämförelse. Står 2003 ut i denna typ av jämförelse?
+
+Skapa ett facet grid genom att fortsätta använda `relplot` som rekommenderas av [Seaborns dokumentation](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+I denna visualisering kan du jämföra avkastning per samhälle och antal samhällen år för år, sida vid sida med en wrap inställd på 3 för kolumnerna:
+
+
+
+För denna dataset står inget särskilt ut när det gäller antalet samhällen och deras avkastning, år för år och delstat för delstat. Finns det ett annat sätt att hitta en korrelation mellan dessa två variabler?
+
+## Dubbel-linjediagram
+
+Prova ett flerlindjediagram genom att lägga två linjediagram ovanpå varandra, använd Seaborns 'despine' för att ta bort deras övre och högra axlar, och använd `ax.twinx` [hämtat från Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx tillåter ett diagram att dela x-axeln och visa två y-axlar. Visa avkastning per samhälle och antal samhällen, överlagrade:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Även om inget särskilt sticker ut runt år 2003, låter det oss avsluta denna lektion på en lite gladare not: även om antalet samhällen totalt sett minskar, stabiliseras antalet samhällen även om deras avkastning per samhälle minskar.
+
+Heja bina!
+
+🐝❤️
+## 🚀 Utmaning
+
+I denna lektion lärde du dig lite mer om andra användningar av scatterplots och linjenät, inklusive facet grids. Utmana dig själv att skapa ett facet grid med en annan dataset, kanske en du använde tidigare i dessa lektioner. Notera hur lång tid de tar att skapa och hur du behöver vara försiktig med hur många grids du behöver rita med dessa tekniker.
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Granskning & Självstudier
+
+Linjediagram kan vara enkla eller ganska komplexa. Läs lite i [Seaborns dokumentation](https://seaborn.pydata.org/generated/seaborn.lineplot.html) om de olika sätten du kan bygga dem. Försök att förbättra de linjediagram du byggde i denna lektion med andra metoder som listas i dokumentationen.
+## Uppgift
+
+[Dyk in i bikupan](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/sv/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..dd1e6a18
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Utforska bikupan
+
+## Instruktioner
+
+I den här lektionen började du titta på en dataset om bin och deras honungsproduktion över en tidsperiod som visade förluster i den totala bikolonibefolkningen. Gå djupare in i denna dataset och skapa en notebook som kan berätta historien om biets hälsa, stat för stat och år för år. Upptäcker du något intressant om denna dataset?
+
+## Bedömningskriterier
+
+| Exemplariskt | Tillräckligt | Behöver förbättras |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------- | ----------------------------------------- |
+| En notebook presenteras med en berättelse annoterad med minst tre olika diagram som visar aspekter av datasetet, stat för stat och år för år | Notebooken saknar ett av dessa element | Notebooken saknar två av dessa element |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som kan uppstå vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..84c80865
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Skapa Meningsfulla Visualiseringar
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Meningsfulla Visualiseringar - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+> "Om du torterar data tillräckligt länge, kommer den att erkänna vad som helst" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+En av de grundläggande färdigheterna för en dataanalytiker är förmågan att skapa en meningsfull datavisualisering som hjälper till att besvara de frågor du kan ha. Innan du visualiserar dina data måste du säkerställa att de har rensats och förberetts, precis som du gjorde i tidigare lektioner. Därefter kan du börja bestämma hur du bäst presenterar datan.
+
+I denna lektion kommer du att gå igenom:
+
+1. Hur man väljer rätt diagramtyp
+2. Hur man undviker vilseledande diagram
+3. Hur man arbetar med färg
+4. Hur man stylar diagram för läsbarhet
+5. Hur man bygger animerade eller 3D-diagramlösningar
+6. Hur man skapar en kreativ visualisering
+
+## [Förtest](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Välj rätt diagramtyp
+
+I tidigare lektioner experimenterade du med att skapa olika typer av intressanta datavisualiseringar med hjälp av Matplotlib och Seaborn. Generellt sett kan du välja [rätt typ av diagram](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) för den fråga du ställer med hjälp av denna tabell:
+
+| Du behöver: | Du bör använda: |
+| -------------------------- | ------------------------------- |
+| Visa datatrender över tid | Linje |
+| Jämföra kategorier | Stapel, Cirkeldiagram |
+| Jämföra totaler | Cirkeldiagram, Staplat Stapeldiagram |
+| Visa relationer | Punktdiagram, Linje, Facet, Dubbel Linje |
+| Visa fördelningar | Punktdiagram, Histogram, Boxdiagram |
+| Visa proportioner | Cirkeldiagram, Donut, Waffle |
+
+> ✅ Beroende på hur dina data ser ut kan du behöva konvertera dem från text till numeriska värden för att ett visst diagram ska fungera.
+
+## Undvik vilseledning
+
+Även om en dataanalytiker är noggrann med att välja rätt diagram för rätt data, finns det många sätt att presentera data på ett sätt som bevisar en poäng, ofta på bekostnad av att undergräva själva datan. Det finns många exempel på vilseledande diagram och infografik!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klicka på bilden ovan för en konferensföreläsning om vilseledande diagram
+
+Detta diagram vänder X-axeln för att visa motsatsen till sanningen, baserat på datum:
+
+
+
+[Detta diagram](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) är ännu mer vilseledande, eftersom ögat dras till höger och får det att se ut som att COVID-fallen har minskat över tid i olika län. Om du tittar noga på datumen ser du dock att de har omarrangerats för att ge en falsk nedåtgående trend.
+
+
+
+Detta ökända exempel använder färg OCH en inverterad Y-axel för att vilseleda: istället för att dra slutsatsen att vapenvåld ökade efter införandet av vapenvänlig lagstiftning, luras ögat att tro att motsatsen är sann:
+
+
+
+Detta märkliga diagram visar hur proportioner kan manipuleras, till komisk effekt:
+
+
+
+Att jämföra det som inte är jämförbart är ytterligare ett skumt knep. Det finns en [fantastisk webbplats](https://tylervigen.com/spurious-correlations) som handlar om 'spuriösa korrelationer' och visar 'fakta' som korrelerar saker som skilsmässofrekvensen i Maine och konsumtionen av margarin. En Reddit-grupp samlar också [fula användningar](https://www.reddit.com/r/dataisugly/top/?t=all) av data.
+
+Det är viktigt att förstå hur lätt ögat kan luras av vilseledande diagram. Även om dataanalytikerns avsikt är god, kan valet av en dålig diagramtyp, som ett cirkeldiagram med för många kategorier, vara vilseledande.
+
+## Färg
+
+Du såg i diagrammet om 'vapenvåld i Florida' ovan hur färg kan ge en extra betydelse till diagram, särskilt sådana som inte är designade med bibliotek som Matplotlib och Seaborn, vilka har olika granskade färgbibliotek och paletter. Om du skapar ett diagram manuellt, studera lite [färgteori](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Var medveten om att tillgänglighet är en viktig aspekt av visualisering när du designar diagram. Vissa av dina användare kan vara färgblinda - visas ditt diagram tydligt för användare med synnedsättningar?
+
+Var försiktig när du väljer färger för ditt diagram, eftersom färg kan förmedla en betydelse du inte avser. De 'rosa damerna' i diagrammet om 'längd' ovan ger en tydligt 'feminin' tillskriven betydelse som bidrar till diagrammets absurditet.
+
+Även om [färgers betydelse](https://colormatters.com/color-symbolism/the-meanings-of-colors) kan variera i olika delar av världen och tenderar att ändras beroende på nyans, inkluderar generella färgbetydelser:
+
+| Färg | Betydelse |
+| ------ | ------------------- |
+| röd | makt |
+| blå | tillit, lojalitet |
+| gul | glädje, försiktighet |
+| grön | ekologi, tur, avund |
+| lila | glädje |
+| orange | energi |
+
+Om du får i uppdrag att skapa ett diagram med anpassade färger, se till att dina diagram är både tillgängliga och att färgen du väljer överensstämmer med den betydelse du försöker förmedla.
+
+## Styla dina diagram för läsbarhet
+
+Diagram är inte meningsfulla om de inte är läsbara! Ta dig tid att överväga att justera bredden och höjden på ditt diagram så att det passar dina data. Om en variabel (som alla 50 delstater) behöver visas, visa dem vertikalt på Y-axeln om möjligt för att undvika ett horisontellt rullande diagram.
+
+Märk dina axlar, tillhandahåll en legend om det behövs, och erbjud verktygstips för bättre förståelse av data.
+
+Om dina data är textbaserade och långa på X-axeln kan du vinkla texten för bättre läsbarhet. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) erbjuder 3D-plotting om dina data stödjer det. Sofistikerade datavisualiseringar kan skapas med `mpl_toolkits.mplot3d`.
+
+
+
+## Animation och 3D-diagram
+
+Några av de bästa datavisualiseringarna idag är animerade. Shirley Wu har fantastiska exempel gjorda med D3, som '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', där varje blomma är en visualisering av en film. Ett annat exempel för Guardian är 'bussed out', en interaktiv upplevelse som kombinerar visualiseringar med Greensock och D3 samt ett berättande artikelformat för att visa hur NYC hanterar sitt hemlöshetsproblem genom att bussa människor ut ur staden.
+
+
+
+> "Bussed Out: How America Moves its Homeless" från [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualiseringar av Nadieh Bremer & Shirley Wu
+
+Även om denna lektion inte går på djupet för att lära ut dessa kraftfulla visualiseringsbibliotek, kan du prova D3 i en Vue.js-app med ett bibliotek för att visa en visualisering av boken "Dangerous Liaisons" som ett animerat socialt nätverk.
+
+> "Les Liaisons Dangereuses" är en brevroman, eller en roman presenterad som en serie brev. Skriven 1782 av Choderlos de Laclos, berättar den historien om de hänsynslösa, moraliskt bankrutta sociala manövrarna hos två duellerande protagonister i det franska aristokratiet under slutet av 1700-talet, Vicomte de Valmont och Marquise de Merteuil. Båda möter sitt öde i slutet men inte utan att orsaka stor social skada. Romanen utvecklas som en serie brev skrivna till olika personer i deras kretsar, med planer på hämnd eller bara för att skapa problem. Skapa en visualisering av dessa brev för att upptäcka de stora nyckelpersonerna i berättelsen, visuellt.
+
+Du kommer att slutföra en webbapp som visar en animerad vy av detta sociala nätverk. Den använder ett bibliotek som skapats för att skapa en [visualisering av ett nätverk](https://github.com/emiliorizzo/vue-d3-network) med Vue.js och D3. När appen körs kan du dra runt noderna på skärmen för att omorganisera datan.
+
+
+
+## Projekt: Bygg ett diagram för att visa ett nätverk med D3.js
+
+> Denna lektionsmapp innehåller en `solution`-mapp där du kan hitta det färdiga projektet som referens.
+
+1. Följ instruktionerna i README.md-filen i rotmappen för startmappen. Se till att du har NPM och Node.js installerat på din dator innan du installerar projektets beroenden.
+
+2. Öppna mappen `starter/src`. Du hittar en `assets`-mapp där det finns en .json-fil med alla brev från romanen, numrerade, med en 'to' och 'from'-notering.
+
+3. Slutför koden i `components/Nodes.vue` för att möjliggöra visualiseringen. Leta efter metoden som heter `createLinks()` och lägg till följande nästlade loop.
+
+Loopa genom .json-objektet för att fånga 'to' och 'from'-data för breven och bygg upp `links`-objektet så att visualiseringsbiblioteket kan använda det:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Kör din app från terminalen (npm run serve) och njut av visualiseringen!
+
+## 🚀 Utmaning
+
+Utforska internet för att hitta vilseledande visualiseringar. Hur lurar författaren användaren, och är det avsiktligt? Försök att korrigera visualiseringarna för att visa hur de borde se ut.
+
+## [Eftertest](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Granskning & Självstudier
+
+Här är några artiklar att läsa om vilseledande datavisualiseringar:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Ta en titt på dessa intressanta visualiseringar för historiska tillgångar och artefakter:
+
+https://handbook.pubpub.org/
+
+Läs denna artikel om hur animation kan förbättra dina visualiseringar:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Uppgift
+
+[Skapa din egen anpassade visualisering](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..88ffbe9b
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Bygg din egen anpassade visualisering
+
+## Instruktioner
+
+Använd kodexemplet i detta projekt för att skapa ett socialt nätverk och skapa egna exempeldata baserade på dina sociala interaktioner. Du kan kartlägga din användning av sociala medier eller göra ett diagram över dina familjemedlemmar. Skapa en intressant webbapp som visar en unik visualisering av ett socialt nätverk.
+
+## Bedömningskriterier
+
+Föredömligt | Tillräckligt | Behöver förbättras
+--- | --- | --- |
+Ett GitHub-repo presenteras med kod som fungerar korrekt (försök att distribuera det som en statisk webbapp) och har en kommenterad README som förklarar projektet | Repon fungerar inte korrekt eller är inte väl dokumenterat | Repon fungerar inte korrekt och är inte väl dokumenterat
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på sitt originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..da6793f5
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Projekt för datavisualisering av Dangerous Liaisons
+
+För att komma igång behöver du säkerställa att du har NPM och Node installerade på din dator. Installera beroenden (npm install) och kör sedan projektet lokalt (npm run serve):
+
+## Projektinställning
+```
+npm install
+```
+
+### Kompilerar och laddar om för utveckling
+```
+npm run serve
+```
+
+### Kompilerar och minifierar för produktion
+```
+npm run build
+```
+
+### Lintar och åtgärdar filer
+```
+npm run lint
+```
+
+### Anpassa konfiguration
+Se [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..dd1bf5f9
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons datavisualiseringsprojekt
+
+För att komma igång behöver du se till att du har NPM och Node installerade på din dator. Installera beroenden (npm install) och kör sedan projektet lokalt (npm run serve):
+
+## Projektinställning
+```
+npm install
+```
+
+### Kompilerar och uppdaterar automatiskt för utveckling
+```
+npm run serve
+```
+
+### Kompilerar och minimerar för produktion
+```
+npm run build
+```
+
+### Lintar och åtgärdar filer
+```
+npm run lint
+```
+
+### Anpassa konfiguration
+Se [Konfigurationsreferens](https://cli.vuejs.org/config/).
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/sv/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..6e77029e
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,231 @@
+
+# Visualisera kvantiteter
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualisera kvantiteter - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I denna lektion kommer du att utforska hur du kan använda några av de många tillgängliga R-paketen för att lära dig att skapa intressanta visualiseringar kring konceptet kvantitet. Med hjälp av en rensad dataset om fåglar i Minnesota kan du lära dig många intressanta fakta om det lokala djurlivet.
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Observera vingbredd med ggplot2
+Ett utmärkt bibliotek för att skapa både enkla och avancerade diagram och grafer av olika slag är [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). Generellt sett inkluderar processen för att plotta data med dessa bibliotek att identifiera de delar av din dataframe som du vill rikta in dig på, utföra nödvändiga transformationer på datan, tilldela dess x- och y-axelvärden, bestämma vilken typ av diagram som ska visas och sedan visa diagrammet.
+
+`ggplot2` är ett system för att deklarativt skapa grafik, baserat på The Grammar of Graphics. [Grammar of Graphics](https://en.wikipedia.org/wiki/Ggplot2) är ett generellt schema för datavisualisering som bryter ner grafer i semantiska komponenter som skalor och lager. Med andra ord gör enkelheten att skapa grafer och diagram för univariat eller multivariat data med lite kod `ggplot2` till det mest populära paketet för visualiseringar i R. Användaren berättar för `ggplot2` hur variabler ska mappas till estetik, vilka grafiska primitiva som ska användas, och `ggplot2` tar hand om resten.
+
+> ✅ Diagram = Data + Estetik + Geometri
+> - Data hänvisar till datasetet
+> - Estetik indikerar variablerna som ska studeras (x- och y-variabler)
+> - Geometri hänvisar till typen av diagram (linjediagram, stapeldiagram, etc.)
+
+Välj den bästa geometrin (typen av diagram) baserat på din data och berättelsen du vill förmedla genom diagrammet.
+
+> - För att analysera trender: linje, kolumn
+> - För att jämföra värden: stapel, kolumn, cirkel, spridningsdiagram
+> - För att visa hur delar relaterar till helheten: cirkeldiagram
+> - För att visa datadistribution: spridningsdiagram, stapel
+> - För att visa relationer mellan värden: linje, spridningsdiagram, bubbeldiagram
+
+✅ Du kan också kolla in detta beskrivande [fusklapp](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) för ggplot2.
+
+## Skapa ett linjediagram över fåglars vingbreddsvärden
+
+Öppna R-konsolen och importera datasetet.
+> Obs: Datasetet finns i roten av detta repo i `/data`-mappen.
+
+Låt oss importera datasetet och observera de första raderna (topp 5 rader) av datan.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+De första raderna av datan innehåller en blandning av text och siffror:
+
+| | Namn | VetenskapligtNamn | Kategori | Ordning | Familj | Släkte | Bevarandestatus | MinLängd | MaxLängd | MinKroppsmassa | MaxKroppsmassa | MinVingbredd | MaxVingbredd |
+| ---: | :---------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Svartbukig visslande anka | Dendrocygna autumnalis | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Färgad visslande anka | Dendrocygna bicolor | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snögås | Anser caerulescens | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Större vitkindad gås | Anser albifrons | Ankor/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Låt oss börja med att plotta några av de numeriska data med ett grundläggande linjediagram. Anta att du vill ha en översikt över den maximala vingbredden för dessa intressanta fåglar.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Här installerar du `ggplot2`-paketet och importerar det sedan till arbetsytan med kommandot `library("ggplot2")`. För att plotta ett diagram i ggplot används funktionen `ggplot()` och du specificerar datasetet, x- och y-variabler som attribut. I detta fall använder vi funktionen `geom_line()` eftersom vi vill plotta ett linjediagram.
+
+
+
+Vad märker du direkt? Det verkar finnas åtminstone en avvikelse - det är en ganska imponerande vingbredd! En vingbredd på över 2000 centimeter motsvarar mer än 20 meter - finns det Pterodactyler som strövar omkring i Minnesota? Låt oss undersöka.
+
+Även om du kan göra en snabb sortering i Excel för att hitta dessa avvikelser, som förmodligen är skrivfel, fortsätt visualiseringsprocessen genom att arbeta från diagrammet.
+
+Lägg till etiketter på x-axeln för att visa vilka fåglar det handlar om:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Vi specificerar vinkeln i `theme` och anger x- och y-axelns etiketter i `xlab()` och `ylab()` respektive. `ggtitle()` ger diagrammet/plotten ett namn.
+
+
+
+Även med rotationen av etiketterna inställd på 45 grader är det för många för att läsa. Låt oss prova en annan strategi: märk endast avvikelserna och placera etiketterna inom diagrammet. Du kan använda ett spridningsdiagram för att skapa mer utrymme för märkningen:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Vad händer här? Du använde funktionen `geom_point()` för att plotta spridningspunkter. Med detta lade du till etiketter för fåglar som hade `MaxWingspan > 500` och dolde också etiketterna på x-axeln för att avlasta diagrammet.
+
+Vad upptäcker du?
+
+
+
+## Filtrera din data
+
+Både den vithövdade örnen och präriefalken, som förmodligen är mycket stora fåglar, verkar vara felmärkta, med en extra nolla tillagd till deras maximala vingbredd. Det är osannolikt att du möter en vithövdad örn med en vingbredd på 25 meter, men om så är fallet, låt oss veta! Låt oss skapa en ny dataframe utan dessa två avvikelser:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Vi skapade en ny dataframe `birds_filtered` och plottade sedan ett spridningsdiagram. Genom att filtrera bort avvikelser är din data nu mer sammanhängande och begriplig.
+
+
+
+Nu när vi har ett renare dataset åtminstone när det gäller vingbredd, låt oss upptäcka mer om dessa fåglar.
+
+Medan linje- och spridningsdiagram kan visa information om datavärden och deras distributioner, vill vi tänka på värdena som är inneboende i detta dataset. Du kan skapa visualiseringar för att besvara följande frågor om kvantitet:
+
+> Hur många kategorier av fåglar finns det, och vad är deras antal?
+> Hur många fåglar är utdöda, hotade, sällsynta eller vanliga?
+> Hur många finns det av de olika släkten och ordningar enligt Linnés terminologi?
+
+## Utforska stapeldiagram
+
+Stapeldiagram är praktiska när du behöver visa grupperingar av data. Låt oss utforska kategorierna av fåglar som finns i detta dataset för att se vilken som är den vanligaste baserat på antal.
+Låt oss skapa ett stapeldiagram på filtrerad data.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+I följande kodsnutt installerar vi paketen [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) och [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) för att hjälpa till att manipulera och gruppera data för att plotta ett staplat stapeldiagram. Först grupperar du datan efter fåglarnas `Category` och summerar sedan kolumnerna `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Sedan plotter du stapeldiagrammet med `ggplot2`-paketet och specificerar färgerna för de olika kategorierna och etiketterna.
+
+
+
+Detta stapeldiagram är dock oläsligt eftersom det finns för mycket icke-grupperad data. Du behöver välja endast den data du vill plotta, så låt oss titta på fåglarnas längd baserat på deras kategori.
+
+Filtrera din data för att endast inkludera fåglarnas kategori.
+
+Eftersom det finns många kategorier kan du visa detta diagram vertikalt och justera dess höjd för att rymma all data:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Du räknar först unika värden i kolumnen `Category` och sorterar dem sedan i en ny dataframe `birds_count`. Denna sorterade data faktoreras sedan på samma nivå så att den plottas på ett sorterat sätt. Med `ggplot2` plotter du sedan datan i ett stapeldiagram. `coord_flip()` plotter horisontella staplar.
+
+
+
+Detta stapeldiagram ger en bra översikt över antalet fåglar i varje kategori. Vid en snabb blick ser du att det största antalet fåglar i denna region tillhör kategorin Ankor/Gäss/Vattenfåglar. Minnesota är "landet med 10 000 sjöar", så detta är inte förvånande!
+
+✅ Prova några andra räkningar på detta dataset. Är det något som förvånar dig?
+
+## Jämföra data
+
+Du kan prova olika jämförelser av grupperad data genom att skapa nya axlar. Prova en jämförelse av fåglarnas MaxLängd baserat på deras kategori:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Vi grupperar `birds_filtered`-datan efter `Category` och plotter sedan ett stapeldiagram.
+
+
+
+Inget är förvånande här: kolibrier har den minsta MaxLängden jämfört med pelikaner eller gäss. Det är bra när data är logisk!
+
+Du kan skapa mer intressanta visualiseringar av stapeldiagram genom att överlagra data. Låt oss överlagra Minsta och Maximala Längd på en given fågelkategori:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Utmaning
+
+Detta fågeldataset erbjuder en mängd information om olika typer av fåglar inom ett specifikt ekosystem. Sök runt på internet och se om du kan hitta andra dataset om fåglar. Öva på att skapa diagram och grafer kring dessa fåglar för att upptäcka fakta du inte kände till.
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Granskning & Självstudier
+
+Denna första lektion har gett dig viss information om hur du kan använda `ggplot2` för att visualisera kvantiteter. Gör lite forskning kring andra sätt att arbeta med dataset för visualisering. Undersök och leta efter dataset som du kan visualisera med andra paket som [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) och [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Uppgift
+[Linjer, Spridningar och Staplar](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/sv/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..39f9abb6
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linjer, Spridningsdiagram och Stapeldiagram
+
+## Instruktioner
+
+I denna lektion arbetade du med linjediagram, spridningsdiagram och stapeldiagram för att visa intressanta fakta om detta dataset. I denna uppgift ska du gräva djupare i datasetet för att upptäcka en fakta om en viss typ av fågel. Till exempel, skapa ett skript som visualiserar all intressant data du kan hitta om Snögäss. Använd de tre nämnda diagramtyperna för att berätta en historia i din notebook.
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Ett skript presenteras med bra kommentarer, tydlig berättelse och attraktiva diagram | Skriptet saknar ett av dessa element | Skriptet saknar två av dessa element
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/sv/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..57a6ebf1
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,183 @@
+
+# Visualisera distributioner
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualisera distributioner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I den föregående lektionen lärde du dig några intressanta fakta om en dataset om fåglar i Minnesota. Du hittade felaktiga data genom att visualisera avvikare och tittade på skillnaderna mellan fågelkategorier baserat på deras maximala längd.
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Utforska datasetet om fåglar
+
+Ett annat sätt att gräva i data är att titta på dess distribution, eller hur datan är organiserad längs en axel. Kanske vill du till exempel lära dig om den generella distributionen, för detta dataset, av den maximala vingbredden eller den maximala kroppsmassan för fåglarna i Minnesota.
+
+Låt oss upptäcka några fakta om distributionerna av data i detta dataset. I din R-konsol, importera `ggplot2` och databasen. Ta bort avvikare från databasen precis som i det föregående ämnet.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Namn | VetenskapligtNamn | Kategori | Ordning | Familj | Släkte | Bevarandestatus | MinLängd | MaxLängd | MinKroppsmassa | MaxKroppsmassa | MinVingbredd | MaxVingbredd |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | -------------: | -------------: | -----------: | -----------: |
+| 0 | Svartbukig visselanka | Dendrocygna autumnalis | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Rödbrun visselanka | Dendrocygna bicolor | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snögås | Anser caerulescens | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross' gås | Anser rossii | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Större vitkindad gås | Anser albifrons | Änder/Gäss/Vattenfåglar | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Generellt kan du snabbt se hur data är fördelad genom att använda ett spridningsdiagram, som vi gjorde i den föregående lektionen:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Detta ger en översikt över den generella fördelningen av kroppslängd per fågelordning, men det är inte det optimala sättet att visa verkliga fördelningar. Den uppgiften hanteras vanligtvis genom att skapa ett histogram.
+## Arbeta med histogram
+
+`ggplot2` erbjuder mycket bra sätt att visualisera datafördelning med hjälp av histogram. Denna typ av diagram liknar ett stapeldiagram där fördelningen kan ses via en uppgång och nedgång av staplarna. För att bygga ett histogram behöver du numerisk data. För att skapa ett histogram kan du plotta ett diagram och definiera typen som 'hist' för histogram. Detta diagram visar fördelningen av MaxKroppsmassa för hela datasetets numeriska data. Genom att dela upp datamängden i mindre fack kan det visa fördelningen av datavärdena:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Som du kan se, faller de flesta av de 400+ fåglarna i detta dataset inom intervallet under 2000 för deras Max Kroppsmassa. Få mer insikt i datan genom att ändra `bins`-parametern till ett högre nummer, något som 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Detta diagram visar fördelningen på ett lite mer detaljerat sätt. Ett diagram som är mindre snedvridet åt vänster kan skapas genom att säkerställa att du endast väljer data inom ett visst intervall:
+
+Filtrera din data för att få endast de fåglar vars kroppsmassa är under 60, och visa 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Prova några andra filter och datapunkter. För att se den fullständiga fördelningen av datan, ta bort `['MaxBodyMass']`-filtret för att visa märkta fördelningar.
+
+Histogrammet erbjuder också några trevliga färg- och märkningsförbättringar att prova:
+
+Skapa ett 2D-histogram för att jämföra relationen mellan två fördelningar. Låt oss jämföra `MaxBodyMass` vs. `MaxLength`. `ggplot2` erbjuder ett inbyggt sätt att visa konvergens med hjälp av ljusare färger:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Det verkar finnas en förväntad korrelation mellan dessa två element längs en förväntad axel, med en särskilt stark konvergenspunkt:
+
+
+
+Histogram fungerar bra som standard för numerisk data. Vad händer om du behöver se fördelningar enligt textdata?
+## Utforska datasetet för fördelningar med hjälp av textdata
+
+Detta dataset innehåller också bra information om fågelkategorin och dess släkte, art och familj samt dess bevarandestatus. Låt oss gräva i denna bevarandestatusinformation. Hur ser fördelningen ut för fåglarna enligt deras bevarandestatus?
+
+> ✅ I datasetet används flera akronymer för att beskriva bevarandestatus. Dessa akronymer kommer från [IUCN Red List Categories](https://www.iucnredlist.org/), en organisation som katalogiserar arters status.
+>
+> - CR: Kritiskt hotad
+> - EN: Hotad
+> - EX: Utdöd
+> - LC: Minst bekymrad
+> - NT: Nära hotad
+> - VU: Sårbar
+
+Dessa är textbaserade värden så du behöver göra en transformering för att skapa ett histogram. Använd den filtreradeBirds-databasen och visa dess bevarandestatus tillsammans med dess Minsta Vingbredd. Vad ser du?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Det verkar inte finnas någon bra korrelation mellan minsta vingbredd och bevarandestatus. Testa andra element i datasetet med denna metod. Du kan prova olika filter också. Hittar du någon korrelation?
+
+## Täthetsdiagram
+
+Du kanske har märkt att histogrammen vi har tittat på hittills är "stegade" och inte flödar smidigt i en båge. För att visa ett smidigare täthetsdiagram kan du prova ett täthetsdiagram.
+
+Låt oss arbeta med täthetsdiagram nu!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Du kan se hur diagrammet speglar det tidigare för Minsta Vingbredd-data; det är bara lite smidigare. Om du ville återbesöka den hackiga MaxKroppsmassa-linjen i det andra diagrammet du byggde, kunde du jämna ut den mycket väl genom att återskapa den med denna metod:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Om du ville ha en smidig, men inte alltför smidig linje, redigera `adjust`-parametern:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Läs om de parametrar som finns tillgängliga för denna typ av diagram och experimentera!
+
+Denna typ av diagram erbjuder vackert förklarande visualiseringar. Med några få rader kod kan du till exempel visa max kroppsmassa täthet per fågelordning:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Utmaning
+
+Histogram är en mer sofistikerad typ av diagram än grundläggande spridningsdiagram, stapeldiagram eller linjediagram. Gör en sökning på internet för att hitta bra exempel på användningen av histogram. Hur används de, vad visar de, och inom vilka områden eller forskningsfält tenderar de att användas?
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Granskning & Självstudier
+
+I denna lektion använde du `ggplot2` och började arbeta med att visa mer sofistikerade diagram. Gör lite forskning om `geom_density_2d()` en "kontinuerlig sannolikhetstäthetskurva i en eller flera dimensioner". Läs igenom [dokumentationen](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) för att förstå hur det fungerar.
+
+## Uppgift
+
+[Använd dina färdigheter](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/sv/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..8a304734
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Använd dina färdigheter
+
+## Instruktioner
+
+Hittills har du arbetat med datasetet om fåglar i Minnesota för att upptäcka information om fågelmängder och populationstäthet. Öva på att tillämpa dessa tekniker genom att prova ett annat dataset, kanske hämtat från [Kaggle](https://www.kaggle.com/). Skapa ett R-skript för att berätta en historia om detta dataset, och se till att använda histogram när du diskuterar det.
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Ett skript presenteras med kommentarer om detta dataset, inklusive dess källa, och använder minst 5 histogram för att upptäcka fakta om datan. | Ett skript presenteras med ofullständiga kommentarer eller buggar. | Ett skript presenteras utan kommentarer och innehåller buggar.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/sv/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..73f15e32
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,198 @@
+
+# Visualisera Proportioner
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualisera Proportioner - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I den här lektionen kommer du att använda ett dataset med naturfokus för att visualisera proportioner, till exempel hur många olika typer av svampar som finns i ett dataset om svampar. Låt oss utforska dessa fascinerande svampar med hjälp av ett dataset från Audubon som listar detaljer om 23 arter av skivlingar i Agaricus- och Lepiota-familjerna. Du kommer att experimentera med smakfulla visualiseringar som:
+
+- Pajdiagram 🥧
+- Donutdiagram 🍩
+- Våffeldiagram 🧇
+
+> 💡 Ett mycket intressant projekt som heter [Charticulator](https://charticulator.com) från Microsoft Research erbjuder ett gratis dra-och-släpp-gränssnitt för datavisualiseringar. I en av deras handledningar använder de också detta svampdataset! Så du kan utforska datan och lära dig biblioteket samtidigt: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz före lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Lär känna dina svampar 🍄
+
+Svampar är väldigt intressanta. Låt oss importera ett dataset för att studera dem:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+En tabell skrivs ut med fantastisk data för analys:
+
+
+| klass | hattform | hattyta | hattfärg | blåmärken | lukt | skivfäste | skivavstånd | skivstorlek | skivfärg | fotform | fotrot | fotyta-ovanför-ring | fotyta-under-ring | fotfärg-ovanför-ring | fotfärg-under-ring | slöjtyp | slöjfärg | ringantal | ringtyp | sporfärg | population | habitat |
+| --------- | ---------- | ----------- | --------- | --------- | -------- | --------------- | ------------ | ----------- | ---------- | ----------- | ---------- | ----------------------- | ----------------------- | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Giftig | Konvex | Slät | Brun | Blåmärken | Stickande| Fri | Tät | Smal | Svart | Förstorad | Lika | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Svart | Spridd | Urban |
+| Ätlig | Konvex | Slät | Gul | Blåmärken | Mandel | Fri | Tät | Bred | Svart | Förstorad | Klubba | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Brun | Talrik | Gräs |
+| Ätlig | Klockformad| Slät | Vit | Blåmärken | Anis | Fri | Tät | Bred | Brun | Förstorad | Klubba | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Brun | Talrik | Ängar |
+| Giftig | Konvex | Fjällig | Vit | Blåmärken | Stickande| Fri | Tät | Smal | Brun | Förstorad | Lika | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Svart | Spridd | Urban |
+| Ätlig | Konvex | Slät | Grön | Inga blåmärken| Ingen | Fri | Trångt | Bred | Svart | Avsmalnande| Lika | Slät | Slät | Vit | Vit | Partiell | Vit | En | Försvinnande | Brun | Riklig | Gräs |
+| Ätlig | Konvex | Fjällig | Gul | Blåmärken | Mandel | Fri | Tät | Bred | Brun | Förstorad | Klubba | Slät | Slät | Vit | Vit | Partiell | Vit | En | Hängande | Svart | Talrik | Gräs |
+
+Direkt märker du att all data är textuell. Du måste konvertera denna data för att kunna använda den i ett diagram. Faktum är att det mesta av datan representeras som ett objekt:
+
+```r
+names(mushrooms)
+```
+
+Utdata är:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Ta denna data och konvertera kolumnen 'klass' till en kategori:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+Nu, om du skriver ut svampdatan, kan du se att den har grupperats i kategorier enligt klassen giftig/ätlig:
+```r
+View(grouped)
+```
+
+| klass | antal |
+| --------- | --------- |
+| Ätlig | 4208 |
+| Giftig | 3916 |
+
+Om du följer ordningen i denna tabell för att skapa dina klasskategorietiketter kan du bygga ett pajdiagram.
+
+## Paj!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voilà, ett pajdiagram som visar proportionerna av denna data enligt dessa två svampklasser. Det är ganska viktigt att få ordningen på etiketterna rätt, särskilt här, så se till att verifiera ordningen när etikettarrayen byggs!
+
+
+
+## Donuts!
+
+Ett något mer visuellt intressant pajdiagram är ett donutdiagram, som är ett pajdiagram med ett hål i mitten. Låt oss titta på vår data med denna metod.
+
+Titta på de olika habitat där svampar växer:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Utdata är:
+| habitat | antal |
+| --------- | --------- |
+| Gräs | 2148 |
+| Löv | 832 |
+| Ängar | 292 |
+| Stigar | 1144 |
+| Urban | 368 |
+| Avfall | 192 |
+| Trä | 3148 |
+
+Här grupperar du din data efter habitat. Det finns 7 listade, så använd dessa som etiketter för ditt donutdiagram:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Denna kod använder de två biblioteken ggplot2 och webr. Med hjälp av funktionen PieDonut i webr-biblioteket kan vi enkelt skapa ett donutdiagram!
+
+Donutdiagram i R kan också göras med endast ggplot2-biblioteket. Du kan läsa mer om det [här](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) och prova själv.
+
+Nu när du vet hur du grupperar din data och sedan visar den som paj eller donut kan du utforska andra typer av diagram. Prova ett våffeldiagram, som är ett annat sätt att utforska kvantitet.
+
+## Våfflor!
+
+Ett 'våffel'-diagram är ett annat sätt att visualisera kvantiteter som en 2D-array av rutor. Försök att visualisera de olika mängderna av svamphattfärger i detta dataset. För att göra detta behöver du installera ett hjälpbibliotek som heter [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) och använda det för att skapa din visualisering:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Välj ett segment av din data att gruppera:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Skapa ett våffeldiagram genom att skapa etiketter och sedan gruppera din data:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Med ett våffeldiagram kan du tydligt se proportionerna av hattfärger i detta svampdataset. Intressant nog finns det många svampar med gröna hattar!
+
+
+
+I den här lektionen lärde du dig tre sätt att visualisera proportioner. Först behöver du gruppera din data i kategorier och sedan bestämma vilket som är det bästa sättet att visa datan - paj, donut eller våffla. Alla är läckra och ger användaren en omedelbar överblick av ett dataset.
+
+## 🚀 Utmaning
+
+Försök återskapa dessa smakfulla diagram i [Charticulator](https://charticulator.com).
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Granskning & Självstudier
+
+Ibland är det inte uppenbart när man ska använda ett paj-, donut- eller våffeldiagram. Här är några artiklar att läsa om detta ämne:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Gör lite forskning för att hitta mer information om detta knepiga beslut.
+
+## Uppgift
+
+[Prova det i Excel](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/sv/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..f6857a71
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# Visualisera relationer: Allt om honung 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualisera relationer - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Fortsätt med naturfokuset i vår forskning och upptäck intressanta visualiseringar för att visa relationerna mellan olika typer av honung, baserat på en dataset från [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+Denna dataset med cirka 600 poster visar honungsproduktion i många amerikanska delstater. Du kan till exempel se antalet kolonier, avkastning per koloni, total produktion, lager, pris per pund och värdet av den producerade honungen i en given delstat från 1998-2012, med en rad per år för varje delstat.
+
+Det kan vara intressant att visualisera relationen mellan en given delstats produktion per år och till exempel priset på honung i den delstaten. Alternativt kan du visualisera relationen mellan delstaters honungsavkastning per koloni. Denna tidsperiod täcker den förödande 'CCD' eller 'Colony Collapse Disorder' som först observerades 2006 (http://npic.orst.edu/envir/ccd.html), vilket gör det till en gripande dataset att studera. 🐝
+
+## [Quiz före lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+I denna lektion kan du använda ggplot2, som du har använt tidigare, som ett bra bibliotek för att visualisera relationer mellan variabler. Särskilt intressant är användningen av ggplot2:s `geom_point` och `qplot`-funktion som möjliggör spridningsdiagram och linjediagram för att snabbt visualisera '[statistiska relationer](https://ggplot2.tidyverse.org/)', vilket hjälper dataforskaren att bättre förstå hur variabler relaterar till varandra.
+
+## Spridningsdiagram
+
+Använd ett spridningsdiagram för att visa hur priset på honung har utvecklats år för år, per delstat. ggplot2, med hjälp av `ggplot` och `geom_point`, grupperar bekvämt delstatsdata och visar datapunkter för både kategoriska och numeriska data.
+
+Låt oss börja med att importera data och Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Du märker att honungsdatan har flera intressanta kolumner, inklusive år och pris per pund. Låt oss utforska denna data, grupperad efter amerikansk delstat:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Skapa ett grundläggande spridningsdiagram för att visa relationen mellan priset per pund honung och dess ursprungsdelstat i USA. Gör `y`-axeln tillräckligt hög för att visa alla delstater:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Visa nu samma data med ett honungsfärgschema för att visa hur priset utvecklas över åren. Du kan göra detta genom att lägga till en 'scale_color_gradientn'-parameter för att visa förändringen år för år:
+
+> ✅ Läs mer om [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - prova ett vackert regnbågsfärgschema!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Med denna färgschemaändring kan du tydligt se en stark utveckling över åren när det gäller honungspriset per pund. Om du tittar på ett urval av data för att verifiera (välj en given delstat, till exempel Arizona) kan du se ett mönster av prisökningar år för år, med få undantag:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Ett annat sätt att visualisera denna utveckling är att använda storlek istället för färg. För färgblinda användare kan detta vara ett bättre alternativ. Redigera din visualisering för att visa en ökning av priset genom en ökning av punktens omkrets:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Du kan se att storleken på punkterna gradvis ökar.
+
+
+
+Är detta ett enkelt fall av utbud och efterfrågan? På grund av faktorer som klimatförändringar och kolonikollaps, finns det mindre honung tillgänglig för köp år för år, och därmed ökar priset?
+
+För att upptäcka en korrelation mellan några av variablerna i denna dataset, låt oss utforska några linjediagram.
+
+## Linjediagram
+
+Fråga: Finns det en tydlig ökning av priset på honung per pund år för år? Du kan enklast upptäcka detta genom att skapa ett enda linjediagram:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Svar: Ja, med vissa undantag runt år 2003:
+
+
+
+Fråga: Kan vi också se en topp i honungstillgången år 2003? Vad händer om du tittar på total produktion år för år?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Svar: Inte riktigt. Om du tittar på total produktion verkar det faktiskt ha ökat det året, även om mängden honung som produceras generellt sett minskar under dessa år.
+
+Fråga: I så fall, vad kan ha orsakat den prisökningen på honung runt år 2003?
+
+För att upptäcka detta kan du utforska ett facet grid.
+
+## Facet grids
+
+Facet grids tar en aspekt av din dataset (i vårt fall kan du välja 'år' för att undvika att skapa för många facetter). Seaborn kan sedan skapa en plot för varje av dessa facetter av dina valda x- och y-koordinater för enklare visuell jämförelse. Sticker år 2003 ut i denna typ av jämförelse?
+
+Skapa ett facet grid genom att använda `facet_wrap` som rekommenderas av [ggplot2:s dokumentation](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+I denna visualisering kan du jämföra avkastning per koloni och antal kolonier år för år, sida vid sida med en wrap inställd på 3 för kolumnerna:
+
+
+
+För denna dataset sticker inget särskilt ut när det gäller antalet kolonier och deras avkastning, år för år och delstat för delstat. Finns det ett annat sätt att hitta en korrelation mellan dessa två variabler?
+
+## Dubbel-linjediagram
+
+Prova ett flerlinjediagram genom att lägga två linjediagram ovanpå varandra, med hjälp av R:s `par` och `plot`-funktion. Vi kommer att plotta året på x-axeln och visa två y-axlar. Visa avkastning per koloni och antal kolonier, överlagrade:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Även om inget sticker ut runt år 2003, låter det oss avsluta denna lektion med en lite gladare ton: även om det totalt sett är ett minskande antal kolonier, stabiliseras antalet kolonier även om deras avkastning per koloni minskar.
+
+Heja bina, heja!
+
+🐝❤️
+## 🚀 Utmaning
+
+I denna lektion lärde du dig lite mer om andra användningar av spridningsdiagram och linjediagram, inklusive facet grids. Utmana dig själv att skapa ett facet grid med en annan dataset, kanske en du använde tidigare i dessa lektioner. Notera hur lång tid det tar att skapa och hur du behöver vara försiktig med hur många grids du behöver rita med dessa tekniker.
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Granskning & Självstudier
+
+Linjediagram kan vara enkla eller ganska komplexa. Läs lite i [ggplot2-dokumentationen](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) om de olika sätten du kan bygga dem. Försök att förbättra de linjediagram du byggde i denna lektion med andra metoder som listas i dokumentationen.
+## Uppgift
+
+[Dyk in i bikupan](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/sv/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..24e88fb4
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Skapa Meningsfulla Visualiseringar
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Meningsfulla Visualiseringar - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+> "Om du torterar data tillräckligt länge, kommer det att erkänna vad som helst" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+En av de grundläggande färdigheterna hos en dataanalytiker är förmågan att skapa en meningsfull datavisualisering som hjälper till att besvara frågor du kan ha. Innan du visualiserar din data måste du se till att den har blivit rensad och förberedd, som du gjorde i tidigare lektioner. Därefter kan du börja bestämma hur du bäst presenterar datan.
+
+I denna lektion kommer du att gå igenom:
+
+1. Hur man väljer rätt typ av diagram
+2. Hur man undviker vilseledande diagram
+3. Hur man arbetar med färg
+4. Hur man stylar diagram för läsbarhet
+5. Hur man bygger animerade eller 3D-lösningar för diagram
+6. Hur man skapar en kreativ visualisering
+
+## [Quiz före lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Välj rätt typ av diagram
+
+I tidigare lektioner experimenterade du med att skapa olika typer av intressanta datavisualiseringar med Matplotlib och Seaborn för diagram. Generellt kan du välja [rätt typ av diagram](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) för den fråga du ställer med hjälp av denna tabell:
+
+| Du behöver: | Du bör använda: |
+| -------------------------- | ------------------------------- |
+| Visa datatrender över tid | Linje |
+| Jämföra kategorier | Stapel, Tårta |
+| Jämföra totaler | Tårta, Staplad stapel |
+| Visa relationer | Spridning, Linje, Facet, Dubbel linje |
+| Visa distributioner | Spridning, Histogram, Låddiagram |
+| Visa proportioner | Tårta, Donut, Waffle |
+
+> ✅ Beroende på datans sammansättning kan du behöva konvertera den från text till numerisk för att få ett visst diagram att fungera.
+
+## Undvik vilseledning
+
+Även om en dataanalytiker är noggrann med att välja rätt diagram för rätt data, finns det många sätt att visa data på ett sätt som bevisar en poäng, ofta på bekostnad av att undergräva själva datan. Det finns många exempel på vilseledande diagram och infografik!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Klicka på bilden ovan för en konferensföreläsning om vilseledande diagram
+
+Detta diagram vänder X-axeln för att visa motsatsen till sanningen, baserat på datum:
+
+
+
+[Detta diagram](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) är ännu mer vilseledande, eftersom ögat dras till höger för att dra slutsatsen att COVID-fallen har minskat över tid i olika län. Faktum är att om du tittar noga på datumen, upptäcker du att de har omarrangerats för att ge den vilseledande nedåtgående trenden.
+
+
+
+Detta ökända exempel använder färg OCH en vänd Y-axel för att vilseleda: istället för att dra slutsatsen att vapenvåld ökade efter införandet av vapenvänlig lagstiftning, luras ögat att tro att motsatsen är sann:
+
+
+
+Detta märkliga diagram visar hur proportioner kan manipuleras, med komisk effekt:
+
+
+
+Att jämföra det ojämförbara är ytterligare ett skumt knep. Det finns en [fantastisk webbplats](https://tylervigen.com/spurious-correlations) som handlar om 'spurious correlations' och visar 'fakta' som korrelerar saker som skilsmässofrekvensen i Maine och konsumtionen av margarin. En Reddit-grupp samlar också [fula användningar](https://www.reddit.com/r/dataisugly/top/?t=all) av data.
+
+Det är viktigt att förstå hur lätt ögat kan luras av vilseledande diagram. Även om dataanalytikerns intention är god, kan valet av en dålig typ av diagram, såsom ett tårtdiagram med för många kategorier, vara vilseledande.
+
+## Färg
+
+Du såg i diagrammet om 'vapenvåld i Florida' ovan hur färg kan ge en extra nivå av mening till diagram, särskilt sådana som inte är designade med bibliotek som ggplot2 och RColorBrewer, vilka kommer med olika granskade färgbibliotek och paletter. Om du skapar ett diagram manuellt, studera lite [färgteori](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Var medveten om att tillgänglighet är en viktig aspekt av visualisering när du designar diagram. Vissa av dina användare kan vara färgblinda - visas ditt diagram bra för användare med synnedsättningar?
+
+Var försiktig när du väljer färger för ditt diagram, eftersom färg kan förmedla en mening du kanske inte avser. De 'rosa damerna' i diagrammet om 'höjd' ovan förmedlar en tydligt 'feminin' tillskriven mening som bidrar till diagrammets märklighet.
+
+Även om [färgers betydelse](https://colormatters.com/color-symbolism/the-meanings-of-colors) kan vara olika i olika delar av världen och tenderar att ändras beroende på nyans, inkluderar generella färgbetydelser:
+
+| Färg | Betydelse |
+| ------ | ------------------- |
+| röd | styrka |
+| blå | tillit, lojalitet |
+| gul | glädje, försiktighet|
+| grön | ekologi, tur, avund |
+| lila | glädje |
+| orange | livfullhet |
+
+Om du får i uppdrag att skapa ett diagram med anpassade färger, se till att dina diagram är både tillgängliga och att färgen du väljer överensstämmer med den mening du försöker förmedla.
+
+## Styla dina diagram för läsbarhet
+
+Diagram är inte meningsfulla om de inte är läsbara! Ta dig tid att överväga att styla bredden och höjden på ditt diagram så att det passar bra med din data. Om en variabel (som alla 50 stater) behöver visas, visa dem vertikalt på Y-axeln om möjligt för att undvika ett diagram som kräver horisontell scrollning.
+
+Märk dina axlar, tillhandahåll en legend om det behövs, och erbjud verktygstips för bättre förståelse av data.
+
+Om din data är textbaserad och omfattande på X-axeln, kan du vinkla texten för bättre läsbarhet. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) erbjuder 3D-plotting, om din data stödjer det. Sofistikerade datavisualiseringar kan skapas med det.
+
+
+
+## Animation och 3D-diagram
+
+Några av de bästa datavisualiseringarna idag är animerade. Shirley Wu har fantastiska exempel gjorda med D3, såsom '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', där varje blomma är en visualisering av en film. Ett annat exempel för Guardian är 'bussed out', en interaktiv upplevelse som kombinerar visualiseringar med Greensock och D3 plus ett scrollytelling-artikelformat för att visa hur NYC hanterar sitt hemlöshetsproblem genom att bussa ut människor från staden.
+
+
+
+> "Bussed Out: How America Moves its Homeless" från [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualiseringar av Nadieh Bremer & Shirley Wu
+
+Även om denna lektion inte går tillräckligt djupt för att lära ut dessa kraftfulla visualiseringsbibliotek, prova att använda D3 i en Vue.js-app med ett bibliotek för att visa en visualisering av boken "Dangerous Liaisons" som ett animerat socialt nätverk.
+
+> "Les Liaisons Dangereuses" är en brevroman, eller en roman presenterad som en serie brev. Skriven 1782 av Choderlos de Laclos, berättar den historien om de hänsynslösa, moraliskt bankrutta sociala manövrerna av två rivaliserande protagonister från den franska aristokratin i slutet av 1700-talet, Vicomte de Valmont och Marquise de Merteuil. Båda möter sitt öde i slutet, men inte utan att orsaka stor social skada. Romanen utvecklas som en serie brev skrivna till olika personer i deras kretsar, med planer på hämnd eller bara för att skapa problem. Skapa en visualisering av dessa brev för att upptäcka de stora nyckelpersonerna i berättelsen, visuellt.
+
+Du kommer att slutföra en webbapp som visar en animerad vy av detta sociala nätverk. Den använder ett bibliotek som skapades för att skapa en [visualisering av ett nätverk](https://github.com/emiliorizzo/vue-d3-network) med Vue.js och D3. När appen körs kan du dra runt noderna på skärmen för att omorganisera datan.
+
+
+
+## Projekt: Skapa ett diagram för att visa ett nätverk med D3.js
+
+> Denna lektionsmapp innehåller en `solution`-mapp där du kan hitta det färdiga projektet som referens.
+
+1. Följ instruktionerna i README.md-filen i startmappens rot. Se till att du har NPM och Node.js installerat på din dator innan du installerar projektets beroenden.
+
+2. Öppna `starter/src`-mappen. Du hittar en `assets`-mapp där det finns en .json-fil med alla brev från romanen, numrerade, med en 'to' och 'from'-annotering.
+
+3. Slutför koden i `components/Nodes.vue` för att möjliggöra visualiseringen. Leta efter metoden som heter `createLinks()` och lägg till följande nästlade loop.
+
+Loopa genom .json-objektet för att fånga 'to' och 'from'-data för breven och bygg upp `links`-objektet så att visualiseringsbiblioteket kan använda det:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Kör din app från terminalen (npm run serve) och njut av visualiseringen!
+
+## 🚀 Utmaning
+
+Utforska internet för att upptäcka vilseledande visualiseringar. Hur lurar författaren användaren, och är det avsiktligt? Försök korrigera visualiseringarna för att visa hur de borde se ut.
+
+## [Quiz efter lektionen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Granskning & Självstudier
+
+Här är några artiklar att läsa om vilseledande datavisualiseringar:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Ta en titt på dessa intressanta visualiseringar för historiska tillgångar och artefakter:
+
+https://handbook.pubpub.org/
+
+Läs denna artikel om hur animation kan förbättra dina visualiseringar:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Uppgift
+
+[Skapa din egen anpassade visualisering](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/3-Data-Visualization/README.md b/translations/sv/3-Data-Visualization/README.md
new file mode 100644
index 00000000..849d634b
--- /dev/null
+++ b/translations/sv/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# Visualiseringar
+
+
+> Foto av Jenna Lee på Unsplash
+
+Att visualisera data är en av de viktigaste uppgifterna för en dataanalytiker. Bilder säger mer än tusen ord, och en visualisering kan hjälpa dig att identifiera olika intressanta delar av din data, såsom toppar, avvikelser, grupperingar, tendenser och mycket mer, som kan hjälpa dig att förstå berättelsen din data försöker förmedla.
+
+I dessa fem lektioner kommer du att utforska data från naturen och skapa intressanta och vackra visualiseringar med olika tekniker.
+
+| Ämnesnummer | Ämne | Länkad lektion | Författare |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | Visualisera mängder | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Visualisera distribution | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Visualisera proportioner | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Visualisera relationer | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Skapa meningsfulla visualiseringar | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Krediter
+
+Dessa visualiseringslektioner är skrivna med 🌸 av [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) och [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 Data om honungsproduktion i USA kommer från Jessica Lis projekt på [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). [Datan](https://usda.library.cornell.edu/concern/publications/rn301137d) är hämtad från [United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 Data om svampar kommer också från [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) reviderad av Hatteras Dunton. Denna dataset innehåller beskrivningar av hypotetiska prover som motsvarar 23 arter av skivlingar i familjerna Agaricus och Lepiota. Svamparna är hämtade från The Audubon Society Field Guide to North American Mushrooms (1981). Datasetet donerades till UCI ML 27 år 1987.
+
+🦆 Data om fåglar i Minnesota kommer från [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) och är hämtad från [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) av Hannah Collins.
+
+Alla dessa dataset är licensierade som [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/sv/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..4240eeee
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Introduktion till livscykeln för datavetenskap
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Introduktion till livscykeln för datavetenskap - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz före föreläsning](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+Vid det här laget har du förmodligen insett att datavetenskap är en process. Denna process kan delas upp i fem steg:
+
+- Insamling
+- Bearbetning
+- Analys
+- Kommunikation
+- Underhåll
+
+Den här lektionen fokuserar på tre delar av livscykeln: insamling, bearbetning och underhåll.
+
+
+> Foto av [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Insamling
+
+Det första steget i livscykeln är mycket viktigt eftersom de följande stegen är beroende av det. Det är praktiskt taget två steg kombinerade i ett: att samla in data och definiera syftet och problemen som behöver adresseras.
+Att definiera projektets mål kräver en djupare förståelse för problemet eller frågan. Först måste vi identifiera och engagera de som behöver få sitt problem löst. Dessa kan vara intressenter i ett företag eller sponsorer av projektet, som kan hjälpa till att identifiera vem eller vad som kommer att dra nytta av projektet samt vad och varför de behöver det. Ett väl definierat mål bör vara mätbart och kvantifierbart för att definiera ett acceptabelt resultat.
+
+Frågor som en datavetare kan ställa:
+- Har detta problem hanterats tidigare? Vad upptäcktes?
+- Är syftet och målet förstått av alla inblandade?
+- Finns det oklarheter och hur kan de minskas?
+- Vilka är begränsningarna?
+- Hur kommer slutresultatet potentiellt att se ut?
+- Hur mycket resurser (tid, personal, beräkningskapacitet) finns tillgängliga?
+
+Nästa steg är att identifiera, samla in och slutligen utforska den data som behövs för att uppnå de definierade målen. Vid detta insamlingssteg måste datavetare också utvärdera mängden och kvaliteten på datan. Detta kräver viss datautforskning för att bekräfta att det som har samlats in kommer att stödja att nå det önskade resultatet.
+
+Frågor som en datavetare kan ställa om datan:
+- Vilken data har jag redan tillgång till?
+- Vem äger denna data?
+- Vilka är integritetsfrågorna?
+- Har jag tillräckligt för att lösa detta problem?
+- Är datan av acceptabel kvalitet för detta problem?
+- Om jag upptäcker ytterligare information genom denna data, bör vi överväga att ändra eller omdefiniera målen?
+
+## Bearbetning
+
+Bearbetningssteget i livscykeln fokuserar på att upptäcka mönster i datan samt modellering. Vissa tekniker som används i bearbetningssteget kräver statistiska metoder för att identifiera mönster. Detta skulle vanligtvis vara en tidskrävande uppgift för en människa att utföra med ett stort dataset och kommer att förlita sig på datorer för att göra det tunga arbetet och påskynda processen. Detta steg är också där datavetenskap och maskininlärning möts. Som du lärde dig i den första lektionen är maskininlärning processen att bygga modeller för att förstå datan. Modeller är en representation av relationen mellan variabler i datan som hjälper till att förutsäga resultat.
+
+Vanliga tekniker som används i detta steg täcks i läroplanen för ML för nybörjare. Följ länkarna för att lära dig mer om dem:
+
+- [Klassificering](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organisera data i kategorier för mer effektiv användning.
+- [Klustring](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Gruppera data i liknande grupper.
+- [Regression](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Bestäm relationerna mellan variabler för att förutsäga eller prognostisera värden.
+
+## Underhåll
+
+I diagrammet över livscykeln kanske du har märkt att underhåll ligger mellan insamling och bearbetning. Underhåll är en pågående process för att hantera, lagra och säkra datan under hela projektets gång och bör beaktas under hela projektets varaktighet.
+
+### Lagra data
+
+Överväganden kring hur och var datan lagras kan påverka kostnaden för dess lagring samt prestandan för hur snabbt datan kan nås. Beslut som dessa fattas sannolikt inte av en datavetare ensam, men de kan behöva göra val om hur de ska arbeta med datan baserat på hur den är lagrad.
+
+Här är några aspekter av moderna datalagringssystem som kan påverka dessa val:
+
+**På plats vs utanför plats vs offentlig eller privat moln**
+
+På plats avser att hantera datan på egen utrustning, som att äga en server med hårddiskar som lagrar datan, medan utanför plats förlitar sig på utrustning som du inte äger, såsom ett datacenter. Det offentliga molnet är ett populärt val för att lagra data som inte kräver kunskap om hur eller var exakt datan lagras, där "offentligt" avser en enhetlig underliggande infrastruktur som delas av alla som använder molnet. Vissa organisationer har strikta säkerhetspolicyer som kräver att de har fullständig åtkomst till utrustningen där datan är värd och kommer att förlita sig på ett privat moln som tillhandahåller sina egna molntjänster. Du kommer att lära dig mer om data i molnet i [senare lektioner](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Kall vs varm data**
+
+När du tränar dina modeller kan du behöva mer träningsdata. Om du är nöjd med din modell kommer mer data att anlända för att modellen ska kunna tjäna sitt syfte. I vilket fall som helst kommer kostnaden för att lagra och komma åt data att öka när du samlar på dig mer av den. Att separera sällan använd data, känd som kall data, från ofta åtkomlig varm data kan vara ett billigare alternativ för datalagring genom hårdvaru- eller mjukvarutjänster. Om kall data behöver nås kan det ta lite längre tid att hämta jämfört med varm data.
+
+### Hantera data
+
+När du arbetar med data kan du upptäcka att vissa delar av datan behöver rengöras med hjälp av några av de tekniker som täcks i lektionen om [datapreparation](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) för att bygga korrekta modeller. När ny data anländer kommer den att behöva samma tillämpningar för att upprätthålla konsistens i kvalitet. Vissa projekt kommer att involvera användning av ett automatiserat verktyg för rengöring, aggregering och komprimering innan datan flyttas till sin slutliga plats. Azure Data Factory är ett exempel på ett sådant verktyg.
+
+### Säkerställa datan
+
+Ett av huvudmålen med att säkra data är att säkerställa att de som arbetar med den har kontroll över vad som samlas in och i vilket sammanhang det används. Att hålla data säker innebär att begränsa åtkomsten till endast de som behöver den, följa lokala lagar och regler samt upprätthålla etiska standarder, som täcks i [etiklektionen](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Här är några saker som ett team kan göra med säkerhet i åtanke:
+- Bekräfta att all data är krypterad
+- Ge kunder information om hur deras data används
+- Ta bort dataåtkomst från personer som har lämnat projektet
+- Låta endast vissa projektmedlemmar ändra datan
+
+## 🚀 Utmaning
+
+Det finns många versioner av livscykeln för datavetenskap, där varje steg kan ha olika namn och antal steg men innehåller samma processer som nämns i denna lektion.
+
+Utforska [Team Data Science Process livscykel](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) och [Cross-industry standard process for data mining](https://www.datascience-pm.com/crisp-dm-2/). Nämn tre likheter och skillnader mellan de två.
+
+|Team Data Science Process (TDSP)|Cross-industry standard process for data mining (CRISP-DM)|
+|--|--|
+| |  |
+| Bild av [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Bild av [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Quiz efter föreläsning](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Granskning & Självstudier
+
+Att tillämpa livscykeln för datavetenskap involverar flera roller och uppgifter, där vissa kan fokusera på specifika delar av varje steg. Team Data Science Process tillhandahåller några resurser som förklarar typerna av roller och uppgifter som någon kan ha i ett projekt.
+
+* [Team Data Science Process roller och uppgifter](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Utföra datavetenskapliga uppgifter: utforskning, modellering och implementering](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Uppgift
+
+[Utvärdera ett dataset](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/sv/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..9b8cb7b9
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,37 @@
+
+# Bedömning av dataset
+
+En klient har kontaktat ditt team för hjälp med att undersöka en taxikunds säsongsbetonade utgiftsvanor i New York City.
+
+De vill veta: **Ger passagerare i gula taxibilar i New York City dricks till chaufförer mer på vintern eller sommaren?**
+
+Ditt team befinner sig i [Capturing](Readme.md#Capturing)-stadiet av Data Science Lifecycle och du ansvarar för att hantera datasetet. Du har fått en notebook och [data](../../../../data/taxi.csv) att utforska.
+
+I den här katalogen finns en [notebook](notebook.ipynb) som använder Python för att ladda data om gula taxiresor från [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Du kan också öppna taxidatafilen i en textredigerare eller kalkylprogram som Excel.
+
+## Instruktioner
+
+- Bedöm om datan i detta dataset kan hjälpa till att besvara frågan.
+- Utforska [NYC Open Data-katalogen](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identifiera ett ytterligare dataset som potentiellt kan vara användbart för att besvara klientens fråga.
+- Skriv 3 frågor som du skulle ställa till klienten för att få mer klarhet och bättre förståelse för problemet.
+
+Se [datasetets ordbok](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) och [användarhandbok](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) för mer information om datan.
+
+## Bedömningskriterier
+
+Exemplariskt | Tillräckligt | Behöver förbättras
+--- | --- | ---
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/sv/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..15f1abca
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,62 @@
+
+# Livscykeln för datavetenskap: Analysera
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Livscykeln för datavetenskap: Analysera - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## Förquiz före föreläsning
+
+## [Förquiz före föreläsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Att analysera i datalivscykeln bekräftar att datan kan besvara de frågor som ställts eller lösa ett specifikt problem. Detta steg kan också fokusera på att säkerställa att en modell korrekt adresserar dessa frågor och problem. Den här lektionen fokuserar på Exploratory Data Analysis eller EDA, som är tekniker för att definiera egenskaper och relationer inom datan och kan användas för att förbereda datan för modellering.
+
+Vi kommer att använda ett exempel på dataset från [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) för att visa hur detta kan tillämpas med Python och Pandas-biblioteket. Detta dataset innehåller en räkning av några vanliga ord som finns i e-postmeddelanden, där källorna till dessa e-postmeddelanden är anonyma. Använd [notebook](notebook.ipynb) i denna katalog för att följa med.
+
+## Exploratory Data Analysis
+
+Fasen för insamling i livscykeln är där datan samlas in samt där problemen och frågorna identifieras, men hur vet vi att datan kan hjälpa till att stödja slutresultatet?
+Kom ihåg att en datavetare kan ställa följande frågor när de får tillgång till datan:
+- Har jag tillräckligt med data för att lösa detta problem?
+- Är datan av acceptabel kvalitet för detta problem?
+- Om jag upptäcker ytterligare information genom denna data, bör vi överväga att ändra eller omdefiniera målen?
+
+Exploratory Data Analysis är processen att lära känna datan och kan användas för att besvara dessa frågor, samt identifiera utmaningar med att arbeta med datasetet. Låt oss fokusera på några av de tekniker som används för att uppnå detta.
+
+## Dataprofilering, beskrivande statistik och Pandas
+Hur utvärderar vi om vi har tillräckligt med data för att lösa detta problem? Dataprofilering kan sammanfatta och samla in viss generell information om vårt dataset genom tekniker för beskrivande statistik. Dataprofilering hjälper oss att förstå vad som finns tillgängligt för oss, och beskrivande statistik hjälper oss att förstå hur mycket som finns tillgängligt.
+
+I några av de tidigare lektionerna har vi använt Pandas för att tillhandahålla viss beskrivande statistik med funktionen [`describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Den ger räkning, max- och minvärden, medelvärde, standardavvikelse och kvantiler för den numeriska datan. Att använda beskrivande statistik som funktionen `describe()` kan hjälpa dig att bedöma hur mycket du har och om du behöver mer.
+
+## Sampling och frågeställningar
+Att utforska allt i ett stort dataset kan vara mycket tidskrävande och är vanligtvis en uppgift som lämnas till en dator att utföra. Sampling är dock ett användbart verktyg för att förstå datan och ger oss en bättre förståelse för vad som finns i datasetet och vad det representerar. Med ett urval kan du tillämpa sannolikhet och statistik för att dra vissa generella slutsatser om din data. Även om det inte finns någon definierad regel för hur mycket data du bör sampla är det viktigt att notera att ju mer data du samplar, desto mer exakt kan du generalisera om datan.
+
+Pandas har funktionen [`sample()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) i sitt bibliotek där du kan ange ett argument för hur många slumpmässiga prover du vill få och använda.
+
+Generella frågeställningar om datan kan hjälpa dig att besvara vissa generella frågor och teorier du kan ha. Till skillnad från sampling tillåter frågor dig att ha kontroll och fokusera på specifika delar av datan som du har frågor om.
+Funktionen [`query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) i Pandas-biblioteket låter dig välja kolumner och få enkla svar om datan genom de rader som hämtas.
+
+## Utforska med visualiseringar
+Du behöver inte vänta tills datan är noggrant rengjord och analyserad för att börja skapa visualiseringar. Faktum är att ha en visuell representation medan du utforskar kan hjälpa till att identifiera mönster, relationer och problem i datan. Dessutom ger visualiseringar ett sätt att kommunicera med dem som inte är involverade i att hantera datan och kan vara en möjlighet att dela och klargöra ytterligare frågor som inte adresserades i insamlingsfasen. Se [avsnittet om visualiseringar](../../../../../../../../../3-Data-Visualization) för att lära dig mer om några populära sätt att utforska visuellt.
+
+## Utforska för att identifiera inkonsekvenser
+Alla ämnen i denna lektion kan hjälpa till att identifiera saknade eller inkonsekventa värden, men Pandas tillhandahåller funktioner för att kontrollera några av dessa. [isna() eller isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) kan kontrollera saknade värden. En viktig del av att utforska dessa värden inom din data är att undersöka varför de hamnade så från början. Detta kan hjälpa dig att besluta om vilka [åtgärder som ska vidtas för att lösa dem](/2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Förquiz före föreläsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Uppgift
+
+[Utforska för svar](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/sv/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..2de76785
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Utforska för svar
+
+Detta är en fortsättning på den föregående lektionens [uppgift](../14-Introduction/assignment.md), där vi kort tittade på datasetet. Nu ska vi ta en djupare titt på datan.
+
+Återigen, frågan som klienten vill ha svar på: **Ger passagerare i gula taxibilar i New York City mer dricks till chaufförer på vintern eller sommaren?**
+
+Ditt team befinner sig i [Analyseringsfasen](README.md) av Data Science Lifecycle, där ni ansvarar för att utföra explorativ dataanalys på datasetet. Ni har fått en notebook och dataset som innehåller 200 taxitransaktioner från januari och juli 2019.
+
+## Instruktioner
+
+I denna katalog finns en [notebook](assignment.ipynb) och data från [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Hänvisa till [datasetets ordbok](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) och [användarhandbok](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) för mer information om datan.
+
+Använd några av teknikerna från denna lektion för att göra din egen EDA i notebooken (lägg till celler om du vill) och besvara följande frågor:
+
+- Vilka andra faktorer i datan kan påverka dricksbeloppet?
+- Vilka kolumner kommer troligtvis inte att behövas för att besvara klientens frågor?
+- Baserat på det som har tillhandahållits hittills, verkar datan ge några bevis på säsongsbetonat dricksbeteende?
+
+## Bedömningskriterier
+
+Utmärkt | Tillräckligt | Behöver förbättras
+--- | --- | ---
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/16-communication/README.md b/translations/sv/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..3381ec14
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,222 @@
+
+# Livscykeln för datavetenskap: Kommunikation
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Livscykeln för datavetenskap: Kommunikation - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz före föreläsning](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Testa dina kunskaper om vad som kommer att tas upp med quizet ovan!
+
+# Introduktion
+
+### Vad är kommunikation?
+Låt oss börja denna lektion med att definiera vad det innebär att kommunicera. **Att kommunicera är att förmedla eller utbyta information.** Information kan vara idéer, tankar, känslor, meddelanden, dolda signaler, data – allt som en **_avsändare_** (någon som skickar information) vill att en **_mottagare_** (någon som tar emot information) ska förstå. I denna lektion kommer vi att referera till avsändare som kommunikatörer och mottagare som publiken.
+
+### Datakommunikation & Berättande
+Vi förstår att syftet med kommunikation är att förmedla eller utbyta information. Men när du kommunicerar data bör målet inte bara vara att överföra siffror till din publik. Målet bör vara att berätta en historia som baseras på din data – effektiv datakommunikation och berättande går hand i hand. Din publik kommer troligen att minnas en historia du berättar bättre än en siffra du ger. Senare i denna lektion kommer vi att gå igenom några sätt att använda berättande för att kommunicera din data mer effektivt.
+
+### Typer av kommunikation
+Under denna lektion kommer två olika typer av kommunikation att diskuteras: Envägskommunikation och Tvåvägskommunikation.
+
+**Envägskommunikation** sker när en avsändare skickar information till en mottagare utan att få någon feedback eller svar. Vi ser exempel på envägskommunikation varje dag – i massutskick via e-post, när nyheterna rapporterar de senaste händelserna, eller när en TV-reklam informerar dig om varför deras produkt är fantastisk. I dessa fall söker avsändaren inte ett informationsutbyte, utan endast att förmedla information.
+
+**Tvåvägskommunikation** sker när alla inblandade parter agerar både som avsändare och mottagare. En avsändare börjar med att kommunicera till en mottagare, och mottagaren ger feedback eller ett svar. Tvåvägskommunikation är vad vi traditionellt tänker på när vi pratar om kommunikation. Vi tänker ofta på människor som har en konversation – antingen personligen, via telefonsamtal, sociala medier eller textmeddelanden.
+
+När du kommunicerar data kommer det att finnas tillfällen då du använder envägskommunikation (tänk på att presentera vid en konferens eller för en stor grupp där frågor inte ställs direkt efteråt) och tillfällen då du använder tvåvägskommunikation (tänk på att använda data för att övertyga några intressenter om att investera, eller för att övertyga en kollega om att tid och resurser bör läggas på att bygga något nytt).
+
+# Effektiv kommunikation
+
+### Dina ansvarsområden som kommunikatör
+När du kommunicerar är det ditt jobb att se till att dina mottagare tar till sig den information du vill att de ska ta till sig. När du kommunicerar data vill du inte bara att dina mottagare ska ta till sig siffror, du vill att de ska ta till sig en historia som baseras på din data. En bra datakommunikatör är en bra berättare.
+
+Hur berättar du en historia med data? Det finns oändliga sätt – men nedan är 6 som vi kommer att prata om i denna lektion:
+1. Förstå din publik, din kanal och din kommunikationsmetod
+2. Börja med slutet i åtanke
+3. Närma dig det som en riktig berättelse
+4. Använd meningsfulla ord och fraser
+5. Använd känslor
+
+Varje strategi förklaras mer ingående nedan.
+
+### 1. Förstå din publik, din kanal och din kommunikationsmetod
+Sättet du kommunicerar med familjemedlemmar är troligen annorlunda än sättet du kommunicerar med dina vänner. Du använder förmodligen olika ord och fraser som de personer du pratar med är mer benägna att förstå. Du bör ta samma tillvägagångssätt när du kommunicerar data. Tänk på vem du kommunicerar med. Tänk på deras mål och den kontext de har kring situationen du förklarar för dem.
+
+Du kan troligen gruppera majoriteten av din publik inom en kategori. I en artikel från _Harvard Business Review_, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” identifierar Dell Executive Strategist Jim Stikeleather fem kategorier av publik:
+
+- **Nybörjare**: första exponeringen för ämnet, men vill inte ha en överförenkling
+- **Generalist**: medveten om ämnet, men söker en översikt och huvudteman
+- **Ledare**: djupgående, handlingsbar förståelse av detaljer och samband med tillgång till detaljer
+- **Expert**: mer utforskning och upptäckt och mindre berättande med stor detaljrikedom
+- **Chef**: har bara tid att förstå betydelsen och slutsatserna av viktade sannolikheter
+
+Dessa kategorier kan informera hur du presenterar data för din publik.
+
+Utöver att tänka på din publiks kategori bör du också överväga kanalen du använder för att kommunicera med din publik. Din metod bör vara något annorlunda om du skriver ett memo eller e-post jämfört med att ha ett möte eller presentera vid en konferens.
+
+Att förstå din publik och veta hur du kommer att kommunicera med dem (använder envägskommunikation eller tvåvägskommunikation) är också avgörande.
+
+Om du kommunicerar med en majoritet nybörjare och använder envägskommunikation måste du först utbilda publiken och ge dem rätt kontext. Sedan måste du presentera din data för dem och berätta vad din data betyder och varför den är viktig. I detta fall kan det vara viktigt att fokusera på tydlighet, eftersom din publik inte kommer att kunna ställa direkta frågor.
+
+Om du kommunicerar med en majoritet ledare och använder tvåvägskommunikation behöver du troligen inte utbilda din publik eller ge dem mycket kontext. Du kan kanske gå direkt till att diskutera den data du har samlat in och varför den är viktig. I detta scenario bör du dock fokusera på timing och kontrollera din presentation. När du använder tvåvägskommunikation (särskilt med en ledarpublik som söker en "handlingsbar förståelse av detaljer och samband med tillgång till detaljer") kan frågor dyka upp under interaktionen som kan ta diskussionen i en riktning som inte relaterar till den historia du försöker berätta. När detta händer kan du agera och föra diskussionen tillbaka till din historia.
+
+### 2. Börja med slutet i åtanke
+Att börja med slutet i åtanke innebär att förstå dina avsedda slutsatser för din publik innan du börjar kommunicera med dem. Att vara genomtänkt kring vad du vill att din publik ska ta med sig i förväg kan hjälpa dig att skapa en historia som din publik kan följa. Att börja med slutet i åtanke är lämpligt för både envägskommunikation och tvåvägskommunikation.
+
+Hur börjar du med slutet i åtanke? Innan du kommunicerar din data, skriv ner dina nyckelslutsatser. Sedan, varje steg på vägen när du förbereder den historia du vill berätta med din data, fråga dig själv: "Hur integreras detta i den historia jag berättar?"
+
+Var medveten – även om det är idealiskt att börja med slutet i åtanke, vill du inte bara kommunicera den data som stödjer dina avsedda slutsatser. Detta kallas för "Cherry-Picking", vilket sker när en kommunikatör endast kommunicerar data som stödjer den poäng de försöker göra och ignorerar all annan data.
+
+Om all data du samlat in tydligt stödjer dina avsedda slutsatser, fantastiskt. Men om det finns data som du samlat in som inte stödjer dina slutsatser, eller till och med stödjer ett argument mot dina nyckelslutsatser, bör du kommunicera den datan också. Om detta händer, var ärlig med din publik och låt dem veta varför du väljer att hålla fast vid din historia även om all data inte nödvändigtvis stödjer den.
+
+### 3. Närma dig det som en riktig berättelse
+En traditionell berättelse sker i 5 faser. Du kanske har hört dessa faser uttryckas som Exposition, Rising Action, Climax, Falling Action och Denouement. Eller de enklare att komma ihåg: Kontext, Konflikt, Klimax, Avslutning, Slutsats. När du kommunicerar din data och din historia kan du ta en liknande metod.
+
+Du kan börja med kontext, sätta scenen och se till att din publik är på samma sida. Sedan introducerar du konflikten. Varför behövde du samla in denna data? Vilka problem försökte du lösa? Därefter kommer klimaxet. Vad är datan? Vad betyder datan? Vilka lösningar visar datan att vi behöver? Sedan kommer du till avslutningen, där du kan upprepa problemet och de föreslagna lösningarna. Slutligen kommer vi till slutsatsen, där du kan sammanfatta dina nyckelslutsatser och de nästa steg du rekommenderar att teamet tar.
+
+### 4. Använd meningsfulla ord och fraser
+Om du och jag arbetade tillsammans på en produkt och jag sa till dig "Våra användare tar lång tid på sig att registrera sig på vår plattform," hur lång tid skulle du uppskatta att "lång tid" är? En timme? En vecka? Det är svårt att veta. Vad om jag sa det till en hel publik? Alla i publiken kan få olika idéer om hur lång tid det tar för användare att registrera sig på vår plattform.
+
+Istället, vad om jag sa "Våra användare tar i genomsnitt 3 minuter att registrera sig och komma igång på vår plattform."
+
+Det budskapet är tydligare. När du kommunicerar data kan det vara lätt att tro att alla i din publik tänker precis som du. Men det är inte alltid fallet. Att skapa tydlighet kring din data och vad den betyder är ett av dina ansvar som kommunikatör. Om datan eller din historia inte är tydlig kommer din publik att ha svårt att följa, och det är mindre sannolikt att de förstår dina nyckelslutsatser.
+
+Du kan kommunicera data mer tydligt när du använder meningsfulla ord och fraser istället för vaga. Nedan är några exempel.
+
+- Vi hade ett *imponerande* år!
+ - En person kan tro att imponerande betyder en ökning på 2% - 3% i intäkter, och en annan kan tro att det betyder en ökning på 50% - 60%.
+- Våra användares framgångsgrad ökade *dramatiskt*.
+ - Hur stor ökning är en dramatisk ökning?
+- Detta projekt kommer att kräva *betydande* ansträngning.
+ - Hur mycket ansträngning är betydande?
+
+Att använda vaga ord kan vara användbart som en introduktion till mer data som kommer, eller som en sammanfattning av den historia du just berättat. Men överväg att säkerställa att varje del av din presentation är tydlig för din publik.
+
+### 5. Använd känslor
+Känslor är nyckeln i berättande. Det är ännu viktigare när du berättar en historia med data. När du kommunicerar data är allt fokuserat på de slutsatser du vill att din publik ska ha. När du väcker en känsla hos en publik hjälper det dem att känna empati och gör dem mer benägna att agera. Känslor ökar också sannolikheten att en publik kommer att minnas ditt budskap.
+
+Du kanske har stött på detta tidigare med TV-reklamer. Vissa reklamer är väldigt allvarliga och använder en sorglig känsla för att ansluta till sin publik och göra den data de presenterar verkligen framträdande. Eller, vissa reklamer är väldigt glada och positiva och kan få dig att associera deras data med en lycklig känsla.
+
+Hur använder du känslor när du kommunicerar data? Nedan är några sätt.
+
+- Använd vittnesmål och personliga berättelser
+ - När du samlar in data, försök att samla in både kvantitativ och kvalitativ data, och integrera båda typerna av data när du kommunicerar. Om din data främst är kvantitativ, sök berättelser från individer för att lära dig mer om deras erfarenheter med det din data berättar.
+- Använd bilder
+ - Bilder hjälper en publik att se sig själva i en situation. När du använder bilder kan du styra en publik mot den känsla du tycker att de bör ha om din data.
+- Använd färg
+ - Olika färger väcker olika känslor. Populära färger och de känslor de väcker är nedan. Var medveten om att färger kan ha olika betydelser i olika kulturer.
+ - Blå väcker vanligtvis känslor av lugn och tillit
+ - Grön är vanligtvis relaterad till natur och miljö
+ - Röd är vanligtvis passion och spänning
+ - Gul är vanligtvis optimism och glädje
+
+# Kommunikationsfallstudie
+Emerson är produktchef för en mobilapp. Emerson har märkt att kunder skickar in 42% fler klagomål och buggrapporter under helgerna. Emerson har också märkt att kunder som skickar in ett klagomål som förblir obesvarat efter 48 timmar är 32% mer benägna att ge appen ett betyg på 1 eller 2 i appbutiken.
+
+Efter att ha gjort forskning har Emerson ett par lösningar som kommer att adressera problemet. Emerson bokar ett 30-minuters möte med de tre företagsledarna för att kommunicera datan och de föreslagna lösningarna.
+
+Under detta möte är Emersons mål att få företagsledarna att förstå att de två lösningarna nedan kan förbättra appens betyg, vilket troligen kommer att översättas till högre intäkter.
+
+**Lösning 1.** Anställa kundtjänstmedarbetare som arbetar på helger
+
+**Lösning 2.** Köpa ett nytt system för kundtjänstärenden där kundtjänstmedarbetare enkelt kan identifiera vilka klagomål som har varit i kön längst – så att de kan se vilka som ska hanteras mest omedelbart.
+Under mötet spenderar Emerson 5 minuter på att förklara varför ett lågt betyg i appbutiken är dåligt, 10 minuter på att förklara forskningsprocessen och hur trender identifierades, 10 minuter på att gå igenom några av de senaste kundklagomålen, och de sista 5 minuterna på att snabbt nämna de två potentiella lösningarna.
+
+Var detta ett effektivt sätt för Emerson att kommunicera under mötet?
+
+Under mötet fastnade en av företagsledarna vid de 10 minuter som Emerson ägnade åt kundklagomålen. Efter mötet var dessa klagomål det enda som denna ledare kom ihåg. En annan företagsledare fokuserade främst på Emersons beskrivning av forskningsprocessen. Den tredje företagsledaren kom ihåg de lösningar som Emerson föreslog, men var osäker på hur dessa lösningar skulle kunna implementeras.
+
+I situationen ovan kan man se att det fanns en betydande skillnad mellan vad Emerson ville att företagsledarna skulle ta med sig och vad de faktiskt tog med sig från mötet. Nedan finns ett annat tillvägagångssätt som Emerson skulle kunna överväga.
+
+Hur kan Emerson förbättra detta tillvägagångssätt?
+Kontext, Konflikt, Klimax, Avslutning, Slutsats
+**Kontext** – Emerson skulle kunna spendera de första 5 minuterna på att introducera hela situationen och säkerställa att företagsledarna förstår hur problemen påverkar nyckeltal som är kritiska för företaget, som intäkter.
+
+Det skulle kunna läggas upp så här: "För närvarande är vårt apps betyg i appbutiken 2,5. Betyg i appbutiken är avgörande för App Store-optimering, vilket påverkar hur många användare som ser vår app i sökningar och hur vår app uppfattas av potentiella användare. Och naturligtvis är antalet användare direkt kopplat till intäkterna."
+
+**Konflikt** Emerson skulle sedan kunna ägna cirka 5 minuter åt att prata om konflikten.
+
+Det skulle kunna låta så här: "Användare skickar in 42 % fler klagomål och felrapporter under helgerna. Kunder som skickar in ett klagomål som förblir obesvarat efter 48 timmar är 32 % mindre benägna att ge vår app ett betyg över 2 i appbutiken. Att förbättra vårt apps betyg i appbutiken till 4 skulle förbättra vår synlighet med 20–30 %, vilket jag beräknar skulle öka intäkterna med 10 %." Självklart bör Emerson vara beredd att motivera dessa siffror.
+
+**Klimax** Efter att ha lagt grunden skulle Emerson kunna gå vidare till klimaxet i cirka 5 minuter.
+
+Emerson skulle kunna presentera de föreslagna lösningarna, beskriva hur dessa lösningar kommer att hantera de problem som identifierats, hur lösningarna kan implementeras i befintliga arbetsflöden, vad lösningarna kostar, vilken avkastning de skulle ge, och kanske till och med visa några skärmdumpar eller wireframes av hur lösningarna skulle se ut om de implementerades. Emerson skulle också kunna dela med sig av vittnesmål från användare som fått vänta över 48 timmar på att få sina klagomål hanterade, samt ett vittnesmål från en nuvarande kundtjänstrepresentant inom företaget som har kommentarer om det nuvarande ärendehanteringssystemet.
+
+**Avslutning** Nu kan Emerson spendera 5 minuter på att återigen gå igenom de problem som företaget står inför, återbesöka de föreslagna lösningarna och sammanfatta varför dessa lösningar är de rätta.
+
+**Slutsats** Eftersom detta är ett möte med några intressenter där tvåvägskommunikation kommer att användas, skulle Emerson kunna planera att lämna 10 minuter för frågor, för att säkerställa att allt som var oklart för företagsledarna kan klargöras innan mötet avslutas.
+
+Om Emerson använde tillvägagångssätt #2 är det mycket mer sannolikt att företagsledarna tar med sig från mötet precis det som Emerson avsåg – att sättet klagomål och buggar hanteras på kan förbättras, och att det finns två lösningar som kan implementeras för att göra denna förbättring möjlig. Detta tillvägagångssätt skulle vara ett mycket mer effektivt sätt att kommunicera den data och den berättelse som Emerson vill förmedla.
+
+# Slutsats
+### Sammanfattning av huvudpunkter
+- Att kommunicera innebär att förmedla eller utbyta information.
+- När du kommunicerar data bör ditt mål inte bara vara att förmedla siffror till din publik. Ditt mål bör vara att kommunicera en berättelse som är informerad av din data.
+- Det finns två typer av kommunikation: envägskommunikation (information förmedlas utan avsikt att få ett svar) och tvåvägskommunikation (information förmedlas fram och tillbaka).
+- Det finns många strategier du kan använda för att berätta en historia med din data. Fem strategier vi gick igenom är:
+ - Förstå din publik, ditt medium och din kommunikationsmetod
+ - Börja med slutet i åtanke
+ - Närma dig det som en riktig berättelse
+ - Använd meningsfulla ord och fraser
+ - Använd känslor
+
+### Rekommenderade resurser för självstudier
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Efterföreläsningsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Gå igenom vad du just lärt dig med Efterföreläsningsquizet ovan!
+
+## Uppgift
+
+[Marknadsundersökning](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/sv/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..7ba73031
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Berätta en historia
+
+## Instruktioner
+
+Data Science handlar om att berätta historier. Välj valfri dataset och skriv en kort uppsats om en historia du skulle kunna berätta med den. Vad hoppas du att din dataset kan avslöja? Vad kommer du att göra om dess avslöjanden visar sig vara problematiska? Vad händer om din data inte enkelt avslöjar sina hemligheter? Tänk på de scenarier som din dataset kan presentera och skriv ner dem.
+
+## Bedömningskriterier
+
+Föredömligt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+
+En uppsats på en sida presenteras i .doc-format där datasetet förklaras, dokumenteras, krediteras och en sammanhängande historia presenteras med detaljerade exempel från datan.| En kortare uppsats presenteras i mindre detaljerat format | Uppsatsen saknar en eller flera av ovanstående detaljer.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/4-Data-Science-Lifecycle/README.md b/translations/sv/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..24dbe9f9
--- /dev/null
+++ b/translations/sv/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Livscykeln för Data Science
+
+
+> Foto av Headway på Unsplash
+
+I dessa lektioner kommer du att utforska några aspekter av livscykeln för Data Science, inklusive analys och kommunikation kring data.
+
+### Ämnen
+
+1. [Introduktion](14-Introduction/README.md)
+2. [Analysera](15-analyzing/README.md)
+3. [Kommunikation](16-communication/README.md)
+
+### Krediter
+
+Dessa lektioner skrevs med ❤️ av [Jalen McGee](https://twitter.com/JalenMCG) och [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/sv/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..19d27850
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,113 @@
+
+# Introduktion till Data Science i Molnet
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data Science i Molnet: Introduktion - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+I denna lektion kommer du att lära dig de grundläggande principerna för molnet, varför det kan vara intressant att använda molntjänster för att driva dina data science-projekt, och vi kommer att titta på några exempel på data science-projekt som körs i molnet.
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Vad är molnet?
+
+Molnet, eller molnbaserad databehandling, är leveransen av ett brett utbud av betalningsbaserade datatjänster som är värd på en infrastruktur via internet. Tjänsterna inkluderar lösningar som lagring, databaser, nätverk, mjukvara, analys och intelligenta tjänster.
+
+Vi brukar skilja mellan offentliga, privata och hybrida moln enligt följande:
+
+* Offentligt moln: ett offentligt moln ägs och drivs av en tredje part som tillhandahåller sina databehandlingsresurser via internet till allmänheten.
+* Privat moln: avser databehandlingsresurser som används exklusivt av ett enda företag eller organisation, med tjänster och en infrastruktur som underhålls på ett privat nätverk.
+* Hybridmoln: hybridmolnet är ett system som kombinerar offentliga och privata moln. Användare väljer ett datacenter på plats, samtidigt som de tillåter data och applikationer att köras på ett eller flera offentliga moln.
+
+De flesta molntjänster faller inom tre kategorier: Infrastruktur som en tjänst (IaaS), Plattform som en tjänst (PaaS) och Mjukvara som en tjänst (SaaS).
+
+* Infrastruktur som en tjänst (IaaS): användare hyr en IT-infrastruktur som servrar och virtuella maskiner (VM), lagring, nätverk, operativsystem.
+* Plattform som en tjänst (PaaS): användare hyr en miljö för att utveckla, testa, leverera och hantera mjukvaruapplikationer. Användare behöver inte oroa sig för att ställa in eller hantera den underliggande infrastrukturen av servrar, lagring, nätverk och databaser som behövs för utveckling.
+* Mjukvara som en tjänst (SaaS): användare får tillgång till mjukvaruapplikationer via internet, på begäran och vanligtvis på abonnemangsbasis. Användare behöver inte oroa sig för att värda och hantera mjukvaruapplikationen, den underliggande infrastrukturen eller underhållet, som mjukvaruuppdateringar och säkerhetsåtgärder.
+
+Några av de största molnleverantörerna är Amazon Web Services, Google Cloud Platform och Microsoft Azure.
+
+## Varför välja molnet för Data Science?
+
+Utvecklare och IT-proffs väljer att arbeta med molnet av många skäl, inklusive följande:
+
+* Innovation: du kan driva dina applikationer genom att integrera innovativa tjänster skapade av molnleverantörer direkt i dina appar.
+* Flexibilitet: du betalar bara för de tjänster du behöver och kan välja från ett brett utbud av tjänster. Du betalar vanligtvis efter användning och anpassar dina tjänster efter dina föränderliga behov.
+* Budget: du behöver inte göra initiala investeringar för att köpa hårdvara och mjukvara, ställa in och driva datacenter på plats, och du kan bara betala för det du använder.
+* Skalbarhet: dina resurser kan skalas efter projektets behov, vilket innebär att dina appar kan använda mer eller mindre datorkraft, lagring och bandbredd, genom att anpassa sig till externa faktorer vid varje given tidpunkt.
+* Produktivitet: du kan fokusera på din verksamhet istället för att spendera tid på uppgifter som kan hanteras av någon annan, såsom att hantera datacenter.
+* Tillförlitlighet: molnbaserad databehandling erbjuder flera sätt att kontinuerligt säkerhetskopiera dina data och du kan skapa katastrofåterställningsplaner för att hålla din verksamhet och dina tjänster igång, även i krissituationer.
+* Säkerhet: du kan dra nytta av policyer, teknologier och kontroller som stärker säkerheten för ditt projekt.
+
+Detta är några av de vanligaste anledningarna till varför människor väljer att använda molntjänster. Nu när vi har en bättre förståelse för vad molnet är och dess huvudsakliga fördelar, låt oss titta mer specifikt på arbetet som dataforskare och utvecklare som arbetar med data, och hur molnet kan hjälpa dem med flera utmaningar de kan möta:
+
+* Lagra stora mängder data: istället för att köpa, hantera och skydda stora servrar kan du lagra dina data direkt i molnet, med lösningar som Azure Cosmos DB, Azure SQL Database och Azure Data Lake Storage.
+* Utföra dataintegration: dataintegration är en viktig del av Data Science, som låter dig göra övergången från datainsamling till att vidta åtgärder. Med dataintegrationstjänster som erbjuds i molnet kan du samla in, transformera och integrera data från olika källor till ett enda datalager, med Data Factory.
+* Bearbeta data: att bearbeta stora mängder data kräver mycket datorkraft, och inte alla har tillgång till tillräckligt kraftfulla maskiner för det, vilket är anledningen till att många väljer att direkt utnyttja molnets enorma datorkraft för att köra och distribuera sina lösningar.
+* Använda dataanalystjänster: molntjänster som Azure Synapse Analytics, Azure Stream Analytics och Azure Databricks hjälper dig att omvandla dina data till användbara insikter.
+* Använda maskininlärning och dataintelligens-tjänster: istället för att börja från grunden kan du använda maskininlärningsalgoritmer som erbjuds av molnleverantören, med tjänster som AzureML. Du kan också använda kognitiva tjänster som tal-till-text, text-till-tal, datorseende och mer.
+
+## Exempel på Data Science i molnet
+
+Låt oss göra detta mer konkret genom att titta på ett par scenarier.
+
+### Realtidsanalys av sociala mediers sentiment
+Vi börjar med ett scenario som ofta studeras av personer som börjar med maskininlärning: sentimentanalys av sociala medier i realtid.
+
+Låt oss säga att du driver en nyhetswebbplats och vill utnyttja live-data för att förstå vilket innehåll dina läsare kan vara intresserade av. För att ta reda på mer om detta kan du bygga ett program som utför sentimentanalys i realtid av data från Twitter-publikationer, om ämnen som är relevanta för dina läsare.
+
+De nyckelindikatorer du kommer att titta på är volymen av tweets om specifika ämnen (hashtags) och sentiment, som fastställs med hjälp av analysverktyg som utför sentimentanalys kring de angivna ämnena.
+
+Stegen som krävs för att skapa detta projekt är följande:
+
+* Skapa en event hub för att strömma indata, som kommer att samla in data från Twitter.
+* Konfigurera och starta en Twitter-klientapplikation, som kommer att anropa Twitter Streaming APIs.
+* Skapa ett Stream Analytics-jobb.
+* Ange jobbets indata och fråga.
+* Skapa en output-sink och ange jobbets output.
+* Starta jobbet.
+
+För att se hela processen, kolla in [dokumentationen](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Analys av vetenskapliga artiklar
+Låt oss ta ett annat exempel på ett projekt skapat av [Dmitry Soshnikov](http://soshnikov.com), en av författarna till denna kursplan.
+
+Dmitry skapade ett verktyg som analyserar COVID-artiklar. Genom att granska detta projekt kommer du att se hur du kan skapa ett verktyg som extraherar kunskap från vetenskapliga artiklar, får insikter och hjälper forskare att navigera genom stora samlingar av artiklar på ett effektivt sätt.
+
+Låt oss se de olika stegen som används för detta:
+* Extrahera och förbehandla information med [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Använda [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) för att parallellisera bearbetningen.
+* Lagra och fråga information med [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Skapa en interaktiv dashboard för datautforskning och visualisering med Power BI.
+
+För att se hela processen, besök [Dmitrys blogg](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Som du kan se kan vi utnyttja molntjänster på många sätt för att utföra Data Science.
+
+## Fotnot
+
+Källor:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Quiz efter föreläsningen
+
+[Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Uppgift
+
+[Marknadsundersökning](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/sv/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..7ebd2a76
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Marknadsundersökning
+
+## Instruktioner
+
+I den här lektionen lärde du dig att det finns flera viktiga molnleverantörer. Gör en marknadsundersökning för att ta reda på vad var och en kan erbjuda Data Scientists. Är erbjudandena jämförbara? Skriv en uppsats som beskriver erbjudandena från tre eller fler av dessa molnleverantörer.
+
+## Bedömningskriterier
+
+Föredömligt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+En en-sidig uppsats beskriver tre molnleverantörers erbjudanden för data science och skiljer dem åt. | En kortare uppsats presenteras | En uppsats presenteras utan att analysen är fullständig
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/sv/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..518d22a1
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,348 @@
+
+# Data Science i molnet: "Low code/No code"-metoden
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Data Science i molnet: Low Code - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Innehållsförteckning:
+
+- [Data Science i molnet: "Low code/No code"-metoden](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz före föreläsningen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Introduktion](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Vad är Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Projektet för att förutsäga hjärtsvikt:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Datasetet för hjärtsvikt:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Low code/No code-träning av en modell i Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Skapa en Azure ML-arbetsyta](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Beräkningsresurser](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Välja rätt alternativ för dina beräkningsresurser](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Skapa en beräkningskluster](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Ladda datasetet](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Low code/No code-träning med AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Low code/No code-modellimplementering och användning av endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Modellimplementering](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Användning av endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Utmaning](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz efter föreläsningen](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Granskning & Självstudier](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Uppgift](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Introduktion
+### 1.1 Vad är Azure Machine Learning?
+
+Azure-molnplattformen består av över 200 produkter och molntjänster som är utformade för att hjälpa dig att skapa nya lösningar. Dataforskare lägger mycket tid på att utforska och förbehandla data samt att testa olika algoritmer för modellträning för att skapa exakta modeller. Dessa uppgifter är tidskrävande och kan ofta leda till ineffektiv användning av dyr hårdvara.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) är en molnbaserad plattform för att bygga och driva lösningar för maskininlärning i Azure. Den innehåller ett brett utbud av funktioner som hjälper dataforskare att förbereda data, träna modeller, publicera prediktiva tjänster och övervaka deras användning. Framför allt ökar den effektiviteten genom att automatisera många av de tidskrävande uppgifterna som är förknippade med modellträning, och den gör det möjligt att använda molnbaserade beräkningsresurser som kan skalas effektivt för att hantera stora datamängder, med kostnader endast när resurserna används.
+
+Azure ML erbjuder alla verktyg som utvecklare och dataforskare behöver för sina arbetsflöden inom maskininlärning. Dessa inkluderar:
+
+- **Azure Machine Learning Studio**: En webbportal i Azure Machine Learning för low-code och no-code-alternativ för modellträning, implementering, automatisering, spårning och hantering av tillgångar. Studion integreras med Azure Machine Learning SDK för en smidig upplevelse.
+- **Jupyter Notebooks**: Snabbt prototypa och testa ML-modeller.
+- **Azure Machine Learning Designer**: Möjliggör drag-och-släpp-moduler för att bygga experiment och sedan implementera pipelines i en low-code-miljö.
+- **Automated machine learning UI (AutoML)**: Automatiserar iterativa uppgifter inom utveckling av maskininlärningsmodeller, vilket möjliggör skapande av ML-modeller med hög skala, effektivitet och produktivitet, samtidigt som modellkvaliteten bibehålls.
+- **Data Labelling**: Ett assisterat ML-verktyg för att automatiskt märka data.
+- **Maskininlärningstillägg för Visual Studio Code**: Ger en fullständig utvecklingsmiljö för att bygga och hantera ML-projekt.
+- **Maskininlärning CLI**: Ger kommandon för att hantera Azure ML-resurser från kommandoraden.
+- **Integration med open-source-ramverk** som PyTorch, TensorFlow, Scikit-learn och många fler för att träna, implementera och hantera hela processen för maskininlärning.
+- **MLflow**: Ett open-source-bibliotek för att hantera livscykeln för dina experiment inom maskininlärning. **MLFlow Tracking** är en komponent av MLflow som loggar och spårar dina träningskörningsmetrik och modellartefakter, oavsett experimentets miljö.
+
+### 1.2 Projektet för att förutsäga hjärtsvikt:
+
+Det råder ingen tvekan om att skapa och bygga projekt är det bästa sättet att sätta dina färdigheter och kunskaper på prov. I denna lektion ska vi utforska två olika sätt att bygga ett datavetenskapsprojekt för att förutsäga hjärtsvikt i Azure ML Studio, genom Low code/No code och genom Azure ML SDK, som visas i följande schema:
+
+
+
+Varje metod har sina egna för- och nackdelar. Low code/No code-metoden är enklare att börja med eftersom den innebär interaktion med en GUI (grafiskt användargränssnitt), utan krav på tidigare kunskaper i kod. Denna metod möjliggör snabb testning av projektets genomförbarhet och skapande av POC (Proof Of Concept). Men när projektet växer och saker behöver vara produktionsklara är det inte hållbart att skapa resurser via GUI. Då behöver vi programmera och automatisera allt, från skapandet av resurser till implementeringen av en modell. Här blir kunskaper i Azure ML SDK avgörande.
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Kodkunskaper | Ej nödvändigt | Nödvändigt |
+| Utvecklingstid | Snabb och enkel | Beror på kodkunskaper |
+| Produktionsklar | Nej | Ja |
+
+### 1.3 Datasetet för hjärtsvikt:
+
+Kardiovaskulära sjukdomar (CVDs) är den främsta dödsorsaken globalt och står för 31% av alla dödsfall världen över. Miljö- och beteenderiskfaktorer som tobaksanvändning, ohälsosam kost och fetma, fysisk inaktivitet och skadlig alkoholkonsumtion kan användas som funktioner för uppskattningsmodeller. Att kunna uppskatta sannolikheten för att utveckla en CVD kan vara mycket användbart för att förebygga attacker hos högriskpersoner.
+
+Kaggle har gjort ett [dataset för hjärtsvikt](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) offentligt tillgängligt, som vi ska använda för detta projekt. Du kan ladda ner datasetet nu. Detta är ett tabellformat dataset med 13 kolumner (12 funktioner och 1 målvariabel) och 299 rader.
+
+| | Variabelnamn | Typ | Beskrivning | Exempel |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numerisk | Patientens ålder | 25 |
+| 2 | anaemia | boolean | Minskning av röda blodkroppar eller hemoglobin | 0 eller 1 |
+| 3 | creatinine_phosphokinase | numerisk | Nivå av CPK-enzym i blodet | 542 |
+| 4 | diabetes | boolean | Om patienten har diabetes | 0 eller 1 |
+| 5 | ejection_fraction | numerisk | Procentandel blod som lämnar hjärtat vid varje sammandragning | 45 |
+| 6 | high_blood_pressure | boolean | Om patienten har högt blodtryck | 0 eller 1 |
+| 7 | platelets | numerisk | Trombocyter i blodet | 149000 |
+| 8 | serum_creatinine | numerisk | Nivå av serumkreatinin i blodet | 0.5 |
+| 9 | serum_sodium | numerisk | Nivå av serumnatrium i blodet | jun |
+| 10 | sex | boolean | Kvinna eller man | 0 eller 1 |
+| 11 | smoking | boolean | Om patienten röker | 0 eller 1 |
+| 12 | time | numerisk | Uppföljningsperiod (dagar) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Målvariabel] | boolean | Om patienten dör under uppföljningsperioden | 0 eller 1 |
+
+När du har datasetet kan vi börja projektet i Azure.
+
+## 2. Low code/No code-träning av en modell i Azure ML Studio
+### 2.1 Skapa en Azure ML-arbetsyta
+För att träna en modell i Azure ML måste du först skapa en Azure ML-arbetsyta. Arbetsytan är den översta resursen för Azure Machine Learning och ger en central plats för att arbeta med alla artefakter du skapar när du använder Azure Machine Learning. Arbetsytan håller en historik över alla träningskörningar, inklusive loggar, metrik, utdata och en ögonblicksbild av dina skript. Du använder denna information för att avgöra vilken träningskörning som producerar den bästa modellen. [Läs mer](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Det rekommenderas att använda den mest uppdaterade webbläsaren som är kompatibel med ditt operativsystem. Följande webbläsare stöds:
+
+- Microsoft Edge (Den nya Microsoft Edge, senaste versionen. Inte Microsoft Edge legacy)
+- Safari (senaste versionen, endast Mac)
+- Chrome (senaste versionen)
+- Firefox (senaste versionen)
+
+För att använda Azure Machine Learning, skapa en arbetsyta i din Azure-prenumeration. Du kan sedan använda denna arbetsyta för att hantera data, beräkningsresurser, kod, modeller och andra artefakter relaterade till dina arbetsflöden inom maskininlärning.
+
+> **_OBS:_** Din Azure-prenumeration kommer att debiteras en liten summa för datalagring så länge som Azure Machine Learning-arbetsytan finns i din prenumeration, så vi rekommenderar att du tar bort arbetsytan när du inte längre använder den.
+
+1. Logga in på [Azure-portalen](https://ms.portal.azure.com/) med de Microsoft-uppgifter som är kopplade till din Azure-prenumeration.
+2. Välj **+Skapa en resurs**
+
+ 
+
+ Sök efter Machine Learning och välj Machine Learning-tile
+
+ 
+
+ Klicka på skapa-knappen
+
+ 
+
+ Fyll i inställningarna enligt följande:
+ - Prenumeration: Din Azure-prenumeration
+ - Resursgrupp: Skapa eller välj en resursgrupp
+ - Arbetsytans namn: Ange ett unikt namn för din arbetsyta
+ - Region: Välj den geografiska regionen närmast dig
+ - Lagringskonto: Notera det nya standardlagringskonto som kommer att skapas för din arbetsyta
+ - Nyckelvalv: Notera det nya standardnyckelvalv som kommer att skapas för din arbetsyta
+ - Application insights: Notera den nya standardresursen för application insights som kommer att skapas för din arbetsyta
+ - Containerregister: Ingen (ett kommer att skapas automatiskt första gången du implementerar en modell till en container)
+
+ 
+
+ - Klicka på skapa + granska och sedan på skapa-knappen
+3. Vänta på att din arbetsyta ska skapas (detta kan ta några minuter). Gå sedan till den i portalen. Du kan hitta den via Azure-tjänsten Machine Learning.
+4. På översiktssidan för din arbetsyta, starta Azure Machine Learning Studio (eller öppna en ny webbläsarflik och navigera till https://ml.azure.com), och logga in på Azure Machine Learning Studio med ditt Microsoft-konto. Om du blir ombedd, välj din Azure-katalog och prenumeration, samt din Azure Machine Learning-arbetsyta.
+
+
+
+5. I Azure Machine Learning Studio, växla ☰-ikonen längst upp till vänster för att visa de olika sidorna i gränssnittet. Du kan använda dessa sidor för att hantera resurserna i din arbetsyta.
+
+
+
+Du kan hantera din arbetsyta via Azure-portalen, men för dataforskare och ingenjörer inom maskininlärningsoperationer erbjuder Azure Machine Learning Studio ett mer fokuserat användargränssnitt för att hantera arbetsytans resurser.
+
+### 2.2 Beräkningsresurser
+
+Beräkningsresurser är molnbaserade resurser där du kan köra modellträning och datautforskningsprocesser. Det finns fyra typer av beräkningsresurser du kan skapa:
+
+- **Beräkningsinstanser**: Utvecklingsarbetsstationer som dataforskare kan använda för att arbeta med data och modeller. Detta innebär skapandet av en virtuell maskin (VM) och start av en notebook-instans. Du kan sedan träna en modell genom att kalla på en beräkningskluster från notebooken.
+- **Beräkningskluster**: Skalbara kluster av virtuella maskiner för on-demand bearbetning av experimentkod. Du kommer att behöva det när du tränar en modell. Beräkningskluster kan också använda specialiserade GPU- eller CPU-resurser.
+- **Inferenskluster**: Implementeringsmål för prediktiva tjänster som använder dina tränade modeller.
+- **Attached Compute**: Länkar till befintliga Azure-beräkningsresurser, såsom virtuella maskiner eller Azure Databricks-kluster.
+
+#### 2.2.1 Välja rätt alternativ för dina beräkningsresurser
+
+Det finns några viktiga faktorer att tänka på när du skapar en beräkningsresurs, och dessa val kan vara avgörande beslut.
+
+**Behöver du CPU eller GPU?**
+
+En CPU (Central Processing Unit) är den elektroniska kretsen som utför instruktioner i ett datorprogram. En GPU (Graphics Processing Unit) är en specialiserad elektronisk krets som kan köra grafikrelaterad kod i mycket hög hastighet.
+
+Den huvudsakliga skillnaden mellan CPU och GPU-arkitektur är att en CPU är designad för att hantera ett brett spektrum av uppgifter snabbt (mätt i CPU-klockhastighet), men är begränsad i antalet samtidiga uppgifter som kan köras. GPUs är designade för parallell databehandling och är därför mycket bättre på djupinlärningsuppgifter.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Mindre kostsam | Dyrare |
+| Lägre nivå av samtidighet | Högre nivå av samtidighet |
+| Långsammare vid träning av djupinlärningsmodeller | Optimal för djupinlärning |
+
+**Klusterstorlek**
+
+Större kluster är dyrare men ger bättre responsivitet. Om du har tid men begränsad budget bör du börja med ett mindre kluster. Omvänt, om du har pengar men ont om tid, bör du börja med ett större kluster.
+
+**VM-storlek**
+
+Beroende på dina tids- och budgetbegränsningar kan du variera storleken på RAM, disk, antal kärnor och klockhastighet. Att öka alla dessa parametrar blir dyrare, men ger bättre prestanda.
+
+**Dedikerade eller lågprioriterade instanser?**
+
+En lågprioriterad instans innebär att den är avbrytbar: Microsoft Azure kan ta dessa resurser och tilldela dem till en annan uppgift, vilket avbryter jobbet. En dedikerad instans, eller icke-avbrytbar, innebär att jobbet aldrig kommer att avslutas utan ditt tillstånd. Detta är ytterligare en övervägning mellan tid och pengar, eftersom avbrytbara instanser är billigare än dedikerade.
+
+#### 2.2.2 Skapa ett beräkningskluster
+
+I [Azure ML-arbetsytan](https://ml.azure.com/) som vi skapade tidigare, gå till Compute och du kommer att kunna se de olika beräkningsresurserna vi just diskuterade (dvs. beräkningsinstanser, beräkningskluster, inferenskluster och anslutna beräkningar). För detta projekt kommer vi att behöva ett beräkningskluster för modellträning. I Studio, klicka på menyn "Compute", sedan fliken "Compute cluster" och klicka på knappen "+ New" för att skapa ett beräkningskluster.
+
+
+
+1. Välj dina alternativ: Dedikerad vs lågprioriterad, CPU eller GPU, VM-storlek och antal kärnor (du kan behålla standardinställningarna för detta projekt).
+2. Klicka på knappen Nästa.
+
+
+
+3. Ge klustret ett namn.
+4. Välj dina alternativ: Minsta/maximala antal noder, antal sekunder i viloläge innan nedskalning, SSH-åtkomst. Observera att om det minsta antalet noder är 0, sparar du pengar när klustret är vilande. Observera att ju högre antal maximala noder, desto kortare blir träningen. Det rekommenderade maximala antalet noder är 3.
+5. Klicka på knappen "Create". Detta steg kan ta några minuter.
+
+
+
+Fantastiskt! Nu när vi har ett beräkningskluster behöver vi ladda upp data till Azure ML Studio.
+
+### 2.3 Ladda upp datasetet
+
+1. I [Azure ML-arbetsytan](https://ml.azure.com/) som vi skapade tidigare, klicka på "Datasets" i vänstermenyn och klicka på knappen "+ Create dataset" för att skapa ett dataset. Välj alternativet "From local files" och välj Kaggle-datasetet vi laddade ner tidigare.
+
+ 
+
+2. Ge ditt dataset ett namn, en typ och en beskrivning. Klicka på Nästa. Ladda upp data från filer. Klicka på Nästa.
+
+ 
+
+3. I schemat, ändra datatypen till Boolean för följande funktioner: anaemia, diabetes, high blood pressure, sex, smoking och DEATH_EVENT. Klicka på Nästa och klicka på Create.
+
+ 
+
+Bra! Nu när datasetet är på plats och beräkningsklustret är skapat kan vi börja träna modellen!
+
+### 2.4 Lågkod/Ingen kod-träning med AutoML
+
+Traditionell utveckling av maskininlärningsmodeller är resurskrävande, kräver betydande domänkunskap och tid för att producera och jämföra dussintals modeller.
+Automatiserad maskininlärning (AutoML) är processen att automatisera de tidskrävande, iterativa uppgifterna vid utveckling av maskininlärningsmodeller. Det gör det möjligt för dataforskare, analytiker och utvecklare att bygga ML-modeller med hög skala, effektivitet och produktivitet, samtidigt som modellkvaliteten bibehålls. Det minskar tiden det tar att få produktionsklara ML-modeller, med stor enkelhet och effektivitet. [Läs mer](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. I [Azure ML-arbetsytan](https://ml.azure.com/) som vi skapade tidigare, klicka på "Automated ML" i vänstermenyn och välj datasetet du just laddade upp. Klicka på Nästa.
+
+ 
+
+2. Ange ett nytt experimentnamn, målkollumnen (DEATH_EVENT) och beräkningsklustret vi skapade. Klicka på Nästa.
+
+ 
+
+3. Välj "Classification" och klicka på Finish. Detta steg kan ta mellan 30 minuter och 1 timme, beroende på storleken på ditt beräkningskluster.
+
+ 
+
+4. När körningen är klar, klicka på fliken "Automated ML", klicka på din körning och klicka på algoritmen i kortet "Best model summary".
+
+ 
+
+Här kan du se en detaljerad beskrivning av den bästa modellen som AutoML genererade. Du kan också utforska andra modeller som genererats i fliken Models. Ta några minuter att utforska modellerna i knappen Explanations (preview). När du har valt den modell du vill använda (här väljer vi den bästa modellen som valts av AutoML), kommer vi att se hur vi kan distribuera den.
+
+## 3. Lågkod/Ingen kod-modelldistribution och endpoint-konsumtion
+### 3.1 Modelldistribution
+
+Gränssnittet för automatiserad maskininlärning gör det möjligt att distribuera den bästa modellen som en webbtjänst i några få steg. Distribution är integreringen av modellen så att den kan göra förutsägelser baserat på ny data och identifiera potentiella möjligheter. För detta projekt innebär distribution till en webbtjänst att medicinska applikationer kommer att kunna använda modellen för att göra liveförutsägelser om deras patienters risk att få en hjärtattack.
+
+I den bästa modellbeskrivningen, klicka på knappen "Deploy".
+
+
+
+15. Ge den ett namn, en beskrivning, beräkningstyp (Azure Container Instance), aktivera autentisering och klicka på Deploy. Detta steg kan ta cirka 20 minuter att slutföra. Distributionsprocessen innefattar flera steg, inklusive registrering av modellen, generering av resurser och konfigurering av dem för webbtjänsten. Ett statusmeddelande visas under Deploy status. Välj Refresh regelbundet för att kontrollera distributionsstatusen. Den är distribuerad och körs när statusen är "Healthy".
+
+
+
+16. När den har distribuerats, klicka på fliken Endpoint och klicka på den endpoint du just distribuerade. Här kan du hitta alla detaljer du behöver veta om endpointen.
+
+
+
+Fantastiskt! Nu när vi har en modell distribuerad kan vi börja konsumera endpointen.
+
+### 3.2 Endpoint-konsumtion
+
+Klicka på fliken "Consume". Här kan du hitta REST-endpointen och ett Python-skript i konsumtionsalternativet. Ta dig tid att läsa Python-koden.
+
+Detta skript kan köras direkt från din lokala maskin och kommer att konsumera din endpoint.
+
+
+
+Ta en stund att kontrollera dessa två rader kod:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+Variabeln `url` är REST-endpointen som finns i fliken Consume och variabeln `api_key` är den primära nyckeln som också finns i fliken Consume (endast om du har aktiverat autentisering). Detta är hur skriptet kan konsumera endpointen.
+
+18. När du kör skriptet bör du se följande output:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Detta betyder att förutsägelsen av hjärtsvikt för den givna datan är sann. Detta är logiskt eftersom om du tittar närmare på datan som automatiskt genereras i skriptet, är allt satt till 0 och falskt som standard. Du kan ändra datan med följande inmatningsprov:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Skriptet bör returnera:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Grattis! Du har just konsumerat den distribuerade modellen och tränat den på Azure ML!
+
+> **_NOTE:_** När du är klar med projektet, glöm inte att ta bort alla resurser.
+## 🚀 Utmaning
+
+Titta noga på modellförklaringarna och detaljerna som AutoML genererade för de bästa modellerna. Försök att förstå varför den bästa modellen är bättre än de andra. Vilka algoritmer jämfördes? Vilka är skillnaderna mellan dem? Varför presterar den bästa modellen bättre i detta fall?
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Granskning & Självstudie
+
+I denna lektion lärde du dig hur man tränar, distribuerar och konsumerar en modell för att förutsäga hjärtsviktsrisk på ett lågkod/ingen kod-sätt i molnet. Om du inte har gjort det ännu, fördjupa dig i modellförklaringarna som AutoML genererade för de bästa modellerna och försök att förstå varför den bästa modellen är bättre än de andra.
+
+Du kan gå vidare med lågkod/ingen kod AutoML genom att läsa denna [dokumentation](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Uppgift
+
+[Projekt med lågkod/ingen kod inom datavetenskap på Azure ML](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som kan uppstå vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/sv/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..09660488
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Low code/No code Data Science-projekt på Azure ML
+
+## Instruktioner
+
+Vi såg hur man använder Azure ML-plattformen för att träna, distribuera och konsumera en modell på ett Low code/No code-sätt. Leta nu efter data som du kan använda för att träna en annan modell, distribuera den och konsumera den. Du kan leta efter dataset på [Kaggle](https://kaggle.com) och [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Bedömningskriterier
+
+| Exemplariskt | Tillräckligt | Behöver förbättras |
+|--------------|--------------|--------------------|
+|När du laddade upp data såg du till att ändra funktionens typ om det behövdes. Du städade också upp data om det behövdes. Du genomförde en träning på ett dataset med AutoML och granskade modellförklaringarna. Du distribuerade den bästa modellen och kunde konsumera den. | När du laddade upp data såg du till att ändra funktionens typ om det behövdes. Du genomförde en träning på ett dataset med AutoML, du distribuerade den bästa modellen och kunde konsumera den. | Du har distribuerat den bästa modellen som tränats med AutoML och kunde konsumera den. |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/sv/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..e4460510
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,313 @@
+
+# Data Science i molnet: "Azure ML SDK"-metoden
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Data Science i molnet: Azure ML SDK - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Innehållsförteckning:
+
+- [Data Science i molnet: "Azure ML SDK"-metoden](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz före föreläsningen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Introduktion](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Vad är Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Introduktion till projektet och datasetet för hjärtsviktsprediktion](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Träna en modell med Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Skapa ett Azure ML-arbetsyta](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Skapa en beräkningsinstans](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Ladda datasetet](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Skapa Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Träna en modell](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Konfigurera arbetsyta, experiment, beräkningskluster och dataset](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML-konfiguration och träning](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Modellutplacering och endpoint-konsumtion med Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Spara den bästa modellen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Modellutplacering](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Endpoint-konsumtion](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Utmaning](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz efter föreläsningen](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Granskning och självstudier](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Uppgift](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Quiz före föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Introduktion
+
+### 1.1 Vad är Azure ML SDK?
+
+Dataforskare och AI-utvecklare använder Azure Machine Learning SDK för att bygga och köra maskininlärningsarbetsflöden med Azure Machine Learning-tjänsten. Du kan interagera med tjänsten i vilken Python-miljö som helst, inklusive Jupyter Notebooks, Visual Studio Code eller din favorit-Python-IDE.
+
+Nyckelområden i SDK inkluderar:
+
+- Utforska, förbereda och hantera livscykeln för dina dataset som används i maskininlärningsexperiment.
+- Hantera molnresurser för övervakning, loggning och organisering av dina maskininlärningsexperiment.
+- Träna modeller antingen lokalt eller med hjälp av molnresurser, inklusive GPU-accelererad modellträning.
+- Använd automatiserad maskininlärning, som accepterar konfigurationsparametrar och träningsdata. Den itererar automatiskt genom algoritmer och hyperparameterinställningar för att hitta den bästa modellen för att köra prediktioner.
+- Distribuera webbtjänster för att omvandla dina tränade modeller till RESTful-tjänster som kan användas i vilken applikation som helst.
+
+[Läs mer om Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+I [föregående lektion](../18-Low-Code/README.md) såg vi hur man tränar, distribuerar och använder en modell på ett Low code/No code-sätt. Vi använde datasetet för hjärtsvikt för att generera en modell för hjärtsviktsprediktion. I denna lektion ska vi göra exakt samma sak men med hjälp av Azure Machine Learning SDK.
+
+
+
+### 1.2 Introduktion till projektet och datasetet för hjärtsviktsprediktion
+
+Se [här](../18-Low-Code/README.md) för introduktionen till projektet och datasetet för hjärtsviktsprediktion.
+
+## 2. Träna en modell med Azure ML SDK
+### 2.1 Skapa ett Azure ML-arbetsyta
+
+För enkelhetens skull kommer vi att arbeta i en Jupyter Notebook. Detta innebär att du redan har en arbetsyta och en beräkningsinstans. Om du redan har en arbetsyta kan du direkt hoppa till avsnittet 2.3 Skapa Notebook.
+
+Om inte, följ instruktionerna i avsnittet **2.1 Skapa ett Azure ML-arbetsyta** i [föregående lektion](../18-Low-Code/README.md) för att skapa en arbetsyta.
+
+### 2.2 Skapa en beräkningsinstans
+
+I [Azure ML-arbetsytan](https://ml.azure.com/) som vi skapade tidigare, gå till menyn Compute och du kommer att se de olika beräkningsresurserna som är tillgängliga.
+
+
+
+Låt oss skapa en beräkningsinstans för att tillhandahålla en Jupyter Notebook.
+1. Klicka på knappen + New.
+2. Ge ett namn till din beräkningsinstans.
+3. Välj dina alternativ: CPU eller GPU, VM-storlek och antal kärnor.
+4. Klicka på knappen Create.
+
+Grattis, du har precis skapat en beräkningsinstans! Vi kommer att använda denna beräkningsinstans för att skapa en Notebook i avsnittet [Skapa Notebooks](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Ladda datasetet
+Se avsnittet **2.3 Ladda datasetet** i [föregående lektion](../18-Low-Code/README.md) om du inte har laddat upp datasetet ännu.
+
+### 2.4 Skapa Notebooks
+
+> **_NOTERA:_** För nästa steg kan du antingen skapa en ny Notebook från grunden, eller så kan du ladda upp den [Notebook vi skapade](notebook.ipynb) i din Azure ML Studio. För att ladda upp den, klicka helt enkelt på menyn "Notebook" och ladda upp Notebook-filen.
+
+Notebooks är en mycket viktig del av data science-processen. De kan användas för att utföra Exploratory Data Analysis (EDA), anropa ett beräkningskluster för att träna en modell, eller anropa ett inferenskluster för att distribuera en endpoint.
+
+För att skapa en Notebook behöver vi en beräkningsnod som tillhandahåller Jupyter Notebook-instansen. Gå tillbaka till [Azure ML-arbetsytan](https://ml.azure.com/) och klicka på Compute instances. I listan över beräkningsinstanser bör du se [den beräkningsinstans vi skapade tidigare](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. I avsnittet Applications, klicka på alternativet Jupyter.
+2. Kryssa i rutan "Yes, I understand" och klicka på knappen Continue.
+
+3. Detta bör öppna en ny webbläsarflik med din Jupyter Notebook-instans enligt följande. Klicka på knappen "New" för att skapa en Notebook.
+
+
+
+Nu när vi har en Notebook kan vi börja träna modellen med Azure ML SDK.
+
+### 2.5 Träna en modell
+
+Först och främst, om du någonsin är osäker, se [Azure ML SDK-dokumentationen](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Den innehåller all nödvändig information för att förstå de moduler vi ska gå igenom i denna lektion.
+
+#### 2.5.1 Konfigurera arbetsyta, experiment, beräkningskluster och dataset
+
+Du behöver ladda `workspace` från konfigurationsfilen med följande kod:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Detta returnerar ett objekt av typen `Workspace` som representerar arbetsytan. Därefter behöver du skapa ett `experiment` med följande kod:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+För att hämta eller skapa ett experiment från en arbetsyta begär du experimentet med experimentets namn. Experimentnamnet måste vara 3-36 tecken långt, börja med en bokstav eller en siffra och kan endast innehålla bokstäver, siffror, understreck och bindestreck. Om experimentet inte hittas i arbetsytan skapas ett nytt experiment.
+
+Nu behöver du skapa ett beräkningskluster för träningen med följande kod. Observera att detta steg kan ta några minuter.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Du kan hämta datasetet från arbetsytan med datasetets namn på följande sätt:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 AutoML-konfiguration och träning
+
+För att ställa in AutoML-konfigurationen, använd klassen [AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Som beskrivs i dokumentationen finns det många parametrar att experimentera med. För detta projekt kommer vi att använda följande parametrar:
+
+- `experiment_timeout_minutes`: Den maximala tiden (i minuter) som experimentet får köras innan det automatiskt stoppas och resultaten görs tillgängliga.
+- `max_concurrent_iterations`: Det maximala antalet samtidiga träningsiterationer som tillåts för experimentet.
+- `primary_metric`: Den primära metrik som används för att avgöra experimentets status.
+- `compute_target`: Azure Machine Learning-beräkningsmålet för att köra det automatiserade maskininlärningsexperimentet.
+- `task`: Typen av uppgift som ska köras. Värden kan vara 'classification', 'regression' eller 'forecasting' beroende på typen av automatiserat ML-problem som ska lösas.
+- `training_data`: Träningsdata som ska användas i experimentet. Det bör innehålla både träningsfunktioner och en etikettkolumn (valfritt en kolumn för provvikter).
+- `label_column_name`: Namnet på etikettkolumnen.
+- `path`: Den fullständiga sökvägen till Azure Machine Learning-projektmappen.
+- `enable_early_stopping`: Om tidig avbrytning ska aktiveras om poängen inte förbättras på kort sikt.
+- `featurization`: Indikator för om featurization-steget ska göras automatiskt eller inte, eller om anpassad featurization ska användas.
+- `debug_log`: Loggfilen för att skriva felsökningsinformation till.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Nu när du har din konfiguration inställd kan du träna modellen med följande kod. Detta steg kan ta upp till en timme beroende på klusterstorleken.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Du kan köra RunDetails-widgeten för att visa de olika experimenten.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Modellutplacering och endpoint-konsumtion med Azure ML SDK
+
+### 3.1 Spara den bästa modellen
+
+`remote_run` är ett objekt av typen [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Detta objekt innehåller metoden `get_output()` som returnerar den bästa körningen och den motsvarande tränade modellen.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Du kan se parametrarna som användes för den bästa modellen genom att bara skriva ut `fitted_model` och se egenskaperna för den bästa modellen genom att använda metoden [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Registrera nu modellen med metoden [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Modellutplacering
+
+När den bästa modellen är sparad kan vi distribuera den med klassen [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). InferenceConfig representerar konfigurationsinställningarna för en anpassad miljö som används för distribution. Klassen [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) representerar en maskininlärningsmodell som distribueras som en webbtjänstendpoint på Azure Container Instances. En distribuerad tjänst skapas från en modell, ett skript och associerade filer. Den resulterande webbtjänsten är en lastbalanserad HTTP-endpoint med ett REST-API. Du kan skicka data till detta API och ta emot prediktionen som returneras av modellen.
+
+Modellen distribueras med metoden [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Detta steg bör ta några minuter.
+
+### 3.3 Endpoint-konsumtion
+
+Du konsumerar din endpoint genom att skapa ett exempel på indata:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+Och sedan kan du skicka detta indata till din modell för prediktion:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Detta bör ge `'{"result": [false]}'`. Detta betyder att patientinformationen vi skickade till slutpunkten genererade prediktionen `false`, vilket innebär att denna person sannolikt inte kommer att få en hjärtattack.
+
+Grattis! Du har precis använt modellen som är distribuerad och tränad på Azure ML med Azure ML SDK!
+
+
+> **_NOTE:_** När du är klar med projektet, glöm inte att ta bort alla resurser.
+
+## 🚀 Utmaning
+
+Det finns många andra saker du kan göra med SDK:n, men tyvärr kan vi inte gå igenom allt i denna lektion. Men goda nyheter, att lära sig att snabbt navigera genom SDK-dokumentationen kan ta dig långt på egen hand. Ta en titt på dokumentationen för Azure ML SDK och hitta klassen `Pipeline` som låter dig skapa pipelines. En Pipeline är en samling steg som kan köras som ett arbetsflöde.
+
+**TIPS:** Gå till [SDK-dokumentationen](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) och skriv in nyckelord i sökfältet, som "Pipeline". Du bör hitta klassen `azureml.pipeline.core.Pipeline` i sökresultaten.
+
+## [Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Granskning & Självstudier
+
+I denna lektion lärde du dig hur man tränar, distribuerar och använder en modell för att förutsäga risken för hjärtsvikt med Azure ML SDK i molnet. Kolla in denna [dokumentation](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) för mer information om Azure ML SDK. Försök att skapa din egen modell med Azure ML SDK.
+
+## Uppgift
+
+[Datavetenskapsprojekt med Azure ML SDK](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/sv/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..5c5d5982
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Datavetenskapsprojekt med Azure ML SDK
+
+## Instruktioner
+
+Vi såg hur man använder Azure ML-plattformen för att träna, distribuera och konsumera en modell med Azure ML SDK. Leta nu efter någon data som du kan använda för att träna en annan modell, distribuera den och konsumera den. Du kan leta efter dataset på [Kaggle](https://kaggle.com) och [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Bedömningskriterier
+
+| Exemplariskt | Tillräckligt | Behöver förbättras |
+|--------------|--------------|--------------------|
+|När du gjorde AutoML-konfigurationen gick du igenom SDK-dokumentationen för att se vilka parametrar du kunde använda. Du körde en träning på ett dataset genom AutoML med Azure ML SDK, och du kontrollerade modellförklaringarna. Du distribuerade den bästa modellen och kunde konsumera den via Azure ML SDK. | Du körde en träning på ett dataset genom AutoML med Azure ML SDK, och du kontrollerade modellförklaringarna. Du distribuerade den bästa modellen och kunde konsumera den via Azure ML SDK. | Du körde en träning på ett dataset genom AutoML med Azure ML SDK. Du distribuerade den bästa modellen och kunde konsumera den via Azure ML SDK. |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/5-Data-Science-In-Cloud/README.md b/translations/sv/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..0801a304
--- /dev/null
+++ b/translations/sv/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Data Science i molnet
+
+
+
+> Foto av [Jelleke Vanooteghem](https://unsplash.com/@ilumire) från [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+När det gäller att utföra data science med stora datamängder kan molnet vara en riktig game changer. Under de kommande tre lektionerna ska vi titta på vad molnet är och varför det kan vara väldigt användbart. Vi kommer också att utforska en dataset om hjärtsvikt och bygga en modell för att hjälpa till att bedöma sannolikheten för att någon drabbas av hjärtsvikt. Vi kommer att använda molnets kraft för att träna, distribuera och använda en modell på två olika sätt. Ett sätt är att använda endast användargränssnittet på ett Low code/No code-sätt, och det andra sättet är att använda Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Ämnen
+
+1. [Varför använda molnet för data science?](17-Introduction/README.md)
+2. [Data Science i molnet: "Low code/No code"-metoden](18-Low-Code/README.md)
+3. [Data Science i molnet: "Azure ML SDK"-metoden](19-Azure/README.md)
+
+### Krediter
+Dessa lektioner skrevs med ☁️ och 💕 av [Maud Levy](https://twitter.com/maudstweets) och [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+Data för projektet om hjärtsviktsprediktion kommer från [
+Larxel](https://www.kaggle.com/andrewmvd) på [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Det är licensierat under [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/sv/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..838730e4
--- /dev/null
+++ b/translations/sv/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,155 @@
+
+# Data Science i Verkligheten
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Data Science i Verkligheten - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Vi är nästan i mål med denna läranderesa!
+
+Vi började med att definiera data science och etik, utforskade olika verktyg och tekniker för dataanalys och visualisering, granskade livscykeln för data science och tittade på hur man kan skala och automatisera arbetsflöden med molntjänster. Så du kanske undrar: _"Hur kan jag koppla allt detta till verkliga sammanhang?"_
+
+I denna lektion kommer vi att utforska verkliga tillämpningar av data science inom olika branscher och dyka ner i specifika exempel inom forskning, digital humaniora och hållbarhet. Vi kommer att titta på studentprojektmöjligheter och avsluta med användbara resurser för att hjälpa dig fortsätta din läranderesa!
+
+## Förhandsquiz
+
+[Förhandsquiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Data Science + Industri
+
+Tack vare AI:s demokratisering är det nu enklare för utvecklare att designa och integrera AI-drivna beslutsprocesser och datadrivna insikter i användarupplevelser och utvecklingsarbetsflöden. Här är några exempel på hur data science "tillämpas" i verkliga applikationer inom industrin:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) använde data science för att korrelera söktermer med influensatrender. Även om metoden hade brister, väckte den medvetenhet om möjligheterna (och utmaningarna) med datadrivna hälsoprediktioner.
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - förklarar hur UPS använder data science och maskininlärning för att förutsäga optimala leveransrutter, med hänsyn till väderförhållanden, trafikmönster, leveransdeadlines och mer.
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - data insamlad med hjälp av [Freedom Of Information Laws](https://chriswhong.com/open-data/foil_nyc_taxi/) hjälpte till att visualisera en dag i livet för NYC-taxibilar, vilket gav insikter om hur de navigerar i den hektiska staden, deras intäkter och resornas varaktighet under en 24-timmarsperiod.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - använder data (om upphämtnings- och avlämningsplatser, reslängd, föredragna rutter etc.) insamlad från miljontals Uber-resor *dagligen* för att bygga ett dataanalysverktyg som hjälper med prissättning, säkerhet, bedrägeridetektion och navigeringsbeslut.
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - fokuserar på _prediktiv analys_ (lag- och spelaranalys - tänk [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - och hantering av fans) och _datavisualisering_ (lag- och fandashboards, spel etc.) med tillämpningar som talangscouting, sportspel och inventarie-/arenahantering.
+
+ * [Data Science i Banksektorn](https://data-flair.training/blogs/data-science-in-banking/) - lyfter fram värdet av data science inom finansindustrin med tillämpningar som riskmodellering och bedrägeridetektion, kundsegmentering, realtidsprognoser och rekommendationssystem. Prediktiv analys driver också viktiga mått som [kreditvärderingar](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Data Science i Hälso- och sjukvård](https://data-flair.training/blogs/data-science-in-healthcare/) - lyfter fram tillämpningar som medicinsk bildbehandling (t.ex. MRI, röntgen, CT-skanning), genomik (DNA-sekvensering), läkemedelsutveckling (riskbedömning, framgångsprognoser), prediktiv analys (patientvård och logistik), sjukdomsspårning och förebyggande.
+
+ Bildkredit: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Figuren visar andra områden och exempel på hur data science-tekniker kan tillämpas. Vill du utforska fler tillämpningar? Kolla in [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples)-avsnittet nedan.
+
+## Data Science + Forskning
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Forskning - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Medan verkliga tillämpningar ofta fokuserar på industriella användningsfall i stor skala, kan _forskningsprojekt_ vara användbara ur två perspektiv:
+
+* _innovationsmöjligheter_ - utforska snabb prototypframtagning av avancerade koncept och testa användarupplevelser för nästa generations applikationer.
+* _implementeringsutmaningar_ - undersök potentiella skador eller oavsiktliga konsekvenser av data science-teknologier i verkliga sammanhang.
+
+För studenter kan dessa forskningsprojekt erbjuda både lärande och samarbetsmöjligheter som förbättrar din förståelse för ämnet och breddar din medvetenhet och engagemang med relevanta personer eller team som arbetar inom intressanta områden. Så hur ser forskningsprojekt ut och hur kan de göra skillnad?
+
+Låt oss titta på ett exempel - [MIT Gender Shades Study](http://gendershades.org/overview.html) av Joy Buolamwini (MIT Media Labs) med en [signaturforskningsartikel](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) medförfattad av Timnit Gebru (då vid Microsoft Research) som fokuserade på:
+
+ * **Vad:** Syftet med forskningsprojektet var att _utvärdera bias i automatiserade ansiktsanalysalgoritmer och dataset_ baserat på kön och hudtyp.
+ * **Varför:** Ansiktsanalys används inom områden som brottsbekämpning, flygplatssäkerhet, rekryteringssystem och mer - sammanhang där felaktiga klassificeringar (t.ex. på grund av bias) kan orsaka ekonomiska och sociala skador för drabbade individer eller grupper. Att förstå (och eliminera eller mildra) bias är avgörande för rättvisa i användningen.
+ * **Hur:** Forskarna insåg att befintliga benchmarks huvudsakligen använde ljushyade personer och skapade ett nytt dataset (1000+ bilder) som var _mer balanserat_ vad gäller kön och hudtyp. Datasetet användes för att utvärdera noggrannheten hos tre könsklassificeringsprodukter (från Microsoft, IBM & Face++).
+
+Resultaten visade att även om den totala klassificeringsnoggrannheten var bra, fanns det en märkbar skillnad i felprocent mellan olika undergrupper - med **felkönande** som var högre för kvinnor eller personer med mörkare hudtyper, vilket indikerar bias.
+
+**Viktiga Resultat:** Ökad medvetenhet om att data science behöver mer _representativa dataset_ (balanserade undergrupper) och mer _inkluderande team_ (mångsidiga bakgrunder) för att identifiera och eliminera eller mildra sådana bias tidigt i AI-lösningar. Forskningsinsatser som denna är också avgörande för att många organisationer ska kunna definiera principer och praxis för _ansvarsfull AI_ för att förbättra rättvisa i sina AI-produkter och processer.
+
+**Vill du lära dig om relevanta forskningsinsatser på Microsoft?**
+
+* Kolla in [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) inom artificiell intelligens.
+* Utforska studentprojekt från [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Kolla in projektet [Fairlearn](https://fairlearn.org/) och initiativen för [Ansvarsfull AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6).
+
+## Data Science + Humaniora
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Digital Humaniora - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+Digital Humaniora [har definierats](https://digitalhumanities.stanford.edu/about-dh-stanford) som "en samling av metoder och tillvägagångssätt som kombinerar beräkningsmetoder med humanistisk forskning". [Stanford-projekt](https://digitalhumanities.stanford.edu/projects) som _"rebooting history"_ och _"poetic thinking"_ illustrerar kopplingen mellan [Digital Humaniora och Data Science](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - med fokus på tekniker som nätverksanalys, informationsvisualisering, spatial och textanalys som kan hjälpa oss att återbesöka historiska och litterära dataset för att få nya insikter och perspektiv.
+
+*Vill du utforska och utveckla ett projekt inom detta område?*
+
+Kolla in ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - ett utmärkt exempel från [Jen Looper](https://twitter.com/jenlooper) som frågar hur vi kan använda data science för att återbesöka välkänd poesi och omvärdera dess betydelse och författarens bidrag i nya sammanhang. Till exempel, _kan vi förutsäga vilken årstid en dikt skrevs genom att analysera dess ton eller känsla_ - och vad säger detta om författarens sinnestillstånd under den relevanta perioden?
+
+För att besvara den frågan följer vi stegen i vår data science-livscykel:
+ * [`Data Acquisition`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - för att samla in ett relevant dataset för analys. Alternativ inkluderar att använda ett API (t.ex. [Poetry DB API](https://poetrydb.org/index.html)) eller att skrapa webbsidor (t.ex. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) med verktyg som [Scrapy](https://scrapy.org/).
+ * [`Data Cleaning`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - förklarar hur text kan formateras, saneras och förenklas med grundläggande verktyg som Visual Studio Code och Microsoft Excel.
+ * [`Data Analysis`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - förklarar hur vi kan importera datasetet till "Notebooks" för analys med Python-paket (som pandas, numpy och matplotlib) för att organisera och visualisera data.
+ * [`Sentiment Analysis`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - förklarar hur vi kan integrera molntjänster som Text Analytics, med hjälp av lågkodverktyg som [Power Automate](https://flow.microsoft.com/en-us/) för automatiserade databehandlingsarbetsflöden.
+
+Med denna arbetsflöde kan vi utforska säsongens påverkan på dikternas känslor och hjälpa oss att forma våra egna perspektiv på författaren. Prova själv - och utveckla sedan notebooken för att ställa andra frågor eller visualisera data på nya sätt!
+
+> Du kan använda några av verktygen i [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) för att utforska dessa forskningsvägar.
+
+## Data Science + Hållbarhet
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Hållbarhet - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+[Agenda 2030 för Hållbar Utveckling](https://sdgs.un.org/2030agenda) - antagen av alla FN-medlemmar 2015 - identifierar 17 mål, inklusive de som fokuserar på att **Skydda Planeten** från nedbrytning och klimatförändringarnas påverkan. [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability)-initiativet stödjer dessa mål genom att utforska hur teknologilösningar kan bidra till att bygga mer hållbara framtider med ett [fokus på 4 mål](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - att vara koldioxidnegativa, vattenpositiva, noll avfall och biologiskt mångfaldiga till 2030.
+
+Att hantera dessa utmaningar på ett skalbart och tidsenligt sätt kräver molnskalstänkande - och stora mängder data. [Planetary Computer](https://planetarycomputer.microsoft.com/)-initiativet erbjuder 4 komponenter för att hjälpa dataforskare och utvecklare i detta arbete:
+
+ * [Data Catalog](https://planetarycomputer.microsoft.com/catalog) - med petabyte av data om jordens system (gratis och Azure-hostad).
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - för att hjälpa användare att söka efter relevant data över tid och rum.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - hanterad miljö för forskare att bearbeta massiva geospatiala dataset.
+ * [Applications](https://planetarycomputer.microsoft.com/applications) - visar användningsfall och verktyg för insikter om hållbarhet.
+**Planetary Computer-projektet är för närvarande i förhandsvisning (från och med september 2021)** - här är hur du kan börja bidra till hållbarhetslösningar med hjälp av dataanalys.
+
+* [Begär åtkomst](https://planetarycomputer.microsoft.com/account/request) för att börja utforska och ansluta med andra.
+* [Utforska dokumentation](https://planetarycomputer.microsoft.com/docs/overview/about) för att förstå vilka dataset och API:er som stöds.
+* Utforska applikationer som [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) för inspiration till applikationsidéer.
+
+Fundera på hur du kan använda datavisualisering för att avslöja eller förstärka relevanta insikter inom områden som klimatförändringar och avskogning. Eller fundera på hur insikter kan användas för att skapa nya användarupplevelser som motiverar beteendeförändringar för ett mer hållbart liv.
+
+## Dataanalys + Studenter
+
+Vi har pratat om verkliga applikationer inom industri och forskning, och utforskat exempel på dataanalysapplikationer inom digital humaniora och hållbarhet. Så hur kan du bygga dina färdigheter och dela din expertis som nybörjare inom dataanalys?
+
+Här är några exempel på studentprojekt inom dataanalys för att inspirera dig.
+
+ * [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) med GitHub [projekt](https://github.com/msr-ds3) som utforskar ämnen som:
+ - [Rasistisk bias i polisens användning av våld](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Tillförlitlighet i New Yorks tunnelbanesystem](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+ * [Digitalisering av materiell kultur: Utforska socio-ekonomiska fördelningar i Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - från [Ornella Altunyan](https://twitter.com/ornelladotcom) och teamet på Claremont, med hjälp av [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Utmaning
+
+Sök efter artiklar som rekommenderar dataanalysprojekt som är nybörjarvänliga - som [dessa 50 ämnesområden](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) eller [dessa 21 projektidéer](https://www.intellspot.com/data-science-project-ideas) eller [dessa 16 projekt med källkod](https://data-flair.training/blogs/data-science-project-ideas/) som du kan analysera och remix. Och glöm inte att blogga om dina läranderesor och dela dina insikter med oss alla.
+
+## Quiz efter föreläsningen
+
+[Quiz efter föreläsningen](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Granskning & Självstudier
+
+Vill du utforska fler användningsområden? Här är några relevanta artiklar:
+ * [17 Data Science Applications and Examples](https://builtin.com/data-science/data-science-applications-examples) - juli 2021
+ * [11 Breathtaking Data Science Applications in Real World](https://myblindbird.com/data-science-applications-real-world/) - maj 2021
+ * [Data Science In The Real World](https://towardsdatascience.com/data-science-in-the-real-world/home) - artikelkollektion
+ * Data Science In: [Education](https://data-flair.training/blogs/data-science-in-education/), [Agriculture](https://data-flair.training/blogs/data-science-in-agriculture/), [Finance](https://data-flair.training/blogs/data-science-in-finance/), [Movies](https://data-flair.training/blogs/data-science-at-movies/) & mer.
+
+## Uppgift
+
+[Utforska ett Planetary Computer-dataset](assignment.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/sv/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..5c135fd8
--- /dev/null
+++ b/translations/sv/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Utforska en dataset från Planetary Computer
+
+## Instruktioner
+
+I den här lektionen pratade vi om olika tillämpningsområden för data science - med djupdykningar i exempel relaterade till forskning, hållbarhet och digital humaniora. I den här uppgiften kommer du att utforska ett av dessa exempel mer ingående och tillämpa dina kunskaper om datavisualiseringar och analys för att dra insikter om hållbarhetsdata.
+
+Projektet [Planetary Computer](https://planetarycomputer.microsoft.com/) har dataset och API:er som kan nås med ett konto - ansök om ett för att prova bonussteget i uppgiften. Webbplatsen erbjuder också en [Explorer](https://planetarycomputer.microsoft.com/explore)-funktion som du kan använda utan att skapa ett konto.
+
+`Steg:`
+Explorer-gränssnittet (visat i skärmbilden nedan) låter dig välja en dataset (från de tillgängliga alternativen), en förinställd fråga (för att filtrera data) och ett renderingsalternativ (för att skapa en relevant visualisering). I den här uppgiften är din uppgift att:
+
+ 1. Läs [Explorer-dokumentationen](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - förstå alternativen.
+ 2. Utforska datasetens [Katalog](https://planetarycomputer.microsoft.com/catalog) - lär dig syftet med varje dataset.
+ 3. Använd Explorer - välj en dataset som intresserar dig, välj en relevant fråga och ett renderingsalternativ.
+
+
+
+`Din uppgift:`
+Studera nu visualiseringen som renderas i webbläsaren och svara på följande:
+ * Vilka _funktioner_ har datasetet?
+ * Vilka _insikter_ eller resultat ger visualiseringen?
+ * Vilka är _implikationerna_ av dessa insikter för projektets hållbarhetsmål?
+ * Vilka är _begränsningarna_ med visualiseringen (dvs. vilken insikt fick du inte)?
+ * Om du kunde få rådata, vilka _alternativa visualiseringar_ skulle du skapa, och varför?
+
+`Bonuspoäng:`
+Ansök om ett konto - och logga in när du blivit godkänd.
+ * Använd alternativet _Launch Hub_ för att öppna rådata i en Notebook.
+ * Utforska data interaktivt och implementera de alternativa visualiseringar du tänkte på.
+ * Analysera nu dina anpassade visualiseringar - kunde du dra de insikter du saknade tidigare?
+
+## Bedömningskriterier
+
+Föredömligt | Tillräckligt | Behöver förbättras
+--- | --- | -- |
+Alla fem kärnfrågor besvarades. Studenten identifierade tydligt hur nuvarande och alternativa visualiseringar kunde ge insikter om hållbarhetsmål eller resultat. | Studenten besvarade minst de tre första frågorna i detalj, vilket visar att de hade praktisk erfarenhet av Explorer. | Studenten misslyckades med att besvara flera frågor eller gav otillräckliga detaljer - vilket indikerar att inget meningsfullt försök gjordes för projektet |
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/6-Data-Science-In-Wild/README.md b/translations/sv/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..c8126673
--- /dev/null
+++ b/translations/sv/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Data Science i det Vilda
+
+Praktiska tillämpningar av data science inom olika branscher.
+
+### Ämnen
+
+1. [Data Science i den Verkliga Världen](20-Real-World-Examples/README.md)
+
+### Krediter
+
+Skrivet med ❤️ av [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/CODE_OF_CONDUCT.md b/translations/sv/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..864b417d
--- /dev/null
+++ b/translations/sv/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Microsoft Open Source Uppförandekod
+
+Det här projektet har antagit [Microsoft Open Source Uppförandekod](https://opensource.microsoft.com/codeofconduct/).
+
+Resurser:
+
+- [Microsoft Open Source Uppförandekod](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoft Uppförandekod FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+- Kontakta [opencode@microsoft.com](mailto:opencode@microsoft.com) vid frågor eller funderingar
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/CONTRIBUTING.md b/translations/sv/CONTRIBUTING.md
new file mode 100644
index 00000000..13a0668e
--- /dev/null
+++ b/translations/sv/CONTRIBUTING.md
@@ -0,0 +1,28 @@
+
+# Bidra
+
+Det här projektet välkomnar bidrag och förslag. De flesta bidrag kräver att du
+godkänner ett Contributor License Agreement (CLA) som intygar att du har rätt att,
+och faktiskt gör, ge oss rättigheter att använda ditt bidrag. För mer information, besök
+https://cla.microsoft.com.
+
+När du skickar in en pull request kommer en CLA-bot automatiskt att avgöra om du behöver
+tillhandahålla en CLA och märka PR:n på lämpligt sätt (t.ex. etikett, kommentar). Följ bara
+instruktionerna som tillhandahålls av boten. Du behöver bara göra detta en gång för alla arkiv som använder vår CLA.
+
+Det här projektet har antagit [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/).
+För mer information, se [Code of Conduct FAQ](https://opensource.microsoft.com/codeofconduct/faq/)
+eller kontakta [opencode@microsoft.com](mailto:opencode@microsoft.com) med eventuella ytterligare frågor eller kommentarer.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/README.md b/translations/sv/README.md
new file mode 100644
index 00000000..80d577a5
--- /dev/null
+++ b/translations/sv/README.md
@@ -0,0 +1,164 @@
+
+# Data Science för Nybörjare - En Läroplan
+
+Azure Cloud Advocates på Microsoft är glada att erbjuda en 10-veckors, 20-lektions läroplan om Data Science. Varje lektion innehåller förberedande och avslutande quiz, skriftliga instruktioner för att genomföra lektionen, en lösning och en uppgift. Vår projektbaserade pedagogik låter dig lära dig genom att skapa, en beprövad metod för att få nya färdigheter att fastna.
+
+**Stort tack till våra författare:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Speciellt tack 🙏 till våra [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) författare, granskare och innehållsbidragare,** särskilt Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200),
+[Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar , [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+| ](./sketchnotes/00-Title.png)|
+|:---:|
+| Data Science för Nybörjare - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+## Meddelande - Ny Läroplan om Generativ AI har just släppts!
+
+Vi har precis släppt en 12-lektions läroplan om generativ AI. Lär dig saker som:
+
+- att skapa och optimera prompts
+- text- och bildappsgenerering
+- sökappar
+
+Som vanligt finns det lektioner, uppgifter att slutföra, kunskapskontroller och utmaningar.
+
+Kolla in det:
+
+> https://aka.ms/genai-beginners
+
+# Är du student?
+
+Kom igång med följande resurser:
+
+- [Student Hub-sida](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) På denna sida hittar du resurser för nybörjare, studentpaket och till och med sätt att få en gratis certifikatvoucher. Detta är en sida du vill bokmärka och kolla regelbundet eftersom vi byter ut innehåll minst en gång i månaden.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Gå med i en global gemenskap av studentambassadörer, detta kan vara din väg in i Microsoft.
+
+# Kom igång
+
+> **Lärare**: vi har [inkluderat några förslag](for-teachers.md) på hur man använder denna läroplan. Vi skulle uppskatta din feedback [i vårt diskussionsforum](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Studenter](https://aka.ms/student-page)**: för att använda denna läroplan på egen hand, fork hela repot och slutför övningarna själv, börja med ett quiz före lektionen. Läs sedan lektionen och slutför resten av aktiviteterna. Försök att skapa projekten genom att förstå lektionerna snarare än att kopiera lösningskoden; dock finns den koden tillgänglig i /solutions-mapparna i varje projektorienterad lektion. Ett annat förslag är att bilda en studiegrupp med vänner och gå igenom innehållet tillsammans. För vidare studier rekommenderar vi [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Möt Teamet
+
+[](https://youtu.be/8mzavjQSMM4 "Promo video")
+
+**Gif av** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Klicka på bilden ovan för en video om projektet och personerna som skapade det!
+
+## Pedagogik
+
+Vi har valt två pedagogiska principer när vi byggde denna läroplan: att säkerställa att den är projektbaserad och att den innehåller frekventa quiz. Vid slutet av denna serie kommer studenter att ha lärt sig grundläggande principer inom data science, inklusive etiska koncept, databeredning, olika sätt att arbeta med data, datavisualisering, dataanalys, verkliga användningsområden för data science och mer.
+
+Dessutom sätter ett lågtröskelquiz före en klass intentionen hos studenten att lära sig ett ämne, medan ett andra quiz efter klassen säkerställer ytterligare retention. Denna läroplan är designad för att vara flexibel och rolig och kan tas i sin helhet eller delvis. Projekten börjar små och blir alltmer komplexa vid slutet av den 10-veckors cykeln.
+
+> Hitta vår [Uppförandekod](CODE_OF_CONDUCT.md), [Bidragsriktlinjer](CONTRIBUTING.md), [Översättningsriktlinjer](TRANSLATIONS.md). Vi välkomnar din konstruktiva feedback!
+
+## Varje lektion innehåller:
+
+- Valfri sketchnote
+- Valfri kompletterande video
+- Förberedande quiz
+- Skriftlig lektion
+- För projektbaserade lektioner, steg-för-steg guider om hur man bygger projektet
+- Kunskapskontroller
+- En utmaning
+- Kompletterande läsning
+- Uppgift
+- Quiz efter lektionen
+
+> **En notering om quiz**: Alla quiz finns i Quiz-App-mappen, totalt 40 quiz med tre frågor vardera. De är länkade från lektionerna, men quiz-appen kan köras lokalt eller distribueras till Azure; följ instruktionerna i `quiz-app`-mappen. De lokaliseras gradvis.
+
+## Lektioner
+
+| ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Data Science för Nybörjare: Vägkarta - _Sketchnote av [@nitya](https://twitter.com/nitya)_ |
+
+| Lektionsnummer | Ämne | Lektionsgruppering | Lärandemål | Länkad lektion | Författare |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definiera Data Science | [Introduktion](1-Introduction/README.md) | Lär dig de grundläggande koncepten bakom data science och hur det är relaterat till artificiell intelligens, maskininlärning och big data. | [lektion](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Data Science Etik | [Introduktion](1-Introduction/README.md) | Koncept, utmaningar och ramverk för dataetik. | [lektion](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definiera Data | [Introduktion](1-Introduction/README.md) | Hur data klassificeras och dess vanliga källor. | [lektion](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introduktion till Statistik & Sannolikhet | [Introduktion](1-Introduction/README.md) | De matematiska teknikerna för sannolikhet och statistik för att förstå data. | [lektion](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Arbeta med Relationell Data | [Arbeta med Data](2-Working-With-Data/README.md) | Introduktion till relationell data och grunderna i att utforska och analysera relationell data med Structured Query Language, även känt som SQL (uttalas “see-quell”). | [lektion](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Arbeta med NoSQL Data | [Arbeta med Data](2-Working-With-Data/README.md) | Introduktion till icke-relationell data, dess olika typer och grunderna i att utforska och analysera dokumentdatabaser. | [lektion](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Arbeta med Python | [Arbeta med Data](2-Working-With-Data/README.md) | Grunderna i att använda Python för datautforskning med bibliotek som Pandas. Grundläggande förståelse för Python-programmering rekommenderas. | [lektion](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Databeredning | [Arbeta med data](2-Working-With-Data/README.md) | Ämnen om datatekniker för att rengöra och transformera data för att hantera utmaningar med saknad, felaktig eller ofullständig data. | [lektion](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualisering av mängder | [Datavisualisering](3-Data-Visualization/README.md) | Lär dig hur du använder Matplotlib för att visualisera fågeldata 🦆 | [lektion](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualisering av datafördelningar | [Datavisualisering](3-Data-Visualization/README.md) | Visualisera observationer och trender inom ett intervall. | [lektion](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualisering av proportioner | [Datavisualisering](3-Data-Visualization/README.md) | Visualisera diskreta och grupperade procentandelar. | [lektion](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualisering av relationer | [Datavisualisering](3-Data-Visualization/README.md) | Visualisera kopplingar och korrelationer mellan dataset och deras variabler. | [lektion](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Meningsfulla visualiseringar | [Datavisualisering](3-Data-Visualization/README.md) | Tekniker och vägledning för att göra dina visualiseringar värdefulla för effektiv problemlösning och insikter. | [lektion](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introduktion till datavetenskapens livscykel | [Livscykel](4-Data-Science-Lifecycle/README.md) | Introduktion till datavetenskapens livscykel och dess första steg att samla in och extrahera data. | [lektion](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analys | [Livscykel](4-Data-Science-Lifecycle/README.md) | Denna fas av datavetenskapens livscykel fokuserar på tekniker för att analysera data. | [lektion](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Kommunikation | [Livscykel](4-Data-Science-Lifecycle/README.md) | Denna fas av datavetenskapens livscykel fokuserar på att presentera insikter från data på ett sätt som gör det lättare för beslutsfattare att förstå. | [lektion](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Datavetenskap i molnet | [Molndata](5-Data-Science-In-Cloud/README.md) | Denna serie av lektioner introducerar datavetenskap i molnet och dess fördelar. | [lektion](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) och [Maud](https://twitter.com/maudstweets) |
+| 18 | Datavetenskap i molnet | [Molndata](5-Data-Science-In-Cloud/README.md) | Träna modeller med verktyg för låg kod. | [lektion](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) och [Maud](https://twitter.com/maudstweets) |
+| 19 | Datavetenskap i molnet | [Molndata](5-Data-Science-In-Cloud/README.md) | Distribuera modeller med Azure Machine Learning Studio. | [lektion](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) och [Maud](https://twitter.com/maudstweets) |
+| 20 | Datavetenskap i verkligheten | [I verkligheten](6-Data-Science-In-Wild/README.md) | Datavetenskapsdrivna projekt i den verkliga världen. | [lektion](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Följ dessa steg för att öppna detta exempel i en Codespace:
+1. Klicka på rullgardinsmenyn Code och välj alternativet Open with Codespaces.
+2. Välj + New codespace längst ner i panelen.
+För mer information, kolla in [GitHub-dokumentationen](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Följ dessa steg för att öppna detta repo i en container med din lokala dator och VSCode med hjälp av VS Code Remote - Containers-tillägget:
+
+1. Om detta är första gången du använder en utvecklingscontainer, se till att ditt system uppfyller förkraven (dvs. har Docker installerat) i [dokumentationen för att komma igång](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+För att använda detta repo kan du antingen öppna det i en isolerad Docker-volym:
+
+**Obs**: Under huven kommer detta att använda kommandot Remote-Containers: **Clone Repository in Container Volume...** för att klona källkoden i en Docker-volym istället för det lokala filsystemet. [Volymer](https://docs.docker.com/storage/volumes/) är den föredragna mekanismen för att bevara containerdata.
+
+Eller öppna en lokalt klonad eller nedladdad version av repo:
+
+- Klona detta repo till ditt lokala filsystem.
+- Tryck på F1 och välj kommandot **Remote-Containers: Open Folder in Container...**.
+- Välj den klonade kopian av denna mapp, vänta tills containern startar och testa saker.
+
+## Offlineåtkomst
+
+Du kan köra denna dokumentation offline med hjälp av [Docsify](https://docsify.js.org/#/). Forka detta repo, [installera Docsify](https://docsify.js.org/#/quickstart) på din lokala dator, och i root-mappen av detta repo, skriv `docsify serve`. Webbplatsen kommer att köras på port 3000 på din localhost: `localhost:3000`.
+
+> Obs, notebooks kommer inte att renderas via Docsify, så när du behöver köra en notebook, gör det separat i VS Code med en Python-kärna.
+
+## Hjälp sökes!
+
+Om du vill översätta hela eller delar av kursplanen, följ vår [Översättningar](TRANSLATIONS.md)-guide.
+
+## Andra kursplaner
+
+Vårt team producerar andra kursplaner! Kolla in:
+
+- [Generativ AI för nybörjare](https://aka.ms/genai-beginners)
+- [Generativ AI för nybörjare .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generativ AI med JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generativ AI med Java](https://aka.ms/genaijava)
+- [AI för nybörjare](https://aka.ms/ai-beginners)
+- [Datavetenskap för nybörjare](https://aka.ms/datascience-beginners)
+- [ML för nybörjare](https://aka.ms/ml-beginners)
+- [Cybersäkerhet för nybörjare](https://github.com/microsoft/Security-101)
+- [Webbutveckling för nybörjare](https://aka.ms/webdev-beginners)
+- [IoT för nybörjare](https://aka.ms/iot-beginners)
+- [XR-utveckling för nybörjare](https://github.com/microsoft/xr-development-for-beginners)
+- [Bemästra GitHub Copilot för parprogrammering](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Bemästra GitHub Copilot för C#/.NET-utvecklare](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Välj ditt eget Copilot-äventyr](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi tar inget ansvar för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/SECURITY.md b/translations/sv/SECURITY.md
new file mode 100644
index 00000000..92b42c7b
--- /dev/null
+++ b/translations/sv/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Säkerhet
+
+Microsoft tar säkerheten för våra mjukvaruprodukter och tjänster på största allvar, vilket inkluderar alla källkodsförråd som hanteras genom våra GitHub-organisationer, såsom [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) och [våra GitHub-organisationer](https://opensource.microsoft.com/).
+
+Om du tror att du har hittat en säkerhetsbrist i något Microsoft-ägt förråd som uppfyller [Microsofts definition av en säkerhetsbrist](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), vänligen rapportera det till oss enligt beskrivningen nedan.
+
+## Rapportering av säkerhetsproblem
+
+**Rapportera inte säkerhetsbrister via offentliga GitHub-ärenden.**
+
+Rapportera dem istället till Microsoft Security Response Center (MSRC) på [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Om du föredrar att skicka in utan att logga in, skicka ett e-postmeddelande till [secure@microsoft.com](mailto:secure@microsoft.com). Om möjligt, kryptera ditt meddelande med vår PGP-nyckel; ladda ner den från [Microsoft Security Response Center PGP Key-sidan](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Du bör få ett svar inom 24 timmar. Om du av någon anledning inte gör det, följ upp via e-post för att säkerställa att vi mottog ditt ursprungliga meddelande. Ytterligare information finns på [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Vänligen inkludera den begärda informationen som anges nedan (så mycket du kan tillhandahålla) för att hjälpa oss att bättre förstå naturen och omfattningen av det möjliga problemet:
+
+ * Typ av problem (t.ex. buffertöverskridning, SQL-injektion, cross-site scripting, etc.)
+ * Fullständiga sökvägar till källfiler relaterade till problemet
+ * Platsen för den påverkade källkoden (tag/branch/commit eller direkt URL)
+ * Eventuell särskild konfiguration som krävs för att återskapa problemet
+ * Steg-för-steg-instruktioner för att återskapa problemet
+ * Proof-of-concept eller exploateringskod (om möjligt)
+ * Påverkan av problemet, inklusive hur en angripare kan utnyttja det
+
+Denna information hjälper oss att snabbare prioritera din rapport.
+
+Om du rapporterar för en bug bounty kan mer kompletta rapporter bidra till en högre belöning. Besök vår [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty)-sida för mer information om våra aktiva program.
+
+## Föredragna språk
+
+Vi föredrar att all kommunikation sker på engelska.
+
+## Policy
+
+Microsoft följer principen om [Samordnad sårbarhetsrapportering](https://www.microsoft.com/en-us/msrc/cvd).
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/SUPPORT.md b/translations/sv/SUPPORT.md
new file mode 100644
index 00000000..f5b55bb7
--- /dev/null
+++ b/translations/sv/SUPPORT.md
@@ -0,0 +1,26 @@
+
+# Support
+## Hur man rapporterar problem och får hjälp
+
+Det här projektet använder GitHub Issues för att spåra buggar och funktionsförfrågningar. Sök bland befintliga
+ärenden innan du skapar nya för att undvika duplicering. För nya ärenden, rapportera din bugg eller
+funktionsförfrågan som ett nytt ärende.
+
+För hjälp och frågor om hur man använder detta projekt, skapa ett ärende.
+
+## Microsofts supportpolicy
+
+Support för detta arkiv är begränsad till de resurser som anges ovan.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiserade översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/docs/_sidebar.md b/translations/sv/docs/_sidebar.md
new file mode 100644
index 00000000..aff437dd
--- /dev/null
+++ b/translations/sv/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Introduktion
+ - [Definiera Data Science](../1-Introduction/01-defining-data-science/README.md)
+ - [Etik inom Data Science](../1-Introduction/02-ethics/README.md)
+ - [Definiera Data](../1-Introduction/03-defining-data/README.md)
+ - [Sannolikhet och Statistik](../1-Introduction/04-stats-and-probability/README.md)
+- Arbeta med Data
+ - [Relationala Databaser](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Icke-relationala Databaser](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Databeredning](../2-Working-With-Data/08-data-preparation/README.md)
+- Datavisualisering
+ - [Visualisera Kvantiteter](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualisera Fördelningar](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualisera Proportioner](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualisera Relationer](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Meningsfulla Visualiseringar](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Livscykel för Data Science
+ - [Introduktion](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analysera](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Kommunikation](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Data Science i Molnet
+ - [Introduktion](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Data Science i Verkligheten
+ - [DS i Verkligheten](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/for-teachers.md b/translations/sv/for-teachers.md
new file mode 100644
index 00000000..2a9e1947
--- /dev/null
+++ b/translations/sv/for-teachers.md
@@ -0,0 +1,78 @@
+
+## För lärare
+
+Vill du använda denna kursplan i ditt klassrum? Varsågod!
+
+Faktum är att du kan använda den direkt på GitHub genom att använda GitHub Classroom.
+
+För att göra det, gör en fork av detta repo. Du kommer att behöva skapa ett repo för varje lektion, så du måste extrahera varje mapp till ett separat repo. På så sätt kan [GitHub Classroom](https://classroom.github.com/classrooms) hantera varje lektion separat.
+
+Dessa [fullständiga instruktioner](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) ger dig en idé om hur du kan sätta upp ditt klassrum.
+
+## Använda repot som det är
+
+Om du vill använda detta repo som det är, utan att använda GitHub Classroom, går det också bra. Du behöver kommunicera med dina elever om vilken lektion ni ska arbeta med tillsammans.
+
+I ett onlineformat (Zoom, Teams eller annat) kan du skapa grupprum för frågesporterna och handleda eleverna för att hjälpa dem att förbereda sig för att lära. Sedan kan du bjuda in eleverna att delta i frågesporterna och skicka in sina svar som "issues" vid en viss tidpunkt. Du kan göra samma sak med uppgifter, om du vill att eleverna ska arbeta tillsammans öppet.
+
+Om du föredrar ett mer privat format, be dina elever att göra en fork av kursplanen, lektion för lektion, till sina egna privata GitHub-repos och ge dig åtkomst. Då kan de slutföra frågesporter och uppgifter privat och skicka in dem till dig via issues på ditt klassrumsrepo.
+
+Det finns många sätt att få detta att fungera i ett onlineklassrum. Berätta gärna för oss vad som fungerar bäst för dig!
+
+## Ingår i denna kursplan:
+
+20 lektioner, 40 frågesporter och 20 uppgifter. Sketchnotes följer med lektionerna för visuella elever. Många lektioner finns tillgängliga både i Python och R och kan genomföras med Jupyter notebooks i VS Code. Läs mer om hur du kan sätta upp ditt klassrum för att använda denna teknikstack: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Alla sketchnotes, inklusive en storformatsposter, finns i [denna mapp](../../sketchnotes).
+
+Hela kursplanen finns tillgänglig [som PDF](../../pdf/readme.pdf).
+
+Du kan också köra denna kursplan som en fristående, offlinevänlig webbplats genom att använda [Docsify](https://docsify.js.org/#/). [Installera Docsify](https://docsify.js.org/#/quickstart) på din lokala dator, och i rotmappen av din lokala kopia av detta repo, skriv `docsify serve`. Webbplatsen kommer att köras på port 3000 på din localhost: `localhost:3000`.
+
+En offlinevänlig version av kursplanen öppnas som en fristående webbsida: https://localhost:3000
+
+Lektionerna är grupperade i 6 delar:
+
+- 1: Introduktion
+ - 1: Definiera datavetenskap
+ - 2: Etik
+ - 3: Definiera data
+ - 4: Översikt av sannolikhet och statistik
+- 2: Arbeta med data
+ - 5: Relationsdatabaser
+ - 6: Icke-relationsdatabaser
+ - 7: Python
+ - 8: Databeredning
+- 3: Datavisualisering
+ - 9: Visualisering av kvantiteter
+ - 10: Visualisering av distributioner
+ - 11: Visualisering av proportioner
+ - 12: Visualisering av relationer
+ - 13: Meningsfulla visualiseringar
+- 4: Livscykel för datavetenskap
+ - 14: Introduktion
+ - 15: Analys
+ - 16: Kommunikation
+- 5: Datavetenskap i molnet
+ - 17: Introduktion
+ - 18: Lågkodslösningar
+ - 19: Azure
+- 6: Datavetenskap i praktiken
+ - 20: Översikt
+
+## Ge oss dina tankar!
+
+Vi vill att denna kursplan ska fungera för dig och dina elever. Ge oss gärna feedback i diskussionsforumet! Känn dig fri att skapa ett klassrumsområde i diskussionsforumet för dina elever.
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess ursprungliga språk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/quiz-app/README.md b/translations/sv/quiz-app/README.md
new file mode 100644
index 00000000..89e791cf
--- /dev/null
+++ b/translations/sv/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Quizzer
+
+Dessa quizzer är för- och efterföreläsningsquizzer för datavetenskapsutbildningen på https://aka.ms/datascience-beginners
+
+## Lägga till en översatt quizuppsättning
+
+Lägg till en quizöversättning genom att skapa matchande quizstrukturer i mappen `assets/translations`. De ursprungliga quizzerna finns i `assets/translations/en`. Quizzerna är uppdelade i flera grupperingar. Se till att numreringen stämmer överens med rätt quizsektion. Det finns totalt 40 quizzer i denna utbildning, med numreringen som börjar på 0.
+
+Efter att du har redigerat översättningarna, redigera filen index.js i översättningsmappen för att importera alla filer enligt konventionerna i `en`.
+
+Redigera filen `index.js` i `assets/translations` för att importera de nya översatta filerna.
+
+Redigera sedan dropdown-menyn i `App.vue` i denna app för att lägga till ditt språk. Matcha den lokaliserade förkortningen med mappnamnet för ditt språk.
+
+Slutligen, redigera alla quizlänkar i de översatta lektionerna, om de finns, för att inkludera denna lokalisering som en frågeparameter: `?loc=fr` till exempel.
+
+## Projektinställning
+
+```
+npm install
+```
+
+### Kompilerar och laddar om för utveckling
+
+```
+npm run serve
+```
+
+### Kompilerar och minimerar för produktion
+
+```
+npm run build
+```
+
+### Lintar och fixar filer
+
+```
+npm run lint
+```
+
+### Anpassa konfiguration
+
+Se [Konfigurationsreferens](https://cli.vuejs.org/config/).
+
+Credits: Tack till den ursprungliga versionen av denna quizapp: https://github.com/arpan45/simple-quiz-vue
+
+## Distribuera till Azure
+
+Här är en steg-för-steg-guide för att hjälpa dig komma igång:
+
+1. Forka ett GitHub-repository
+Se till att din statiska webbappkod finns i ditt GitHub-repository. Forka detta repository.
+
+2. Skapa en Azure Static Web App
+- Skapa ett [Azure-konto](http://azure.microsoft.com)
+- Gå till [Azure-portalen](https://portal.azure.com)
+- Klicka på "Skapa en resurs" och sök efter "Static Web App".
+- Klicka på "Skapa".
+
+3. Konfigurera den statiska webbappen
+- Grundläggande:
+ - Prenumeration: Välj din Azure-prenumeration.
+ - Resursgrupp: Skapa en ny resursgrupp eller använd en befintlig.
+ - Namn: Ange ett namn för din statiska webbapp.
+ - Region: Välj den region som är närmast dina användare.
+
+- #### Distributionsdetaljer:
+ - Källa: Välj "GitHub".
+ - GitHub-konto: Auktorisera Azure att få åtkomst till ditt GitHub-konto.
+ - Organisation: Välj din GitHub-organisation.
+ - Repository: Välj det repository som innehåller din statiska webbapp.
+ - Gren: Välj den gren du vill distribuera från.
+
+- #### Byggdetaljer:
+ - Byggförinställningar: Välj det ramverk din app är byggd med (t.ex. React, Angular, Vue, etc.).
+ - Appens plats: Ange mappen som innehåller din appkod (t.ex. / om den är i roten).
+ - API-plats: Om du har en API, ange dess plats (valfritt).
+ - Utdata-plats: Ange mappen där byggutdata genereras (t.ex. build eller dist).
+
+4. Granska och skapa
+Granska dina inställningar och klicka på "Skapa". Azure kommer att ställa in de nödvändiga resurserna och skapa ett GitHub Actions-arbetsflöde i ditt repository.
+
+5. GitHub Actions-arbetsflöde
+Azure kommer automatiskt att skapa en GitHub Actions-arbetsflödesfil i ditt repository (.github/workflows/azure-static-web-apps-.yml). Detta arbetsflöde hanterar bygg- och distributionsprocessen.
+
+6. Övervaka distributionen
+Gå till fliken "Actions" i ditt GitHub-repository.
+Du bör se ett arbetsflöde som körs. Detta arbetsflöde kommer att bygga och distribuera din statiska webbapp till Azure.
+När arbetsflödet är klart kommer din app att vara live på den angivna Azure-URL:en.
+
+### Exempel på arbetsflödesfil
+
+Här är ett exempel på hur GitHub Actions-arbetsflödesfilen kan se ut:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Ytterligare resurser
+- [Azure Static Web Apps Dokumentation](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Dokumentation](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller inexaktheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/sv/sketchnotes/README.md b/translations/sv/sketchnotes/README.md
new file mode 100644
index 00000000..be701fa6
--- /dev/null
+++ b/translations/sv/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Hitta alla sketchnotes här!
+
+## Krediter
+
+Nitya Narasimhan, konstnär
+
+
+
+---
+
+**Ansvarsfriskrivning**:
+Detta dokument har översatts med hjälp av AI-översättningstjänsten [Co-op Translator](https://github.com/Azure/co-op-translator). Även om vi strävar efter noggrannhet, bör det noteras att automatiska översättningar kan innehålla fel eller brister. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.
\ No newline at end of file
diff --git a/translations/th/1-Introduction/01-defining-data-science/README.md b/translations/th/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..03f1ab5e
--- /dev/null
+++ b/translations/th/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,80 @@
+
+## ประเภทของข้อมูล
+
+อย่างที่เราได้กล่าวไปแล้ว ข้อมูลมีอยู่ทุกที่ เราเพียงแค่ต้องเก็บข้อมูลในวิธีที่เหมาะสม! การแยกแยะระหว่างข้อมูล **ที่มีโครงสร้าง** และ **ไม่มีโครงสร้าง** เป็นสิ่งที่มีประโยชน์ ข้อมูลที่มีโครงสร้างมักจะถูกนำเสนอในรูปแบบที่มีโครงสร้างชัดเจน เช่น ตารางหรือหลายตาราง ในขณะที่ข้อมูลที่ไม่มีโครงสร้างเป็นเพียงชุดของไฟล์ บางครั้งเรายังสามารถพูดถึงข้อมูล **กึ่งโครงสร้าง** ซึ่งมีโครงสร้างบางส่วนที่อาจแตกต่างกันไปอย่างมาก
+
+| มีโครงสร้าง | กึ่งโครงสร้าง | ไม่มีโครงสร้าง |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | --------------------------------------- |
+| รายชื่อคนพร้อมหมายเลขโทรศัพท์ของพวกเขา | หน้าของ Wikipedia พร้อมลิงก์ | ข้อความของสารานุกรม Britannica |
+| อุณหภูมิในทุกห้องของอาคารในทุกนาทีตลอด 20 ปีที่ผ่านมา | ชุดของบทความวิชาการในรูปแบบ JSON พร้อมผู้เขียน วันที่ตีพิมพ์ และบทคัดย่อ | ไฟล์เอกสารขององค์กร |
+| ข้อมูลอายุและเพศของทุกคนที่เข้าอาคาร | หน้าอินเทอร์เน็ต | วิดีโอสดจากกล้องวงจรปิด |
+
+## แหล่งที่มาของข้อมูล
+
+มีแหล่งข้อมูลที่เป็นไปได้มากมาย และคงเป็นไปไม่ได้ที่จะระบุทั้งหมด! อย่างไรก็ตาม มาลองพูดถึงแหล่งข้อมูลทั่วไปบางส่วนที่คุณสามารถหาได้:
+
+* **ข้อมูลที่มีโครงสร้าง**
+ - **Internet of Things** (IoT) รวมถึงข้อมูลจากเซ็นเซอร์ต่าง ๆ เช่น เซ็นเซอร์อุณหภูมิหรือความดัน ซึ่งให้ข้อมูลที่มีประโยชน์มากมาย ตัวอย่างเช่น หากอาคารสำนักงานติดตั้งเซ็นเซอร์ IoT เราสามารถควบคุมการทำความร้อนและแสงสว่างโดยอัตโนมัติเพื่อลดค่าใช้จ่าย
+ - **แบบสำรวจ** ที่เราขอให้ผู้ใช้กรอกหลังการซื้อสินค้าหรือหลังจากเยี่ยมชมเว็บไซต์
+ - **การวิเคราะห์พฤติกรรม** เช่น การช่วยให้เราเข้าใจว่าผู้ใช้เข้าไปในเว็บไซต์ลึกแค่ไหน และเหตุผลทั่วไปที่ทำให้พวกเขาออกจากเว็บไซต์
+* **ข้อมูลที่ไม่มีโครงสร้าง**
+ - **ข้อความ** สามารถเป็นแหล่งข้อมูลที่อุดมไปด้วย เช่น การวิเคราะห์ **คะแนนความรู้สึก** โดยรวม หรือการดึงคำสำคัญและความหมายเชิงความหมาย
+ - **ภาพ** หรือ **วิดีโอ** วิดีโอจากกล้องวงจรปิดสามารถใช้ประเมินการจราจรบนถนน และแจ้งเตือนผู้คนเกี่ยวกับการจราจรติดขัด
+ - **บันทึกเซิร์ฟเวอร์เว็บ** สามารถใช้เพื่อเข้าใจว่าหน้าใดของเว็บไซต์ของเราถูกเยี่ยมชมบ่อยที่สุด และใช้เวลานานแค่ไหน
+* **กึ่งโครงสร้าง**
+ - **กราฟเครือข่ายสังคม** สามารถเป็นแหล่งข้อมูลที่ยอดเยี่ยมเกี่ยวกับบุคลิกภาพของผู้ใช้และประสิทธิภาพที่อาจเกิดขึ้นในการกระจายข้อมูล
+ - เมื่อเรามีภาพถ่ายจำนวนมากจากงานปาร์ตี้ เราสามารถพยายามดึงข้อมูล **พลวัตของกลุ่ม** โดยการสร้างกราฟของคนที่ถ่ายภาพร่วมกัน
+
+เมื่อรู้แหล่งข้อมูลที่เป็นไปได้ต่าง ๆ คุณสามารถลองคิดถึงสถานการณ์ต่าง ๆ ที่เทคนิควิทยาศาสตร์ข้อมูลสามารถนำไปใช้เพื่อเข้าใจสถานการณ์ได้ดีขึ้น และปรับปรุงกระบวนการทางธุรกิจ
+
+## สิ่งที่คุณสามารถทำได้กับข้อมูล
+
+ในวิทยาศาสตร์ข้อมูล เรามุ่งเน้นไปที่ขั้นตอนต่อไปนี้ในเส้นทางของข้อมูล:
+
+แน่นอนว่า ขึ้นอยู่กับข้อมูลจริง บางขั้นตอนอาจขาดหายไป (เช่น เมื่อเรามีข้อมูลอยู่ในฐานข้อมูลแล้ว หรือเมื่อเราไม่จำเป็นต้องฝึกโมเดล) หรือบางขั้นตอนอาจถูกทำซ้ำหลายครั้ง (เช่น การประมวลผลข้อมูล)
+
+## การแปลงเป็นดิจิทัลและการเปลี่ยนแปลงทางดิจิทัล
+
+ในทศวรรษที่ผ่านมา ธุรกิจจำนวนมากเริ่มเข้าใจถึงความสำคัญของข้อมูลในการตัดสินใจทางธุรกิจ เพื่อใช้หลักการวิทยาศาสตร์ข้อมูลในการดำเนินธุรกิจ สิ่งแรกที่ต้องทำคือการเก็บรวบรวมข้อมูล กล่าวคือ แปลงกระบวนการทางธุรกิจให้อยู่ในรูปแบบดิจิทัล ซึ่งเรียกว่า **การแปลงเป็นดิจิทัล** การใช้เทคนิควิทยาศาสตร์ข้อมูลกับข้อมูลนี้เพื่อชี้นำการตัดสินใจสามารถนำไปสู่การเพิ่มประสิทธิภาพอย่างมาก (หรือแม้กระทั่งการเปลี่ยนแปลงธุรกิจ) ซึ่งเรียกว่า **การเปลี่ยนแปลงทางดิจิทัล**
+
+ลองพิจารณาตัวอย่าง สมมติว่าเรามีหลักสูตรวิทยาศาสตร์ข้อมูล (เช่นหลักสูตรนี้) ที่เราสอนออนไลน์ให้กับนักเรียน และเราต้องการใช้วิทยาศาสตร์ข้อมูลเพื่อปรับปรุงหลักสูตร เราจะทำได้อย่างไร?
+
+เราสามารถเริ่มต้นด้วยการถามว่า "อะไรที่สามารถแปลงเป็นดิจิทัลได้?" วิธีที่ง่ายที่สุดคือการวัดเวลาที่นักเรียนแต่ละคนใช้ในการเรียนแต่ละโมดูล และวัดความรู้ที่ได้รับโดยการให้ทำแบบทดสอบแบบปรนัยเมื่อจบแต่ละโมดูล โดยการเฉลี่ยเวลาที่ใช้เรียนในแต่ละโมดูลของนักเรียนทั้งหมด เราสามารถค้นหาได้ว่าโมดูลใดที่ทำให้นักเรียนมีปัญหามากที่สุด และทำงานเพื่อปรับปรุงให้เข้าใจง่ายขึ้น
+คุณอาจแย้งได้ว่าวิธีนี้ไม่ใช่วิธีที่เหมาะสมที่สุด เพราะโมดูลอาจมีความยาวต่างกัน อาจจะยุติธรรมกว่าถ้าแบ่งเวลาโดยพิจารณาจากความยาวของโมดูล (ในจำนวนตัวอักษร) แล้วเปรียบเทียบค่าที่ได้แทน
+เมื่อเราเริ่มวิเคราะห์ผลลัพธ์ของการทดสอบแบบปรนัย เราสามารถพยายามระบุแนวคิดที่นักเรียนมีปัญหาในการทำความเข้าใจ และใช้ข้อมูลนั้นเพื่อปรับปรุงเนื้อหาได้ เพื่อทำเช่นนั้น เราจำเป็นต้องออกแบบการทดสอบในลักษณะที่แต่ละคำถามเชื่อมโยงกับแนวคิดหรือส่วนความรู้ที่เฉพาะเจาะจง
+
+หากเราต้องการทำให้ซับซ้อนยิ่งขึ้น เราสามารถวางแผนเปรียบเทียบเวลาที่ใช้ในแต่ละโมดูลกับกลุ่มอายุของนักเรียน เราอาจพบว่าในบางกลุ่มอายุใช้เวลานานเกินไปในการทำโมดูลให้เสร็จ หรือว่านักเรียนเลิกเรียนก่อนที่จะทำเสร็จ สิ่งนี้สามารถช่วยให้เราแนะนำอายุที่เหมาะสมสำหรับโมดูล และลดความไม่พอใจของผู้คนจากความคาดหวังที่ผิดพลาด
+
+## 🚀 ความท้าทาย
+
+ในความท้าทายนี้ เราจะพยายามค้นหาแนวคิดที่เกี่ยวข้องกับสาขาวิทยาศาสตร์ข้อมูล (Data Science) โดยการดูจากข้อความ เราจะนำบทความจาก Wikipedia เกี่ยวกับวิทยาศาสตร์ข้อมูลมาดาวน์โหลดและประมวลผลข้อความ จากนั้นสร้าง Word Cloud ที่มีลักษณะดังนี้:
+
+
+
+เยี่ยมชม [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') เพื่ออ่านโค้ด คุณยังสามารถรันโค้ดและดูว่ามันทำการแปลงข้อมูลทั้งหมดแบบเรียลไทม์ได้อย่างไร
+
+> หากคุณไม่ทราบวิธีการรันโค้ดใน Jupyter Notebook ลองดู [บทความนี้](https://soshnikov.com/education/how-to-execute-notebooks-from-github/)
+
+## [แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## งานที่ได้รับมอบหมาย
+
+* **งานที่ 1**: แก้ไขโค้ดด้านบนเพื่อค้นหาแนวคิดที่เกี่ยวข้องกับสาขา **Big Data** และ **Machine Learning**
+* **งานที่ 2**: [คิดเกี่ยวกับสถานการณ์ในวิทยาศาสตร์ข้อมูล](assignment.md)
+
+## เครดิต
+
+บทเรียนนี้เขียนขึ้นด้วย ♥️ โดย [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/01-defining-data-science/assignment.md b/translations/th/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..f1b0f9a8
--- /dev/null
+++ b/translations/th/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# การมอบหมายงาน: สถานการณ์ด้านวิทยาศาสตร์ข้อมูล
+
+ในงานมอบหมายแรกนี้ เราขอให้คุณคิดเกี่ยวกับกระบวนการหรือปัญหาในชีวิตจริงในหลากหลายโดเมนปัญหา และวิธีที่คุณสามารถปรับปรุงมันโดยใช้กระบวนการวิทยาศาสตร์ข้อมูล ลองพิจารณาสิ่งต่อไปนี้:
+
+1. คุณสามารถรวบรวมข้อมูลอะไรได้บ้าง?
+1. คุณจะรวบรวมข้อมูลนั้นอย่างไร?
+1. คุณจะจัดเก็บข้อมูลอย่างไร? ข้อมูลมีแนวโน้มที่จะมีขนาดใหญ่แค่ไหน?
+1. คุณอาจได้รับข้อมูลเชิงลึกอะไรจากข้อมูลนี้? เราสามารถตัดสินใจอะไรได้บ้างโดยอิงจากข้อมูลนี้?
+
+ลองคิดถึงปัญหา/กระบวนการ 3 อย่างที่แตกต่างกัน และอธิบายแต่ละจุดข้างต้นสำหรับแต่ละโดเมนปัญหา
+
+นี่คือตัวอย่างโดเมนปัญหาและปัญหาที่สามารถช่วยให้คุณเริ่มต้นคิดได้:
+
+1. คุณจะใช้ข้อมูลเพื่อปรับปรุงกระบวนการการศึกษาสำหรับเด็กในโรงเรียนได้อย่างไร?
+1. คุณจะใช้ข้อมูลเพื่อควบคุมการฉีดวัคซีนในช่วงการระบาดใหญ่ได้อย่างไร?
+1. คุณจะใช้ข้อมูลเพื่อให้แน่ใจว่าคุณมีประสิทธิภาพในการทำงานได้อย่างไร?
+
+## คำแนะนำ
+
+กรอกตารางต่อไปนี้ (แทนที่โดเมนปัญหาที่แนะนำด้วยของคุณเองหากจำเป็น):
+
+| โดเมนปัญหา | ปัญหา | ข้อมูลที่ต้องรวบรวม | วิธีจัดเก็บข้อมูล | ข้อมูลเชิงลึก/การตัดสินใจที่เราสามารถทำได้ |
+|-------------|--------|-----------------------|---------------------|------------------------------------------|
+| การศึกษา | | | | |
+| การฉีดวัคซีน | | | | |
+| ประสิทธิภาพการทำงาน | | | | |
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+สามารถระบุแหล่งข้อมูลที่เหมาะสม วิธีการจัดเก็บข้อมูล และการตัดสินใจ/ข้อมูลเชิงลึกที่เป็นไปได้สำหรับทุกโดเมนปัญหา | บางส่วนของวิธีแก้ปัญหาไม่ได้อธิบายละเอียด การจัดเก็บข้อมูลไม่ได้ถูกกล่าวถึง มีการอธิบายอย่างน้อย 2 โดเมนปัญหา | มีการอธิบายเพียงบางส่วนของวิธีแก้ปัญหา มีการพิจารณาเพียงโดเมนปัญหาเดียว |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/th/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..171829f6
--- /dev/null
+++ b/translations/th/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# การบ้าน: สถานการณ์ด้านวิทยาศาสตร์ข้อมูล
+
+ในงานแรกนี้ เราขอให้คุณคิดเกี่ยวกับกระบวนการหรือปัญหาในชีวิตจริงในหลากหลายโดเมนปัญหา และวิธีที่คุณสามารถปรับปรุงมันโดยใช้กระบวนการวิทยาศาสตร์ข้อมูล ลองพิจารณาสิ่งต่อไปนี้:
+
+1. คุณสามารถรวบรวมข้อมูลอะไรได้บ้าง?
+1. คุณจะรวบรวมข้อมูลนั้นอย่างไร?
+1. คุณจะจัดเก็บข้อมูลอย่างไร? ข้อมูลมีแนวโน้มที่จะมีขนาดใหญ่แค่ไหน?
+1. คุณอาจได้รับข้อมูลเชิงลึกอะไรจากข้อมูลนี้? เราสามารถตัดสินใจอะไรได้บ้างโดยอิงจากข้อมูลนี้?
+
+ลองคิดถึงปัญหาหรือกระบวนการ 3 อย่างที่แตกต่างกัน และอธิบายแต่ละจุดข้างต้นสำหรับแต่ละโดเมนปัญหา
+
+นี่คือตัวอย่างโดเมนปัญหาและปัญหาที่สามารถช่วยให้คุณเริ่มต้นคิด:
+
+1. คุณสามารถใช้ข้อมูลเพื่อปรับปรุงกระบวนการเรียนการสอนสำหรับเด็กในโรงเรียนได้อย่างไร?
+1. คุณสามารถใช้ข้อมูลเพื่อควบคุมการฉีดวัคซีนในช่วงการระบาดใหญ่ได้อย่างไร?
+1. คุณสามารถใช้ข้อมูลเพื่อให้แน่ใจว่าคุณมีประสิทธิภาพในการทำงานได้อย่างไร?
+
+## คำแนะนำ
+
+กรอกตารางต่อไปนี้ (แทนที่โดเมนปัญหาที่แนะนำด้วยของคุณเองหากจำเป็น):
+
+| โดเมนปัญหา | ปัญหา | ข้อมูลที่ต้องรวบรวม | วิธีการจัดเก็บข้อมูล | ข้อมูลเชิงลึก/การตัดสินใจที่เราสามารถทำได้ |
+|-------------|--------|-----------------------|-----------------------|--------------------------------------|
+| การศึกษา | ในมหาวิทยาลัย เรามักมีการเข้าชั้นเรียนที่ต่ำ และเรามีสมมติฐานว่านักเรียนที่เข้าชั้นเรียนโดยเฉลี่ยจะทำได้ดีกว่าในการสอบ เราต้องการกระตุ้นการเข้าชั้นเรียนและทดสอบสมมติฐานนี้ | เราสามารถติดตามการเข้าชั้นเรียนผ่านภาพถ่ายที่ถ่ายโดยกล้องวงจรปิดในห้องเรียน หรือโดยการติดตามที่อยู่บลูทูธ/ไวไฟของโทรศัพท์มือถือของนักเรียนในห้องเรียน ข้อมูลการสอบมีอยู่แล้วในฐานข้อมูลของมหาวิทยาลัย | ในกรณีที่เราติดตามภาพถ่ายจากกล้องวงจรปิด - เราจำเป็นต้องจัดเก็บภาพถ่ายจำนวนเล็กน้อย (5-10 ภาพ) ระหว่างชั้นเรียน (ข้อมูลที่ไม่มีโครงสร้าง) และใช้ AI เพื่อระบุใบหน้าของนักเรียน (แปลงข้อมูลเป็นรูปแบบที่มีโครงสร้าง) | เราสามารถคำนวณข้อมูลการเข้าชั้นเรียนเฉลี่ยสำหรับนักเรียนแต่ละคน และดูว่ามีความสัมพันธ์ใด ๆ กับคะแนนสอบหรือไม่ เราจะพูดเพิ่มเติมเกี่ยวกับความสัมพันธ์ในส่วน [ความน่าจะเป็นและสถิติ](../../04-stats-and-probability/README.md) เพื่อกระตุ้นการเข้าชั้นเรียนของนักเรียน เราสามารถเผยแพร่คะแนนการเข้าชั้นเรียนรายสัปดาห์บนพอร์ทัลของโรงเรียน และจับรางวัลในกลุ่มผู้ที่มีการเข้าชั้นเรียนสูงสุด |
+| การฉีดวัคซีน | | | | |
+| ประสิทธิภาพการทำงาน | | | | |
+
+> *เราให้คำตอบเพียงหนึ่งตัวอย่างเพื่อให้คุณเข้าใจสิ่งที่คาดหวังในงานนี้*
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+สามารถระบุแหล่งข้อมูลที่เหมาะสม วิธีการจัดเก็บข้อมูล และการตัดสินใจ/ข้อมูลเชิงลึกที่เป็นไปได้สำหรับทุกโดเมนปัญหา | บางแง่มุมของวิธีแก้ปัญหาไม่ได้ถูกอธิบายอย่างละเอียด การจัดเก็บข้อมูลไม่ได้ถูกกล่าวถึง มีการอธิบายอย่างน้อย 2 โดเมนปัญหา | มีการอธิบายเพียงบางส่วนของวิธีแก้ปัญหาด้านข้อมูล มีการพิจารณาเพียงโดเมนปัญหาเดียว |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/02-ethics/README.md b/translations/th/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..96ee7b37
--- /dev/null
+++ b/translations/th/1-Introduction/02-ethics/README.md
@@ -0,0 +1,225 @@
+
+# บทนำสู่จริยธรรมข้อมูล
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| จริยธรรมข้อมูล - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+เราทุกคนเป็นพลเมืองข้อมูลที่อาศัยอยู่ในโลกที่เต็มไปด้วยข้อมูล
+
+แนวโน้มตลาดบอกเราว่าภายในปี 2022 องค์กรขนาดใหญ่ 1 ใน 3 จะซื้อและขายข้อมูลของพวกเขาผ่าน [ตลาดและการแลกเปลี่ยนออนไลน์](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) ในฐานะ **นักพัฒนาแอปพลิเคชัน** เราจะพบว่าการผสานข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูลและระบบอัตโนมัติที่ขับเคลื่อนด้วยอัลกอริทึมเข้ากับประสบการณ์ผู้ใช้ในชีวิตประจำวันนั้นง่ายและถูกลง แต่เมื่อ AI กลายเป็นสิ่งที่แพร่หลาย เราก็ต้องเข้าใจถึงอันตรายที่อาจเกิดขึ้นจาก [การใช้อัลกอริทึมในทางที่ผิด](https://www.youtube.com/watch?v=TQHs8SA1qpk) ในระดับใหญ่ด้วย
+
+แนวโน้มยังชี้ให้เห็นว่าเราจะสร้างและบริโภคข้อมูลมากกว่า [180 เซตตะไบต์](https://www.statista.com/statistics/871513/worldwide-data-created/) ภายในปี 2025 ในฐานะ **นักวิทยาศาสตร์ข้อมูล** สิ่งนี้ทำให้เรามีโอกาสเข้าถึงข้อมูลส่วนบุคคลในระดับที่ไม่เคยมีมาก่อน ซึ่งหมายความว่าเราสามารถสร้างโปรไฟล์พฤติกรรมของผู้ใช้และมีอิทธิพลต่อการตัดสินใจในลักษณะที่สร้าง [ภาพลวงตาของการเลือกอย่างเสรี](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ในขณะเดียวกันก็อาจผลักดันผู้ใช้ไปสู่ผลลัพธ์ที่เราต้องการ นอกจากนี้ยังทำให้เกิดคำถามที่กว้างขึ้นเกี่ยวกับความเป็นส่วนตัวของข้อมูลและการคุ้มครองผู้ใช้
+
+จริยธรรมข้อมูลในปัจจุบันเป็น _รั้วป้องกันที่จำเป็น_ สำหรับวิทยาศาสตร์ข้อมูลและวิศวกรรม โดยช่วยลดอันตรายที่อาจเกิดขึ้นและผลกระทบที่ไม่ได้ตั้งใจจากการกระทำที่ขับเคลื่อนด้วยข้อมูลของเรา [Gartner Hype Cycle for AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ระบุแนวโน้มที่เกี่ยวข้องในด้านจริยธรรมดิจิทัล AI ที่รับผิดชอบ และการกำกับดูแล AI ว่าเป็นตัวขับเคลื่อนสำคัญสำหรับแนวโน้มใหญ่ที่เกี่ยวกับ _การทำให้เป็นประชาธิปไตย_ และ _การทำให้เป็นอุตสาหกรรม_ ของ AI
+
+
+
+ในบทเรียนนี้ เราจะสำรวจพื้นที่ที่น่าสนใจของจริยธรรมข้อมูล ตั้งแต่แนวคิดหลักและความท้าทาย ไปจนถึงกรณีศึกษาและแนวคิด AI ประยุกต์ เช่น การกำกับดูแล ที่ช่วยสร้างวัฒนธรรมจริยธรรมในทีมและองค์กรที่ทำงานกับข้อมูลและ AI
+
+## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## คำจำกัดความพื้นฐาน
+
+เริ่มต้นด้วยการทำความเข้าใจคำศัพท์พื้นฐานกันก่อน
+
+คำว่า "จริยธรรม" มาจาก [คำภาษากรีก "ethikos"](https://en.wikipedia.org/wiki/Ethics) (และรากศัพท์ "ethos") ซึ่งหมายถึง _ลักษณะนิสัยหรือธรรมชาติทางศีลธรรม_
+
+**จริยธรรม** เกี่ยวกับค่านิยมร่วมกันและหลักการทางศีลธรรมที่กำหนดพฤติกรรมของเราในสังคม จริยธรรมไม่ได้ขึ้นอยู่กับกฎหมาย แต่ขึ้นอยู่กับบรรทัดฐานที่ยอมรับกันอย่างกว้างขวางว่าอะไรคือ "ถูกหรือผิด" อย่างไรก็ตาม การพิจารณาด้านจริยธรรมสามารถมีอิทธิพลต่อการกำกับดูแลขององค์กรและกฎระเบียบของรัฐบาลที่สร้างแรงจูงใจให้ปฏิบัติตามมากขึ้น
+
+**จริยธรรมข้อมูล** เป็น [สาขาใหม่ของจริยธรรม](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) ที่ "ศึกษาและประเมินปัญหาทางศีลธรรมที่เกี่ยวข้องกับ _ข้อมูล อัลกอริทึม และการปฏิบัติที่เกี่ยวข้อง_" ในที่นี้ **"ข้อมูล"** มุ่งเน้นไปที่การกระทำที่เกี่ยวข้องกับการสร้าง การบันทึก การดูแล การประมวลผล การเผยแพร่ การแบ่งปัน และการใช้งาน **"อัลกอริทึม"** มุ่งเน้นไปที่ AI ตัวแทน การเรียนรู้ของเครื่อง และหุ่นยนต์ และ **"การปฏิบัติ"** มุ่งเน้นไปที่หัวข้อต่างๆ เช่น นวัตกรรมที่รับผิดชอบ การเขียนโปรแกรม การแฮ็ก และจรรยาบรรณ
+
+**จริยธรรมประยุกต์** คือ [การประยุกต์ใช้ข้อพิจารณาทางศีลธรรมในทางปฏิบัติ](https://en.wikipedia.org/wiki/Applied_ethics) เป็นกระบวนการตรวจสอบปัญหาด้านจริยธรรมในบริบทของ _การกระทำ ผลิตภัณฑ์ และกระบวนการในโลกแห่งความเป็นจริง_ และดำเนินการแก้ไขเพื่อให้สิ่งเหล่านี้ยังคงสอดคล้องกับค่านิยมทางจริยธรรมที่กำหนดไว้
+
+**วัฒนธรรมจริยธรรม** เกี่ยวกับ [_การทำให้จริยธรรมประยุกต์เป็นรูปธรรม_](https://hbr.org/2019/05/how-to-design-an-ethical-organization) เพื่อให้แน่ใจว่าหลักการและการปฏิบัติด้านจริยธรรมของเราได้รับการนำไปใช้อย่างสม่ำเสมอและขยายขอบเขตได้ทั่วทั้งองค์กร วัฒนธรรมจริยธรรมที่ประสบความสำเร็จจะกำหนดหลักการจริยธรรมทั่วทั้งองค์กร ให้แรงจูงใจที่มีความหมายสำหรับการปฏิบัติตาม และเสริมสร้างบรรทัดฐานด้านจริยธรรมโดยการสนับสนุนและขยายพฤติกรรมที่พึงประสงค์ในทุกระดับขององค์กร
+
+## แนวคิดด้านจริยธรรม
+
+ในส่วนนี้ เราจะพูดถึงแนวคิดต่างๆ เช่น **ค่านิยมร่วมกัน** (หลักการ) และ **ความท้าทายด้านจริยธรรม** (ปัญหา) สำหรับจริยธรรมข้อมูล - และสำรวจ **กรณีศึกษา** ที่ช่วยให้คุณเข้าใจแนวคิดเหล่านี้ในบริบทของโลกแห่งความเป็นจริง
+
+### 1. หลักการด้านจริยธรรม
+
+กลยุทธ์จริยธรรมข้อมูลทุกกลยุทธ์เริ่มต้นด้วยการกำหนด _หลักการด้านจริยธรรม_ - "ค่านิยมร่วมกัน" ที่อธิบายพฤติกรรมที่ยอมรับได้ และชี้นำการกระทำที่สอดคล้องกันในโครงการข้อมูลและ AI ของเรา คุณสามารถกำหนดสิ่งเหล่านี้ในระดับบุคคลหรือทีม อย่างไรก็ตาม องค์กรขนาดใหญ่มักจะกำหนดสิ่งเหล่านี้ในแถลงการณ์พันธกิจหรือกรอบงาน _AI ที่มีจริยธรรม_ ซึ่งกำหนดในระดับองค์กรและบังคับใช้อย่างสม่ำเสมอในทุกทีม
+
+**ตัวอย่าง:** แถลงการณ์พันธกิจ [AI ที่รับผิดชอบ](https://www.microsoft.com/en-us/ai/responsible-ai) ของ Microsoft ระบุว่า: _"เรามุ่งมั่นที่จะพัฒนา AI โดยยึดหลักจริยธรรมที่ให้ความสำคัญกับผู้คนเป็นอันดับแรก"_ - โดยระบุหลักการจริยธรรม 6 ข้อในกรอบงานด้านล่าง:
+
+
+
+มาสำรวจหลักการเหล่านี้กันสั้นๆ _ความโปร่งใส_ และ _ความรับผิดชอบ_ เป็นค่านิยมพื้นฐานที่หลักการอื่นๆ สร้างขึ้น - ดังนั้นเรามาเริ่มต้นที่นี่:
+
+* [**ความรับผิดชอบ**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้ผู้ปฏิบัติงาน _รับผิดชอบ_ ต่อการดำเนินงานด้านข้อมูลและ AI ของพวกเขา และการปฏิบัติตามหลักการจริยธรรมเหล่านี้
+* [**ความโปร่งใส**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้มั่นใจว่าการกระทำด้านข้อมูลและ AI นั้น _เข้าใจได้_ (ตีความได้) สำหรับผู้ใช้ โดยอธิบายว่าอะไรและทำไมเบื้องหลังการตัดสินใจ
+* [**ความยุติธรรม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - มุ่งเน้นไปที่การทำให้มั่นใจว่า AI ปฏิบัติต่อ _ทุกคน_ อย่างยุติธรรม โดยจัดการกับอคติทางสังคม-เทคนิคที่เป็นระบบหรือโดยนัยในข้อมูลและระบบ
+* [**ความน่าเชื่อถือและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ทำให้มั่นใจว่า AI มีพฤติกรรม _สอดคล้อง_ กับค่านิยมที่กำหนดไว้ ลดอันตรายที่อาจเกิดขึ้นหรือผลกระทบที่ไม่ได้ตั้งใจ
+* [**ความเป็นส่วนตัวและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการทำความเข้าใจแหล่งที่มาของข้อมูล และให้ _ความเป็นส่วนตัวของข้อมูลและการป้องกันที่เกี่ยวข้อง_ แก่ผู้ใช้
+* [**การมีส่วนร่วม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการออกแบบโซลูชัน AI ด้วยความตั้งใจ ปรับให้เหมาะสมเพื่อตอบสนอง _ความต้องการและความสามารถของมนุษย์ที่หลากหลาย_
+
+> 🚨 ลองคิดดูว่าแถลงการณ์พันธกิจจริยธรรมข้อมูลของคุณจะเป็นอย่างไร สำรวจกรอบงาน AI ที่มีจริยธรรมจากองค์กรอื่นๆ - นี่คือตัวอย่างจาก [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), และ [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) ค่านิยมร่วมกันที่พวกเขามีเหมือนกันคืออะไร? หลักการเหล่านี้เกี่ยวข้องกับผลิตภัณฑ์ AI หรืออุตสาหกรรมที่พวกเขาดำเนินการอย่างไร?
+
+### 2. ความท้าทายด้านจริยธรรม
+
+เมื่อเรากำหนดหลักการจริยธรรมแล้ว ขั้นตอนต่อไปคือการประเมินการกระทำด้านข้อมูลและ AI ของเราเพื่อดูว่าพวกมันสอดคล้องกับค่านิยมร่วมกันเหล่านั้นหรือไม่ ลองคิดถึงการกระทำของคุณในสองหมวดหมู่: _การเก็บรวบรวมข้อมูล_ และ _การออกแบบอัลกอริทึม_
+
+ในการเก็บรวบรวมข้อมูล การกระทำมักจะเกี่ยวข้องกับ **ข้อมูลส่วนบุคคล** หรือข้อมูลที่สามารถระบุตัวบุคคลได้ (PII) สำหรับบุคคลที่สามารถระบุตัวตนได้ ซึ่งรวมถึง [รายการข้อมูลที่ไม่ใช่ส่วนบุคคลที่หลากหลาย](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) ที่ _รวมกัน_ สามารถระบุตัวบุคคลได้ ความท้าทายด้านจริยธรรมอาจเกี่ยวข้องกับ _ความเป็นส่วนตัวของข้อมูล_ _การเป็นเจ้าของข้อมูล_ และหัวข้อที่เกี่ยวข้อง เช่น _การยินยอมที่ได้รับการแจ้ง_ และ _สิทธิในทรัพย์สินทางปัญญา_ ของผู้ใช้
+
+ในการออกแบบอัลกอริทึม การกระทำจะเกี่ยวข้องกับการเก็บรวบรวมและดูแล **ชุดข้อมูล** จากนั้นใช้ชุดข้อมูลเหล่านี้เพื่อฝึกอบรมและปรับใช้ **โมเดลข้อมูล** ที่คาดการณ์ผลลัพธ์หรือทำการตัดสินใจอัตโนมัติในบริบทของโลกแห่งความเป็นจริง ความท้าทายด้านจริยธรรมอาจเกิดจาก _อคติในชุดข้อมูล_ _ปัญหาคุณภาพของข้อมูล_ _ความไม่ยุติธรรม_ และ _การบิดเบือน_ ในอัลกอริทึม - รวมถึงปัญหาบางอย่างที่เป็นระบบ
+
+ในทั้งสองกรณี ความท้าทายด้านจริยธรรมเน้นพื้นที่ที่การกระทำของเราอาจขัดแย้งกับค่านิยมร่วมกันของเรา เพื่อที่จะตรวจจับ บรรเทา ลด หรือกำจัดข้อกังวลเหล่านี้ - เราจำเป็นต้องตั้งคำถามทางศีลธรรม "ใช่/ไม่ใช่" ที่เกี่ยวข้องกับการกระทำของเรา จากนั้นดำเนินการแก้ไขตามความจำเป็น มาดูความท้าทายด้านจริยธรรมบางประการและคำถามทางศีลธรรมที่พวกมันก่อให้เกิด:
+
+#### 2.1 การเป็นเจ้าของข้อมูล
+
+การเก็บรวบรวมข้อมูลมักเกี่ยวข้องกับข้อมูลส่วนบุคคลที่สามารถระบุตัวตนของเจ้าของข้อมูลได้ [การเป็นเจ้าของข้อมูล](https://permission.io/blog/data-ownership) หมายถึง _การควบคุม_ และ [_สิทธิของผู้ใช้_](https://permission.io/blog/data-ownership) ที่เกี่ยวข้องกับการสร้าง การประมวลผล และการเผยแพร่ข้อมูล
+
+คำถามทางศีลธรรมที่เราต้องถามคือ:
+ * ใครเป็นเจ้าของข้อมูล? (ผู้ใช้หรือองค์กร)
+ * เจ้าของข้อมูลมีสิทธิอะไรบ้าง? (เช่น การเข้าถึง การลบ การพกพา)
+ * องค์กรมีสิทธิอะไรบ้าง? (เช่น การแก้ไขรีวิวที่เป็นอันตราย)
+
+#### 2.2 การยินยอมที่ได้รับการแจ้ง
+
+[การยินยอมที่ได้รับการแจ้ง](https://legaldictionary.net/informed-consent/) หมายถึงการกระทำที่ผู้ใช้ยอมรับการกระทำ (เช่น การเก็บข้อมูล) โดยมี _ความเข้าใจอย่างเต็มที่_ เกี่ยวกับข้อเท็จจริงที่เกี่ยวข้อง รวมถึงวัตถุประสงค์ ความเสี่ยงที่อาจเกิดขึ้น และทางเลือกอื่นๆ
+
+คำถามที่ควรสำรวจในที่นี้คือ:
+ * ผู้ใช้ (เจ้าของข้อมูล) ให้อนุญาตสำหรับการเก็บและการใช้ข้อมูลหรือไม่?
+ * ผู้ใช้เข้าใจวัตถุประสงค์ที่เก็บข้อมูลหรือไม่?
+ * ผู้ใช้เข้าใจความเสี่ยงที่อาจเกิดขึ้นจากการมีส่วนร่วมของพวกเขาหรือไม่?
+
+#### 2.3 ทรัพย์สินทางปัญญา
+
+[ทรัพย์สินทางปัญญา](https://en.wikipedia.org/wiki/Intellectual_property) หมายถึงการสร้างสรรค์ที่จับต้องไม่ได้ซึ่งเกิดจากความคิดริเริ่มของมนุษย์ ซึ่งอาจ _มีมูลค่าทางเศรษฐกิจ_ ต่อบุคคลหรือธุรกิจ
+
+คำถามที่ควรสำรวจในที่นี้คือ:
+ * ข้อมูลที่เก็บรวบรวมมีมูลค่าทางเศรษฐกิจต่อผู้ใช้หรือธุรกิจหรือไม่?
+ * **ผู้ใช้** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่?
+ * **องค์กร** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่?
+ * หากสิทธิ์เหล่านี้มีอยู่ เราปกป้องสิทธิ์เหล่านี้อย่างไร?
+
+#### 2.4 ความเป็นส่วนตัวของข้อมูล
+
+[ความเป็นส่วนตัวของข้อมูล](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) หรือความเป็นส่วนตัวของข้อมูลหมายถึงการรักษาความเป็นส่วนตัวของผู้ใช้และการปกป้องตัวตนของผู้ใช้เกี่ยวกับข้อมูลที่สามารถระบุตัวบุคคลได้
+
+คำถามที่ควรสำรวจในที่นี้คือ:
+ * ข้อมูลส่วนบุคคลของผู้ใช้ปลอดภัยจากการแฮ็กและการรั่วไหลหรือไม่?
+ * ข้อมูลของผู้ใช้สามารถเข้าถึงได้เฉพาะผู้ใช้ที่ได้รับอนุญาตและบริบทที่เหมาะสมหรือไม่?
+ * การไม่ระบุตัวตนของผู้ใช้ได้รับการรักษาไว้เมื่อมีการแบ่งปัน
+[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) คือการตรวจสอบว่า การออกแบบอัลกอริทึมมีการเลือกปฏิบัติต่อกลุ่มย่อยของข้อมูลอย่างเป็นระบบหรือไม่ ซึ่งอาจนำไปสู่ [ผลกระทบที่อาจเกิดขึ้น](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) ในเรื่องของ _การจัดสรรทรัพยากร_ (ที่ทรัพยากรถูกปฏิเสธหรือถูกระงับจากกลุ่มนั้น) และ _คุณภาพของบริการ_ (ที่ AI มีความแม่นยำไม่เท่ากันสำหรับกลุ่มย่อยต่าง ๆ)
+
+คำถามที่ควรพิจารณา:
+ * เราได้ประเมินความแม่นยำของโมเดลสำหรับกลุ่มย่อยและเงื่อนไขที่หลากหลายหรือไม่?
+ * เราได้ตรวจสอบระบบเพื่อหาผลกระทบที่อาจเกิดขึ้น (เช่น การเหมารวม) หรือไม่?
+ * เราสามารถปรับปรุงข้อมูลหรือฝึกโมเดลใหม่เพื่อบรรเทาผลกระทบที่พบได้หรือไม่?
+
+สำรวจแหล่งข้อมูล เช่น [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) เพื่อเรียนรู้เพิ่มเติม
+
+#### 2.9 การบิดเบือนข้อมูล
+
+[Data Misrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) คือการตั้งคำถามว่า เรากำลังสื่อสารข้อมูลเชิงลึกจากข้อมูลที่รายงานอย่างซื่อสัตย์ในลักษณะที่หลอกลวงเพื่อสนับสนุนเรื่องราวที่ต้องการหรือไม่
+
+คำถามที่ควรพิจารณา:
+ * เรากำลังรายงานข้อมูลที่ไม่ครบถ้วนหรือไม่ถูกต้องหรือไม่?
+ * เรากำลังแสดงข้อมูลในลักษณะที่นำไปสู่ข้อสรุปที่ทำให้เข้าใจผิดหรือไม่?
+ * เรากำลังใช้เทคนิคทางสถิติที่เลือกสรรเพื่อปรับเปลี่ยนผลลัพธ์หรือไม่?
+ * มีคำอธิบายทางเลือกอื่นที่อาจนำไปสู่ข้อสรุปที่แตกต่างหรือไม่?
+
+#### 2.10 การเลือกอย่างอิสระ
+[Illusion of Free Choice](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) เกิดขึ้นเมื่อ "สถาปัตยกรรมการเลือก" ของระบบใช้อัลกอริทึมการตัดสินใจเพื่อชักจูงให้ผู้คนเลือกผลลัพธ์ที่ต้องการ ในขณะที่ดูเหมือนว่าพวกเขามีตัวเลือกและการควบคุม [รูปแบบมืด](https://www.darkpatterns.org/) เหล่านี้สามารถก่อให้เกิดผลกระทบทางสังคมและเศรษฐกิจต่อผู้ใช้ เนื่องจากการตัดสินใจของผู้ใช้ส่งผลต่อโปรไฟล์พฤติกรรม การกระทำเหล่านี้อาจผลักดันการเลือกในอนาคตที่ขยายผลกระทบของความเสียหายเหล่านี้
+
+คำถามที่ควรพิจารณา:
+ * ผู้ใช้เข้าใจผลกระทบของการเลือกนั้นหรือไม่?
+ * ผู้ใช้ทราบถึงตัวเลือก (ทางเลือก) และข้อดีข้อเสียของแต่ละตัวเลือกหรือไม่?
+ * ผู้ใช้สามารถย้อนกลับการเลือกที่ถูกชักจูงหรืออัตโนมัติในภายหลังได้หรือไม่?
+
+### 3. กรณีศึกษา
+
+เพื่อให้เข้าใจความท้าทายด้านจริยธรรมในบริบทของโลกจริง การศึกษากรณีที่แสดงให้เห็นถึงผลกระทบและผลลัพธ์ที่อาจเกิดขึ้นต่อบุคคลและสังคมเมื่อการละเมิดจริยธรรมถูกมองข้ามจะช่วยได้
+
+ตัวอย่างบางส่วน:
+
+| ความท้าทายด้านจริยธรรม | กรณีศึกษา |
+|--- |--- |
+| **การยินยอมโดยได้รับข้อมูล** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - ผู้ชายชาวแอฟริกันอเมริกันที่เข้าร่วมการศึกษานี้ได้รับสัญญาว่าจะได้รับการดูแลทางการแพทย์ฟรี _แต่ถูกหลอกลวง_ โดยนักวิจัยที่ไม่แจ้งให้ทราบถึงการวินิจฉัยหรือการรักษาที่มีอยู่ ผู้เข้าร่วมหลายคนเสียชีวิต และคู่สมรสหรือบุตรได้รับผลกระทบ การศึกษานี้ดำเนินไปเป็นเวลา 40 ปี |
+| **ความเป็นส่วนตัวของข้อมูล** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ให้ข้อมูลการจัดอันดับภาพยนตร์ที่ไม่ระบุตัวตนจำนวน _10 ล้านรายการจากลูกค้า 50,000 คน_ เพื่อช่วยปรับปรุงอัลกอริทึมการแนะนำ อย่างไรก็ตาม นักวิจัยสามารถเชื่อมโยงข้อมูลที่ไม่ระบุตัวตนกับข้อมูลที่สามารถระบุตัวตนได้ใน _ชุดข้อมูลภายนอก_ (เช่น ความคิดเห็นใน IMDb) ซึ่งทำให้สามารถ "ระบุตัวตน" ผู้ใช้ Netflix บางคนได้ |
+| **อคติในการเก็บข้อมูล** | 2013 - เมืองบอสตัน [พัฒนา Street Bump](https://www.boston.gov/transportation/street-bump) แอปที่ให้พลเมืองรายงานหลุมบ่อ เพื่อให้เมืองมีข้อมูลถนนที่ดีขึ้นในการแก้ไขปัญหา อย่างไรก็ตาม [ผู้คนในกลุ่มรายได้ต่ำมีการเข้าถึงรถยนต์และโทรศัพท์น้อยกว่า](https://hbr.org/2013/04/the-hidden-biases-in-big-data) ทำให้ปัญหาถนนของพวกเขาไม่ปรากฏในแอปนี้ นักพัฒนาร่วมมือกับนักวิชาการเพื่อแก้ไขปัญหา _การเข้าถึงที่เท่าเทียมและช่องว่างทางดิจิทัล_ เพื่อความเป็นธรรม |
+| **ความเป็นธรรมของอัลกอริทึม** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) ประเมินความแม่นยำของผลิตภัณฑ์ AI ที่จำแนกเพศ เผยให้เห็นช่องว่างในความแม่นยำสำหรับผู้หญิงและคนผิวสี [Apple Card ปี 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ดูเหมือนจะให้เครดิตน้อยกว่ากับผู้หญิงเมื่อเทียบกับผู้ชาย ทั้งสองกรณีแสดงให้เห็นถึงปัญหาอคติในอัลกอริทึมที่นำไปสู่ผลกระทบทางเศรษฐกิจและสังคม |
+| **การบิดเบือนข้อมูล** | 2020 - [กรมสาธารณสุขจอร์เจียเผยแพร่แผนภูมิ COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) ที่ดูเหมือนจะทำให้ประชาชนเข้าใจผิดเกี่ยวกับแนวโน้มของจำนวนผู้ป่วยที่ได้รับการยืนยัน โดยการจัดลำดับแกน x ที่ไม่เป็นไปตามลำดับเวลา ซึ่งแสดงให้เห็นถึงการบิดเบือนผ่านเทคนิคการแสดงภาพ |
+| **ภาพลวงตาของการเลือกอย่างอิสระ** | 2020 - แอปการเรียนรู้ [ABCmouse จ่ายเงิน 10 ล้านดอลลาร์เพื่อยุติข้อร้องเรียนของ FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) ที่ผู้ปกครองถูกบังคับให้จ่ายเงินสำหรับการสมัครสมาชิกที่ไม่สามารถยกเลิกได้ ซึ่งแสดงให้เห็นถึงรูปแบบมืดในสถาปัตยกรรมการเลือก ที่ผู้ใช้ถูกชักจูงไปสู่การเลือกที่อาจเป็นอันตราย |
+| **ความเป็นส่วนตัวของข้อมูลและสิทธิของผู้ใช้** | 2021 - [การละเมิดข้อมูล Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) เปิดเผยข้อมูลจากผู้ใช้ 530 ล้านคน ส่งผลให้มีการยุติคดีด้วยเงิน 5 พันล้านดอลลาร์กับ FTC อย่างไรก็ตาม Facebook ปฏิเสธที่จะแจ้งเตือนผู้ใช้เกี่ยวกับการละเมิด ซึ่งเป็นการละเมิดสิทธิของผู้ใช้เกี่ยวกับความโปร่งใสและการเข้าถึงข้อมูล |
+
+ต้องการสำรวจกรณีศึกษาเพิ่มเติม? ลองดูแหล่งข้อมูลเหล่านี้:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ภาวะที่กลืนไม่เข้าคายไม่ออกด้านจริยธรรมในอุตสาหกรรมต่าง ๆ
+* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - กรณีศึกษาสำคัญที่ถูกสำรวจ
+* [Where things have gone wrong](https://deon.drivendata.org/examples/) - รายการตรวจสอบ Deon พร้อมตัวอย่าง
+
+> 🚨 ลองคิดถึงกรณีศึกษาที่คุณเคยเห็น - คุณเคยประสบหรือได้รับผลกระทบจากความท้าทายด้านจริยธรรมที่คล้ายกันในชีวิตของคุณหรือไม่? คุณสามารถคิดถึงกรณีศึกษาอื่นอย่างน้อยหนึ่งกรณีที่แสดงให้เห็นถึงหนึ่งในความท้าทายด้านจริยธรรมที่เราได้พูดถึงในส่วนนี้หรือไม่?
+
+## จริยธรรมประยุกต์
+
+เราได้พูดถึงแนวคิดด้านจริยธรรม ความท้าทาย และกรณีศึกษาในบริบทของโลกจริง แต่เราจะเริ่มต้น _การนำ_ หลักการและแนวปฏิบัติด้านจริยธรรมไปใช้ในโครงการของเราได้อย่างไร? และเราจะ _ทำให้เป็นระบบ_ แนวปฏิบัติเหล่านี้เพื่อการกำกับดูแลที่ดีขึ้นได้อย่างไร? มาสำรวจวิธีแก้ปัญหาในโลกจริงกัน:
+
+### 1. รหัสวิชาชีพ
+
+รหัสวิชาชีพเป็นตัวเลือกหนึ่งสำหรับองค์กรในการ "จูงใจ" สมาชิกให้สนับสนุนหลักการด้านจริยธรรมและพันธกิจขององค์กร รหัสเหล่านี้เป็น _แนวทางทางศีลธรรม_ สำหรับพฤติกรรมวิชาชีพ ช่วยให้พนักงานหรือสมาชิกตัดสินใจที่สอดคล้องกับหลักการขององค์กร รหัสเหล่านี้จะมีประสิทธิภาพเท่ากับการปฏิบัติตามโดยสมัครใจของสมาชิก อย่างไรก็ตาม หลายองค์กรมีรางวัลและบทลงโทษเพิ่มเติมเพื่อกระตุ้นการปฏิบัติตามของสมาชิก
+
+ตัวอย่าง:
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (สร้างขึ้นในปี 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (ตั้งแต่ปี 1993)
+
+> 🚨 คุณเป็นสมาชิกขององค์กรวิศวกรรมหรือวิทยาศาสตร์ข้อมูลวิชาชีพหรือไม่? สำรวจเว็บไซต์ของพวกเขาเพื่อดูว่าพวกเขากำหนดรหัสจริยธรรมวิชาชีพหรือไม่ สิ่งนี้บอกอะไรเกี่ยวกับหลักการด้านจริยธรรมของพวกเขา? พวกเขา "จูงใจ" สมาชิกให้ปฏิบัติตามรหัสอย่างไร?
+
+### 2. รายการตรวจสอบด้านจริยธรรม
+
+ในขณะที่รหัสวิชาชีพกำหนด _พฤติกรรมด้านจริยธรรม_ ที่จำเป็นจากผู้ปฏิบัติงาน แต่ [มีข้อจำกัดที่ทราบกันดี](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ในการบังคับใช้ โดยเฉพาะในโครงการขนาดใหญ่ ผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลหลายคน [สนับสนุนการใช้รายการตรวจสอบ](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ซึ่งสามารถ **เชื่อมโยงหลักการกับแนวปฏิบัติ** ในลักษณะที่กำหนดและนำไปปฏิบัติได้จริงมากขึ้น
+
+รายการตรวจสอบเปลี่ยนคำถามให้เป็นงาน "ใช่/ไม่ใช่" ที่สามารถนำไปปฏิบัติได้ ทำให้สามารถติดตามได้เป็นส่วนหนึ่งของกระบวนการปล่อยผลิตภัณฑ์มาตรฐาน
+
+ตัวอย่าง:
+ * [Deon](https://deon.drivendata.org/) - รายการตรวจสอบจริยธรรมข้อมูลทั่วไปที่สร้างขึ้นจาก [คำแนะนำในอุตสาหกรรม](https://deon.drivendata.org/#checklist-citations) พร้อมเครื่องมือบรรทัดคำสั่งสำหรับการผสานรวมที่ง่ายดาย
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - ให้คำแนะนำทั่วไปสำหรับแนวปฏิบัติในการจัดการข้อมูลจากมุมมองทางกฎหมายและสังคม
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - สร้างโดยผู้ปฏิบัติงานด้าน AI เพื่อสนับสนุนการนำการตรวจสอบความเป็นธรรมไปใช้ในวงจรการพัฒนา AI
+ * [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - กรอบงานที่เปิดกว้างมากขึ้น โครงสร้างสำหรับการสำรวจเบื้องต้นเกี่ยวกับปัญหาด้านจริยธรรมในด้านการออกแบบ การดำเนินการ และบริบทขององค์กร
+
+### 3. กฎระเบียบด้านจริยธรรม
+
+จริยธรรมเกี่ยวกับการกำหนดค่านิยมร่วมกันและการทำสิ่งที่ถูกต้อง _โดยสมัครใจ_ **การปฏิบัติตาม** เกี่ยวกับ _การปฏิบัติตามกฎหมาย_ หากมีการกำหนดไว้ **การกำกับดูแล** ครอบคลุมวิธีการทั้งหมดที่องค์กรดำเนินการเพื่อบังคับใช้หลักการด้านจริยธรรมและปฏิบัติตามกฎหมายที่กำหนดไว้
+
+ปัจจุบัน การกำกับดูแลมีสองรูปแบบในองค์กร ประการแรกคือการกำหนดหลักการ **AI ด้านจริยธรรม** และสร้างแนวปฏิบัติเพื่อทำให้การนำไปใช้เป็นระบบในทุกโครงการที่เกี่ยวข้องกับ AI ในองค์กร ประการที่สองคือการปฏิบัติตาม **กฎระเบียบการคุ้มครองข้อมูล** ที่รัฐบาลกำหนดสำหรับภูมิภาคที่องค์กรดำเนินการอยู่
+
+ตัวอย่างกฎระเบียบการคุ้มครองข้อมูลและความเป็นส่วนตัว:
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - ควบคุมการรวบรวม การใช้ และการเปิดเผยข้อมูลส่วนบุคคลของ _รัฐบาลกลาง_
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ปกป้องข้อมูลสุขภาพส่วนบุคคล
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ปกป้องความเป็นส่วนตัวของข้อมูลเด็กอายุต่ำกว่า 13 ปี
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ให้สิทธิผู้ใช้ การคุ้มครองข้อมูล และความเป็นส่วนตัว
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ให้สิทธิผู้บริโภคมากขึ้นเกี่ยวกับข้อมูล (ส่วนบุคคล) ของพวกเขา
+ * `2021`, [กฎหมายคุ้มครองข้อมูลส่วนบุคคลของจีน](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) เพิ่งผ่าน ซึ่งเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวออนไลน์ที่เข้มงวดที่สุดในโลก
+
+> 🚨 สหภาพยุโรปกำหนด GDPR (General Data Protection Regulation) ซึ่งยังคงเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวของข้อมูลที่มีอิทธิพลมากที่สุดในปัจจุบัน คุณทราบหรือไม่ว่ามันยังกำหนด [8 สิทธิของผู้ใช้](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) เพื่อปกป้องความเป็นส่วนตัวทางดิจิทัลและข้อมูลส่วนบุคคลของพลเมือง? เรียนรู้เกี่ยวกับสิ่งเหล่านี้และเหตุผลที่สำคัญ
+
+### 4. วัฒนธรรมด้านจริยธรรม
+
+โปรดทราบว่ายังคงมีช่องว่างที่จับต้องไม่ได้ระหว่าง _การปฏิบัติตาม_ (การทำให้เพียงพอเพื่อให้เป็นไปตาม "ตัวอักษรของกฎหมาย") และการแก้ไข [ปัญหาระบบ](https://www.coursera.org/learn/data-science-ethics/home/week/4) (เช่น การแข็งตัวของระบบ ความไม่สมดุลของข้อมูล และความไม่เป็นธรรมในการกระจาย) ที่สามารถเร่งการใช้งาน AI ในทางที่ผิด
+
+สิ่งหลังนี้
+* [หลักการของ AI ที่มีความรับผิดชอบ](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - เส้นทางการเรียนรู้ฟรีจาก Microsoft Learn
+* [จริยธรรมและวิทยาศาสตร์ข้อมูล](https://resources.oreilly.com/examples/0636920203964) - หนังสืออิเล็กทรอนิกส์จาก O'Reilly (M. Loukides, H. Mason และคณะ)
+* [จริยธรรมในวิทยาศาสตร์ข้อมูล](https://www.coursera.org/learn/data-science-ethics#syllabus) - คอร์สออนไลน์จากมหาวิทยาลัยมิชิแกน
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - กรณีศึกษาจากมหาวิทยาลัยเท็กซัส
+
+# งานที่ได้รับมอบหมาย
+
+[เขียนกรณีศึกษาด้านจริยธรรมข้อมูล](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/02-ethics/assignment.md b/translations/th/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..8623e52b
--- /dev/null
+++ b/translations/th/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## เขียนกรณีศึกษาเกี่ยวกับจริยธรรมข้อมูล
+
+## คำแนะนำ
+
+คุณได้เรียนรู้เกี่ยวกับ [ความท้าทายด้านจริยธรรมข้อมูล](README.md#2-ethics-challenges) และได้เห็นตัวอย่างของ [กรณีศึกษา](README.md#3-case-studies) ที่สะท้อนถึงความท้าทายด้านจริยธรรมข้อมูลในบริบทของโลกจริง
+
+ในงานนี้ คุณจะเขียนกรณีศึกษาของคุณเองที่สะท้อนถึงความท้าทายด้านจริยธรรมข้อมูลจากประสบการณ์ของคุณเอง หรือจากบริบทในโลกจริงที่คุณคุ้นเคย เพียงทำตามขั้นตอนเหล่านี้:
+
+1. `เลือกความท้าทายด้านจริยธรรมข้อมูล` ดูตัวอย่างใน [บทเรียน](README.md#2-ethics-challenges) หรือค้นหาตัวอย่างออนไลน์ เช่น [Deon Checklist](https://deon.drivendata.org/examples/) เพื่อหาแรงบันดาลใจ
+
+2. `อธิบายตัวอย่างในโลกจริง` คิดถึงสถานการณ์ที่คุณเคยได้ยิน (ข่าว, งานวิจัย ฯลฯ) หรือเคยประสบ (ในชุมชนท้องถิ่น) ที่ความท้าทายนี้เกิดขึ้น คิดถึงคำถามด้านจริยธรรมข้อมูลที่เกี่ยวข้องกับความท้าทายนี้ และอภิปรายถึงอันตรายหรือผลกระทบที่ไม่ได้ตั้งใจที่อาจเกิดขึ้นจากปัญหานี้ คะแนนพิเศษ: คิดถึงวิธีแก้ไขหรือกระบวนการที่อาจนำมาใช้เพื่อช่วยลดหรือบรรเทาผลกระทบที่ไม่พึงประสงค์จากความท้าทายนี้
+
+3. `ให้รายการทรัพยากรที่เกี่ยวข้อง` แบ่งปันทรัพยากรหนึ่งรายการหรือมากกว่า (ลิงก์ไปยังบทความ, บล็อกส่วนตัวหรือภาพ, งานวิจัยออนไลน์ ฯลฯ) เพื่อพิสูจน์ว่านี่เป็นเหตุการณ์ที่เกิดขึ้นจริง คะแนนพิเศษ: แบ่งปันทรัพยากรที่แสดงถึงอันตรายและผลกระทบจากเหตุการณ์ หรือเน้นย้ำถึงขั้นตอนเชิงบวกที่ดำเนินการเพื่อป้องกันไม่ให้เกิดขึ้นอีก
+
+
+
+## เกณฑ์การให้คะแนน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+มีการระบุความท้าทายด้านจริยธรรมข้อมูลหนึ่งรายการหรือมากกว่า
กรณีศึกษานี้อธิบายเหตุการณ์ในโลกจริงที่สะท้อนถึงความท้าทายนั้นอย่างชัดเจน และเน้นถึงผลกระทบหรืออันตรายที่ไม่พึงประสงค์ที่เกิดขึ้น
มีการเชื่อมโยงทรัพยากรอย่างน้อยหนึ่งรายการเพื่อพิสูจน์ว่าเหตุการณ์นี้เกิดขึ้นจริง | มีการระบุความท้าทายด้านจริยธรรมข้อมูลหนึ่งรายการ
มีการอภิปรายถึงผลกระทบหรืออันตรายที่เกี่ยวข้องอย่างน้อยหนึ่งรายการ
อย่างไรก็ตาม การอภิปรายมีข้อจำกัดหรือขาดหลักฐานที่พิสูจน์ว่าเหตุการณ์นี้เกิดขึ้นจริง | มีการระบุความท้าทายด้านจริยธรรมข้อมูล
อย่างไรก็ตาม คำอธิบายหรือทรัพยากรไม่สะท้อนถึงความท้าทายหรือพิสูจน์ว่าเหตุการณ์นี้เกิดขึ้นจริง |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/03-defining-data/README.md b/translations/th/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..ea8e231a
--- /dev/null
+++ b/translations/th/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,84 @@
+
+# การกำหนดข้อมูล
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|การกำหนดข้อมูล - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ข้อมูลคือข้อเท็จจริง, ข้อมูล, การสังเกต และการวัดผลที่ใช้ในการค้นพบและสนับสนุนการตัดสินใจที่มีข้อมูลประกอบ จุดข้อมูลคือหน่วยเดียวของข้อมูลในชุดข้อมูล ซึ่งเป็นการรวบรวมจุดข้อมูล ชุดข้อมูลอาจมีรูปแบบและโครงสร้างที่แตกต่างกัน และมักจะขึ้นอยู่กับแหล่งที่มา หรือที่มาของข้อมูล ตัวอย่างเช่น รายได้รายเดือนของบริษัทอาจอยู่ในสเปรดชีต แต่ข้อมูลอัตราการเต้นของหัวใจรายชั่วโมงจากสมาร์ทวอทช์อาจอยู่ในรูปแบบ [JSON](https://stackoverflow.com/a/383699) เป็นเรื่องปกติที่นักวิทยาศาสตร์ข้อมูลจะทำงานกับข้อมูลประเภทต่าง ๆ ภายในชุดข้อมูล
+
+บทเรียนนี้มุ่งเน้นไปที่การระบุและจัดประเภทข้อมูลตามลักษณะและแหล่งที่มาของข้อมูล
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## วิธีการอธิบายข้อมูล
+
+### ข้อมูลดิบ
+ข้อมูลดิบคือข้อมูลที่มาจากแหล่งที่มาในสถานะเริ่มต้นและยังไม่ได้รับการวิเคราะห์หรือจัดระเบียบ เพื่อให้เข้าใจสิ่งที่เกิดขึ้นกับชุดข้อมูล จำเป็นต้องจัดระเบียบให้อยู่ในรูปแบบที่มนุษย์และเทคโนโลยีที่ใช้วิเคราะห์สามารถเข้าใจได้ โครงสร้างของชุดข้อมูลอธิบายวิธีการจัดระเบียบและสามารถจัดประเภทเป็นข้อมูลที่มีโครงสร้าง, ไม่มีโครงสร้าง และกึ่งโครงสร้าง ประเภทของโครงสร้างเหล่านี้จะแตกต่างกันไปตามแหล่งที่มา แต่ท้ายที่สุดจะอยู่ในสามประเภทนี้
+
+### ข้อมูลเชิงปริมาณ
+ข้อมูลเชิงปริมาณคือการสังเกตเชิงตัวเลขภายในชุดข้อมูล และมักจะสามารถวิเคราะห์, วัดผล และใช้ในทางคณิตศาสตร์ ตัวอย่างของข้อมูลเชิงปริมาณ ได้แก่ ประชากรของประเทศ, ความสูงของบุคคล หรือรายได้รายไตรมาสของบริษัท ด้วยการวิเคราะห์เพิ่มเติม ข้อมูลเชิงปริมาณสามารถใช้ค้นหาแนวโน้มตามฤดูกาลของดัชนีคุณภาพอากาศ (AQI) หรือประมาณความน่าจะเป็นของการจราจรในชั่วโมงเร่งด่วนในวันทำงานทั่วไป
+
+### ข้อมูลเชิงคุณภาพ
+ข้อมูลเชิงคุณภาพ หรือที่รู้จักกันในชื่อข้อมูลเชิงหมวดหมู่ คือข้อมูลที่ไม่สามารถวัดผลได้อย่างเป็นกลางเหมือนการสังเกตข้อมูลเชิงปริมาณ โดยทั่วไปแล้วจะเป็นข้อมูลเชิงอัตวิสัยในรูปแบบต่าง ๆ ที่จับคุณภาพของบางสิ่ง เช่น ผลิตภัณฑ์หรือกระบวนการ บางครั้งข้อมูลเชิงคุณภาพเป็นตัวเลข แต่ไม่ได้นำมาใช้ในทางคณิตศาสตร์ เช่น หมายเลขโทรศัพท์หรือเวลาประทับ ตัวอย่างของข้อมูลเชิงคุณภาพ ได้แก่ ความคิดเห็นในวิดีโอ, ยี่ห้อและรุ่นของรถ หรือสีโปรดของเพื่อนสนิท ข้อมูลเชิงคุณภาพสามารถใช้เพื่อทำความเข้าใจว่าผู้บริโภคชอบผลิตภัณฑ์ใดมากที่สุด หรือระบุคำสำคัญยอดนิยมในเรซูเม่สมัครงาน
+
+### ข้อมูลที่มีโครงสร้าง
+ข้อมูลที่มีโครงสร้างคือข้อมูลที่จัดระเบียบเป็นแถวและคอลัมน์ โดยที่แต่ละแถวจะมีชุดคอลัมน์เดียวกัน คอลัมน์แสดงค่าของประเภทเฉพาะและจะถูกระบุด้วยชื่อที่อธิบายว่าค่าแสดงถึงอะไร ในขณะที่แถวมีค่าจริง คอลัมน์มักจะมีชุดกฎหรือข้อจำกัดเฉพาะเกี่ยวกับค่า เพื่อให้มั่นใจว่าค่าแสดงถึงคอลัมน์ได้อย่างถูกต้อง ตัวอย่างเช่น ลองนึกภาพสเปรดชีตของลูกค้าที่แต่ละแถวต้องมีหมายเลขโทรศัพท์ และหมายเลขโทรศัพท์จะไม่มีตัวอักษร อาจมีกฎที่ใช้กับคอลัมน์หมายเลขโทรศัพท์เพื่อให้แน่ใจว่าไม่มีช่องว่างและมีเพียงตัวเลขเท่านั้น
+
+ข้อดีของข้อมูลที่มีโครงสร้างคือสามารถจัดระเบียบในลักษณะที่สามารถเชื่อมโยงกับข้อมูลที่มีโครงสร้างอื่น ๆ ได้ อย่างไรก็ตาม เนื่องจากข้อมูลถูกออกแบบให้จัดระเบียบในลักษณะเฉพาะ การเปลี่ยนแปลงโครงสร้างโดยรวมอาจต้องใช้ความพยายามมาก ตัวอย่างเช่น การเพิ่มคอลัมน์อีเมลในสเปรดชีตลูกค้าที่ไม่สามารถว่างเปล่าได้ หมายความว่าคุณต้องหาวิธีเพิ่มค่าลงในแถวที่มีอยู่ของลูกค้าในชุดข้อมูล
+
+ตัวอย่างของข้อมูลที่มีโครงสร้าง: สเปรดชีต, ฐานข้อมูลเชิงสัมพันธ์, หมายเลขโทรศัพท์, รายการเดินบัญชีธนาคาร
+
+### ข้อมูลที่ไม่มีโครงสร้าง
+ข้อมูลที่ไม่มีโครงสร้างมักไม่สามารถจัดหมวดหมู่เป็นแถวหรือคอลัมน์ และไม่มีรูปแบบหรือชุดกฎที่ต้องปฏิบัติตาม เนื่องจากข้อมูลที่ไม่มีโครงสร้างมีข้อจำกัดน้อยกว่าในโครงสร้าง จึงง่ายต่อการเพิ่มข้อมูลใหม่เมื่อเปรียบเทียบกับชุดข้อมูลที่มีโครงสร้าง หากเซ็นเซอร์ที่จับข้อมูลความดันบรรยากาศทุก ๆ 2 นาทีได้รับการอัปเดตที่อนุญาตให้วัดและบันทึกอุณหภูมิ ก็ไม่จำเป็นต้องเปลี่ยนแปลงข้อมูลที่มีอยู่หากเป็นข้อมูลที่ไม่มีโครงสร้าง อย่างไรก็ตาม อาจทำให้การวิเคราะห์หรือการตรวจสอบข้อมูลประเภทนี้ใช้เวลานานขึ้น ตัวอย่างเช่น นักวิทยาศาสตร์ที่ต้องการหาค่าเฉลี่ยอุณหภูมิของเดือนก่อนจากข้อมูลเซ็นเซอร์ แต่พบว่าเซ็นเซอร์บันทึก "e" ในข้อมูลบางส่วนเพื่อระบุว่าเซ็นเซอร์เสียแทนที่จะเป็นตัวเลขทั่วไป ซึ่งหมายความว่าข้อมูลไม่สมบูรณ์
+
+ตัวอย่างของข้อมูลที่ไม่มีโครงสร้าง: ไฟล์ข้อความ, ข้อความ, ไฟล์วิดีโอ
+
+### ข้อมูลกึ่งโครงสร้าง
+ข้อมูลกึ่งโครงสร้างมีคุณสมบัติที่ทำให้เป็นการผสมผสานระหว่างข้อมูลที่มีโครงสร้างและไม่มีโครงสร้าง โดยทั่วไปจะไม่เป็นไปตามรูปแบบของแถวและคอลัมน์ แต่มีการจัดระเบียบในลักษณะที่ถือว่าเป็นข้อมูลที่มีโครงสร้าง และอาจปฏิบัติตามรูปแบบหรือชุดกฎที่กำหนดไว้ โครงสร้างจะแตกต่างกันไปตามแหล่งที่มา เช่น ลำดับชั้นที่กำหนดไว้อย่างดีไปจนถึงสิ่งที่ยืดหยุ่นมากขึ้นที่ช่วยให้สามารถรวมข้อมูลใหม่ได้ง่าย เมตาดาต้าคือตัวบ่งชี้ที่ช่วยตัดสินใจว่าข้อมูลถูกจัดระเบียบและจัดเก็บอย่างไร และจะมีชื่อเรียกต่าง ๆ ตามประเภทของข้อมูล ชื่อทั่วไปสำหรับเมตาดาต้า ได้แก่ แท็ก, องค์ประกอบ, เอนทิตี และแอตทริบิวต์ ตัวอย่างเช่น ข้อความอีเมลทั่วไปจะมีหัวเรื่อง, เนื้อหา และชุดผู้รับ และสามารถจัดระเบียบตามผู้ส่งหรือเวลาที่ส่ง
+
+ตัวอย่างของข้อมูลกึ่งโครงสร้าง: HTML, ไฟล์ CSV, JavaScript Object Notation (JSON)
+
+## แหล่งข้อมูล
+
+แหล่งข้อมูลคือสถานที่เริ่มต้นที่ข้อมูลถูกสร้างขึ้น หรือที่ที่ข้อมูล "อยู่" และจะแตกต่างกันไปตามวิธีการและเวลาที่รวบรวม ข้อมูลที่สร้างโดยผู้ใช้เรียกว่าข้อมูลปฐมภูมิ ในขณะที่ข้อมูลทุติยภูมิมาจากแหล่งที่รวบรวมข้อมูลเพื่อการใช้งานทั่วไป ตัวอย่างเช่น กลุ่มนักวิทยาศาสตร์ที่รวบรวมการสังเกตในป่าฝนจะถือว่าเป็นข้อมูลปฐมภูมิ และหากพวกเขาตัดสินใจแบ่งปันกับนักวิทยาศาสตร์คนอื่น ๆ จะถือว่าเป็นข้อมูลทุติยภูมิสำหรับผู้ที่ใช้มัน
+
+ฐานข้อมูลเป็นแหล่งข้อมูลทั่วไปและอาศัยระบบจัดการฐานข้อมูลเพื่อโฮสต์และดูแลข้อมูล โดยที่ผู้ใช้ใช้คำสั่งที่เรียกว่าคำสั่งค้นหาเพื่อสำรวจข้อมูล ไฟล์ในฐานะแหล่งข้อมูลสามารถเป็นไฟล์เสียง, รูปภาพ และวิดีโอ รวมถึงสเปรดชีต เช่น Excel แหล่งข้อมูลทางอินเทอร์เน็ตเป็นสถานที่ทั่วไปสำหรับการโฮสต์ข้อมูล ซึ่งสามารถพบได้ทั้งฐานข้อมูลและไฟล์ ส่วนอินเทอร์เฟซการเขียนโปรแกรมแอปพลิเคชัน หรือที่รู้จักกันในชื่อ API ช่วยให้นักพัฒนาสร้างวิธีการแบ่งปันข้อมูลกับผู้ใช้ภายนอกผ่านอินเทอร์เน็ต ในขณะที่กระบวนการดึงข้อมูลจากเว็บเพจเรียกว่าการดึงข้อมูลจากเว็บ [บทเรียนในหัวข้อการทำงานกับข้อมูล](../../../../../../../../../2-Working-With-Data) มุ่งเน้นไปที่วิธีการใช้แหล่งข้อมูลต่าง ๆ
+
+## สรุป
+
+ในบทเรียนนี้เราได้เรียนรู้:
+
+- ข้อมูลคืออะไร
+- วิธีการอธิบายข้อมูล
+- วิธีการจัดประเภทและจัดหมวดหมู่ข้อมูล
+- สถานที่ที่สามารถพบข้อมูลได้
+
+## 🚀 ความท้าทาย
+
+Kaggle เป็นแหล่งข้อมูลเปิดที่ยอดเยี่ยม ใช้ [เครื่องมือค้นหาชุดข้อมูล](https://www.kaggle.com/datasets) เพื่อค้นหาชุดข้อมูลที่น่าสนใจและจัดประเภทชุดข้อมูล 3-5 ชุดด้วยเกณฑ์นี้:
+
+- ข้อมูลเป็นเชิงปริมาณหรือเชิงคุณภาพ?
+- ข้อมูลเป็นแบบมีโครงสร้าง, ไม่มีโครงสร้าง หรือกึ่งโครงสร้าง?
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+- หน่วย Microsoft Learn ที่มีชื่อว่า [Classify your Data](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data) มีการอธิบายรายละเอียดเกี่ยวกับข้อมูลที่มีโครงสร้าง, กึ่งโครงสร้าง และไม่มีโครงสร้าง
+
+## งานที่ได้รับมอบหมาย
+
+[การจัดประเภทชุดข้อมูล](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/03-defining-data/assignment.md b/translations/th/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..99db8f68
--- /dev/null
+++ b/translations/th/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# การจัดประเภทชุดข้อมูล
+
+## คำแนะนำ
+
+ปฏิบัติตามคำแนะนำในงานนี้เพื่อระบุและจัดประเภทข้อมูลให้ตรงกับประเภทข้อมูลดังต่อไปนี้:
+
+**ประเภทโครงสร้าง**: Structured, Semi-Structured, หรือ Unstructured
+
+**ประเภทค่า**: Qualitative หรือ Quantitative
+
+**ประเภทแหล่งที่มา**: Primary หรือ Secondary
+
+1. บริษัทหนึ่งถูกเข้าซื้อกิจการและตอนนี้มีบริษัทแม่ นักวิทยาศาสตร์ข้อมูลได้รับสเปรดชีตที่มีหมายเลขโทรศัพท์ลูกค้าจากบริษัทแม่
+
+ประเภทโครงสร้าง:
+
+ประเภทค่า:
+
+ประเภทแหล่งที่มา:
+
+---
+
+2. นาฬิกาอัจฉริยะกำลังเก็บข้อมูลอัตราการเต้นของหัวใจจากผู้สวมใส่ และข้อมูลดิบอยู่ในรูปแบบ JSON
+
+ประเภทโครงสร้าง:
+
+ประเภทค่า:
+
+ประเภทแหล่งที่มา:
+
+---
+
+3. แบบสำรวจความพึงพอใจของพนักงานในที่ทำงานที่ถูกจัดเก็บในไฟล์ CSV
+
+ประเภทโครงสร้าง:
+
+ประเภทค่า:
+
+ประเภทแหล่งที่มา:
+
+---
+
+4. นักดาราศาสตร์กำลังเข้าถึงฐานข้อมูลของกาแล็กซีที่ถูกรวบรวมโดยยานสำรวจอวกาศ ข้อมูลนี้มีจำนวนดาวเคราะห์ในแต่ละกาแล็กซี
+
+ประเภทโครงสร้าง:
+
+ประเภทค่า:
+
+ประเภทแหล่งที่มา:
+
+---
+
+5. แอปการเงินส่วนบุคคลใช้ API เพื่อเชื่อมต่อกับบัญชีการเงินของผู้ใช้เพื่อคำนวณมูลค่าสุทธิ ผู้ใช้สามารถดูธุรกรรมทั้งหมดในรูปแบบแถวและคอลัมน์ที่ดูคล้ายกับสเปรดชีต
+
+ประเภทโครงสร้าง:
+
+ประเภทค่า:
+
+ประเภทแหล่งที่มา:
+
+## เกณฑ์การให้คะแนน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+ระบุประเภทโครงสร้าง ค่า และแหล่งที่มาได้ถูกต้องทั้งหมด | ระบุประเภทโครงสร้าง ค่า และแหล่งที่มาได้ถูกต้อง 3 ข้อ | ระบุประเภทโครงสร้าง ค่า และแหล่งที่มาได้ถูกต้อง 2 ข้อหรือน้อยกว่า |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/04-stats-and-probability/README.md b/translations/th/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..860e9c66
--- /dev/null
+++ b/translations/th/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# บทนำสั้น ๆ เกี่ยวกับสถิติและความน่าจะเป็น
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| สถิติและความน่าจะเป็น - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ทฤษฎีสถิติและความน่าจะเป็นเป็นสองสาขาที่เกี่ยวข้องกันอย่างมากในคณิตศาสตร์ และมีความสำคัญอย่างยิ่งต่อวิทยาศาสตร์ข้อมูล แม้ว่าเราจะสามารถทำงานกับข้อมูลได้โดยไม่ต้องมีความรู้ทางคณิตศาสตร์ลึกซึ้ง แต่การมีความเข้าใจพื้นฐานบางอย่างก็ยังดีกว่า ที่นี่เราจะนำเสนอการแนะนำสั้น ๆ ที่จะช่วยให้คุณเริ่มต้นได้
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## ความน่าจะเป็นและตัวแปรสุ่ม
+
+**ความน่าจะเป็น** คือค่าระหว่าง 0 ถึง 1 ที่แสดงถึงความเป็นไปได้ของ **เหตุการณ์** โดยนิยามเป็นจำนวนผลลัพธ์ที่เป็นบวก (ที่นำไปสู่เหตุการณ์) หารด้วยจำนวนผลลัพธ์ทั้งหมด โดยที่ผลลัพธ์ทั้งหมดมีความน่าจะเป็นเท่ากัน ตัวอย่างเช่น เมื่อเราทอยลูกเต๋า ความน่าจะเป็นที่เราจะได้เลขคู่คือ 3/6 = 0.5
+
+เมื่อเราพูดถึงเหตุการณ์ เราใช้ **ตัวแปรสุ่ม** ตัวอย่างเช่น ตัวแปรสุ่มที่แสดงถึงตัวเลขที่ได้จากการทอยลูกเต๋าจะมีค่าตั้งแต่ 1 ถึง 6 ชุดตัวเลขตั้งแต่ 1 ถึง 6 เรียกว่า **พื้นที่ตัวอย่าง** เราสามารถพูดถึงความน่าจะเป็นที่ตัวแปรสุ่มจะมีค่าหนึ่งค่า เช่น P(X=3)=1/6
+
+ตัวแปรสุ่มในตัวอย่างก่อนหน้านี้เรียกว่า **ตัวแปรสุ่มแบบไม่ต่อเนื่อง** เพราะมีพื้นที่ตัวอย่างที่นับได้ กล่าวคือมีค่าที่แยกกันและสามารถระบุได้ มีกรณีที่พื้นที่ตัวอย่างเป็นช่วงของตัวเลขจริง หรือชุดตัวเลขจริงทั้งหมด ตัวแปรเหล่านี้เรียกว่า **ตัวแปรสุ่มแบบต่อเนื่อง** ตัวอย่างที่ดีคือเวลาที่รถบัสมาถึง
+
+## การแจกแจงความน่าจะเป็น
+
+ในกรณีของตัวแปรสุ่มแบบไม่ต่อเนื่อง การอธิบายความน่าจะเป็นของแต่ละเหตุการณ์ทำได้ง่ายโดยใช้ฟังก์ชัน P(X) สำหรับแต่ละค่าจากพื้นที่ตัวอย่าง *S* ฟังก์ชันจะให้ค่าระหว่าง 0 ถึง 1 โดยผลรวมของค่าทั้งหมดของ P(X=s) สำหรับทุกเหตุการณ์จะเท่ากับ 1
+
+การแจกแจงแบบไม่ต่อเนื่องที่รู้จักกันดีที่สุดคือ **การแจกแจงแบบสม่ำเสมอ** ซึ่งมีพื้นที่ตัวอย่างที่มีองค์ประกอบ N โดยมีความน่าจะเป็นเท่ากัน 1/N สำหรับแต่ละองค์ประกอบ
+
+การอธิบายการแจกแจงความน่าจะเป็นของตัวแปรแบบต่อเนื่องนั้นยากกว่า โดยค่าจะถูกดึงมาจากช่วง [a,b] หรือชุดตัวเลขจริงทั้งหมด ℝ ลองพิจารณากรณีเวลาที่รถบัสมาถึง ในความเป็นจริง สำหรับเวลาที่มาถึง *t* ที่แน่นอน ความน่าจะเป็นที่รถบัสจะมาถึงเวลานั้นคือ 0!
+
+> ตอนนี้คุณรู้แล้วว่าเหตุการณ์ที่มีความน่าจะเป็น 0 สามารถเกิดขึ้นได้ และเกิดขึ้นบ่อยมาก! อย่างน้อยก็ทุกครั้งที่รถบัสมาถึง!
+
+เราสามารถพูดถึงความน่าจะเป็นที่ตัวแปรจะอยู่ในช่วงค่าที่กำหนด เช่น P(t1≤X2) ในกรณีนี้ การแจกแจงความน่าจะเป็นจะถูกอธิบายโดย **ฟังก์ชันความหนาแน่นของความน่าจะเป็น** p(x) โดยที่
+
+![P(t_1\le X1, x2, ..., xn เราสามารถนิยาม **ค่าเฉลี่ย** (หรือ **ค่าเฉลี่ยเลขคณิต**) ของลำดับในแบบดั้งเดิมได้เป็น (x1+x2+xn)/n เมื่อเราขยายขนาดตัวอย่าง (เช่น นำไปสู่ขีดจำกัด n→∞) เราจะได้ค่าเฉลี่ย (เรียกอีกอย่างว่า **ค่าคาดหวัง**) ของการแจกแจง เราจะใช้สัญลักษณ์ **E**(x) แทนค่าคาดหวัง
+
+> สามารถแสดงให้เห็นได้ว่า สำหรับการแจกแจงแบบไม่ต่อเนื่องใด ๆ ที่มีค่า {x1, x2, ..., xN} และความน่าจะเป็นที่สอดคล้องกัน p1, p2, ..., pN ค่าคาดหวังจะเท่ากับ E(X)=x1p1+x2p2+...+xNpN
+
+เพื่อระบุว่าค่าต่าง ๆ กระจายตัวออกไปมากน้อยเพียงใด เราสามารถคำนวณความแปรปรวน σ2 = ∑(xi - μ)2/n โดยที่ μ คือค่าเฉลี่ยของลำดับ ค่าของ σ เรียกว่า **ส่วนเบี่ยงเบนมาตรฐาน** และ σ2 เรียกว่า **ความแปรปรวน**
+
+## ฐานนิยม มัธยฐาน และควอร์ไทล์
+
+บางครั้ง ค่าเฉลี่ยไม่สามารถแสดงถึงค่าที่ "เป็นตัวแทน" ของข้อมูลได้อย่างเหมาะสม ตัวอย่างเช่น เมื่อมีค่าที่สุดโต่งบางค่าที่อยู่นอกช่วงอย่างสิ้นเชิง ค่าดังกล่าวสามารถส่งผลต่อค่าเฉลี่ยได้ ตัวบ่งชี้ที่ดีอีกตัวหนึ่งคือ **มัธยฐาน** ซึ่งเป็นค่าที่ครึ่งหนึ่งของจุดข้อมูลต่ำกว่าค่านั้น และอีกครึ่งหนึ่งสูงกว่าค่านั้น
+
+เพื่อช่วยให้เราเข้าใจการแจกแจงของข้อมูล การพูดถึง **ควอร์ไทล์** มีประโยชน์:
+
+* ควอร์ไทล์แรก หรือ Q1 คือค่าที่ 25% ของข้อมูลต่ำกว่าค่านั้น
+* ควอร์ไทล์ที่สาม หรือ Q3 คือค่าที่ 75% ของข้อมูลต่ำกว่าค่านั้น
+
+เราสามารถแสดงความสัมพันธ์ระหว่างมัธยฐานและควอร์ไทล์ในแผนภาพที่เรียกว่า **กล่องแผนภาพ**:
+
+
+
+ที่นี่เรายังคำนวณ **ช่วงควอร์ไทล์** IQR=Q3-Q1 และค่าที่เรียกว่า **ค่าผิดปกติ** - ค่าที่อยู่นอกขอบเขต [Q1-1.5*IQR,Q3+1.5*IQR]
+
+สำหรับการแจกแจงที่มีจำนวนค่าที่เป็นไปได้จำกัด ค่า "ตัวแทน" ที่ดีคือค่าที่ปรากฏบ่อยที่สุด ซึ่งเรียกว่า **ฐานนิยม** โดยมักใช้กับข้อมูลประเภทหมวดหมู่ เช่น สี ลองพิจารณาสถานการณ์ที่เรามีกลุ่มคนสองกลุ่ม - กลุ่มที่ชอบสีแดงอย่างมาก และกลุ่มที่ชอบสีน้ำเงิน หากเรารหัสสีด้วยตัวเลข ค่าเฉลี่ยสำหรับสีที่ชอบจะอยู่ในช่วงสีส้ม-เขียว ซึ่งไม่ได้แสดงถึงความชอบที่แท้จริงของทั้งสองกลุ่ม อย่างไรก็ตาม ฐานนิยมจะเป็นสีใดสีหนึ่ง หรือทั้งสองสี หากจำนวนคนที่เลือกสีเหล่านั้นเท่ากัน (ในกรณีนี้เราเรียกตัวอย่างว่า **หลายฐานนิยม**)
+
+## ข้อมูลในโลกจริง
+
+เมื่อเราวิเคราะห์ข้อมูลจากชีวิตจริง ข้อมูลเหล่านั้นมักไม่ใช่ตัวแปรสุ่มในแง่ที่ว่าเราไม่ได้ทำการทดลองที่มีผลลัพธ์ที่ไม่ทราบล่วงหน้า ตัวอย่างเช่น ลองพิจารณาทีมนักเบสบอล และข้อมูลร่างกายของพวกเขา เช่น ส่วนสูง น้ำหนัก และอายุ ตัวเลขเหล่านี้ไม่ใช่ตัวแปรสุ่มอย่างแท้จริง แต่เรายังสามารถใช้แนวคิดทางคณิตศาสตร์เดียวกันได้ ตัวอย่างเช่น ลำดับน้ำหนักของคนสามารถถือว่าเป็นลำดับค่าที่ดึงมาจากตัวแปรสุ่มบางตัว ด้านล่างคือลำดับน้ำหนักของนักเบสบอลจริงจาก [Major League Baseball](http://mlb.mlb.com/index.jsp) ซึ่งนำมาจาก [ชุดข้อมูลนี้](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (เพื่อความสะดวก มีการแสดงเพียง 20 ค่าตัวอย่างแรก):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **หมายเหตุ**: หากต้องการดูตัวอย่างการทำงานกับชุดข้อมูลนี้ ลองดูที่ [สมุดบันทึกที่เกี่ยวข้อง](notebook.ipynb) นอกจากนี้ยังมีความท้าทายหลายอย่างตลอดบทเรียนนี้ และคุณสามารถทำให้เสร็จได้โดยเพิ่มโค้ดบางส่วนลงในสมุดบันทึกนั้น หากคุณไม่แน่ใจว่าจะทำงานกับข้อมูลอย่างไร ไม่ต้องกังวล - เราจะกลับมาทำงานกับข้อมูลโดยใช้ Python ในภายหลัง หากคุณไม่ทราบวิธีการรันโค้ดใน Jupyter Notebook ลองดู [บทความนี้](https://soshnikov.com/education/how-to-execute-notebooks-from-github/)
+
+นี่คือกล่องแผนภาพที่แสดงค่าเฉลี่ย มัธยฐาน และควอร์ไทล์สำหรับข้อมูลของเรา:
+
+
+
+เนื่องจากข้อมูลของเรามีข้อมูลเกี่ยวกับ **บทบาท** ของผู้เล่นที่แตกต่างกัน เราสามารถสร้างกล่องแผนภาพตามบทบาทได้ - ซึ่งจะช่วยให้เราเข้าใจว่าค่าพารามิเตอร์แตกต่างกันอย่างไรในแต่ละบทบาท ครั้งนี้เราจะพิจารณาส่วนสูง:
+
+
+
+แผนภาพนี้แสดงให้เห็นว่า โดยเฉลี่ยแล้ว ส่วนสูงของผู้เล่นตำแหน่งเบสแรกสูงกว่าส่วนสูงของผู้เล่นตำแหน่งเบสที่สอง ในบทเรียนนี้เราจะเรียนรู้วิธีการทดสอบสมมติฐานนี้อย่างเป็นทางการมากขึ้น และวิธีการแสดงให้เห็นว่าข้อมูลของเรามีความสำคัญทางสถิติในการแสดงผลดังกล่าว
+
+> เมื่อทำงานกับข้อมูลในโลกจริง เราถือว่าจุดข้อมูลทั้งหมดเป็นตัวอย่างที่ดึงมาจากการแจกแจงความน่าจะเป็นบางอย่าง สมมติฐานนี้ช่วยให้เราสามารถใช้เทคนิคการเรียนรู้ของเครื่องและสร้างโมเดลการทำนายที่ใช้งานได้
+
+เพื่อดูว่าการแจกแจงของข้อมูลของเราเป็นอย่างไร เราสามารถสร้างกราฟที่เรียกว่า **ฮิสโตแกรม** แกน X จะมีจำนวนช่วงน้ำหนักที่แตกต่างกัน (เรียกว่า **bins**) และแกนตั้งจะแสดงจำนวนครั้งที่ตัวอย่างตัวแปรสุ่มอยู่ในช่วงที่กำหนด
+
+
+
+จากฮิสโตแกรมนี้คุณจะเห็นว่าค่าทั้งหมดกระจุกตัวอยู่รอบ ๆ น้ำหนักเฉลี่ยบางค่า และยิ่งเราออกห่างจากน้ำหนักนั้น - น้ำหนักที่มีค่านั้นจะยิ่งพบได้น้อยลง กล่าวคือ เป็นไปได้น้อยมากที่น้ำหนักของนักเบสบอลจะต่างจากน้ำหนักเฉลี่ย ความแปรปรวนของน้ำหนักแสดงถึงขอบเขตที่น้ำหนักมีแนวโน้มที่จะต่างจากค่าเฉลี่ย
+
+> หากเรานำน้ำหนักของคนอื่นที่ไม่ใช่นักเบสบอล การแจกแจงมีแนวโน้มที่จะต่างออกไป อย่างไรก็ตาม รูปร่างของการแจกแจงจะเหมือนเดิม แต่ค่าเฉลี่ยและความแปรปรวนจะเปลี่ยนไป ดังนั้น หากเราเทรนโมเดลของเรากับนักเบสบอล มีแนวโน้มที่ผลลัพธ์จะผิดพลาดเมื่อใช้กับนักศึกษามหาวิทยาลัย เพราะการแจกแจงพื้นฐานต่างกัน
+
+## การแจกแจงแบบปกติ
+
+การแจกแจงน้ำหนักที่เราเห็นด้านบนเป็นเรื่องปกติมาก และการวัดหลายอย่างจากโลกจริงมีรูปแบบการแจกแจงเดียวกัน แต่มีค่าเฉลี่ยและความแปรปรวนต่างกัน การแจกแจงนี้เรียกว่า **การแจกแจงแบบปกติ** และมีบทบาทสำคัญในสถิติ
+
+การใช้การแจกแจงแบบปกติเป็นวิธีที่ถูกต้องในการสร้างน้ำหนักสุ่มของนักเบสบอลที่มีศักยภาพ เมื่อเรารู้ค่าเฉลี่ย `mean` และส่วนเบี่ยงเบนมาตรฐาน `std` เราสามารถสร้างตัวอย่างน้ำหนัก 1000 ตัวอย่างได้ดังนี้:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+หากเราสร้างฮิสโตแกรมของตัวอย่างที่สร้างขึ้น เราจะเห็นภาพที่คล้ายกับภาพที่แสดงด้านบน และหากเราเพิ่มจำนวนตัวอย่างและจำนวน bins เราสามารถสร้างภาพการแจกแจงแบบปกติที่ใกล้เคียงกับอุดมคติมากขึ้น:
+
+
+
+*การแจกแจงแบบปกติที่มีค่าเฉลี่ย=0 และส่วนเบี่ยงเบนมาตรฐาน=1*
+
+## ช่วงความเชื่อมั่น
+
+เมื่อเราพูดถึงน้ำหนักของนักเบสบอล เราถือว่ามี **ตัวแปรสุ่ม W** ที่สอดคล้องกับการแจกแจงความน่าจะเป็นที่เหมาะสมของน้ำหนักของนักเบสบอลทั้งหมด (เรียกว่า **ประชากร**) ลำดับน้ำหนักของเราสอดคล้องกับชุดย่อยของนักเบสบอลทั้งหมดที่เราเรียกว่า **ตัวอย่าง** คำถามที่น่าสนใจคือ เราสามารถทราบพารามิเตอร์ของการแจกแจงของ W ได้หรือไม่ เช่น ค่าเฉลี่ยและความแปรปรวนของประชากร?
+
+คำตอบที่ง่ายที่สุดคือการคำนวณค่าเฉลี่ยและความแปรปรวนของตัวอย่างของเรา อย่างไรก็ตาม อาจเกิดขึ้นได้ว่าตัวอย่างสุ่มของเราไม่ได้แสดงถึงประชากรทั้งหมดอย่างถูกต้อง ดังนั้นจึงสมเหตุสมผลที่จะพูดถึง **ช่วงความเชื่อมั่น**
+> **ช่วงความเชื่อมั่น** คือการประมาณค่ามัชฌิมจริงของประชากรโดยอ้างอิงจากตัวอย่างของเรา ซึ่งมีความแม่นยำในระดับความน่าจะเป็นที่กำหนด (หรือ **ระดับความเชื่อมั่น**)
+สมมติว่าเรามีตัวอย่าง X1, ..., Xn จากการแจกแจงของเรา ทุกครั้งที่เราดึงตัวอย่างจากการแจกแจง เราจะได้ค่ามัชฌิม (mean) ที่แตกต่างกัน μ ดังนั้น μ สามารถถือว่าเป็นตัวแปรสุ่มได้ **ช่วงความเชื่อมั่น** (confidence interval) ที่มีความเชื่อมั่น p คือคู่ของค่า (Lp,Rp) ซึ่ง **P**(Lp≤μ≤Rp) = p หรือก็คือ ความน่าจะเป็นที่ค่ามัชฌิมที่วัดได้จะอยู่ในช่วงนี้เท่ากับ p
+
+การคำนวณช่วงความเชื่อมั่นอย่างละเอียดเกินกว่าที่เราจะอธิบายในบทนำสั้น ๆ นี้ รายละเอียดเพิ่มเติมสามารถดูได้ที่ [Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval) โดยสรุป เรากำหนดการแจกแจงของค่ามัชฌิมที่คำนวณได้เมื่อเทียบกับค่ามัชฌิมจริงของประชากร ซึ่งเรียกว่า **การแจกแจงของ Student**
+
+> **ข้อเท็จจริงที่น่าสนใจ**: การแจกแจงของ Student ได้รับการตั้งชื่อตามนักคณิตศาสตร์ William Sealy Gosset ซึ่งตีพิมพ์งานวิจัยของเขาภายใต้นามปากกา "Student" เขาทำงานที่โรงเบียร์ Guinness และตามหนึ่งในเรื่องเล่า นายจ้างของเขาไม่ต้องการให้สาธารณชนทราบว่าพวกเขาใช้การทดสอบทางสถิติเพื่อกำหนดคุณภาพของวัตถุดิบ
+
+หากเราต้องการประมาณค่ามัชฌิม μ ของประชากรด้วยความเชื่อมั่น p เราจำเป็นต้องใช้ *(1-p)/2-th percentile* ของการแจกแจงของ Student A ซึ่งสามารถหาได้จากตาราง หรือคำนวณด้วยฟังก์ชันในซอฟต์แวร์สถิติ (เช่น Python, R เป็นต้น) จากนั้นช่วงสำหรับ μ จะถูกกำหนดโดย X±A*D/√n โดยที่ X คือค่ามัชฌิมที่ได้จากตัวอย่าง และ D คือส่วนเบี่ยงเบนมาตรฐาน
+
+> **หมายเหตุ**: เราไม่ได้พูดถึงแนวคิดสำคัญของ [degrees of freedom](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)) ซึ่งมีความสำคัญในบริบทของการแจกแจงของ Student คุณสามารถศึกษาเพิ่มเติมได้จากหนังสือสถิติที่สมบูรณ์ยิ่งขึ้น
+
+ตัวอย่างการคำนวณช่วงความเชื่อมั่นสำหรับน้ำหนักและส่วนสูงสามารถดูได้ใน [notebook ที่แนบมา](notebook.ipynb)
+
+| p | ค่ามัชฌิมน้ำหนัก |
+|-----|-----------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+สังเกตว่าความน่าจะเป็นของความเชื่อมั่นที่สูงขึ้น ช่วงความเชื่อมั่นจะกว้างขึ้น
+
+## การทดสอบสมมติฐาน
+
+ในชุดข้อมูลนักเบสบอลของเรา มีบทบาทของผู้เล่นที่แตกต่างกัน ซึ่งสามารถสรุปได้ดังนี้ (ดู [notebook ที่แนบมา](notebook.ipynb) เพื่อดูวิธีการคำนวณตารางนี้):
+
+| บทบาท | ส่วนสูง | น้ำหนัก | จำนวน |
+|------|--------|--------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+เราสามารถสังเกตได้ว่าค่ามัชฌิมส่วนสูงของ First Basemen สูงกว่าของ Second Basemen ดังนั้นเราอาจสรุปได้ว่า **First Basemen สูงกว่า Second Basemen**
+
+> ข้อความนี้เรียกว่า **สมมติฐาน** เพราะเราไม่ทราบว่าข้อเท็จจริงนี้เป็นจริงหรือไม่
+
+อย่างไรก็ตาม ไม่ใช่เรื่องง่ายเสมอไปที่เราจะสรุปเช่นนี้ จากการอภิปรายข้างต้น เราทราบว่าค่ามัชฌิมแต่ละค่ามีช่วงความเชื่อมั่นที่เกี่ยวข้อง และความแตกต่างนี้อาจเป็นเพียงข้อผิดพลาดทางสถิติ เราจำเป็นต้องมีวิธีการที่เป็นทางการมากขึ้นในการทดสอบสมมติฐานของเรา
+
+ลองคำนวณช่วงความเชื่อมั่นแยกกันสำหรับส่วนสูงของ First Basemen และ Second Basemen:
+
+| ความเชื่อมั่น | First Basemen | Second Basemen |
+|------------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+เราสามารถเห็นได้ว่าในทุกระดับความเชื่อมั่น ช่วงความเชื่อมั่นไม่ทับซ้อนกัน นั่นพิสูจน์สมมติฐานของเราว่า First Basemen สูงกว่า Second Basemen
+
+ในเชิงรูปธรรมมากขึ้น ปัญหาที่เรากำลังแก้คือการดูว่า **การแจกแจงความน่าจะเป็นสองชุดเหมือนกันหรือไม่** หรืออย่างน้อยมีพารามิเตอร์เดียวกันหรือไม่ ขึ้นอยู่กับการแจกแจง เราจำเป็นต้องใช้การทดสอบที่แตกต่างกัน หากเราทราบว่าการแจกแจงของเราปกติ เราสามารถใช้ **[Student t-test](https://en.wikipedia.org/wiki/Student%27s_t-test)** ได้
+
+ใน Student t-test เราคำนวณค่าที่เรียกว่า **t-value** ซึ่งบ่งบอกถึงความแตกต่างระหว่างค่ามัชฌิม โดยคำนึงถึงความแปรปรวน มีการแสดงให้เห็นว่า t-value ปฏิบัติตาม **การแจกแจงของ Student** ซึ่งช่วยให้เราหาค่าขีดจำกัดสำหรับระดับความเชื่อมั่น **p** (สามารถคำนวณหรือดูได้จากตารางตัวเลข) จากนั้นเราจะเปรียบเทียบ t-value กับค่าขีดจำกัดนี้เพื่อยืนยันหรือปฏิเสธสมมติฐาน
+
+ใน Python เราสามารถใช้แพ็กเกจ **SciPy** ซึ่งมีฟังก์ชัน `ttest_ind` (นอกเหนือจากฟังก์ชันสถิติที่มีประโยชน์อื่น ๆ อีกมากมาย!) ฟังก์ชันนี้คำนวณ t-value ให้เรา และยังทำการค้นหาค่าความเชื่อมั่น p-value ย้อนกลับ ดังนั้นเราสามารถดูค่าความเชื่อมั่นเพื่อสรุปผลได้
+
+ตัวอย่างเช่น การเปรียบเทียบส่วนสูงระหว่าง First Basemen และ Second Basemen ให้ผลลัพธ์ดังนี้:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+ในกรณีของเรา ค่า p-value ต่ำมาก หมายความว่ามีหลักฐานที่ชัดเจนสนับสนุนว่า First Basemen สูงกว่า
+
+ยังมีสมมติฐานประเภทอื่น ๆ ที่เราอาจต้องการทดสอบ เช่น:
+* เพื่อพิสูจน์ว่าตัวอย่างที่กำหนดเป็นไปตามการแจกแจงบางอย่าง ในกรณีของเรา เราสมมติว่าส่วนสูงมีการแจกแจงแบบปกติ แต่ต้องการการตรวจสอบทางสถิติอย่างเป็นทางการ
+* เพื่อพิสูจน์ว่าค่ามัชฌิมของตัวอย่างตรงกับค่าที่กำหนดไว้ล่วงหน้า
+* เพื่อเปรียบเทียบค่ามัชฌิมของตัวอย่างหลายชุด (เช่น ความแตกต่างในระดับความสุขระหว่างกลุ่มอายุที่แตกต่างกัน)
+
+## กฎของจำนวนมากและทฤษฎีขีดจำกัดกลาง
+
+หนึ่งในเหตุผลที่การแจกแจงแบบปกติมีความสำคัญคือ **ทฤษฎีขีดจำกัดกลาง** สมมติว่าเรามีตัวอย่างขนาดใหญ่ของค่าที่เป็นอิสระ N ค่า X1, ..., XN ที่สุ่มตัวอย่างจากการแจกแจงใด ๆ ที่มีค่ามัชฌิม μ และความแปรปรวน σ2 จากนั้น สำหรับ N ที่ใหญ่พอ (หรือเมื่อ N→∞) ค่ามัชฌิม ΣiXi จะมีการแจกแจงแบบปกติ โดยมีค่ามัชฌิม μ และความแปรปรวน σ2/N
+
+> อีกวิธีหนึ่งในการตีความทฤษฎีขีดจำกัดกลางคือ ไม่ว่าการแจกแจงจะเป็นอย่างไร เมื่อคุณคำนวณค่ามัชฌิมของผลรวมของค่าตัวแปรสุ่มใด ๆ คุณจะได้การแจกแจงแบบปกติ
+
+จากทฤษฎีขีดจำกัดกลางยังสรุปได้ว่า เมื่อ N→∞ ความน่าจะเป็นที่ค่ามัชฌิมของตัวอย่างจะเท่ากับ μ จะกลายเป็น 1 ซึ่งเรียกว่า **กฎของจำนวนมาก**
+
+## ความแปรปรวนร่วมและความสัมพันธ์
+
+หนึ่งในสิ่งที่ Data Science ทำคือการค้นหาความสัมพันธ์ระหว่างข้อมูล เรากล่าวว่าลำดับสองลำดับ **มีความสัมพันธ์** เมื่อพวกมันแสดงพฤติกรรมที่คล้ายกันในเวลาเดียวกัน เช่น เพิ่มขึ้น/ลดลงพร้อมกัน หรือหนึ่งลำดับเพิ่มขึ้นเมื่ออีกลำดับลดลง และในทางกลับกัน กล่าวอีกนัยหนึ่ง ดูเหมือนว่าจะมีความสัมพันธ์ระหว่างลำดับทั้งสอง
+
+> ความสัมพันธ์ไม่ได้บ่งบอกถึงความสัมพันธ์เชิงสาเหตุระหว่างลำดับทั้งสองเสมอไป บางครั้งตัวแปรทั้งสองอาจขึ้นอยู่กับสาเหตุภายนอก หรืออาจเป็นเพียงความบังเอิญที่ลำดับทั้งสองมีความสัมพันธ์กัน อย่างไรก็ตาม ความสัมพันธ์ทางคณิตศาสตร์ที่แข็งแกร่งเป็นตัวบ่งชี้ที่ดีว่าตัวแปรทั้งสองมีความเชื่อมโยงกันในบางลักษณะ
+
+ในเชิงคณิตศาสตร์ แนวคิดหลักที่แสดงความสัมพันธ์ระหว่างตัวแปรสุ่มสองตัวคือ **ความแปรปรวนร่วม** ซึ่งคำนวณดังนี้: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\] เราคำนวณการเบี่ยงเบนของตัวแปรทั้งสองจากค่ามัชฌิมของพวกมัน และคูณผลลัพธ์ของการเบี่ยงเบนเหล่านั้น หากตัวแปรทั้งสองเบี่ยงเบนไปในทิศทางเดียวกัน ผลคูณจะเป็นค่าบวกเสมอ ซึ่งจะรวมกันเป็นความแปรปรวนร่วมที่เป็นบวก หากตัวแปรทั้งสองเบี่ยงเบนไม่พร้อมกัน (เช่น หนึ่งลดลงต่ำกว่าค่าเฉลี่ยเมื่ออีกตัวเพิ่มขึ้นสูงกว่าค่าเฉลี่ย) เราจะได้ค่าลบเสมอ ซึ่งจะรวมกันเป็นความแปรปรวนร่วมที่เป็นลบ หากการเบี่ยงเบนไม่ขึ้นอยู่กัน พวกมันจะรวมกันเป็นศูนย์โดยประมาณ
+
+ค่าความแปรปรวนร่วมในเชิงสัมบูรณ์ไม่ได้บอกเรามากนักเกี่ยวกับขนาดของความสัมพันธ์ เพราะมันขึ้นอยู่กับขนาดของค่าจริง เพื่อทำให้เป็นมาตรฐาน เราสามารถหารความแปรปรวนร่วมด้วยส่วนเบี่ยงเบนมาตรฐานของตัวแปรทั้งสอง เพื่อให้ได้ **ความสัมพันธ์** ข้อดีคือความสัมพันธ์จะอยู่ในช่วง [-1,1] เสมอ โดยที่ 1 บ่งบอกถึงความสัมพันธ์เชิงบวกที่แข็งแกร่งระหว่างค่า -1 บ่งบอกถึงความสัมพันธ์เชิงลบที่แข็งแกร่ง และ 0 บ่งบอกว่าไม่มีความสัมพันธ์เลย (ตัวแปรเป็นอิสระ)
+
+**ตัวอย่าง**: เราสามารถคำนวณความสัมพันธ์ระหว่างน้ำหนักและส่วนสูงของนักเบสบอลจากชุดข้อมูลที่กล่าวถึงข้างต้น:
+```python
+print(np.corrcoef(weights,heights))
+```
+ผลลัพธ์ที่ได้คือ **เมทริกซ์ความสัมพันธ์** ดังนี้:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> เมทริกซ์ความสัมพันธ์ C สามารถคำนวณได้สำหรับลำดับข้อมูลใด ๆ S1, ..., Sn ค่า Cij คือความสัมพันธ์ระหว่าง Si และ Sj และองค์ประกอบในแนวทแยงมุมจะเป็น 1 เสมอ (ซึ่งก็คือความสัมพันธ์ของ Si กับตัวมันเอง)
+
+ในกรณีของเรา ค่า 0.53 บ่งบอกว่ามีความสัมพันธ์บางอย่างระหว่างน้ำหนักและส่วนสูงของบุคคล เราสามารถสร้างกราฟกระจายของค่าหนึ่งเทียบกับอีกค่าหนึ่งเพื่อดูความสัมพันธ์ในเชิงภาพ:
+
+
+
+> ตัวอย่างเพิ่มเติมของความสัมพันธ์และความแปรปรวนร่วมสามารถดูได้ใน [notebook ที่แนบมา](notebook.ipynb)
+
+## สรุป
+
+ในส่วนนี้ เราได้เรียนรู้:
+
+* คุณสมบัติทางสถิติพื้นฐานของข้อมูล เช่น ค่ามัชฌิม ความแปรปรวน มัธยฐาน และควอไทล์
+* การแจกแจงของตัวแปรสุ่มที่แตกต่างกัน รวมถึงการแจกแจงแบบปกติ
+* วิธีหาความสัมพันธ์ระหว่างคุณสมบัติต่าง ๆ
+* วิธีใช้คณิตศาสตร์และสถิติอย่างถูกต้องเพื่อพิสูจน์สมมติฐานบางอย่าง
+* วิธีคำนวณช่วงความเชื่อมั่นสำหรับตัวแปรสุ่มจากตัวอย่างข้อมูล
+
+แม้ว่านี่จะไม่ใช่รายการหัวข้อที่ครบถ้วนในความน่าจะเป็นและสถิติ แต่ก็ควรเพียงพอที่จะให้คุณเริ่มต้นในหลักสูตรนี้ได้
+
+## 🚀 ความท้าทาย
+
+ใช้โค้ดตัวอย่างใน notebook เพื่อทดสอบสมมติฐานอื่น ๆ ดังนี้:
+1. First Basemen มีอายุมากกว่า Second Basemen
+2. First Basemen สูงกว่า Third Basemen
+3. Shortstops สูงกว่า Second Basemen
+
+## [แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## การทบทวนและการศึกษาด้วยตนเอง
+
+ความน่าจะเป็นและสถิติเป็นหัวข้อที่กว้างขวางมากจนสมควรมีหลักสูตรของตัวเอง หากคุณสนใจที่จะศึกษาทฤษฎีให้ลึกซึ้งยิ่งขึ้น คุณอาจต้องการอ่านหนังสือดังต่อไปนี้:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) จากมหาวิทยาลัยนิวยอร์กมีบันทึกการบรรยายที่ยอดเยี่ยม [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (มีให้บริการออนไลน์)
+1. [Peter and Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[โค้ดตัวอย่างใน R](https://github.com/andrewgbruce/statistics-for-data-scientists)]
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[โค้ดตัวอย่างใน R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## การบ้าน
+
+[Small Diabetes Study](assignment.md)
+
+## เครดิต
+
+บทเรียนนี้เขียนขึ้นด้วย ♥️ โดย [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/04-stats-and-probability/assignment.md b/translations/th/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..85a75f71
--- /dev/null
+++ b/translations/th/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# การศึกษาขนาดเล็กเกี่ยวกับโรคเบาหวาน
+
+ในงานนี้ เราจะทำงานกับชุดข้อมูลขนาดเล็กของผู้ป่วยโรคเบาหวานที่นำมาจาก [ที่นี่](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html)
+
+| | อายุ | เพศ | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-----|-----|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## คำแนะนำ
+
+* เปิด [สมุดงาน](assignment.ipynb) ในสภาพแวดล้อม jupyter notebook
+* ทำงานทั้งหมดที่ระบุไว้ในสมุดงาน ได้แก่:
+ * [ ] คำนวณค่าเฉลี่ยและความแปรปรวนสำหรับค่าทั้งหมด
+ * [ ] สร้างกราฟ boxplot สำหรับ BMI, BP และ Y โดยแยกตามเพศ
+ * [ ] การแจกแจงของตัวแปร อายุ, เพศ, BMI และ Y เป็นอย่างไร?
+ * [ ] ทดสอบความสัมพันธ์ระหว่างตัวแปรต่าง ๆ กับการพัฒนาของโรค (Y)
+ * [ ] ทดสอบสมมติฐานว่าระดับการพัฒนาของโรคเบาหวานแตกต่างกันระหว่างผู้ชายและผู้หญิงหรือไม่
+
+## เกณฑ์การให้คะแนน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+งานทั้งหมดที่กำหนดเสร็จสมบูรณ์ มีการแสดงผลเป็นกราฟและอธิบายอย่างครบถ้วน | งานส่วนใหญ่เสร็จสมบูรณ์ แต่ขาดคำอธิบายหรือข้อสรุปจากกราฟและ/หรือค่าที่ได้ | ทำเพียงงานพื้นฐาน เช่น การคำนวณค่าเฉลี่ย/ความแปรปรวนและการสร้างกราฟพื้นฐาน ไม่มีข้อสรุปจากข้อมูล
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/1-Introduction/README.md b/translations/th/1-Introduction/README.md
new file mode 100644
index 00000000..a15385ad
--- /dev/null
+++ b/translations/th/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# บทนำสู่วิทยาศาสตร์ข้อมูล
+
+
+> ภาพถ่ายโดย Stephen Dawson บน Unsplash
+
+ในบทเรียนนี้ คุณจะได้เรียนรู้ว่าวิทยาศาสตร์ข้อมูลถูกนิยามอย่างไร และพิจารณาประเด็นด้านจริยธรรมที่นักวิทยาศาสตร์ข้อมูลต้องคำนึงถึง นอกจากนี้ คุณจะได้เรียนรู้ว่าข้อมูลถูกนิยามอย่างไร รวมถึงพื้นฐานของสถิติและความน่าจะเป็น ซึ่งเป็นแกนหลักของวิชาการในวิทยาศาสตร์ข้อมูล
+
+### หัวข้อ
+
+1. [การนิยามวิทยาศาสตร์ข้อมูล](01-defining-data-science/README.md)
+2. [จริยธรรมในวิทยาศาสตร์ข้อมูล](02-ethics/README.md)
+3. [การนิยามข้อมูล](03-defining-data/README.md)
+4. [บทนำสู่สถิติและความน่าจะเป็น](04-stats-and-probability/README.md)
+
+### เครดิต
+
+บทเรียนเหล่านี้เขียนขึ้นด้วย ❤️ โดย [Nitya Narasimhan](https://twitter.com/nitya) และ [Dmitry Soshnikov](https://twitter.com/shwars)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/05-relational-databases/README.md b/translations/th/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..99f0808f
--- /dev/null
+++ b/translations/th/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# การทำงานกับข้อมูล: ฐานข้อมูลเชิงสัมพันธ์
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| การทำงานกับข้อมูล: ฐานข้อมูลเชิงสัมพันธ์ - _สเก็ตโน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+คุณอาจเคยใช้สเปรดชีตในอดีตเพื่อจัดเก็บข้อมูล โดยมีชุดของแถวและคอลัมน์ ซึ่งแถวจะบรรจุข้อมูล (หรือข้อมูลที่ต้องการจัดเก็บ) และคอลัมน์จะอธิบายข้อมูลนั้น (บางครั้งเรียกว่าเมตาดาต้า) ฐานข้อมูลเชิงสัมพันธ์ถูกสร้างขึ้นบนหลักการพื้นฐานนี้ของคอลัมน์และแถวในตาราง ซึ่งช่วยให้คุณสามารถกระจายข้อมูลไปยังหลายตารางได้ สิ่งนี้ช่วยให้คุณทำงานกับข้อมูลที่ซับซ้อนมากขึ้น หลีกเลี่ยงการซ้ำซ้อน และมีความยืดหยุ่นในการสำรวจข้อมูล ลองมาสำรวจแนวคิดของฐานข้อมูลเชิงสัมพันธ์กัน
+
+## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## ทุกอย่างเริ่มต้นจากตาราง
+
+ฐานข้อมูลเชิงสัมพันธ์มีตารางเป็นแกนหลัก เช่นเดียวกับสเปรดชีต ตารางคือการรวบรวมคอลัมน์และแถว โดยแถวจะบรรจุข้อมูลหรือข้อมูลที่เราต้องการทำงานด้วย เช่น ชื่อเมืองหรือปริมาณน้ำฝน และคอลัมน์จะอธิบายข้อมูลที่จัดเก็บ
+
+เริ่มต้นการสำรวจของเราด้วยการสร้างตารางเพื่อจัดเก็บข้อมูลเกี่ยวกับเมือง เราอาจเริ่มต้นด้วยชื่อและประเทศของเมือง คุณสามารถจัดเก็บข้อมูลนี้ในตารางดังนี้:
+
+| เมือง | ประเทศ |
+| -------- | ------------- |
+| โตเกียว | ญี่ปุ่น |
+| แอตแลนตา | สหรัฐอเมริกา |
+| โอ๊คแลนด์ | นิวซีแลนด์ |
+
+สังเกตชื่อคอลัมน์ **เมือง**, **ประเทศ** และ **ประชากร** ที่อธิบายข้อมูลที่จัดเก็บ และแต่ละแถวมีข้อมูลเกี่ยวกับหนึ่งเมือง
+
+## ข้อจำกัดของการใช้ตารางเดียว
+
+ตารางด้านบนอาจดูคุ้นเคยสำหรับคุณ ลองเพิ่มข้อมูลเพิ่มเติมในฐานข้อมูลของเรา เช่น ปริมาณน้ำฝนรายปี (หน่วยเป็นมิลลิเมตร) โดยเน้นที่ปี 2018, 2019 และ 2020 หากเราเพิ่มข้อมูลสำหรับโตเกียว อาจมีลักษณะดังนี้:
+
+| เมือง | ประเทศ | ปี | ปริมาณ |
+| ----- | ------- | ---- | ------ |
+| โตเกียว | ญี่ปุ่น | 2020 | 1690 |
+| โตเกียว | ญี่ปุ่น | 2019 | 1874 |
+| โตเกียว | ญี่ปุ่น | 2018 | 1445 |
+
+คุณสังเกตอะไรเกี่ยวกับตารางของเรา? คุณอาจสังเกตว่าเรากำลังซ้ำชื่อและประเทศของเมืองหลายครั้ง ซึ่งอาจใช้พื้นที่จัดเก็บมากและไม่จำเป็น เนื่องจากโตเกียวมีชื่อเดียวที่เราสนใจ
+
+ลองทำสิ่งอื่น เราเพิ่มคอลัมน์ใหม่สำหรับแต่ละปี:
+
+| เมือง | ประเทศ | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| โตเกียว | ญี่ปุ่น | 1445 | 1874 | 1690 |
+| แอตแลนตา | สหรัฐอเมริกา | 1779 | 1111 | 1683 |
+| โอ๊คแลนด์ | นิวซีแลนด์ | 1386 | 942 | 1176 |
+
+แม้ว่าจะหลีกเลี่ยงการซ้ำแถว แต่ก็เพิ่มความท้าทายอื่น ๆ เราจะต้องปรับโครงสร้างตารางทุกครั้งที่มีปีใหม่ นอกจากนี้ เมื่อข้อมูลของเราเพิ่มขึ้น การมีปีเป็นคอลัมน์จะทำให้การดึงข้อมูลและการคำนวณค่าซับซ้อนขึ้น
+
+นี่คือเหตุผลที่เราต้องการหลายตารางและความสัมพันธ์ การแบ่งข้อมูลออกเป็นส่วน ๆ จะช่วยหลีกเลี่ยงการซ้ำซ้อนและมีความยืดหยุ่นมากขึ้นในการทำงานกับข้อมูล
+
+## แนวคิดของความสัมพันธ์
+
+กลับมาที่ข้อมูลของเราและกำหนดวิธีการแบ่งข้อมูล เรารู้ว่าเราต้องการจัดเก็บชื่อและประเทศของเมือง ดังนั้นสิ่งนี้น่าจะเหมาะสมที่สุดในตารางหนึ่ง
+
+| เมือง | ประเทศ |
+| -------- | ------------- |
+| โตเกียว | ญี่ปุ่น |
+| แอตแลนตา | สหรัฐอเมริกา |
+| โอ๊คแลนด์ | นิวซีแลนด์ |
+
+แต่ก่อนที่เราจะสร้างตารางถัดไป เราต้องหาวิธีอ้างอิงแต่ละเมือง เราต้องการตัวระบุบางรูปแบบ เช่น ID หรือ (ในแง่ฐานข้อมูลทางเทคนิค) คีย์หลัก (primary key) คีย์หลักคือค่าที่ใช้ระบุแถวเฉพาะในตาราง แม้ว่าค่านี้อาจอิงตามค่าตัวเอง (เช่น เราอาจใช้ชื่อเมือง) แต่ควรเป็นตัวเลขหรือตัวระบุอื่นเสมอ เราไม่ต้องการให้ ID เปลี่ยนแปลงเพราะจะทำให้ความสัมพันธ์เสียหาย ในกรณีส่วนใหญ่ คีย์หลักหรือ ID จะเป็นตัวเลขที่สร้างขึ้นโดยอัตโนมัติ
+
+> ✅ คีย์หลักมักถูกย่อว่า PK
+
+### cities
+
+| city_id | เมือง | ประเทศ |
+| ------- | -------- | ------------- |
+| 1 | โตเกียว | ญี่ปุ่น |
+| 2 | แอตแลนตา | สหรัฐอเมริกา |
+| 3 | โอ๊คแลนด์ | นิวซีแลนด์ |
+
+> ✅ คุณจะสังเกตว่าเราใช้คำว่า "id" และ "คีย์หลัก" สลับกันในบทเรียนนี้ แนวคิดเหล่านี้ใช้กับ DataFrames ซึ่งคุณจะสำรวจในภายหลัง DataFrames ไม่ใช้คำศัพท์ "คีย์หลัก" แต่คุณจะสังเกตว่ามันทำงานในลักษณะเดียวกัน
+
+เมื่อเราสร้างตาราง cities แล้ว ลองจัดเก็บข้อมูลน้ำฝน แทนที่จะซ้ำข้อมูลเต็มของเมือง เราสามารถใช้ ID เราควรตรวจสอบให้แน่ใจว่าตารางที่สร้างขึ้นใหม่มีคอลัมน์ *id* ด้วย เนื่องจากทุกตารางควรมี ID หรือคีย์หลัก
+
+### rainfall
+
+| rainfall_id | city_id | ปี | ปริมาณ |
+| ----------- | ------- | ---- | ------ |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+สังเกตคอลัมน์ **city_id** ในตาราง **rainfall** ที่สร้างขึ้นใหม่ คอลัมน์นี้มีค่าที่อ้างอิงถึง ID ในตาราง **cities** ในแง่ฐานข้อมูลเชิงสัมพันธ์ทางเทคนิค สิ่งนี้เรียกว่า **foreign key**; มันคือคีย์หลักจากตารางอื่น คุณสามารถคิดว่ามันเป็นการอ้างอิงหรือพอยน์เตอร์ **city_id** 1 อ้างอิงถึงโตเกียว
+
+> [!NOTE] foreign key มักถูกย่อว่า FK
+
+## การดึงข้อมูล
+
+เมื่อเราแยกข้อมูลออกเป็นสองตาราง คุณอาจสงสัยว่าเราจะดึงข้อมูลได้อย่างไร หากเราใช้ฐานข้อมูลเชิงสัมพันธ์ เช่น MySQL, SQL Server หรือ Oracle เราสามารถใช้ภาษาที่เรียกว่า Structured Query Language หรือ SQL SQL (บางครั้งออกเสียงว่า "ซีเควล") เป็นภาษามาตรฐานที่ใช้ในการดึงและแก้ไขข้อมูลในฐานข้อมูลเชิงสัมพันธ์
+
+ในการดึงข้อมูล คุณใช้คำสั่ง `SELECT` โดยพื้นฐานแล้วคุณ **เลือก** คอลัมน์ที่คุณต้องการดู **จาก** ตารางที่มีคอลัมน์นั้น หากคุณต้องการแสดงเฉพาะชื่อเมือง คุณสามารถใช้คำสั่งต่อไปนี้:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` คือที่ที่คุณระบุคอลัมน์ และ `FROM` คือที่ที่คุณระบุตาราง
+
+> [NOTE] ไวยากรณ์ SQL ไม่แยกแยะตัวพิมพ์เล็กและตัวพิมพ์ใหญ่ หมายความว่า `select` และ `SELECT` มีความหมายเหมือนกัน อย่างไรก็ตาม ขึ้นอยู่กับประเภทของฐานข้อมูลที่คุณใช้งาน คอลัมน์และตารางอาจแยกแยะตัวพิมพ์เล็กและตัวพิมพ์ใหญ่ ดังนั้นจึงเป็นแนวปฏิบัติที่ดีเสมอที่จะปฏิบัติต่อทุกอย่างในโปรแกรมเหมือนกับว่ามันแยกแยะตัวพิมพ์เล็กและตัวพิมพ์ใหญ่ เมื่อเขียนคำสั่ง SQL ตามธรรมเนียมทั่วไปคือการเขียนคำสำคัญทั้งหมดด้วยตัวพิมพ์ใหญ่
+
+คำสั่งด้านบนจะแสดงชื่อเมืองทั้งหมด ลองจินตนาการว่าเราต้องการแสดงเฉพาะเมืองในนิวซีแลนด์ เราต้องการตัวกรองบางรูปแบบ คำสำคัญ SQL สำหรับสิ่งนี้คือ `WHERE` หรือ "ที่บางสิ่งเป็นจริง"
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## การเชื่อมโยงข้อมูล
+
+จนถึงตอนนี้เราได้ดึงข้อมูลจากตารางเดียว ตอนนี้เราต้องการนำข้อมูลจากทั้ง **cities** และ **rainfall** มารวมกัน สิ่งนี้ทำได้โดยการ *เชื่อมโยง* ตารางเข้าด้วยกัน คุณจะสร้างการเชื่อมต่อระหว่างสองตาราง และจับคู่ค่าจากคอลัมน์จากแต่ละตาราง
+
+ในตัวอย่างของเรา เราจะจับคู่คอลัมน์ **city_id** ใน **rainfall** กับคอลัมน์ **city_id** ใน **cities** สิ่งนี้จะจับคู่ค่าปริมาณน้ำฝนกับเมืองที่เกี่ยวข้อง ประเภทของการเชื่อมโยงที่เราจะทำคือสิ่งที่เรียกว่า *inner join* หมายความว่า หากแถวใดไม่ตรงกับแถวใดในตารางอื่น แถวเหล่านั้นจะไม่ถูกแสดง ในกรณีของเรา ทุกเมืองมีข้อมูลน้ำฝน ดังนั้นทุกแถวจะถูกแสดง
+
+ลองดึงข้อมูลน้ำฝนสำหรับปี 2019 สำหรับทุกเมืองของเรา
+
+เราจะทำสิ่งนี้เป็นขั้นตอน ขั้นตอนแรกคือการเชื่อมโยงข้อมูลเข้าด้วยกันโดยระบุคอลัมน์สำหรับการเชื่อมต่อ - **city_id** ตามที่เน้นไว้ก่อนหน้านี้
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+เราได้เน้นคอลัมน์สองคอลัมน์ที่เราต้องการ และข้อเท็จจริงที่เราต้องการเชื่อมโยงตารางเข้าด้วยกันโดยใช้ **city_id** ตอนนี้เราสามารถเพิ่มคำสั่ง `WHERE` เพื่อกรองเฉพาะปี 2019
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## สรุป
+
+ฐานข้อมูลเชิงสัมพันธ์มุ่งเน้นไปที่การแบ่งข้อมูลระหว่างหลายตาราง ซึ่งจะถูกนำกลับมารวมกันเพื่อแสดงผลและวิเคราะห์ สิ่งนี้ให้ความยืดหยุ่นสูงในการคำนวณและจัดการข้อมูล คุณได้เห็นแนวคิดหลักของฐานข้อมูลเชิงสัมพันธ์ และวิธีการเชื่อมโยงระหว่างสองตาราง
+
+## 🚀 ความท้าทาย
+
+มีฐานข้อมูลเชิงสัมพันธ์มากมายบนอินเทอร์เน็ต คุณสามารถสำรวจข้อมูลโดยใช้ทักษะที่คุณได้เรียนรู้ข้างต้น
+
+## แบบทดสอบหลังการบรรยาย
+
+## [แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+มีแหล่งข้อมูลมากมายบน [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) สำหรับคุณในการสำรวจ SQL และแนวคิดฐานข้อมูลเชิงสัมพันธ์เพิ่มเติม
+
+- [อธิบายแนวคิดของข้อมูลเชิงสัมพันธ์](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [เริ่มต้นการเขียนคำสั่งด้วย Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL เป็นเวอร์ชันหนึ่งของ SQL)
+- [เนื้อหา SQL บน Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## งานที่ได้รับมอบหมาย
+
+[ชื่อของงานที่ได้รับมอบหมาย](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/05-relational-databases/assignment.md b/translations/th/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..ef2cb499
--- /dev/null
+++ b/translations/th/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,72 @@
+
+# การแสดงข้อมูลสนามบิน
+
+คุณได้รับ [ฐานข้อมูล](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) ที่สร้างขึ้นบน [SQLite](https://sqlite.org/index.html) ซึ่งมีข้อมูลเกี่ยวกับสนามบิน โครงสร้างของฐานข้อมูลแสดงอยู่ด้านล่าง คุณจะใช้ [ส่วนขยาย SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) ใน [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) เพื่อแสดงข้อมูลเกี่ยวกับสนามบินในเมืองต่างๆ
+
+## คำแนะนำ
+
+เพื่อเริ่มต้นการทำงาน คุณจำเป็นต้องดำเนินการตามขั้นตอนบางอย่าง คุณจะต้องติดตั้งเครื่องมือและดาวน์โหลดฐานข้อมูลตัวอย่าง
+
+### ตั้งค่าระบบของคุณ
+
+คุณสามารถใช้ Visual Studio Code และส่วนขยาย SQLite เพื่อโต้ตอบกับฐานข้อมูล
+
+1. ไปที่ [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) และทำตามคำแนะนำเพื่อติดตั้ง Visual Studio Code
+1. ติดตั้ง [ส่วนขยาย SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) ตามคำแนะนำในหน้าของ Marketplace
+
+### ดาวน์โหลดและเปิดฐานข้อมูล
+
+ต่อไปคุณจะดาวน์โหลดและเปิดฐานข้อมูล
+
+1. ดาวน์โหลด [ไฟล์ฐานข้อมูลจาก GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) และบันทึกไว้ในไดเรกทอรี
+1. เปิด Visual Studio Code
+1. เปิดฐานข้อมูลในส่วนขยาย SQLite โดยเลือก **Ctl-Shift-P** (หรือ **Cmd-Shift-P** บน Mac) และพิมพ์ `SQLite: Open database`
+1. เลือก **Choose database from file** และเปิดไฟล์ **airports.db** ที่คุณดาวน์โหลดมาก่อนหน้านี้
+1. หลังจากเปิดฐานข้อมูล (คุณจะไม่เห็นการอัปเดตบนหน้าจอ) ให้สร้างหน้าต่างคำสั่งใหม่โดยเลือก **Ctl-Shift-P** (หรือ **Cmd-Shift-P** บน Mac) และพิมพ์ `SQLite: New query`
+
+เมื่อเปิดหน้าต่างคำสั่งใหม่แล้ว คุณสามารถใช้มันเพื่อรันคำสั่ง SQL กับฐานข้อมูล คุณสามารถใช้คำสั่ง **Ctl-Shift-Q** (หรือ **Cmd-Shift-Q** บน Mac) เพื่อรันคำสั่งกับฐานข้อมูล
+
+> [!NOTE] สำหรับข้อมูลเพิ่มเติมเกี่ยวกับส่วนขยาย SQLite คุณสามารถดู [เอกสารประกอบ](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## โครงสร้างฐานข้อมูล
+
+โครงสร้างฐานข้อมูลคือการออกแบบและโครงสร้างของตาราง ฐานข้อมูล **airports** มีสองตารางคือ `cities` ซึ่งมีรายการเมืองในสหราชอาณาจักรและไอร์แลนด์ และ `airports` ซึ่งมีรายการสนามบินทั้งหมด เนื่องจากบางเมืองอาจมีสนามบินหลายแห่ง จึงมีการสร้างสองตารางเพื่อจัดเก็บข้อมูล ในการฝึกนี้คุณจะใช้การเชื่อมโยงข้อมูลเพื่อแสดงข้อมูลสำหรับเมืองต่างๆ
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK to id in **Cities**) |
+
+## งานที่ได้รับมอบหมาย
+
+สร้างคำสั่งเพื่อดึงข้อมูลดังต่อไปนี้:
+
+1. ชื่อเมืองทั้งหมดในตาราง `Cities`
+1. เมืองทั้งหมดในไอร์แลนด์ในตาราง `Cities`
+1. ชื่อสนามบินทั้งหมดพร้อมกับชื่อเมืองและประเทศ
+1. สนามบินทั้งหมดในลอนดอน สหราชอาณาจักร
+
+## เกณฑ์การประเมิน
+
+| ดีเยี่ยม | เพียงพอ | ต้องปรับปรุง |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/06-non-relational/README.md b/translations/th/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..f155e7e2
--- /dev/null
+++ b/translations/th/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# การทำงานกับข้อมูล: ข้อมูลแบบไม่สัมพันธ์กัน
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|การทำงานกับข้อมูล NoSQL - _สเก็ตโน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+ข้อมูลไม่ได้จำกัดอยู่แค่ในฐานข้อมูลแบบสัมพันธ์กัน บทเรียนนี้จะเน้นไปที่ข้อมูลแบบไม่สัมพันธ์กันและครอบคลุมพื้นฐานของสเปรดชีตและ NoSQL
+
+## สเปรดชีต
+
+สเปรดชีตเป็นวิธีที่นิยมในการจัดเก็บและสำรวจข้อมูล เพราะใช้เวลาในการตั้งค่าและเริ่มต้นน้อยกว่า ในบทเรียนนี้คุณจะได้เรียนรู้ส่วนประกอบพื้นฐานของสเปรดชีต รวมถึงสูตรและฟังก์ชัน ตัวอย่างจะถูกแสดงด้วย Microsoft Excel แต่ส่วนใหญ่ของหัวข้อและขั้นตอนจะมีชื่อและวิธีการที่คล้ายกันในซอฟต์แวร์สเปรดชีตอื่น ๆ
+
+
+
+สเปรดชีตเป็นไฟล์ที่สามารถเข้าถึงได้ในระบบไฟล์ของคอมพิวเตอร์ อุปกรณ์ หรือระบบไฟล์บนคลาวด์ ซอฟต์แวร์อาจเป็นแบบเบราว์เซอร์หรือแอปพลิเคชันที่ต้องติดตั้งบนคอมพิวเตอร์หรือดาวน์โหลดเป็นแอป ใน Excel ไฟล์เหล่านี้ถูกเรียกว่า **workbooks** และคำศัพท์นี้จะถูกใช้ตลอดบทเรียนนี้
+
+Workbook ประกอบด้วยหนึ่งหรือมากกว่า **worksheets** โดยแต่ละ worksheet จะมีป้ายกำกับเป็นแท็บ ภายใน worksheet จะมีสี่เหลี่ยมที่เรียกว่า **cells** ซึ่งจะบรรจุข้อมูลจริง Cell คือจุดตัดของแถวและคอลัมน์ โดยคอลัมน์จะมีป้ายกำกับเป็นตัวอักษร และแถวจะมีป้ายกำกับเป็นตัวเลข สเปรดชีตบางตัวจะมีส่วนหัวในแถวแรก ๆ เพื่ออธิบายข้อมูลใน cell
+
+ด้วยองค์ประกอบพื้นฐานเหล่านี้ของ workbook Excel เราจะใช้ตัวอย่างจาก [Microsoft Templates](https://templates.office.com/) ที่เน้นไปที่การจัดการสินค้าคงคลังเพื่อเดินผ่านส่วนเพิ่มเติมของสเปรดชีต
+
+### การจัดการสินค้าคงคลัง
+
+ไฟล์สเปรดชีตชื่อ "InventoryExample" เป็นสเปรดชีตที่จัดรูปแบบรายการในสินค้าคงคลังที่มีสาม worksheets โดยแท็บถูกป้ายกำกับว่า "Inventory List", "Inventory Pick List" และ "Bin Lookup" แถวที่ 4 ของ worksheet Inventory List เป็นส่วนหัวที่อธิบายค่าของแต่ละ cell ในคอลัมน์ส่วนหัว
+
+
+
+มีกรณีที่ cell ขึ้นอยู่กับค่าของ cell อื่น ๆ เพื่อสร้างค่าของมันเอง สเปรดชีต Inventory List ติดตามต้นทุนของแต่ละรายการในสินค้าคงคลัง แต่ถ้าเราต้องการทราบมูลค่าของทุกอย่างในสินค้าคงคลังล่ะ? [**สูตร**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) ใช้ในการดำเนินการกับข้อมูลใน cell และใช้ในการคำนวณต้นทุนของสินค้าคงคลังในตัวอย่างนี้ สเปรดชีตนี้ใช้สูตรในคอลัมน์ Inventory Value เพื่อคำนวณมูลค่าของแต่ละรายการโดยการคูณจำนวนภายใต้ส่วนหัว QTY และต้นทุนโดย cell ภายใต้ส่วนหัว COST การดับเบิลคลิกหรือไฮไลต์ cell จะทำให้เห็นสูตร คุณจะสังเกตเห็นว่าสูตรเริ่มต้นด้วยเครื่องหมายเท่ากับ ตามด้วยการคำนวณหรือการดำเนินการ
+
+
+
+เราสามารถใช้สูตรอื่นเพื่อบวกค่าทั้งหมดใน Inventory Value เพื่อหามูลค่ารวมได้ สิ่งนี้สามารถคำนวณได้โดยการบวกแต่ละ cell เพื่อสร้างผลรวม แต่จะเป็นงานที่น่าเบื่อ Excel มี [**ฟังก์ชัน**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89) หรือสูตรที่กำหนดไว้ล่วงหน้าเพื่อดำเนินการคำนวณกับค่าของ cell ฟังก์ชันต้องการอาร์กิวเมนต์ ซึ่งเป็นค่าที่จำเป็นในการดำเนินการคำนวณ เมื่อฟังก์ชันต้องการมากกว่าหนึ่งอาร์กิวเมนต์ จะต้องระบุในลำดับที่เฉพาะเจาะจง มิฉะนั้นฟังก์ชันอาจไม่คำนวณค่าที่ถูกต้อง ตัวอย่างนี้ใช้ฟังก์ชัน SUM และใช้ค่าของ Inventory Value เป็นอาร์กิวเมนต์เพื่อบวกสร้างผลรวมที่ระบุไว้ภายใต้แถว 3 คอลัมน์ B (หรือเรียกว่า B3)
+
+## NoSQL
+
+NoSQL เป็นคำที่ครอบคลุมวิธีการต่าง ๆ ในการจัดเก็บข้อมูลแบบไม่สัมพันธ์กัน และสามารถตีความได้ว่า "ไม่ใช่ SQL", "ไม่สัมพันธ์กัน" หรือ "ไม่ใช่แค่ SQL" ระบบฐานข้อมูลประเภทนี้สามารถแบ่งออกเป็น 4 ประเภท
+
+
+> แหล่งที่มา [บล็อกของ Michał Białecki](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[ฐานข้อมูลแบบ key-value](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) จับคู่คีย์ที่ไม่ซ้ำกัน ซึ่งเป็นตัวระบุที่ไม่ซ้ำกันที่เชื่อมโยงกับค่า คู่เหล่านี้ถูกจัดเก็บโดยใช้ [ตารางแฮช](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) พร้อมฟังก์ชันแฮชที่เหมาะสม
+
+
+> แหล่งที่มา [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[ฐานข้อมูลแบบกราฟ](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) อธิบายความสัมพันธ์ในข้อมูลและแสดงเป็นคอลเลกชันของโหนดและขอบ โหนดแสดงถึงเอนทิตี สิ่งที่มีอยู่ในโลกจริง เช่น นักเรียนหรือใบแจ้งยอดธนาคาร ขอบแสดงถึงความสัมพันธ์ระหว่างสองเอนทิตี โดยแต่ละโหนดและขอบมีคุณสมบัติที่ให้ข้อมูลเพิ่มเติมเกี่ยวกับโหนดและขอบแต่ละตัว
+
+
+
+[ฐานข้อมูลแบบ columnar](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) จัดระเบียบข้อมูลเป็นคอลัมน์และแถวเหมือนโครงสร้างข้อมูลแบบสัมพันธ์กัน แต่แต่ละคอลัมน์ถูกแบ่งออกเป็นกลุ่มที่เรียกว่ากลุ่มคอลัมน์ โดยข้อมูลทั้งหมดภายใต้คอลัมน์เดียวกันมีความเกี่ยวข้องและสามารถดึงและเปลี่ยนแปลงได้ในหน่วยเดียว
+
+### ฐานข้อมูลแบบเอกสารกับ Azure Cosmos DB
+
+[ฐานข้อมูลแบบเอกสาร](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) สร้างขึ้นบนแนวคิดของฐานข้อมูลแบบ key-value และประกอบด้วยชุดของฟิลด์และออบเจ็กต์ บทนี้จะสำรวจฐานข้อมูลแบบเอกสารด้วย Cosmos DB Emulator
+
+ฐานข้อมูล Cosmos DB ตรงกับคำจำกัดความของ "ไม่ใช่แค่ SQL" โดยฐานข้อมูลแบบเอกสารของ Cosmos DB อาศัย SQL ในการสืบค้นข้อมูล [บทเรียนก่อนหน้า](../05-relational-databases/README.md) เกี่ยวกับ SQL ครอบคลุมพื้นฐานของภาษา และเราจะสามารถใช้คำสั่งบางส่วนกับฐานข้อมูลแบบเอกสารที่นี่ เราจะใช้ Cosmos DB Emulator ซึ่งช่วยให้เราสร้างและสำรวจฐานข้อมูลแบบเอกสารในเครื่องคอมพิวเตอร์ อ่านเพิ่มเติมเกี่ยวกับ Emulator [ที่นี่](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21)
+
+เอกสารคือคอลเลกชันของฟิลด์และค่าของออบเจ็กต์ โดยฟิลด์อธิบายว่าออบเจ็กต์แสดงถึงอะไร ด้านล่างคือตัวอย่างของเอกสาร
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+ฟิลด์ที่น่าสนใจในเอกสารนี้คือ: `firstname`, `id`, และ `age` ฟิลด์ที่เหลือที่มีขีดเส้นใต้ถูกสร้างขึ้นโดย Cosmos DB
+
+#### การสำรวจข้อมูลด้วย Cosmos DB Emulator
+
+คุณสามารถดาวน์โหลดและติดตั้ง Emulator [สำหรับ Windows ได้ที่นี่](https://aka.ms/cosmosdb-emulator) ดูเอกสารนี้ [ที่นี่](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) สำหรับตัวเลือกในการใช้งาน Emulator บน macOS และ Linux
+
+Emulator จะเปิดหน้าต่างเบราว์เซอร์ โดยมุมมอง Explorer ช่วยให้คุณสำรวจเอกสาร
+
+
+
+หากคุณกำลังติดตาม ให้คลิก "Start with Sample" เพื่อสร้างฐานข้อมูลตัวอย่างชื่อ SampleDB หากคุณขยาย SampleDB โดยคลิกที่ลูกศร คุณจะพบคอนเทนเนอร์ชื่อ `Persons` คอนเทนเนอร์จะถือคอลเลกชันของรายการ ซึ่งเป็นเอกสารภายในคอนเทนเนอร์ คุณสามารถสำรวจเอกสารแต่ละฉบับภายใต้ `Items`
+
+
+
+#### การสืบค้นข้อมูลเอกสารด้วย Cosmos DB Emulator
+
+เรายังสามารถสืบค้นข้อมูลตัวอย่างได้โดยคลิกที่ปุ่ม New SQL Query (ปุ่มที่สองจากซ้าย)
+
+`SELECT * FROM c` จะดึงเอกสารทั้งหมดในคอนเทนเนอร์ ลองเพิ่มคำสั่ง where และค้นหาทุกคนที่อายุน้อยกว่า 40
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+คำสั่งนี้จะดึงเอกสารสองฉบับ สังเกตว่าค่า age ในแต่ละเอกสารน้อยกว่า 40
+
+#### JSON และเอกสาร
+
+หากคุณคุ้นเคยกับ JavaScript Object Notation (JSON) คุณจะสังเกตว่าเอกสารดูคล้ายกับ JSON มีไฟล์ `PersonsData.json` ในไดเรกทอรีนี้ที่มีข้อมูลเพิ่มเติมที่คุณสามารถอัปโหลดไปยังคอนเทนเนอร์ Persons ใน Emulator ผ่านปุ่ม `Upload Item`
+
+ในหลายกรณี API ที่ส่งคืนข้อมูล JSON สามารถถ่ายโอนและจัดเก็บโดยตรงในฐานข้อมูลแบบเอกสาร ด้านล่างคือตัวอย่างเอกสารอีกฉบับ ซึ่งแสดงถึงทวีตจากบัญชี Twitter ของ Microsoft ที่ถูกดึงมาโดยใช้ Twitter API แล้วแทรกลงใน Cosmos DB
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+ฟิลด์ที่น่าสนใจในเอกสารนี้คือ: `created_at`, `id`, และ `text`
+
+## 🚀 ความท้าทาย
+
+มีไฟล์ `TwitterData.json` ที่คุณสามารถอัปโหลดไปยังฐานข้อมูล SampleDB ขอแนะนำให้คุณเพิ่มไฟล์นี้ในคอนเทนเนอร์แยกต่างหาก วิธีการทำได้ดังนี้:
+
+1. คลิกปุ่ม New Container ที่มุมขวาบน
+1. เลือกฐานข้อมูลที่มีอยู่ (SampleDB) สร้าง container id สำหรับคอนเทนเนอร์
+1. ตั้งค่า partition key เป็น `/id`
+1. คลิก OK (คุณสามารถละเว้นข้อมูลอื่น ๆ ในมุมมองนี้ได้ เนื่องจากเป็นชุดข้อมูลขนาดเล็กที่รันในเครื่องของคุณ)
+1. เปิดคอนเทนเนอร์ใหม่ของคุณและอัปโหลดไฟล์ Twitter Data ด้วยปุ่ม `Upload Item`
+
+ลองรันคำสั่ง select เพื่อค้นหาเอกสารที่มีคำว่า Microsoft ในฟิลด์ text คำใบ้: ลองใช้ [คำสั่ง LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character)
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+- มีการเพิ่มการจัดรูปแบบและฟีเจอร์เพิ่มเติมในสเปรดชีตนี้ที่บทเรียนไม่ได้ครอบคลุม Microsoft มี [คลังเอกสารและวิดีโอขนาดใหญ่](https://support.microsoft.com/excel) เกี่ยวกับ Excel หากคุณสนใจเรียนรู้เพิ่มเติม
+
+- เอกสารสถาปัตยกรรมนี้อธิบายลักษณะของประเภทข้อมูลแบบไม่สัมพันธ์กัน: [ข้อมูลแบบไม่สัมพันธ์กันและ NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data)
+
+- Cosmos DB เป็นฐานข้อมูลแบบไม่สัมพันธ์กันบนคลาวด์ที่สามารถจัดเก็บประเภท NoSQL ต่าง ๆ ที่กล่าวถึงในบทเรียนนี้ เรียนรู้เพิ่มเติมเกี่ยวกับประเภทเหล่านี้ใน [Cosmos DB Microsoft Learn Module](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/)
+
+## งานที่ได้รับมอบหมาย
+
+[Soda Profits](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/06-non-relational/assignment.md b/translations/th/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..8adb03ba
--- /dev/null
+++ b/translations/th/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# กำไรจากการขายโซดา
+
+## คำแนะนำ
+
+[สเปรดชีตของ Coca Cola Co](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) ขาดการคำนวณบางส่วน งานของคุณคือ:
+
+1. คำนวณกำไรขั้นต้นของปีงบประมาณ '15, '16, '17 และ '18
+ - กำไรขั้นต้น = รายได้จากการดำเนินงานสุทธิ - ต้นทุนสินค้าที่ขาย
+1. คำนวณค่าเฉลี่ยของกำไรขั้นต้นทั้งหมด พยายามใช้ฟังก์ชันในการคำนวณ
+ - ค่าเฉลี่ย = ผลรวมของกำไรขั้นต้นหารด้วยจำนวนปีงบประมาณ (10)
+ - เอกสารเกี่ยวกับ [ฟังก์ชัน AVERAGE](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. ไฟล์นี้เป็นไฟล์ Excel แต่สามารถแก้ไขได้ในแพลตฟอร์มสเปรดชีตใดก็ได้
+
+[เครดิตแหล่งข้อมูลให้กับ Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | -- |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/07-python/README.md b/translations/th/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..8cd078b2
--- /dev/null
+++ b/translations/th/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,291 @@
+
+# การทำงานกับข้อมูล: Python และ Pandas Library
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| การทำงานกับ Python - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+แม้ว่าฐานข้อมูลจะเป็นวิธีที่มีประสิทธิภาพในการจัดเก็บข้อมูลและเรียกใช้ข้อมูลด้วยภาษาคำสั่ง แต่การเขียนโปรแกรมเพื่อจัดการข้อมูลด้วยตัวเองถือเป็นวิธีที่ยืดหยุ่นที่สุด ในหลายกรณี การใช้คำสั่งฐานข้อมูลอาจมีประสิทธิภาพมากกว่า แต่ในบางกรณีที่ต้องการการประมวลผลข้อมูลที่ซับซ้อนมากขึ้น SQL อาจไม่สามารถทำได้ง่าย ๆ
+
+การประมวลผลข้อมูลสามารถเขียนโปรแกรมได้ในทุกภาษา แต่มีบางภาษาที่เหมาะสมกับการทำงานกับข้อมูลมากกว่า นักวิทยาศาสตร์ข้อมูลมักนิยมใช้ภาษาต่อไปนี้:
+
+* **[Python](https://www.python.org/)** เป็นภาษาการเขียนโปรแกรมทั่วไปที่มักถูกมองว่าเป็นตัวเลือกที่ดีที่สุดสำหรับผู้เริ่มต้นเนื่องจากความเรียบง่าย Python มีไลบรารีเพิ่มเติมมากมายที่ช่วยแก้ปัญหาต่าง ๆ เช่น การดึงข้อมูลจากไฟล์ ZIP หรือการแปลงภาพเป็นสีเทา นอกจากการวิเคราะห์ข้อมูล Python ยังถูกใช้ในงานพัฒนาเว็บไซต์บ่อยครั้ง
+* **[R](https://www.r-project.org/)** เป็นเครื่องมือดั้งเดิมที่พัฒนาขึ้นเพื่อการประมวลผลข้อมูลเชิงสถิติ R มีคลังไลบรารีขนาดใหญ่ (CRAN) ทำให้เป็นตัวเลือกที่ดีสำหรับการประมวลผลข้อมูล อย่างไรก็ตาม R ไม่ใช่ภาษาการเขียนโปรแกรมทั่วไป และไม่ค่อยถูกใช้ในงานนอกเหนือจากการวิเคราะห์ข้อมูล
+* **[Julia](https://julialang.org/)** เป็นอีกหนึ่งภาษาที่พัฒนาขึ้นเพื่อการวิเคราะห์ข้อมูลโดยเฉพาะ โดยมีเป้าหมายเพื่อให้ประสิทธิภาพดีกว่า Python ทำให้เป็นเครื่องมือที่ยอดเยี่ยมสำหรับการทดลองทางวิทยาศาสตร์
+
+ในบทเรียนนี้ เราจะมุ่งเน้นการใช้ Python ในการประมวลผลข้อมูลแบบง่าย ๆ โดยสมมติว่าคุณมีความคุ้นเคยพื้นฐานกับภาษา Python หากคุณต้องการเรียนรู้ Python อย่างลึกซึ้ง สามารถดูแหล่งข้อมูลต่อไปนี้:
+
+* [เรียนรู้ Python อย่างสนุกสนานด้วย Turtle Graphics และ Fractals](https://github.com/shwars/pycourse) - คอร์สแนะนำ Python บน GitHub
+* [เริ่มต้นเรียนรู้ Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) เส้นทางการเรียนรู้บน [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+ข้อมูลสามารถมาในหลายรูปแบบ ในบทเรียนนี้ เราจะพิจารณาข้อมูลในสามรูปแบบ - **ข้อมูลแบบตาราง**, **ข้อความ** และ **ภาพ**
+
+เราจะมุ่งเน้นตัวอย่างการประมวลผลข้อมูลบางส่วนแทนที่จะให้ภาพรวมทั้งหมดของไลบรารีที่เกี่ยวข้อง วิธีนี้จะช่วยให้คุณเข้าใจแนวคิดหลักของสิ่งที่เป็นไปได้ และรู้ว่าจะหาวิธีแก้ปัญหาได้จากที่ไหนเมื่อคุณต้องการ
+
+> **คำแนะนำที่มีประโยชน์ที่สุด** เมื่อคุณต้องการทำงานบางอย่างกับข้อมูลที่คุณไม่รู้วิธีทำ ลองค้นหาวิธีในอินเทอร์เน็ต [Stackoverflow](https://stackoverflow.com/) มักมีตัวอย่างโค้ด Python ที่มีประโยชน์สำหรับงานทั่วไปมากมาย
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## ข้อมูลแบบตารางและ Dataframes
+
+คุณเคยพบข้อมูลแบบตารางเมื่อเราพูดถึงฐานข้อมูลเชิงสัมพันธ์ เมื่อคุณมีข้อมูลจำนวนมากและข้อมูลนั้นถูกจัดเก็บในหลายตารางที่เชื่อมโยงกัน การใช้ SQL ในการทำงานกับข้อมูลนั้นถือเป็นทางเลือกที่เหมาะสม อย่างไรก็ตาม มีหลายกรณีที่เรามีตารางข้อมูลและต้องการเข้าใจหรือวิเคราะห์ข้อมูล เช่น การกระจายตัว ความสัมพันธ์ระหว่างค่า เป็นต้น ในการวิเคราะห์ข้อมูล มีหลายกรณีที่เราต้องทำการแปลงข้อมูลต้นฉบับและตามด้วยการสร้างภาพ ทั้งสองขั้นตอนนี้สามารถทำได้ง่าย ๆ ด้วย Python
+
+มีไลบรารีที่มีประโยชน์ที่สุดสองตัวใน Python ที่ช่วยคุณจัดการกับข้อมูลแบบตาราง:
+* **[Pandas](https://pandas.pydata.org/)** ช่วยให้คุณจัดการกับ **Dataframes** ซึ่งคล้ายกับตารางในฐานข้อมูลเชิงสัมพันธ์ คุณสามารถมีคอลัมน์ที่มีชื่อ และทำการดำเนินการต่าง ๆ กับแถว คอลัมน์ และ Dataframes โดยรวม
+* **[Numpy](https://numpy.org/)** เป็นไลบรารีสำหรับการทำงานกับ **tensors** หรือ **arrays** หลายมิติ Array มีค่าที่มีประเภทเดียวกัน และง่ายกว่า Dataframe แต่มีการดำเนินการทางคณิตศาสตร์มากกว่า และสร้าง overhead น้อยกว่า
+
+นอกจากนี้ยังมีไลบรารีอื่น ๆ ที่คุณควรรู้จัก:
+* **[Matplotlib](https://matplotlib.org/)** เป็นไลบรารีที่ใช้สำหรับการสร้างภาพข้อมูลและการวาดกราฟ
+* **[SciPy](https://www.scipy.org/)** เป็นไลบรารีที่มีฟังก์ชันทางวิทยาศาสตร์เพิ่มเติม เราเคยพูดถึงไลบรารีนี้เมื่อพูดถึงความน่าจะเป็นและสถิติ
+
+นี่คือตัวอย่างโค้ดที่คุณมักใช้ในการนำเข้าไลบรารีเหล่านี้ในตอนต้นของโปรแกรม Python:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas มีแนวคิดพื้นฐานอยู่ไม่กี่อย่าง
+
+### Series
+
+**Series** คือชุดของค่าที่คล้ายกับ list หรือ numpy array ความแตกต่างหลักคือ series มี **index** และเมื่อเราดำเนินการกับ series (เช่น การบวก) index จะถูกนำมาพิจารณาด้วย Index อาจเป็นตัวเลขแถวแบบง่าย ๆ (เป็น index ที่ใช้โดยค่าเริ่มต้นเมื่อสร้าง series จาก list หรือ array) หรืออาจมีโครงสร้างที่ซับซ้อน เช่น ช่วงเวลา
+
+> **หมายเหตุ**: มีโค้ด Pandas เบื้องต้นใน notebook ที่แนบมาชื่อ [`notebook.ipynb`](notebook.ipynb) เราเพียงแค่สรุปตัวอย่างบางส่วนที่นี่ และคุณสามารถตรวจสอบ notebook ฉบับเต็มได้
+
+ลองพิจารณาตัวอย่าง: เราต้องการวิเคราะห์ยอดขายของร้านไอศกรีมของเรา ลองสร้าง series ของตัวเลขยอดขาย (จำนวนสินค้าที่ขายได้ในแต่ละวัน) สำหรับช่วงเวลาหนึ่ง:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+สมมติว่าในแต่ละสัปดาห์เราจัดปาร์ตี้สำหรับเพื่อน ๆ และนำไอศกรีมเพิ่มอีก 10 แพ็คสำหรับปาร์ตี้ เราสามารถสร้าง series อีกตัวที่มี index เป็นสัปดาห์เพื่อแสดงสิ่งนี้:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+เมื่อเราบวก series สองตัวเข้าด้วยกัน เราจะได้ยอดรวม:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **หมายเหตุ** เราไม่ได้ใช้ไวยากรณ์ง่าย ๆ `total_items+additional_items` หากเราใช้ เราจะได้รับค่ามากมายที่เป็น `NaN` (*Not a Number*) ใน series ที่ได้ นี่เป็นเพราะมีค่าที่หายไปสำหรับบาง index ใน series `additional_items` และการบวก `NaN` กับอะไรก็ตามจะได้ผลลัพธ์เป็น `NaN` ดังนั้นเราจำเป็นต้องระบุพารามิเตอร์ `fill_value` ระหว่างการบวก
+
+สำหรับ time series เราสามารถ **resample** series ด้วยช่วงเวลาที่แตกต่างกันได้ ตัวอย่างเช่น สมมติว่าเราต้องการคำนวณยอดขายเฉลี่ยรายเดือน เราสามารถใช้โค้ดต่อไปนี้:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+DataFrame คือชุดของ series ที่มี index เดียวกัน เราสามารถรวม series หลายตัวเข้าด้วยกันเป็น DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+สิ่งนี้จะสร้างตารางแนวนอนดังนี้:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+เรายังสามารถใช้ Series เป็นคอลัมน์ และระบุชื่อคอลัมน์โดยใช้ dictionary:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+สิ่งนี้จะให้ตารางดังนี้:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**หมายเหตุ** เราสามารถได้รูปแบบตารางนี้โดยการ transpose ตารางก่อนหน้า เช่น โดยการเขียน
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+ที่นี่ `.T` หมายถึงการดำเนินการ transpose DataFrame คือการสลับแถวและคอลัมน์ และการดำเนินการ `rename` ช่วยให้เราสามารถเปลี่ยนชื่อคอลัมน์ให้ตรงกับตัวอย่างก่อนหน้า
+
+นี่คือการดำเนินการที่สำคัญที่สุดบางส่วนที่เราสามารถทำได้กับ DataFrames:
+
+**การเลือกคอลัมน์** เราสามารถเลือกคอลัมน์แต่ละคอลัมน์โดยการเขียน `df['A']` - การดำเนินการนี้จะคืนค่า Series เราสามารถเลือกชุดย่อยของคอลัมน์เป็นอีก DataFrame โดยการเขียน `df[['B','A']]` - สิ่งนี้จะคืนค่า DataFrame อีกตัว
+
+**การกรอง** เฉพาะแถวที่ตรงตามเกณฑ์ ตัวอย่างเช่น เพื่อให้เหลือเฉพาะแถวที่มีคอลัมน์ `A` มากกว่า 5 เราสามารถเขียน `df[df['A']>5]`
+
+> **หมายเหตุ** วิธีการกรองทำงานดังนี้ การแสดงออก `df['A']<5` จะคืนค่า boolean series ซึ่งระบุว่าแสดงออกเป็น `True` หรือ `False` สำหรับแต่ละองค์ประกอบของ series ดั้งเดิม `df['A']` เมื่อ boolean series ถูกใช้เป็น index จะคืนค่าชุดย่อยของแถวใน DataFrame ดังนั้นจึงไม่สามารถใช้การแสดงออก boolean ของ Python ได้ เช่น การเขียน `df[df['A']>5 and df['A']<7]` จะผิด แทนที่จะใช้การดำเนินการพิเศษ `&` บน boolean series โดยการเขียน `df[(df['A']>5) & (df['A']<7)]` (*วงเล็บมีความสำคัญที่นี่*)
+
+**การสร้างคอลัมน์ใหม่ที่คำนวณได้** เราสามารถสร้างคอลัมน์ใหม่ที่คำนวณได้สำหรับ DataFrame ของเราได้อย่างง่ายดายโดยใช้การแสดงออกที่เข้าใจง่าย เช่นนี้:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+ตัวอย่างนี้คำนวณ divergence ของ A จากค่าเฉลี่ยของมัน สิ่งที่เกิดขึ้นจริงคือเรากำลังคำนวณ series และจากนั้นกำหนด series นี้ให้กับด้านซ้ายมือ สร้างคอลัมน์ใหม่ ดังนั้น เราไม่สามารถใช้การดำเนินการใด ๆ ที่ไม่เข้ากันกับ series ตัวอย่างเช่น โค้ดด้านล่างผิด:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+ตัวอย่างหลัง แม้ว่าจะถูกต้องตามไวยากรณ์ แต่ให้ผลลัพธ์ที่ผิด เพราะมันกำหนดความยาวของ series `B` ให้กับค่าทั้งหมดในคอลัมน์ และไม่ใช่ความยาวขององค์ประกอบแต่ละตัวตามที่เราตั้งใจไว้
+
+หากเราต้องการคำนวณการแสดงออกที่ซับซ้อนเช่นนี้ เราสามารถใช้ฟังก์ชัน `apply` ตัวอย่างสุดท้ายสามารถเขียนได้ดังนี้:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+หลังจากการดำเนินการข้างต้น เราจะได้ DataFrame ดังนี้:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**การเลือกแถวตามตัวเลข** สามารถทำได้โดยใช้โครงสร้าง `iloc` ตัวอย่างเช่น เพื่อเลือก 5 แถวแรกจาก DataFrame:
+```python
+df.iloc[:5]
+```
+
+**การจัดกลุ่ม** มักถูกใช้เพื่อให้ได้ผลลัพธ์ที่คล้ายกับ *pivot tables* ใน Excel สมมติว่าเราต้องการคำนวณค่าเฉลี่ยของคอลัมน์ `A` สำหรับแต่ละจำนวนของ `LenB` เราสามารถจัดกลุ่ม DataFrame ของเราด้วย `LenB` และเรียกใช้ `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+หากเราต้องการคำนวณค่าเฉลี่ยและจำนวนองค์ประกอบในกลุ่ม เราสามารถใช้ฟังก์ชัน `aggregate` ที่ซับซ้อนกว่า:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+สิ่งนี้จะให้ตารางดังนี้:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### การดึงข้อมูล
+เราได้เห็นแล้วว่าการสร้าง Series และ DataFrames จากวัตถุใน Python นั้นง่ายมาก อย่างไรก็ตาม ข้อมูลมักจะมาในรูปแบบไฟล์ข้อความ หรือ ตาราง Excel โชคดีที่ Pandas มีวิธีง่ายๆ ในการโหลดข้อมูลจากดิสก์ ตัวอย่างเช่น การอ่านไฟล์ CSV สามารถทำได้ง่ายๆ ดังนี้:
+```python
+df = pd.read_csv('file.csv')
+```
+เราจะเห็นตัวอย่างเพิ่มเติมเกี่ยวกับการโหลดข้อมูล รวมถึงการดึงข้อมูลจากเว็บไซต์ภายนอกในส่วน "Challenge"
+
+### การพิมพ์และการสร้างกราฟ
+
+นักวิทยาศาสตร์ข้อมูลมักต้องสำรวจข้อมูล ดังนั้นการสามารถมองเห็นข้อมูลได้จึงเป็นสิ่งสำคัญ เมื่อ DataFrame มีขนาดใหญ่ หลายครั้งเราต้องการเพียงตรวจสอบว่าเราทำทุกอย่างถูกต้องโดยการพิมพ์แถวแรกๆ ออกมา ซึ่งสามารถทำได้โดยการเรียกใช้ `df.head()` หากคุณใช้งานจาก Jupyter Notebook มันจะพิมพ์ DataFrame ออกมาในรูปแบบตารางที่ดูดี
+
+เรายังได้เห็นการใช้ฟังก์ชัน `plot` เพื่อสร้างกราฟสำหรับบางคอลัมน์ แม้ว่า `plot` จะมีประโยชน์สำหรับหลายงาน และรองรับกราฟหลากหลายประเภทผ่านพารามิเตอร์ `kind=` คุณยังสามารถใช้ไลบรารี `matplotlib` เพื่อสร้างกราฟที่ซับซ้อนมากขึ้น เราจะครอบคลุมการสร้างภาพข้อมูลในรายละเอียดในบทเรียนของหลักสูตรแยกต่างหาก
+
+ภาพรวมนี้ครอบคลุมแนวคิดที่สำคัญที่สุดของ Pandas อย่างไรก็ตาม ไลบรารีนี้มีความหลากหลายมาก และไม่มีข้อจำกัดในสิ่งที่คุณสามารถทำได้! ตอนนี้เรามาใช้ความรู้นี้ในการแก้ปัญหาเฉพาะกัน
+
+## 🚀 Challenge 1: การวิเคราะห์การแพร่กระจายของ COVID
+
+ปัญหาแรกที่เราจะมุ่งเน้นคือการสร้างแบบจำลองการแพร่ระบาดของ COVID-19 เพื่อทำสิ่งนี้ เราจะใช้ข้อมูลเกี่ยวกับจำนวนผู้ติดเชื้อในประเทศต่างๆ ซึ่งจัดทำโดย [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) ที่ [Johns Hopkins University](https://jhu.edu/) ชุดข้อมูลนี้สามารถเข้าถึงได้ใน [GitHub Repository นี้](https://github.com/CSSEGISandData/COVID-19)
+
+เนื่องจากเราต้องการแสดงวิธีการจัดการกับข้อมูล เราขอเชิญคุณเปิด [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) และอ่านตั้งแต่ต้นจนจบ คุณยังสามารถรันเซลล์ และทำแบบท้าทายที่เราได้ทิ้งไว้ให้คุณในตอนท้าย
+
+
+
+> หากคุณไม่ทราบวิธีการรันโค้ดใน Jupyter Notebook ลองดู [บทความนี้](https://soshnikov.com/education/how-to-execute-notebooks-from-github/)
+
+## การทำงานกับข้อมูลที่ไม่มีโครงสร้าง
+
+แม้ว่าข้อมูลมักจะมาในรูปแบบตาราง ในบางกรณีเราจำเป็นต้องจัดการกับข้อมูลที่มีโครงสร้างน้อยกว่า เช่น ข้อความหรือภาพ ในกรณีนี้ เพื่อใช้เทคนิคการประมวลผลข้อมูลที่เราได้เห็นข้างต้น เราจำเป็นต้อง **ดึง** ข้อมูลที่มีโครงสร้างออกมา ตัวอย่างเช่น:
+
+* การดึงคำสำคัญจากข้อความ และดูว่าคำสำคัญเหล่านั้นปรากฏบ่อยแค่ไหน
+* การใช้เครือข่ายประสาทเทียมเพื่อดึงข้อมูลเกี่ยวกับวัตถุในภาพ
+* การรับข้อมูลเกี่ยวกับอารมณ์ของผู้คนจากฟีดกล้องวิดีโอ
+
+## 🚀 Challenge 2: การวิเคราะห์เอกสาร COVID
+
+ในความท้าทายนี้ เราจะดำเนินการต่อในหัวข้อการระบาดของ COVID และมุ่งเน้นไปที่การประมวลผลเอกสารวิชาการเกี่ยวกับเรื่องนี้ มี [CORD-19 Dataset](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) ที่มีเอกสารมากกว่า 7000 ฉบับ (ในขณะที่เขียน) เกี่ยวกับ COVID ซึ่งมีข้อมูลเมตาและบทคัดย่อ (และสำหรับประมาณครึ่งหนึ่งของเอกสารมีข้อความเต็มให้ด้วย)
+
+ตัวอย่างเต็มของการวิเคราะห์ชุดข้อมูลนี้โดยใช้ [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) บริการวิเคราะห์ข้อความเชิงสุขภาพสามารถดูได้ [ในบล็อกโพสต์นี้](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) เราจะพูดถึงเวอร์ชันที่เรียบง่ายของการวิเคราะห์นี้
+
+> **NOTE**: เราไม่ได้ให้สำเนาของชุดข้อมูลเป็นส่วนหนึ่งของ repository นี้ คุณอาจต้องดาวน์โหลดไฟล์ [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) จาก [ชุดข้อมูลนี้บน Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) การลงทะเบียนกับ Kaggle อาจจำเป็น คุณยังสามารถดาวน์โหลดชุดข้อมูลโดยไม่ต้องลงทะเบียน [จากที่นี่](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html) แต่จะรวมข้อความเต็มทั้งหมดนอกเหนือจากไฟล์ข้อมูลเมตา
+
+เปิด [`notebook-papers.ipynb`](notebook-papers.ipynb) และอ่านตั้งแต่ต้นจนจบ คุณยังสามารถรันเซลล์ และทำแบบท้าทายที่เราได้ทิ้งไว้ให้คุณในตอนท้าย
+
+
+
+## การประมวลผลข้อมูลภาพ
+
+เมื่อเร็วๆ นี้ โมเดล AI ที่ทรงพลังมากได้ถูกพัฒนาขึ้น ซึ่งช่วยให้เราเข้าใจภาพได้ มีหลายงานที่สามารถแก้ไขได้โดยใช้เครือข่ายประสาทเทียมที่ผ่านการฝึกฝนมาแล้ว หรือบริการคลาวด์ ตัวอย่างบางส่วนได้แก่:
+
+* **Image Classification** ซึ่งช่วยให้คุณจัดหมวดหมู่ภาพเป็นหนึ่งในคลาสที่กำหนดไว้ล่วงหน้า คุณสามารถฝึกตัวจัดหมวดหมู่ภาพของคุณเองได้อย่างง่ายดายโดยใช้บริการ เช่น [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Object Detection** เพื่อตรวจจับวัตถุต่างๆ ในภาพ บริการ เช่น [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) สามารถตรวจจับวัตถุทั่วไปจำนวนมาก และคุณสามารถฝึกโมเดล [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) เพื่อตรวจจับวัตถุเฉพาะที่คุณสนใจ
+* **Face Detection** รวมถึงการตรวจจับอายุ เพศ และอารมณ์ สิ่งนี้สามารถทำได้ผ่าน [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum)
+
+บริการคลาวด์ทั้งหมดนี้สามารถเรียกใช้ได้โดยใช้ [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) และสามารถรวมเข้ากับเวิร์กโฟลว์การสำรวจข้อมูลของคุณได้อย่างง่ายดาย
+
+ตัวอย่างบางส่วนของการสำรวจข้อมูลจากแหล่งข้อมูลภาพ:
+* ในบล็อกโพสต์ [How to Learn Data Science without Coding](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) เราสำรวจภาพถ่าย Instagram โดยพยายามทำความเข้าใจว่าอะไรทำให้ผู้คนกดไลค์ภาพถ่ายมากขึ้น เราเริ่มต้นด้วยการดึงข้อมูลจากภาพถ่ายให้ได้มากที่สุดโดยใช้ [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) และจากนั้นใช้ [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) เพื่อสร้างโมเดลที่เข้าใจได้
+* ใน [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) เราใช้ [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) เพื่อดึงอารมณ์ของผู้คนในภาพถ่ายจากเหตุการณ์ต่างๆ เพื่อพยายามทำความเข้าใจว่าอะไรทำให้ผู้คนมีความสุข
+
+## สรุป
+
+ไม่ว่าคุณจะมีข้อมูลที่มีโครงสร้างหรือไม่มีโครงสร้างอยู่แล้ว การใช้ Python คุณสามารถดำเนินการทุกขั้นตอนที่เกี่ยวข้องกับการประมวลผลและการทำความเข้าใจข้อมูลได้ มันอาจเป็นวิธีที่ยืดหยุ่นที่สุดในการประมวลผลข้อมูล และนี่คือเหตุผลที่นักวิทยาศาสตร์ข้อมูลส่วนใหญ่ใช้ Python เป็นเครื่องมือหลัก การเรียนรู้ Python อย่างลึกซึ้งอาจเป็นความคิดที่ดีหากคุณจริงจังกับการเดินทางในสายงานวิทยาศาสตร์ข้อมูลของคุณ!
+
+## [แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+**หนังสือ**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**แหล่งข้อมูลออนไลน์**
+* บทเรียนอย่างเป็นทางการ [10 minutes to Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)
+* [เอกสารเกี่ยวกับการสร้างภาพข้อมูลใน Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**การเรียนรู้ Python**
+* [เรียนรู้ Python อย่างสนุกสนานด้วย Turtle Graphics และ Fractals](https://github.com/shwars/pycourse)
+* [เริ่มต้นเรียนรู้ Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Learning Path บน [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## งานที่ได้รับมอบหมาย
+
+[ทำการศึกษาข้อมูลเพิ่มเติมสำหรับความท้าทายข้างต้น](assignment.md)
+
+## เครดิต
+
+บทเรียนนี้ถูกเขียนขึ้นด้วย ♥️ โดย [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/07-python/assignment.md b/translations/th/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..fd8d98db
--- /dev/null
+++ b/translations/th/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# งานสำหรับการประมวลผลข้อมูลใน Python
+
+ในงานนี้ เราจะขอให้คุณขยายความจากโค้ดที่เราเริ่มพัฒนาไว้ในความท้าทายก่อนหน้า งานนี้แบ่งออกเป็นสองส่วน:
+
+## การสร้างแบบจำลองการแพร่กระจายของ COVID-19
+
+ - [ ] สร้างกราฟ *R* สำหรับ 5-6 ประเทศที่แตกต่างกันในกราฟเดียวเพื่อเปรียบเทียบ หรือใช้หลายกราฟวางเรียงกัน
+ - [ ] วิเคราะห์ความสัมพันธ์ระหว่างจำนวนผู้เสียชีวิตและผู้ที่หายป่วยกับจำนวนผู้ติดเชื้อ
+ - [ ] ค้นหาว่าโรคโดยทั่วไปใช้เวลานานเท่าใด โดยการวิเคราะห์ความสัมพันธ์ระหว่างอัตราการติดเชื้อและอัตราการเสียชีวิต และมองหาความผิดปกติ คุณอาจต้องดูข้อมูลจากหลายประเทศเพื่อหาข้อมูลนี้
+ - [ ] คำนวณอัตราการเสียชีวิตและดูว่าเปลี่ยนแปลงไปอย่างไรตามเวลา *คุณอาจต้องคำนึงถึงระยะเวลาของโรคในหน่วยวันเพื่อเลื่อนซีรีส์เวลา (time series) หนึ่งชุดก่อนทำการคำนวณ*
+
+## การวิเคราะห์เอกสารเกี่ยวกับ COVID-19
+
+- [ ] สร้างเมทริกซ์การเกิดร่วมของยาต่าง ๆ และดูว่ายาใดมักจะถูกกล่าวถึงร่วมกัน (เช่น ถูกกล่าวถึงในบทคัดย่อเดียวกัน) คุณสามารถปรับโค้ดสำหรับการสร้างเมทริกซ์การเกิดร่วมสำหรับยาและการวินิจฉัยได้
+- [ ] แสดงภาพเมทริกซ์นี้โดยใช้ heatmap
+- [ ] สำหรับเป้าหมายเพิ่มเติม ลองแสดงการเกิดร่วมของยาด้วย [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram) [ไลบรารีนี้](https://pypi.org/project/chord/) อาจช่วยคุณวาด chord diagram ได้
+- [ ] สำหรับเป้าหมายเพิ่มเติมอีกข้อหนึ่ง ให้ดึงข้อมูลปริมาณยาต่าง ๆ (เช่น **400mg** ใน *take 400mg of chloroquine daily*) โดยใช้ regular expressions และสร้าง dataframe ที่แสดงปริมาณยาต่าง ๆ สำหรับยาแต่ละชนิด **หมายเหตุ**: พิจารณาค่าตัวเลขที่อยู่ใกล้กับชื่อยาภายในข้อความ
+
+## เกณฑ์การให้คะแนน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+งานทั้งหมดเสร็จสมบูรณ์ มีการแสดงผลกราฟและอธิบาย รวมถึงเป้าหมายเพิ่มเติมอย่างน้อยหนึ่งข้อ | งานเสร็จสมบูรณ์มากกว่า 5 ข้อ แต่ไม่ได้ทำเป้าหมายเพิ่มเติม หรือผลลัพธ์ไม่ชัดเจน | งานเสร็จสมบูรณ์น้อยกว่า 5 ข้อ (แต่มากกว่า 3 ข้อ) และการแสดงผลไม่ช่วยให้เข้าใจประเด็น
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/08-data-preparation/README.md b/translations/th/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..2e6899c4
--- /dev/null
+++ b/translations/th/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# การทำงานกับข้อมูล: การเตรียมข้อมูล
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|การเตรียมข้อมูล - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+ขึ้นอยู่กับแหล่งที่มาของข้อมูล ข้อมูลดิบอาจมีความไม่สอดคล้องกันที่ทำให้เกิดความท้าทายในการวิเคราะห์และการสร้างแบบจำลอง กล่าวอีกนัยหนึ่ง ข้อมูลนี้อาจถูกจัดประเภทว่า "สกปรก" และจำเป็นต้องทำความสะอาด บทเรียนนี้มุ่งเน้นไปที่เทคนิคในการทำความสะอาดและแปลงข้อมูลเพื่อจัดการกับปัญหาข้อมูลที่ขาดหาย ไม่ถูกต้อง หรือไม่สมบูรณ์ หัวข้อที่ครอบคลุมในบทเรียนนี้จะใช้ Python และไลบรารี Pandas และจะ [แสดงในโน้ตบุ๊ก](notebook.ipynb) ในไดเรกทอรีนี้
+
+## ความสำคัญของการทำความสะอาดข้อมูล
+
+- **ความง่ายในการใช้งานและการนำกลับมาใช้ใหม่**: เมื่อข้อมูลถูกจัดระเบียบและปรับให้เป็นมาตรฐานอย่างเหมาะสม จะง่ายต่อการค้นหา ใช้งาน และแบ่งปันกับผู้อื่น
+
+- **ความสอดคล้อง**: วิทยาศาสตร์ข้อมูลมักต้องทำงานกับชุดข้อมูลมากกว่าหนึ่งชุด ซึ่งชุดข้อมูลจากแหล่งต่าง ๆ จำเป็นต้องถูกรวมเข้าด้วยกัน การทำให้ชุดข้อมูลแต่ละชุดมีมาตรฐานร่วมกันจะช่วยให้ข้อมูลยังคงมีประโยชน์เมื่อรวมกันเป็นชุดข้อมูลเดียว
+
+- **ความแม่นยำของแบบจำลอง**: ข้อมูลที่ได้รับการทำความสะอาดช่วยเพิ่มความแม่นยำของแบบจำลองที่อาศัยข้อมูลนั้น
+
+## เป้าหมายและกลยุทธ์ทั่วไปในการทำความสะอาดข้อมูล
+
+- **การสำรวจชุดข้อมูล**: การสำรวจข้อมูล ซึ่งจะครอบคลุมใน [บทเรียนถัดไป](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing) สามารถช่วยให้คุณค้นพบข้อมูลที่ต้องการการทำความสะอาด การสังเกตค่าภายในชุดข้อมูลด้วยสายตาสามารถตั้งความคาดหวังเกี่ยวกับลักษณะของข้อมูลที่เหลือ หรือให้แนวคิดเกี่ยวกับปัญหาที่สามารถแก้ไขได้ การสำรวจอาจเกี่ยวข้องกับการสอบถามพื้นฐาน การสร้างภาพ และการสุ่มตัวอย่าง
+
+- **การจัดรูปแบบ**: ขึ้นอยู่กับแหล่งที่มา ข้อมูลอาจมีความไม่สอดคล้องกันในวิธีการนำเสนอ ซึ่งอาจทำให้เกิดปัญหาในการค้นหาและแสดงค่า โดยที่ค่าเหล่านั้นปรากฏในชุดข้อมูลแต่ไม่ได้แสดงผลอย่างเหมาะสมในภาพหรือผลลัพธ์การสอบถาม ปัญหาการจัดรูปแบบทั่วไปเกี่ยวข้องกับการแก้ไขช่องว่าง วันที่ และประเภทข้อมูล การแก้ไขปัญหาการจัดรูปแบบมักขึ้นอยู่กับผู้ที่ใช้ข้อมูล ตัวอย่างเช่น มาตรฐานเกี่ยวกับวิธีการนำเสนอวันที่และตัวเลขอาจแตกต่างกันไปในแต่ละประเทศ
+
+- **การซ้ำซ้อน**: ข้อมูลที่มีการเกิดซ้ำมากกว่าหนึ่งครั้งอาจทำให้ผลลัพธ์ไม่ถูกต้องและมักจะต้องถูกลบออก สิ่งนี้อาจเกิดขึ้นบ่อยเมื่อรวมชุดข้อมูลสองชุดหรือมากกว่านั้นเข้าด้วยกัน อย่างไรก็ตาม มีกรณีที่การซ้ำซ้อนในชุดข้อมูลที่รวมกันมีส่วนที่สามารถให้ข้อมูลเพิ่มเติมและอาจจำเป็นต้องเก็บรักษาไว้
+
+- **ข้อมูลที่ขาดหาย**: ข้อมูลที่ขาดหายอาจทำให้เกิดความไม่ถูกต้อง รวมถึงผลลัพธ์ที่อ่อนแอหรือมีอคติ บางครั้งสามารถแก้ไขได้โดยการ "โหลดใหม่" ของข้อมูล เติมค่าที่ขาดหายด้วยการคำนวณและโค้ด เช่น Python หรือเพียงแค่ลบค่าที่ขาดหายและข้อมูลที่เกี่ยวข้อง เหตุผลที่ข้อมูลอาจขาดหายมีมากมาย และการดำเนินการที่ใช้แก้ไขค่าที่ขาดหายอาจขึ้นอยู่กับวิธีและเหตุผลที่ข้อมูลนั้นขาดหายไปในตอนแรก
+
+## การสำรวจข้อมูลใน DataFrame
+> **เป้าหมายการเรียนรู้:** เมื่อจบส่วนนี้ คุณควรสามารถค้นหาข้อมูลทั่วไปเกี่ยวกับข้อมูลที่จัดเก็บใน pandas DataFrames ได้อย่างสะดวก
+
+เมื่อคุณโหลดข้อมูลเข้าสู่ pandas ข้อมูลนั้นมักจะอยู่ในรูปแบบ DataFrame (ดู [บทเรียนก่อนหน้า](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) เพื่อดูภาพรวมโดยละเอียด) อย่างไรก็ตาม หากชุดข้อมูลใน DataFrame ของคุณมี 60,000 แถวและ 400 คอลัมน์ คุณจะเริ่มต้นทำความเข้าใจข้อมูลที่คุณกำลังทำงานด้วยได้อย่างไร? โชคดีที่ [pandas](https://pandas.pydata.org/) มีเครื่องมือที่สะดวกในการดูข้อมูลโดยรวมเกี่ยวกับ DataFrame รวมถึงแถวแรกและแถวสุดท้าย
+
+เพื่อสำรวจฟังก์ชันนี้ เราจะนำเข้าไลบรารี Python scikit-learn และใช้ชุดข้อมูลที่มีชื่อเสียง: **ชุดข้อมูล Iris**
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: เริ่มต้นด้วยการใช้เมธอด `info()` เพื่อพิมพ์สรุปเนื้อหาที่อยู่ใน `DataFrame` ลองดูชุดข้อมูลนี้เพื่อดูว่าเรามีอะไรบ้าง:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+จากข้อมูลนี้ เราทราบว่าชุดข้อมูล *Iris* มี 150 รายการในสี่คอลัมน์โดยไม่มีรายการที่เป็น null ข้อมูลทั้งหมดถูกจัดเก็บเป็นตัวเลขทศนิยมแบบ 64 บิต
+
+- **DataFrame.head()**: ถัดไป เพื่อดูเนื้อหาจริงของ `DataFrame` เราใช้เมธอด `head()` ลองดูแถวแรกของ `iris_df`:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: ในทางกลับกัน เพื่อดูแถวสุดท้ายของ `DataFrame` เราใช้เมธอด `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **ข้อสรุป:** เพียงแค่ดูเมตาดาต้าเกี่ยวกับข้อมูลใน DataFrame หรือค่าต่าง ๆ ในแถวแรกและแถวสุดท้าย คุณสามารถเข้าใจขนาด รูปร่าง และเนื้อหาของข้อมูลที่คุณกำลังทำงานด้วยได้ทันที
+
+## การจัดการข้อมูลที่ขาดหาย
+> **เป้าหมายการเรียนรู้:** เมื่อจบส่วนนี้ คุณควรรู้วิธีแทนที่หรือลบค่าที่เป็น null ออกจาก DataFrames
+
+ส่วนใหญ่แล้ว ชุดข้อมูลที่คุณต้องการใช้ (หรือจำเป็นต้องใช้) มีค่าที่ขาดหายอยู่ในนั้น วิธีการจัดการข้อมูลที่ขาดหายมีการแลกเปลี่ยนที่ละเอียดอ่อนซึ่งสามารถส่งผลต่อการวิเคราะห์ขั้นสุดท้ายและผลลัพธ์ในโลกจริง
+
+Pandas จัดการค่าที่ขาดหายด้วยสองวิธี วิธีแรกที่คุณเคยเห็นในส่วนก่อนหน้า: `NaN` หรือ Not a Number นี่เป็นค่าพิเศษที่เป็นส่วนหนึ่งของข้อกำหนด IEEE floating-point และใช้เพื่อระบุค่าที่ขาดหายสำหรับตัวเลขทศนิยมเท่านั้น
+
+สำหรับค่าที่ขาดหายที่ไม่ใช่ตัวเลขทศนิยม Pandas ใช้ Python `None` object แม้ว่ามันอาจดูสับสนที่คุณจะพบค่าที่แตกต่างกันสองแบบที่บอกสิ่งเดียวกัน แต่มีเหตุผลทางโปรแกรมที่ดีสำหรับการออกแบบนี้ และในทางปฏิบัติ การเลือกเส้นทางนี้ช่วยให้ Pandas มอบการประนีประนอมที่ดีสำหรับกรณีส่วนใหญ่ อย่างไรก็ตาม ทั้ง `None` และ `NaN` มีข้อจำกัดที่คุณต้องระวังเกี่ยวกับวิธีการใช้งาน
+
+ดูข้อมูลเพิ่มเติมเกี่ยวกับ `NaN` และ `None` จาก [โน้ตบุ๊ก](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **การตรวจจับค่าที่เป็น null**: ใน `pandas` เมธอด `isnull()` และ `notnull()` เป็นเมธอดหลักของคุณในการตรวจจับข้อมูลที่เป็น null ทั้งสองเมธอดจะคืนค่ามาสก์ Boolean ที่ครอบคลุมข้อมูลของคุณ เราจะใช้ `numpy` สำหรับค่าที่เป็น `NaN`:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+ดูผลลัพธ์อย่างใกล้ชิด มีอะไรที่ทำให้คุณประหลาดใจหรือไม่? แม้ว่า `0` จะเป็น null ทางคณิตศาสตร์ แต่ก็ยังคงเป็นจำนวนเต็มที่ดีและ Pandas ถือว่าเป็นเช่นนั้น `''` มีความละเอียดอ่อนเล็กน้อย แม้ว่าเราใช้มันในส่วนที่ 1 เพื่อแสดงถึงค่าข้อความว่างเปล่า แต่ก็ยังคงเป็น object ข้อความและไม่ใช่การแสดงค่าที่เป็น null ตามที่ Pandas กำหนด
+
+ตอนนี้ ลองพลิกกลับและใช้เมธอดเหล่านี้ในลักษณะที่คล้ายกับที่คุณจะใช้ในทางปฏิบัติ คุณสามารถใช้มาสก์ Boolean โดยตรงเป็นดัชนี ``Series`` หรือ ``DataFrame`` ซึ่งมีประโยชน์เมื่อพยายามทำงานกับค่าที่ขาดหาย (หรือค่าที่มีอยู่) โดยเฉพาะ
+
+> **ข้อสรุป**: เมธอด `isnull()` และ `notnull()` ให้ผลลัพธ์ที่คล้ายกันเมื่อคุณใช้ใน `DataFrame`s: พวกมันแสดงผลลัพธ์และดัชนีของผลลัพธ์เหล่านั้น ซึ่งจะช่วยคุณได้มากเมื่อคุณต้องจัดการกับข้อมูลของคุณ
+
+- **การลบค่าที่เป็น null**: นอกเหนือจากการระบุค่าที่ขาดหาย Pandas มีวิธีที่สะดวกในการลบค่าที่เป็น null ออกจาก `Series` และ `DataFrame`s (โดยเฉพาะในชุดข้อมูลขนาดใหญ่ มักจะแนะนำให้ลบค่าที่ขาดหาย [NA] ออกจากการวิเคราะห์ของคุณมากกว่าที่จะจัดการกับมันในวิธีอื่น ๆ) เพื่อดูสิ่งนี้ในทางปฏิบัติ ลองกลับไปที่ `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+สังเกตว่าสิ่งนี้ควรดูเหมือนผลลัพธ์ของคุณจาก `example3[example3.notnull()]` ความแตกต่างที่นี่คือ แทนที่จะเพียงแค่จัดทำดัชนีบนค่าที่ถูกมาสก์ `dropna` ได้ลบค่าที่ขาดหายเหล่านั้นออกจาก `Series` `example1`
+
+เนื่องจาก `DataFrame`s มีสองมิติ พวกมันจึงมีตัวเลือกเพิ่มเติมสำหรับการลบข้อมูล
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(คุณสังเกตไหมว่า Pandas เปลี่ยนสองคอลัมน์เป็นตัวเลขทศนิยมเพื่อรองรับ `NaN`s?)
+
+คุณไม่สามารถลบค่าหนึ่งค่าออกจาก `DataFrame` ได้ ดังนั้นคุณต้องลบทั้งแถวหรือคอลัมน์ ขึ้นอยู่กับสิ่งที่คุณกำลังทำ คุณอาจต้องการทำอย่างใดอย่างหนึ่ง และ Pandas ให้ตัวเลือกสำหรับทั้งสองอย่าง เนื่องจากในวิทยาศาสตร์ข้อมูล คอลัมน์มักแสดงตัวแปรและแถวแสดงการสังเกต คุณมีแนวโน้มที่จะลบแถวของข้อมูลมากกว่า การตั้งค่าเริ่มต้นสำหรับ `dropna()` คือการลบแถวทั้งหมดที่มีค่าที่เป็น null:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+หากจำเป็น คุณสามารถลบค่าที่เป็น NA ออกจากคอลัมน์ได้ ใช้ `axis=1` เพื่อทำเช่นนั้น:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+สังเกตว่าสิ่งนี้สามารถลบข้อมูลจำนวนมากที่คุณอาจต้องการเก็บไว้ โดยเฉพาะในชุดข้อมูลขนาดเล็ก หากคุณต้องการลบเฉพาะแถวหรือคอลัมน์ที่มีค่าที่เป็น null หลายค่าหรือทั้งหมด คุณสามารถระบุการตั้งค่าเหล่านั้นใน `dropna` ด้วยพารามิเตอร์ `how` และ `thresh`
+
+โดยค่าเริ่มต้น `how='any'` (หากคุณต้องการตรวจสอบด้วยตัวเองหรือดูว่ามีพารามิเตอร์อื่น ๆ ที่เมธอดนี้มีอยู่ ให้รัน `example4.dropna?` ในเซลล์โค้ด) คุณสามารถระบุ `how='all'` เพื่อให้ลบเฉพาะแถวหรือคอลัมน์ที่มีค่าที่เป็น null ทั้งหมด ลองขยายตัวอย่าง `DataFrame` ของเราเพื่อดูสิ่งนี้ในทางปฏิบัติ
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+พารามิเตอร์ `thresh` ให้คุณควบคุมได้ละเอียดขึ้น: คุณตั้งค่าจำนวน *ค่าที่ไม่เป็น null* ที่แถวหรือคอลัมน์ต้องมีเพื่อให้ถูกเก็บไว้:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+ที่นี่ แถวแรกและแถวสุดท้ายถูกลบออก เนื่องจากมีเพียงสองค่าที่ไม่เป็น null
+
+- **การเติมค่าที่เป็น null**: ขึ้นอยู่กับชุดข้อมูลของคุณ บางครั้งอาจสมเหตุสมผลมากกว่าที่จะเติมค่าที่เป็น null ด้วยค่าที่ถูกต้องแทนที่จะลบออก คุณสามารถใช้ `isnull` เพื่อทำสิ่งนี้ในที่เดียว แต่สิ่งนี้อาจยุ่งยาก โดยเฉพาะถ้าคุณมีค่าที่ต้องเติมจำนวนมาก เนื่องจากนี่เป็นงานที่พบได้บ่อยในวิทยาศาสตร์ข้อมูล Pandas มี `fillna` ซึ่งคืนสำเนาของ `Series` หรือ `DataFrame` พร้อมค่าที่ขาดหายถูกแทนที่ด้วยค่าที่คุณเลือก ลองสร้างตัวอย่าง `Series` อีกตัวเพื่อดูว่าสิ่งนี้ทำงานอย่างไรในทางปฏิบัติ
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+คุณสามารถเติมค่าที่เป็น null ทั้งหมดด้วยค่าหนึ่งค่า เช่น `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+คุณสามารถ **เติมค่าล่วงหน้า** ค่าที่เป็น null ซึ่งหมายถึงการใช้ค่าที่ถูกต้องล่าสุดเพื่อเติมค่าที่เป็น null:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+คุณยังสามารถ **เติมค่าถอยหลัง** เพื่อกระจายค่าที่ถูกต้องถัดไปกลับไปเติมค่าที่เป็น null:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+ตามที่คุณอาจเดาได้ สิ่งนี้ทำงานเหมือนกันกับ `DataFrame`s แต่คุณยังสามารถระบุ `axis` ที่จะเติมค่าที่เป็น null ได้ โดยใช้ `example2` ที่เคยใช้ก่อนหน้านี้อีกครั้ง:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+สังเกตว่าเมื่อไม่มีค่าก่อนหน้าสำหรับการเติมค่าล่วงหน้า ค่าที่เป็น null ยังคงอยู่
+> **ข้อคิดสำคัญ:** มีหลายวิธีในการจัดการกับค่าที่หายไปในชุดข้อมูลของคุณ กลยุทธ์ที่คุณเลือกใช้ (การลบ, การแทนที่, หรือแม้กระทั่งวิธีการแทนที่) ควรขึ้นอยู่กับลักษณะเฉพาะของข้อมูลนั้น ยิ่งคุณจัดการและทำงานกับชุดข้อมูลมากเท่าไหร่ คุณจะยิ่งพัฒนาความเข้าใจในการจัดการกับค่าที่หายไปได้ดีขึ้นเท่านั้น
+
+## การลบข้อมูลที่ซ้ำกัน
+
+> **เป้าหมายการเรียนรู้:** เมื่อจบหัวข้อนี้ คุณควรจะสามารถระบุและลบค่าที่ซ้ำกันใน DataFrame ได้อย่างมั่นใจ
+
+นอกจากข้อมูลที่หายไปแล้ว คุณยังอาจพบข้อมูลที่ซ้ำกันในชุดข้อมูลจริงอีกด้วย โชคดีที่ `pandas` มีวิธีที่ง่ายในการตรวจจับและลบรายการที่ซ้ำกัน
+
+- **การระบุข้อมูลซ้ำ: `duplicated`**: คุณสามารถระบุค่าที่ซ้ำกันได้ง่าย ๆ โดยใช้เมธอด `duplicated` ใน pandas ซึ่งจะคืนค่าหน้ากาก Boolean ที่ระบุว่ารายการใน `DataFrame` ซ้ำกับรายการก่อนหน้าหรือไม่ ลองสร้างตัวอย่าง `DataFrame` เพื่อดูการทำงานนี้
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **การลบข้อมูลซ้ำ: `drop_duplicates`:** จะคืนสำเนาของข้อมูลที่ค่าทั้งหมดที่ `duplicated` เป็น `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+ทั้ง `duplicated` และ `drop_duplicates` จะพิจารณาทุกคอลัมน์เป็นค่าเริ่มต้น แต่คุณสามารถระบุให้ตรวจสอบเฉพาะบางคอลัมน์ใน `DataFrame` ได้:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **ข้อคิดสำคัญ:** การลบข้อมูลซ้ำเป็นส่วนสำคัญของเกือบทุกโครงการด้านวิทยาศาสตร์ข้อมูล ข้อมูลที่ซ้ำกันอาจเปลี่ยนผลลัพธ์ของการวิเคราะห์ของคุณและทำให้ได้ผลลัพธ์ที่ไม่ถูกต้อง!
+
+
+## 🚀 ความท้าทาย
+
+เนื้อหาทั้งหมดที่กล่าวถึงมีให้ในรูปแบบ [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb) นอกจากนี้ยังมีแบบฝึกหัดหลังแต่ละส่วน ลองทำดูนะ!
+
+## [แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## ทบทวน & ศึกษาด้วยตนเอง
+
+มีหลายวิธีในการค้นหาและเตรียมข้อมูลของคุณสำหรับการวิเคราะห์และการสร้างโมเดล การทำความสะอาดข้อมูลเป็นขั้นตอนสำคัญที่ต้องอาศัยประสบการณ์ "ลงมือทำ" ลองทำความท้าทายเหล่านี้จาก Kaggle เพื่อสำรวจเทคนิคที่บทเรียนนี้ไม่ได้กล่าวถึง
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## การบ้าน
+
+[การประเมินข้อมูลจากแบบฟอร์ม](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/08-data-preparation/assignment.md b/translations/th/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..fba0404f
--- /dev/null
+++ b/translations/th/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# การประเมินข้อมูลจากแบบฟอร์ม
+
+ลูกค้าได้ทำการทดสอบ [แบบฟอร์มขนาดเล็ก](../../../../2-Working-With-Data/08-data-preparation/index.html) เพื่อรวบรวมข้อมูลพื้นฐานเกี่ยวกับฐานลูกค้าของพวกเขา และได้นำผลลัพธ์ที่ได้มาให้คุณตรวจสอบความถูกต้องของข้อมูลที่รวบรวมมา คุณสามารถเปิดหน้า `index.html` ในเบราว์เซอร์เพื่อดูแบบฟอร์มได้
+
+คุณได้รับ [ชุดข้อมูลของบันทึก csv](../../../../data/form.csv) ซึ่งมีรายการที่มาจากแบบฟอร์ม รวมถึงการแสดงผลภาพบางส่วน ลูกค้าชี้ให้เห็นว่าการแสดงผลภาพบางส่วนดูไม่ถูกต้อง แต่พวกเขาไม่แน่ใจว่าจะปรับแก้ไขอย่างไร คุณสามารถสำรวจข้อมูลนี้ได้ใน [สมุดงานที่มอบหมาย](assignment.ipynb)
+
+## คำแนะนำ
+
+ใช้เทคนิคในบทเรียนนี้เพื่อให้คำแนะนำเกี่ยวกับแบบฟอร์ม เพื่อให้สามารถรวบรวมข้อมูลที่ถูกต้องและสม่ำเสมอ
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | --- |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/2-Working-With-Data/README.md b/translations/th/2-Working-With-Data/README.md
new file mode 100644
index 00000000..77a3f42e
--- /dev/null
+++ b/translations/th/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# การทำงานกับข้อมูล
+
+
+> ภาพถ่ายโดย Alexander Sinn บน Unsplash
+
+ในบทเรียนนี้ คุณจะได้เรียนรู้วิธีการต่าง ๆ ในการจัดการ ปรับเปลี่ยน และใช้งานข้อมูลในแอปพลิเคชัน คุณจะได้เรียนรู้เกี่ยวกับฐานข้อมูลเชิงสัมพันธ์และไม่เชิงสัมพันธ์ รวมถึงวิธีการจัดเก็บข้อมูลในฐานข้อมูลเหล่านี้ นอกจากนี้ คุณจะได้เรียนรู้พื้นฐานของการใช้ Python เพื่อจัดการข้อมูล และค้นพบวิธีการหลากหลายที่สามารถใช้ Python ในการจัดการและวิเคราะห์ข้อมูล
+
+### หัวข้อ
+
+1. [ฐานข้อมูลเชิงสัมพันธ์](05-relational-databases/README.md)
+2. [ฐานข้อมูลไม่เชิงสัมพันธ์](06-non-relational/README.md)
+3. [การทำงานกับ Python](07-python/README.md)
+4. [การเตรียมข้อมูล](08-data-preparation/README.md)
+
+### เครดิต
+
+บทเรียนเหล่านี้เขียนขึ้นด้วย ❤️ โดย [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) และ [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/09-visualization-quantities/README.md b/translations/th/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..6b43e677
--- /dev/null
+++ b/translations/th/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# การแสดงผลข้อมูลเชิงปริมาณ
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| การแสดงผลข้อมูลเชิงปริมาณ - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนนี้ คุณจะได้เรียนรู้วิธีการใช้ไลบรารี Python ที่มีอยู่มากมายเพื่อสร้างการแสดงผลที่น่าสนใจเกี่ยวกับแนวคิดของข้อมูลเชิงปริมาณ โดยใช้ชุดข้อมูลที่ถูกทำความสะอาดเกี่ยวกับนกในรัฐมินนิโซตา คุณจะได้เรียนรู้ข้อเท็จจริงที่น่าสนใจเกี่ยวกับสัตว์ป่าในท้องถิ่น
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## สังเกตความกว้างของปีกด้วย Matplotlib
+
+ไลบรารีที่ยอดเยี่ยมสำหรับการสร้างกราฟและแผนภูมิทั้งแบบง่ายและซับซ้อนคือ [Matplotlib](https://matplotlib.org/stable/index.html) โดยทั่วไปแล้ว กระบวนการสร้างกราฟด้วยไลบรารีเหล่านี้ประกอบด้วยการระบุส่วนของ dataframe ที่คุณต้องการใช้งาน การปรับเปลี่ยนข้อมูลตามความจำเป็น กำหนดค่าของแกน x และ y ตัดสินใจเลือกประเภทของกราฟที่จะแสดง และแสดงกราฟนั้น Matplotlib มีตัวเลือกการแสดงผลที่หลากหลาย แต่สำหรับบทเรียนนี้ เราจะเน้นไปที่ประเภทที่เหมาะสมที่สุดสำหรับการแสดงผลข้อมูลเชิงปริมาณ: กราฟเส้น, scatterplot และ bar plot
+
+> ✅ ใช้กราฟที่เหมาะสมกับโครงสร้างข้อมูลและเรื่องราวที่คุณต้องการเล่า
+> - วิเคราะห์แนวโน้มตามเวลา: กราฟเส้น
+> - เปรียบเทียบค่า: กราฟแท่ง, กราฟคอลัมน์, กราฟวงกลม, scatterplot
+> - แสดงความสัมพันธ์ระหว่างส่วนต่างๆ: กราฟวงกลม
+> - แสดงการกระจายของข้อมูล: scatterplot, กราฟแท่ง
+> - แสดงแนวโน้ม: กราฟเส้น, กราฟคอลัมน์
+> - แสดงความสัมพันธ์ระหว่างค่า: กราฟเส้น, scatterplot, bubble
+
+หากคุณมีชุดข้อมูลและต้องการค้นหาว่ามีรายการใดบ้างในปริมาณเท่าใด งานแรกที่คุณต้องทำคือการตรวจสอบค่าของมัน
+
+✅ มี 'cheat sheets' ที่ดีมากสำหรับ Matplotlib [ที่นี่](https://matplotlib.org/cheatsheets/cheatsheets.pdf)
+
+## สร้างกราฟเส้นเกี่ยวกับค่าความกว้างของปีกนก
+
+เปิดไฟล์ `notebook.ipynb` ที่อยู่ในโฟลเดอร์บทเรียนนี้และเพิ่มเซลล์ใหม่
+
+> หมายเหตุ: ข้อมูลถูกจัดเก็บไว้ในโฟลเดอร์ `/data` ที่อยู่ใน root ของ repo นี้
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+ข้อมูลนี้เป็นการผสมระหว่างข้อความและตัวเลข:
+
+| | Name | ScientificName | Category | Order | Family | Genus | ConservationStatus | MinLength | MaxLength | MinBodyMass | MaxBodyMass | MinWingspan | MaxWingspan |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Black-bellied whistling-duck | Dendrocygna autumnalis | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fulvous whistling-duck | Dendrocygna bicolor | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snow goose | Anser caerulescens | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross's goose | Anser rossii | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Greater white-fronted goose | Anser albifrons | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+เริ่มต้นด้วยการสร้างกราฟเส้นพื้นฐานเพื่อแสดงข้อมูลตัวเลขบางส่วน สมมติว่าคุณต้องการดูค่าความกว้างของปีกสูงสุดของนกเหล่านี้
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+คุณสังเกตเห็นอะไรทันที? ดูเหมือนว่าจะมีค่าผิดปกติอย่างน้อยหนึ่งค่า - นั่นเป็นความกว้างของปีกที่ใหญ่มาก! ความกว้างของปีก 2300 เซนติเมตรเท่ากับ 23 เมตร - มี Pterodactyls อยู่ในมินนิโซตาหรือเปล่า? มาสำรวจเพิ่มเติมกัน
+
+แม้ว่าคุณจะสามารถจัดเรียงข้อมูลใน Excel เพื่อค้นหาค่าผิดปกติได้อย่างรวดเร็ว ซึ่งอาจเป็นข้อผิดพลาดในการพิมพ์ แต่ให้ดำเนินการต่อในกระบวนการแสดงผลโดยทำงานจากภายในกราฟ
+
+เพิ่มป้ายกำกับในแกน x เพื่อแสดงว่านกชนิดใดที่กำลังถูกพิจารณา:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+แม้จะหมุนป้ายกำกับเป็น 45 องศา แต่ก็ยังมีมากเกินไปที่จะอ่านได้ ลองใช้กลยุทธ์อื่น: แสดงป้ายกำกับเฉพาะค่าผิดปกติและตั้งป้ายกำกับไว้ในกราฟ คุณสามารถใช้ scatter chart เพื่อเพิ่มพื้นที่สำหรับการแสดงป้ายกำกับ:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+เกิดอะไรขึ้นที่นี่? คุณใช้ `tick_params` เพื่อซ่อนป้ายกำกับด้านล่างและสร้าง loop ผ่านชุดข้อมูลนกของคุณ โดยการสร้างกราฟด้วยจุดสีน้ำเงินเล็กๆ โดยใช้ `bo` คุณตรวจสอบว่านกตัวใดมีค่าความกว้างของปีกสูงสุดเกิน 500 และแสดงป้ายกำกับถัดจากจุดนั้นหากเป็นเช่นนั้น คุณปรับป้ายกำกับเล็กน้อยในแกน y (`y * (1 - 0.05)`) และใช้ชื่อของนกเป็นป้ายกำกับ
+
+คุณค้นพบอะไร?
+
+
+## กรองข้อมูลของคุณ
+
+ทั้ง Bald Eagle และ Prairie Falcon แม้จะเป็นนกที่ใหญ่มาก แต่ดูเหมือนว่าจะมีการระบุค่าผิดพลาด โดยมีการเพิ่ม `0` เข้าไปในค่าความกว้างของปีกสูงสุด เป็นไปไม่ได้ที่คุณจะพบ Bald Eagle ที่มีความกว้างของปีก 25 เมตร แต่ถ้าเป็นเช่นนั้น โปรดแจ้งให้เราทราบ! มาสร้าง dataframe ใหม่โดยไม่มีค่าผิดปกติสองตัวนี้:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+เมื่อกรองค่าผิดปกติออก ข้อมูลของคุณจะมีความสอดคล้องและเข้าใจง่ายขึ้น
+
+
+
+ตอนนี้เรามีชุดข้อมูลที่สะอาดขึ้นอย่างน้อยในแง่ของความกว้างของปีก มาค้นพบข้อมูลเพิ่มเติมเกี่ยวกับนกเหล่านี้กัน
+
+แม้ว่า line และ scatter plots สามารถแสดงข้อมูลเกี่ยวกับค่าของข้อมูลและการกระจายของมันได้ แต่เราต้องการคิดถึงค่าที่มีอยู่ในชุดข้อมูลนี้ คุณสามารถสร้างการแสดงผลเพื่อหาคำตอบเกี่ยวกับข้อมูลเชิงปริมาณ เช่น:
+
+> มีกี่ประเภทของนก และมีจำนวนเท่าใด?
+> มีกี่ตัวที่สูญพันธุ์, ใกล้สูญพันธุ์, หายาก หรือพบได้ทั่วไป?
+> มีกี่ตัวใน genus และ order ต่างๆ ตามคำศัพท์ของ Linnaeus?
+## สำรวจกราฟแท่ง
+
+กราฟแท่งมีประโยชน์เมื่อคุณต้องการแสดงการจัดกลุ่มของข้อมูล มาสำรวจประเภทของนกที่มีอยู่ในชุดข้อมูลนี้เพื่อดูว่าประเภทใดมีจำนวนมากที่สุด
+
+ในไฟล์ notebook สร้างกราฟแท่งพื้นฐาน
+
+✅ หมายเหตุ คุณสามารถกรองนกสองตัวที่เป็นค่าผิดปกติที่เราระบุในส่วนก่อนหน้า แก้ไขข้อผิดพลาดในค่าความกว้างของปีก หรือปล่อยไว้สำหรับการฝึกฝนที่ไม่ขึ้นอยู่กับค่าความกว้างของปีก
+
+หากคุณต้องการสร้างกราฟแท่ง คุณสามารถเลือกข้อมูลที่คุณต้องการเน้น กราฟแท่งสามารถสร้างจากข้อมูลดิบ:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+อย่างไรก็ตาม กราฟแท่งนี้อ่านไม่ออกเพราะมีข้อมูลที่ไม่ได้จัดกลุ่มมากเกินไป คุณต้องเลือกเฉพาะข้อมูลที่คุณต้องการแสดง ดังนั้นมาดูความยาวของนกตามประเภทของมัน
+
+กรองข้อมูลของคุณเพื่อรวมเฉพาะประเภทของนก
+
+✅ สังเกตว่าคุณใช้ Pandas เพื่อจัดการข้อมูล และให้ Matplotlib ทำการสร้างกราฟ
+
+เนื่องจากมีหลายประเภท คุณสามารถแสดงกราฟนี้ในแนวตั้งและปรับความสูงเพื่อรองรับข้อมูลทั้งหมด:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+กราฟแท่งนี้แสดงภาพที่ดีเกี่ยวกับจำนวนของนกในแต่ละประเภท ในพริบตา คุณจะเห็นว่าจำนวนมากที่สุดของนกในภูมิภาคนี้อยู่ในประเภท Ducks/Geese/Waterfowl มินนิโซตาเป็น 'ดินแดนแห่งทะเลสาบ 10,000 แห่ง' ดังนั้นจึงไม่น่าแปลกใจ!
+
+✅ ลองนับข้อมูลอื่นๆ ในชุดข้อมูลนี้ มีอะไรที่ทำให้คุณประหลาดใจหรือไม่?
+
+## การเปรียบเทียบข้อมูล
+
+คุณสามารถลองเปรียบเทียบข้อมูลที่จัดกลุ่มโดยการสร้างแกนใหม่ ลองเปรียบเทียบ MaxLength ของนกตามประเภทของมัน:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+ไม่มีอะไรน่าประหลาดใจที่นี่: นกฮัมมิงเบิร์ดมี MaxLength น้อยที่สุดเมื่อเทียบกับนกกระทุงหรือนกห่าน เป็นเรื่องดีเมื่อข้อมูลมีเหตุผลตามตรรกะ!
+
+คุณสามารถสร้างการแสดงผลที่น่าสนใจมากขึ้นของกราฟแท่งโดยการซ้อนข้อมูล ลองซ้อน Minimum และ Maximum Length ในประเภทของนก:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+ในกราฟนี้ คุณสามารถเห็นช่วงของความยาวขั้นต่ำและสูงสุดในแต่ละประเภทของนก คุณสามารถพูดได้อย่างปลอดภัยว่า จากข้อมูลนี้ ยิ่งนกตัวใหญ่ ช่วงความยาวของมันก็ยิ่งกว้างขึ้น น่าสนใจมาก!
+
+
+
+## 🚀 ความท้าทาย
+
+ชุดข้อมูลนกนี้มีข้อมูลมากมายเกี่ยวกับนกประเภทต่างๆ ในระบบนิเวศเฉพาะ ลองค้นหาชุดข้อมูลเกี่ยวกับนกอื่นๆ บนอินเทอร์เน็ต และฝึกสร้างกราฟและแผนภูมิรอบๆ นกเหล่านี้เพื่อค้นพบข้อเท็จจริงที่คุณไม่เคยรู้มาก่อน
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+บทเรียนแรกนี้ได้ให้ข้อมูลเกี่ยวกับวิธีการใช้ Matplotlib เพื่อแสดงผลข้อมูลเชิงปริมาณ ลองค้นคว้าวิธีอื่นๆ ในการทำงานกับชุดข้อมูลเพื่อการแสดงผล [Plotly](https://github.com/plotly/plotly.py) เป็นอีกหนึ่งตัวเลือกที่เราจะไม่ครอบคลุมในบทเรียนนี้ ดังนั้นลองดูว่ามันมีอะไรให้คุณได้บ้าง
+## งานที่ได้รับมอบหมาย
+
+[Lines, Scatters, and Bars](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/th/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..ddc86af6
--- /dev/null
+++ b/translations/th/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# เส้นกราฟ, กราฟกระจาย และกราฟแท่ง
+
+## คำแนะนำ
+
+ในบทเรียนนี้ คุณได้ทำงานกับกราฟเส้น กราฟกระจาย และกราฟแท่งเพื่อแสดงข้อเท็จจริงที่น่าสนใจเกี่ยวกับชุดข้อมูลนี้ ในงานนี้ ให้เจาะลึกลงไปในชุดข้อมูลเพื่อค้นหาข้อเท็จจริงเกี่ยวกับนกชนิดหนึ่งที่กำหนด ตัวอย่างเช่น สร้างโน้ตบุ๊กที่แสดงข้อมูลที่น่าสนใจทั้งหมดที่คุณสามารถค้นพบเกี่ยวกับห่านหิมะ ใช้กราฟทั้งสามประเภทที่กล่าวถึงข้างต้นเพื่อเล่าเรื่องราวในโน้ตบุ๊กของคุณ
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | -- |
+โน้ตบุ๊กมีคำอธิบายที่ดี การเล่าเรื่องที่แข็งแกร่ง และกราฟที่ดึงดูดสายตา | โน้ตบุ๊กขาดองค์ประกอบหนึ่งในสามนี้ | โน้ตบุ๊กขาดองค์ประกอบสองในสามนี้
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/10-visualization-distributions/README.md b/translations/th/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..f58d9dd9
--- /dev/null
+++ b/translations/th/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,218 @@
+
+# การแสดงภาพการกระจายตัวของข้อมูล
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| การแสดงภาพการกระจายตัวของข้อมูล - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนก่อนหน้านี้ คุณได้เรียนรู้ข้อเท็จจริงที่น่าสนใจเกี่ยวกับชุดข้อมูลเกี่ยวกับนกในรัฐมินนิโซตา คุณพบข้อมูลที่ผิดพลาดโดยการแสดงภาพค่าผิดปกติ และได้ดูความแตกต่างระหว่างหมวดหมู่นกตามความยาวสูงสุดของพวกมัน
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## สำรวจชุดข้อมูลนก
+
+อีกวิธีหนึ่งในการเจาะลึกข้อมูลคือการดูการกระจายตัวของข้อมูล หรือวิธีที่ข้อมูลถูกจัดเรียงตามแกนตัวอย่าง เช่น คุณอาจต้องการเรียนรู้เกี่ยวกับการกระจายตัวทั่วไปของความกว้างปีกสูงสุดหรือมวลร่างกายสูงสุดของนกในรัฐมินนิโซตาในชุดข้อมูลนี้
+
+มาค้นหาข้อเท็จจริงบางอย่างเกี่ยวกับการกระจายตัวของข้อมูลในชุดข้อมูลนี้กัน ในไฟล์ _notebook.ipynb_ ที่อยู่ในโฟลเดอร์บทเรียนนี้ ให้นำเข้า Pandas, Matplotlib และข้อมูลของคุณ:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | ชื่อ | ชื่อวิทยาศาสตร์ | หมวดหมู่ | ลำดับ | วงศ์ | สกุล | สถานะการอนุรักษ์ | ความยาวต่ำสุด | ความยาวสูงสุด | มวลร่างกายต่ำสุด | มวลร่างกายสูงสุด | ความกว้างปีกต่ำสุด | ความกว้างปีกสูงสุด |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | เป็ดหวีดท้องดำ | Dendrocygna autumnalis | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | เป็ดหวีดสีน้ำตาล | Dendrocygna bicolor | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | ห่านหิมะ | Anser caerulescens | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | ห่านรอสส์ | Anser rossii | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | ห่านหน้าขาวใหญ่ | Anser albifrons | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+โดยทั่วไป คุณสามารถดูการกระจายตัวของข้อมูลได้อย่างรวดเร็วโดยใช้แผนภาพกระจาย (scatter plot) เช่นเดียวกับที่เราได้ทำในบทเรียนก่อนหน้านี้:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+นี่เป็นภาพรวมของการกระจายตัวทั่วไปของความยาวร่างกายต่ออันดับของนก แต่ไม่ใช่วิธีที่เหมาะสมที่สุดในการแสดงการกระจายตัวที่แท้จริง งานนี้มักจะทำโดยการสร้างฮิสโตแกรม
+
+## การทำงานกับฮิสโตแกรม
+
+Matplotlib มีวิธีที่ดีมากในการแสดงการกระจายตัวของข้อมูลโดยใช้ฮิสโตแกรม แผนภูมิประเภทนี้คล้ายกับแผนภูมิแท่งที่การกระจายตัวสามารถมองเห็นได้ผ่านการเพิ่มขึ้นและลดลงของแท่งข้อมูล ในการสร้างฮิสโตแกรม คุณต้องมีข้อมูลเชิงตัวเลข ในการสร้างฮิสโตแกรม คุณสามารถสร้างแผนภูมิที่กำหนดชนิดเป็น 'hist' สำหรับฮิสโตแกรม แผนภูมินี้แสดงการกระจายตัวของ MaxBodyMass สำหรับช่วงข้อมูลเชิงตัวเลขทั้งหมดในชุดข้อมูล โดยการแบ่งข้อมูลออกเป็นกลุ่มย่อย (bins) จะสามารถแสดงการกระจายตัวของค่าข้อมูลได้:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+ดังที่คุณเห็น นกส่วนใหญ่ในชุดข้อมูลกว่า 400 ตัวนี้มีมวลร่างกายสูงสุดต่ำกว่า 2000 ลองเปลี่ยนพารามิเตอร์ `bins` เป็นค่าที่สูงขึ้น เช่น 30 เพื่อดูข้อมูลในรายละเอียดมากขึ้น:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+แผนภูมินี้แสดงการกระจายตัวในลักษณะที่ละเอียดขึ้นเล็กน้อย คุณสามารถสร้างแผนภูมิที่ไม่เอียงไปทางซ้ายมากเกินไปได้โดยการเลือกข้อมูลเฉพาะในช่วงที่กำหนด:
+
+กรองข้อมูลของคุณเพื่อเลือกเฉพาะนกที่มีมวลร่างกายต่ำกว่า 60 และแสดง `bins` จำนวน 40:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ ลองใช้ตัวกรองและจุดข้อมูลอื่น ๆ เพื่อดูการกระจายตัวของข้อมูลทั้งหมด ลบตัวกรอง `['MaxBodyMass']` เพื่อแสดงการกระจายตัวที่มีการติดป้ายกำกับ
+
+ฮิสโตแกรมยังมีการปรับปรุงสีและการติดป้ายกำกับที่น่าสนใจให้ลองใช้ด้วย:
+
+สร้างฮิสโตแกรม 2 มิติ เพื่อเปรียบเทียบความสัมพันธ์ระหว่างการกระจายตัวสองแบบ ลองเปรียบเทียบ `MaxBodyMass` กับ `MaxLength` Matplotlib มีวิธีในตัวเพื่อแสดงการบรรจบกันโดยใช้สีที่สว่างขึ้น:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+ดูเหมือนว่าจะมีความสัมพันธ์ที่คาดหวังระหว่างสององค์ประกอบนี้ตามแกนที่คาดไว้ โดยมีจุดบรรจบที่แข็งแกร่งจุดหนึ่ง:
+
+
+
+ฮิสโตแกรมทำงานได้ดีโดยค่าเริ่มต้นสำหรับข้อมูลเชิงตัวเลข แล้วถ้าคุณต้องการดูการกระจายตัวตามข้อมูลข้อความล่ะ?
+
+## สำรวจชุดข้อมูลเพื่อดูการกระจายตัวโดยใช้ข้อมูลข้อความ
+
+ชุดข้อมูลนี้ยังมีข้อมูลที่ดีเกี่ยวกับหมวดหมู่นก สกุล สปีชีส์ และวงศ์ รวมถึงสถานะการอนุรักษ์ มาสำรวจข้อมูลสถานะการอนุรักษ์นี้กัน การกระจายตัวของนกตามสถานะการอนุรักษ์เป็นอย่างไร?
+
+> ✅ ในชุดข้อมูลนี้ มีการใช้ตัวย่อหลายตัวเพื่ออธิบายสถานะการอนุรักษ์ ตัวย่อเหล่านี้มาจาก [IUCN Red List Categories](https://www.iucnredlist.org/) ซึ่งเป็นองค์กรที่จัดทำรายการสถานะของสปีชีส์
+>
+> - CR: ใกล้สูญพันธุ์อย่างยิ่ง
+> - EN: ใกล้สูญพันธุ์
+> - EX: สูญพันธุ์
+> - LC: ความกังวลน้อยที่สุด
+> - NT: ใกล้ถูกคุกคาม
+> - VU: มีแนวโน้มใกล้สูญพันธุ์
+
+ค่าพวกนี้เป็นค่าข้อความ ดังนั้นคุณจะต้องทำการแปลงเพื่อสร้างฮิสโตแกรม โดยใช้ dataframe ที่กรองแล้ว แสดงสถานะการอนุรักษ์ควบคู่ไปกับความกว้างปีกขั้นต่ำ คุณเห็นอะไรบ้าง?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+ดูเหมือนว่าจะไม่มีความสัมพันธ์ที่ดีระหว่างความกว้างปีกขั้นต่ำและสถานะการอนุรักษ์ ลองทดสอบองค์ประกอบอื่น ๆ ในชุดข้อมูลโดยใช้วิธีนี้ คุณสามารถลองใช้ตัวกรองที่แตกต่างกันได้ คุณพบความสัมพันธ์ใดหรือไม่?
+
+## แผนภูมิความหนาแน่น
+
+คุณอาจสังเกตเห็นว่าฮิสโตแกรมที่เราดูจนถึงตอนนี้มีลักษณะเป็น 'ขั้นบันได' และไม่ได้ไหลอย่างราบรื่นในรูปแบบโค้ง หากต้องการแสดงแผนภูมิความหนาแน่นที่ราบรื่นขึ้น คุณสามารถลองใช้แผนภูมิความหนาแน่น
+
+ในการทำงานกับแผนภูมิความหนาแน่น ให้ทำความคุ้นเคยกับไลบรารีการสร้างแผนภูมิใหม่ [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html)
+
+โหลด Seaborn และลองสร้างแผนภูมิความหนาแน่นพื้นฐาน:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+คุณสามารถเห็นได้ว่าแผนภูมิสะท้อนแผนภูมิก่อนหน้านี้สำหรับข้อมูลความกว้างปีกขั้นต่ำ เพียงแต่ราบรื่นขึ้นเล็กน้อย ตามเอกสารของ Seaborn "เมื่อเทียบกับฮิสโตแกรม KDE สามารถสร้างแผนภูมิที่ดูไม่รกและตีความได้ง่ายกว่า โดยเฉพาะเมื่อวาดการกระจายตัวหลายแบบ แต่ก็มีโอกาสที่จะเกิดการบิดเบือนหากการกระจายตัวพื้นฐานมีขอบเขตหรือไม่ราบรื่น" [source](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) กล่าวอีกนัยหนึ่ง ค่าผิดปกติจะทำให้แผนภูมิของคุณแสดงผลไม่ดีเสมอ
+
+หากคุณต้องการกลับไปดูเส้น MaxBodyMass ที่เป็นขั้นบันไดในแผนภูมิที่สองที่คุณสร้าง คุณสามารถทำให้มันราบรื่นได้ดีมากโดยสร้างใหม่ด้วยวิธีนี้:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+หากคุณต้องการเส้นที่ราบรื่นแต่ไม่ราบรื่นเกินไป ให้แก้ไขพารามิเตอร์ `bw_adjust`:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ อ่านเกี่ยวกับพารามิเตอร์ที่มีสำหรับแผนภูมิประเภทนี้และทดลองใช้!
+
+แผนภูมิประเภทนี้ให้การแสดงภาพที่อธิบายได้อย่างสวยงาม ด้วยโค้ดเพียงไม่กี่บรรทัด ตัวอย่างเช่น คุณสามารถแสดงความหนาแน่นของมวลร่างกายสูงสุดต่ออันดับของนก:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+คุณยังสามารถทำแผนที่ความหนาแน่นของตัวแปรหลายตัวในแผนภูมิเดียวกันได้ ลองเปรียบเทียบ MaxLength และ MinLength ของนกกับสถานะการอนุรักษ์:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+บางทีอาจคุ้มค่าที่จะวิจัยว่ากลุ่มของนกที่ 'มีแนวโน้มใกล้สูญพันธุ์' ตามความยาวของพวกมันมีความหมายหรือไม่
+
+## 🚀 ความท้าทาย
+
+ฮิสโตแกรมเป็นแผนภูมิที่ซับซ้อนกว่าการกระจายจุด แผนภูมิแท่ง หรือแผนภูมิเส้นพื้นฐาน ลองค้นหาตัวอย่างการใช้ฮิสโตแกรมที่ดีบนอินเทอร์เน็ต พวกมันถูกใช้ในลักษณะใด แสดงอะไร และมักถูกใช้ในสาขาหรือพื้นที่ใด?
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+ในบทเรียนนี้ คุณได้ใช้ Matplotlib และเริ่มทำงานกับ Seaborn เพื่อแสดงแผนภูมิที่ซับซ้อนมากขึ้น ลองค้นคว้าเกี่ยวกับ `kdeplot` ใน Seaborn ซึ่งเป็น "เส้นโค้งความน่าจะเป็นต่อเนื่องในหนึ่งหรือหลายมิติ" อ่าน [เอกสาร](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) เพื่อทำความเข้าใจวิธีการทำงาน
+
+## งานที่ได้รับมอบหมาย
+
+[นำทักษะของคุณไปใช้](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/th/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..5de86a29
--- /dev/null
+++ b/translations/th/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# ฝึกฝนทักษะของคุณ
+
+## คำแนะนำ
+
+จนถึงตอนนี้ คุณได้ทำงานกับชุดข้อมูลนกในมินนิโซตาเพื่อค้นหาข้อมูลเกี่ยวกับปริมาณและความหนาแน่นของประชากรนก ลองฝึกใช้เทคนิคเหล่านี้กับชุดข้อมูลอื่น อาจจะเป็นชุดข้อมูลที่มาจาก [Kaggle](https://www.kaggle.com/) สร้างโน้ตบุ๊กเพื่อเล่าเรื่องราวเกี่ยวกับชุดข้อมูลนี้ และอย่าลืมใช้ฮิสโตแกรมเมื่ออธิบายข้อมูล
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ได้ | ต้องปรับปรุง
+--- | --- | --- |
+โน้ตบุ๊กถูกนำเสนอพร้อมคำอธิบายเกี่ยวกับชุดข้อมูลนี้ รวมถึงแหล่งที่มา และใช้ฮิสโตแกรมอย่างน้อย 5 อันเพื่อค้นหาข้อเท็จจริงเกี่ยวกับข้อมูล | โน้ตบุ๊กถูกนำเสนอพร้อมคำอธิบายที่ไม่สมบูรณ์หรือมีข้อผิดพลาด | โน้ตบุ๊กถูกนำเสนอโดยไม่มีคำอธิบายและมีข้อผิดพลาด
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/11-visualization-proportions/README.md b/translations/th/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..b7d1c554
--- /dev/null
+++ b/translations/th/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,205 @@
+
+# การแสดงสัดส่วนด้วยภาพ
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|การแสดงสัดส่วนด้วยภาพ - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนนี้ คุณจะได้ใช้ชุดข้อมูลที่เกี่ยวกับธรรมชาติในการแสดงสัดส่วน เช่น จำนวนชนิดของเห็ดที่ปรากฏในชุดข้อมูลเกี่ยวกับเห็ด มาสำรวจโลกของเห็ดที่น่าสนใจนี้ด้วยชุดข้อมูลจาก Audubon ซึ่งมีรายละเอียดเกี่ยวกับเห็ดมีครีบ 23 สายพันธุ์ในตระกูล Agaricus และ Lepiota คุณจะได้ทดลองสร้างภาพข้อมูลที่น่าสนใจ เช่น:
+
+- แผนภูมิวงกลม 🥧
+- แผนภูมิวงแหวน 🍩
+- แผนภูมิแบบวาฟเฟิล 🧇
+
+> 💡 โครงการที่น่าสนใจมากชื่อ [Charticulator](https://charticulator.com) โดย Microsoft Research มีอินเทอร์เฟซแบบลากและวางสำหรับการสร้างภาพข้อมูลฟรี ในหนึ่งในบทเรียนของพวกเขายังใช้ชุดข้อมูลเห็ดนี้ด้วย! ดังนั้นคุณสามารถสำรวจข้อมูลและเรียนรู้การใช้ไลบรารีไปพร้อมกัน: [บทเรียน Charticulator](https://charticulator.com/tutorials/tutorial4.html)
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## ทำความรู้จักกับเห็ดของคุณ 🍄
+
+เห็ดเป็นสิ่งที่น่าสนใจมาก มานำเข้าชุดข้อมูลเพื่อศึกษาเกี่ยวกับมันกัน:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+ตารางข้อมูลที่แสดงออกมามีข้อมูลที่ยอดเยี่ยมสำหรับการวิเคราะห์:
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Poisonous | Convex | Smooth | Brown | Bruises | Pungent | Free | Close | Narrow | Black | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+| Edible | Convex | Smooth | Yellow | Bruises | Almond | Free | Close | Broad | Black | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Grasses |
+| Edible | Bell | Smooth | White | Bruises | Anise | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Meadows |
+| Poisonous | Convex | Scaly | White | Bruises | Pungent | Free | Close | Narrow | Brown | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+
+ทันทีที่เห็น คุณจะสังเกตได้ว่าข้อมูลทั้งหมดเป็นข้อความ คุณจะต้องแปลงข้อมูลนี้เพื่อให้สามารถใช้ในแผนภูมิได้ ข้อมูลส่วนใหญ่ในความเป็นจริงถูกแสดงเป็นออบเจ็กต์:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+ผลลัพธ์คือ:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+นำข้อมูลนี้มาแปลงคอลัมน์ 'class' ให้เป็นหมวดหมู่:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+ตอนนี้ หากคุณพิมพ์ข้อมูลเห็ดออกมา คุณจะเห็นว่ามันถูกจัดกลุ่มเป็นหมวดหมู่ตามคลาสที่เป็นพิษ/กินได้:
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Edible | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Poisonous | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+หากคุณทำตามลำดับที่แสดงในตารางนี้เพื่อสร้างป้ายกำกับหมวดหมู่ คุณสามารถสร้างแผนภูมิวงกลมได้:
+
+## วงกลม!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+และนี่คือแผนภูมิวงกลมที่แสดงสัดส่วนของข้อมูลตามสองคลาสของเห็ดนี้ สิ่งสำคัญคือการจัดลำดับป้ายกำกับให้ถูกต้อง โดยเฉพาะในกรณีนี้ ดังนั้นอย่าลืมตรวจสอบลำดับของอาร์เรย์ป้ายกำกับ!
+
+
+
+## วงแหวน!
+
+แผนภูมิวงแหวนเป็นแผนภูมิวงกลมที่มีรูตรงกลาง ซึ่งดูน่าสนใจมากขึ้น มาดูข้อมูลของเราด้วยวิธีนี้กัน
+
+ดูที่แหล่งที่อยู่อาศัยต่าง ๆ ที่เห็ดเติบโต:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+ที่นี่ คุณกำลังจัดกลุ่มข้อมูลตามแหล่งที่อยู่อาศัย มีทั้งหมด 7 แหล่งที่อยู่อาศัย ใช้สิ่งเหล่านี้เป็นป้ายกำกับสำหรับแผนภูมิวงแหวนของคุณ:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+โค้ดนี้สร้างแผนภูมิและวงกลมตรงกลาง จากนั้นเพิ่มวงกลมตรงกลางในแผนภูมิ คุณสามารถแก้ไขความกว้างของวงกลมตรงกลางได้โดยเปลี่ยน `0.40` เป็นค่าอื่น
+
+แผนภูมิวงแหวนสามารถปรับแต่งได้หลายวิธีเพื่อเปลี่ยนป้ายกำกับ โดยเฉพาะป้ายกำกับสามารถทำให้เด่นชัดขึ้นเพื่อให้อ่านง่ายขึ้น เรียนรู้เพิ่มเติมได้ที่ [เอกสาร](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut)
+
+เมื่อคุณรู้วิธีจัดกลุ่มข้อมูลและแสดงผลในรูปแบบวงกลมหรือวงแหวนแล้ว คุณสามารถสำรวจแผนภูมิประเภทอื่น ๆ ได้ ลองแผนภูมิแบบวาฟเฟิล ซึ่งเป็นวิธีการแสดงปริมาณในรูปแบบที่แตกต่างออกไป
+
+## วาฟเฟิล!
+
+แผนภูมิแบบ 'วาฟเฟิล' เป็นวิธีการแสดงปริมาณในรูปแบบตาราง 2 มิติของช่องสี่เหลี่ยม ลองแสดงปริมาณสีของหมวกเห็ดในชุดข้อมูลนี้ดู สำหรับสิ่งนี้ คุณต้องติดตั้งไลบรารีช่วยเหลือชื่อ [PyWaffle](https://pypi.org/project/pywaffle/) และใช้ Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+เลือกส่วนหนึ่งของข้อมูลของคุณเพื่อจัดกลุ่ม:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+สร้างแผนภูมิแบบวาฟเฟิลโดยสร้างป้ายกำกับและจัดกลุ่มข้อมูลของคุณ:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+ด้วยแผนภูมิแบบวาฟเฟิล คุณสามารถเห็นสัดส่วนของสีหมวกเห็ดในชุดข้อมูลนี้ได้อย่างชัดเจน น่าสนใจที่มีเห็ดหมวกสีเขียวจำนวนมาก!
+
+
+
+✅ Pywaffle รองรับการใช้ไอคอนในแผนภูมิที่ใช้ไอคอนใด ๆ ที่มีใน [Font Awesome](https://fontawesome.com/) ลองทดลองสร้างแผนภูมิแบบวาฟเฟิลที่น่าสนใจยิ่งขึ้นโดยใช้ไอคอนแทนช่องสี่เหลี่ยม
+
+ในบทเรียนนี้ คุณได้เรียนรู้สามวิธีในการแสดงสัดส่วนด้วยภาพ ก่อนอื่น คุณต้องจัดกลุ่มข้อมูลของคุณเป็นหมวดหมู่ จากนั้นตัดสินใจว่าวิธีใดดีที่สุดในการแสดงข้อมูล - วงกลม วงแหวน หรือวาฟเฟิล ทั้งหมดนี้น่าสนใจและให้ภาพรวมของชุดข้อมูลได้ทันที
+
+## 🚀 ความท้าทาย
+
+ลองสร้างแผนภูมิที่น่าสนใจเหล่านี้ใน [Charticulator](https://charticulator.com)
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+บางครั้งมันไม่ชัดเจนว่าจะใช้แผนภูมิวงกลม วงแหวน หรือวาฟเฟิลเมื่อใด นี่คือบทความบางส่วนที่คุณสามารถอ่านเกี่ยวกับหัวข้อนี้:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+ค้นคว้าข้อมูลเพิ่มเติมเพื่อหาข้อมูลเกี่ยวกับการตัดสินใจที่ยุ่งยากนี้
+
+## การบ้าน
+
+[ลองทำใน Excel](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/th/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..d9c03d32
--- /dev/null
+++ b/translations/th/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# ลองใช้ใน Excel
+
+## คำแนะนำ
+
+คุณรู้หรือไม่ว่าคุณสามารถสร้างกราฟโดนัท, กราฟพาย และกราฟวาฟเฟิลใน Excel ได้? ใช้ชุดข้อมูลที่คุณเลือก สร้างกราฟทั้งสามนี้ในสเปรดชีต Excel ของคุณ
+
+## เกณฑ์การประเมิน
+
+| ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง |
+| ------------------------------------------------------- | ------------------------------------------------- | ------------------------------------------------------ |
+| มีสเปรดชีต Excel ที่นำเสนอพร้อมกราฟทั้งสามประเภท | มีสเปรดชีต Excel ที่นำเสนอพร้อมกราฟสองประเภท | มีสเปรดชีต Excel ที่นำเสนอพร้อมกราฟเพียงหนึ่งประเภท |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/12-visualization-relationships/README.md b/translations/th/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..26844c72
--- /dev/null
+++ b/translations/th/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# การแสดงความสัมพันธ์: เรื่องราวของน้ำผึ้ง 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|การแสดงความสัมพันธ์ - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ต่อเนื่องจากการวิจัยที่เน้นธรรมชาติของเรา มาค้นพบวิธีการแสดงภาพที่น่าสนใจเพื่อแสดงความสัมพันธ์ระหว่างน้ำผึ้งประเภทต่าง ๆ โดยอ้างอิงจากชุดข้อมูลที่ได้มาจาก [กระทรวงเกษตรของสหรัฐอเมริกา](https://www.nass.usda.gov/About_NASS/index.php)
+
+ชุดข้อมูลนี้มีประมาณ 600 รายการ แสดงการผลิตน้ำผึ้งในหลายรัฐของสหรัฐฯ ตัวอย่างเช่น คุณสามารถดูจำนวนรังผึ้ง ผลผลิตต่อรัง การผลิตรวม สต็อก ราคาเฉลี่ยต่อปอนด์ และมูลค่าของน้ำผึ้งที่ผลิตในแต่ละรัฐในช่วงปี 1998-2012 โดยมีหนึ่งแถวต่อปีสำหรับแต่ละรัฐ
+
+จะน่าสนใจมากหากเราแสดงภาพความสัมพันธ์ระหว่างการผลิตน้ำผึ้งในแต่ละปีของรัฐหนึ่ง ๆ กับราคาน้ำผึ้งในรัฐนั้น หรืออาจแสดงความสัมพันธ์ระหว่างผลผลิตน้ำผึ้งต่อรังในแต่ละรัฐ ช่วงเวลานี้ยังครอบคลุมถึงเหตุการณ์ 'CCD' หรือ 'Colony Collapse Disorder' ที่เริ่มปรากฏในปี 2006 (http://npic.orst.edu/envir/ccd.html) ซึ่งทำให้ชุดข้อมูลนี้น่าสนใจในการศึกษา 🐝
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+ในบทเรียนนี้ คุณสามารถใช้ Seaborn ซึ่งคุณเคยใช้มาก่อน เป็นไลบรารีที่ดีสำหรับการแสดงความสัมพันธ์ระหว่างตัวแปร โดยเฉพาะการใช้ฟังก์ชัน `relplot` ของ Seaborn ที่ช่วยให้สร้าง scatter plot และ line plot ได้อย่างรวดเร็วเพื่อแสดง '[ความสัมพันธ์ทางสถิติ](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)' ซึ่งช่วยให้นักวิทยาศาสตร์ข้อมูลเข้าใจความสัมพันธ์ระหว่างตัวแปรได้ดียิ่งขึ้น
+
+## Scatterplots
+
+ใช้ scatterplot เพื่อแสดงให้เห็นว่าราคาน้ำผึ้งเปลี่ยนแปลงไปอย่างไรในแต่ละปีในแต่ละรัฐ Seaborn โดยใช้ `relplot` จะจัดกลุ่มข้อมูลของรัฐและแสดงจุดข้อมูลสำหรับข้อมูลเชิงหมวดหมู่และข้อมูลเชิงตัวเลข
+
+เริ่มต้นด้วยการนำเข้าข้อมูลและ Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+คุณจะสังเกตเห็นว่าข้อมูลน้ำผึ้งมีหลายคอลัมน์ที่น่าสนใจ รวมถึงปีและราคาต่อปอนด์ มาสำรวจข้อมูลนี้โดยจัดกลุ่มตามรัฐในสหรัฐฯ:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+สร้าง scatterplot พื้นฐานเพื่อแสดงความสัมพันธ์ระหว่างราคาต่อปอนด์ของน้ำผึ้งกับรัฐที่ผลิต ตั้งค่าแกน `y` ให้สูงพอที่จะแสดงทุกรัฐ:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+ตอนนี้ แสดงข้อมูลเดียวกันด้วยโทนสีของน้ำผึ้งเพื่อแสดงให้เห็นว่าราคาเปลี่ยนแปลงไปอย่างไรในแต่ละปี คุณสามารถทำได้โดยเพิ่มพารามิเตอร์ 'hue' เพื่อแสดงการเปลี่ยนแปลงในแต่ละปี:
+
+> ✅ เรียนรู้เพิ่มเติมเกี่ยวกับ [ชุดสีที่คุณสามารถใช้ใน Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - ลองใช้ชุดสีรุ้งที่สวยงาม!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+ด้วยการเปลี่ยนโทนสีนี้ คุณจะเห็นได้ชัดเจนว่ามีการเพิ่มขึ้นของราคาน้ำผึ้งต่อปอนด์ในช่วงหลายปีที่ผ่านมา หากคุณดูตัวอย่างข้อมูลในชุดข้อมูลเพื่อยืนยัน (เลือกตัวอย่างเช่น รัฐแอริโซนา) คุณจะเห็นรูปแบบของการเพิ่มขึ้นของราคาในแต่ละปี ยกเว้นบางปี:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+อีกวิธีหนึ่งในการแสดงภาพการเปลี่ยนแปลงนี้คือการใช้ขนาดแทนสี สำหรับผู้ใช้ที่มีปัญหาด้านการมองเห็นสี วิธีนี้อาจเป็นตัวเลือกที่ดีกว่า แก้ไขการแสดงภาพของคุณเพื่อแสดงการเพิ่มขึ้นของราคาด้วยการเพิ่มขนาดของจุด:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+คุณจะเห็นว่าขนาดของจุดค่อย ๆ เพิ่มขึ้น
+
+
+
+นี่เป็นเพียงกรณีของอุปสงค์และอุปทานหรือไม่? เนื่องจากปัจจัยต่าง ๆ เช่น การเปลี่ยนแปลงสภาพภูมิอากาศและการล่มสลายของรังผึ้ง มีน้ำผึ้งน้อยลงสำหรับการซื้อในแต่ละปี และทำให้ราคาสูงขึ้นหรือไม่?
+
+เพื่อค้นหาความสัมพันธ์ระหว่างตัวแปรบางตัวในชุดข้อมูลนี้ มาสำรวจกราฟเส้นกัน
+
+## กราฟเส้น
+
+คำถาม: มีการเพิ่มขึ้นของราคาน้ำผึ้งต่อปอนด์ในแต่ละปีอย่างชัดเจนหรือไม่? คุณสามารถค้นพบได้ง่ายที่สุดโดยการสร้างกราฟเส้นเดียว:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+คำตอบ: ใช่ ยกเว้นบางปี เช่น ปี 2003:
+
+
+
+✅ เนื่องจาก Seaborn กำลังรวมข้อมูลรอบเส้นเดียว มันจะแสดง "การวัดหลายครั้งที่ค่า x แต่ละค่าโดยการพล็อตค่าเฉลี่ยและช่วงความเชื่อมั่น 95% รอบค่าเฉลี่ย" [ที่มา](https://seaborn.pydata.org/tutorial/relational.html) คุณสามารถปิดพฤติกรรมนี้ได้โดยเพิ่ม `ci=None`
+
+คำถาม: แล้วในปี 2003 เราเห็นการเพิ่มขึ้นของปริมาณน้ำผึ้งหรือไม่? ถ้าคุณดูการผลิตรวมในแต่ละปีล่ะ?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+คำตอบ: ไม่เชิง หากคุณดูการผลิตรวม มันดูเหมือนจะเพิ่มขึ้นในปีนั้น แต่โดยทั่วไปแล้วปริมาณน้ำผึ้งที่ผลิตลดลงในช่วงปีเหล่านี้
+
+คำถาม: ถ้าเช่นนั้น อะไรที่อาจทำให้เกิดการเพิ่มขึ้นของราคาน้ำผึ้งในปี 2003?
+
+เพื่อค้นหาสิ่งนี้ คุณสามารถสำรวจ facet grid
+
+## Facet grids
+
+Facet grids ใช้แง่มุมหนึ่งของชุดข้อมูลของคุณ (ในกรณีนี้ คุณสามารถเลือก 'ปี' เพื่อหลีกเลี่ยงการสร้าง facet มากเกินไป) Seaborn สามารถสร้างกราฟสำหรับแต่ละแง่มุมของพิกัด x และ y ที่คุณเลือกเพื่อการเปรียบเทียบที่ง่ายขึ้น ปี 2003 โดดเด่นในลักษณะนี้หรือไม่?
+
+สร้าง facet grid โดยใช้ `relplot` ตามที่แนะนำใน [เอกสารของ Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid)
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+ในภาพนี้ คุณสามารถเปรียบเทียบผลผลิตต่อรังและจำนวนรังในแต่ละปี โดยจัดเรียง wrap ที่ 3 สำหรับคอลัมน์:
+
+
+
+สำหรับชุดข้อมูลนี้ ไม่มีอะไรที่โดดเด่นเกี่ยวกับจำนวนรังและผลผลิตของพวกมันในแต่ละปีและแต่ละรัฐ มีวิธีอื่นในการค้นหาความสัมพันธ์ระหว่างตัวแปรทั้งสองนี้หรือไม่?
+
+## กราฟเส้นคู่
+
+ลองสร้างกราฟเส้นหลายเส้นโดยซ้อนทับกราฟเส้นสองเส้นเข้าด้วยกัน โดยใช้ `despine` ของ Seaborn เพื่อลบ spine ด้านบนและด้านขวา และใช้ `ax.twinx` [ที่มาจาก Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html) Twinx ช่วยให้กราฟแชร์แกน x และแสดงแกน y สองแกน ดังนั้น แสดงผลผลิตต่อรังและจำนวนรังที่ซ้อนทับกัน:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+แม้ว่าจะไม่มีอะไรโดดเด่นในปี 2003 แต่ก็ช่วยให้เราจบบทเรียนนี้ด้วยโน้ตที่ดูมีความหวัง: แม้ว่าจำนวนรังจะลดลงโดยรวม แต่จำนวนรังก็เริ่มคงที่ แม้ว่าผลผลิตต่อรังจะลดลง
+
+สู้เขานะ ผึ้งน้อย!
+
+🐝❤️
+## 🚀 ความท้าทาย
+
+ในบทเรียนนี้ คุณได้เรียนรู้เพิ่มเติมเกี่ยวกับการใช้ scatterplots และ line grids รวมถึง facet grids ท้าทายตัวเองด้วยการสร้าง facet grid โดยใช้ชุดข้อมูลอื่น อาจเป็นชุดข้อมูลที่คุณเคยใช้ก่อนหน้านี้ในบทเรียนนี้ สังเกตว่าการสร้างใช้เวลานานแค่ไหน และคุณต้องระวังเกี่ยวกับจำนวน grid ที่ต้องสร้างด้วยเทคนิคเหล่านี้อย่างไร
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## ทบทวนและศึกษาด้วยตัวเอง
+
+กราฟเส้นสามารถเรียบง่ายหรือซับซ้อนได้ ลองอ่านเพิ่มเติมใน [เอกสารของ Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) เกี่ยวกับวิธีต่าง ๆ ที่คุณสามารถสร้างกราฟเส้นได้ ลองปรับปรุงกราฟเส้นที่คุณสร้างในบทเรียนนี้ด้วยวิธีอื่น ๆ ที่ระบุไว้ในเอกสาร
+## การบ้าน
+
+[สำรวจโลกของผึ้ง](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยระบบอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/th/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..fabe0dc2
--- /dev/null
+++ b/translations/th/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# ดำดิ่งสู่รังผึ้ง
+
+## คำแนะนำ
+
+ในบทเรียนนี้ คุณได้เริ่มต้นดูชุดข้อมูลเกี่ยวกับผึ้งและการผลิตน้ำผึ้งในช่วงเวลาหนึ่ง ซึ่งพบว่ามีการสูญเสียประชากรรังผึ้งโดยรวม ลองเจาะลึกลงไปในชุดข้อมูลนี้และสร้างโน้ตบุ๊กที่สามารถเล่าเรื่องราวเกี่ยวกับสุขภาพของประชากรผึ้งในแต่ละรัฐและแต่ละปี คุณค้นพบสิ่งที่น่าสนใจเกี่ยวกับชุดข้อมูลนี้หรือไม่?
+
+## เกณฑ์การประเมิน
+
+| ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------- | ---------------------------------------- |
+| มีโน้ตบุ๊กที่นำเสนอเรื่องราวพร้อมคำอธิบายและกราฟอย่างน้อยสามแบบที่แสดงแง่มุมต่าง ๆ ของชุดข้อมูล ทั้งในแต่ละรัฐและแต่ละปี | โน้ตบุ๊กขาดองค์ประกอบหนึ่งในนี้ | โน้ตบุ๊กขาดองค์ประกอบสองในนี้ |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/th/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..f453b31f
--- /dev/null
+++ b/translations/th/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# การสร้างภาพข้อมูลที่มีความหมาย
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| การสร้างภาพข้อมูลที่มีความหมาย - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+> "ถ้าคุณทรมานข้อมูลนานพอ มันจะยอมรับทุกอย่างที่คุณต้องการ" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+หนึ่งในทักษะพื้นฐานของนักวิทยาศาสตร์ข้อมูลคือความสามารถในการสร้างภาพข้อมูลที่มีความหมาย ซึ่งช่วยตอบคำถามที่คุณอาจมี ก่อนที่จะสร้างภาพข้อมูล คุณต้องมั่นใจว่าข้อมูลนั้นได้รับการทำความสะอาดและเตรียมพร้อมแล้วเหมือนที่คุณทำในบทเรียนก่อนหน้า หลังจากนั้นคุณสามารถเริ่มตัดสินใจว่าจะนำเสนอข้อมูลอย่างไรให้ดีที่สุด
+
+ในบทเรียนนี้ คุณจะได้ทบทวน:
+
+1. วิธีเลือกประเภทกราฟที่เหมาะสม
+2. วิธีหลีกเลี่ยงการสร้างกราฟที่หลอกลวง
+3. วิธีการใช้สี
+4. วิธีการจัดสไตล์กราฟเพื่อให้อ่านง่าย
+5. วิธีสร้างกราฟแบบเคลื่อนไหวหรือแบบ 3D
+6. วิธีสร้างภาพข้อมูลที่สร้างสรรค์
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## เลือกประเภทกราฟที่เหมาะสม
+
+ในบทเรียนก่อนหน้า คุณได้ทดลองสร้างภาพข้อมูลที่น่าสนใจหลากหลายรูปแบบโดยใช้ Matplotlib และ Seaborn ในการสร้างกราฟ โดยทั่วไป คุณสามารถเลือก [ประเภทกราฟที่เหมาะสม](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) สำหรับคำถามที่คุณต้องการตอบโดยใช้ตารางนี้:
+
+| สิ่งที่คุณต้องการทำ | คุณควรใช้: |
+| -------------------------- | ------------------------------- |
+| แสดงแนวโน้มข้อมูลตามเวลา | เส้น |
+| เปรียบเทียบหมวดหมู่ | แท่ง, วงกลม |
+| เปรียบเทียบยอดรวม | วงกลม, แท่งแบบซ้อน |
+| แสดงความสัมพันธ์ | กระจาย, เส้น, Facet, Dual Line |
+| แสดงการกระจายตัว | กระจาย, ฮิสโตแกรม, กล่อง |
+| แสดงสัดส่วน | วงกลม, โดนัท, วาฟเฟิล |
+
+> ✅ ขึ้นอยู่กับลักษณะของข้อมูล คุณอาจต้องแปลงข้อมูลจากข้อความเป็นตัวเลขเพื่อให้กราฟรองรับได้
+
+## หลีกเลี่ยงการหลอกลวง
+
+แม้ว่านักวิทยาศาสตร์ข้อมูลจะระมัดระวังในการเลือกกราฟที่เหมาะสมกับข้อมูล แต่ก็ยังมีวิธีมากมายที่ข้อมูลสามารถถูกนำเสนอในลักษณะที่พิสูจน์จุดยืนบางอย่าง โดยมักจะทำให้ข้อมูลเสียหาย มีตัวอย่างมากมายของกราฟและอินโฟกราฟิกที่หลอกลวง!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 คลิกที่ภาพด้านบนเพื่อดูการบรรยายเกี่ยวกับกราฟที่หลอกลวง
+
+กราฟนี้กลับด้านแกน X เพื่อแสดงสิ่งที่ตรงกันข้ามกับความจริงตามวันที่:
+
+
+
+[กราฟนี้](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) หลอกลวงมากยิ่งขึ้น เนื่องจากสายตาจะถูกดึงไปทางขวาเพื่อสรุปว่าเมื่อเวลาผ่านไป จำนวนผู้ติดเชื้อ COVID ในแต่ละเขตลดลง แต่ถ้าคุณดูวันที่อย่างละเอียด คุณจะพบว่ามันถูกจัดเรียงใหม่เพื่อให้เกิดแนวโน้มลดลงที่หลอกลวง
+
+
+
+ตัวอย่างที่มีชื่อเสียงนี้ใช้สีและกลับด้านแกน Y เพื่อหลอกลวง: แทนที่จะสรุปว่าการเสียชีวิตจากปืนเพิ่มขึ้นหลังจากการผ่านกฎหมายที่สนับสนุนการใช้ปืน สายตากลับถูกหลอกให้คิดว่าตรงกันข้ามเป็นจริง:
+
+
+
+กราฟแปลกๆ นี้แสดงให้เห็นว่าสัดส่วนสามารถถูกปรับเปลี่ยนได้อย่างน่าขบขัน:
+
+
+
+การเปรียบเทียบสิ่งที่ไม่สามารถเปรียบเทียบได้เป็นอีกหนึ่งกลยุทธ์ที่ไม่ซื่อสัตย์ มี [เว็บไซต์ที่ยอดเยี่ยม](https://tylervigen.com/spurious-correlations) ที่รวบรวม 'ความสัมพันธ์ที่ผิดพลาด' โดยแสดง 'ข้อเท็จจริง' ที่เชื่อมโยงสิ่งต่างๆ เช่น อัตราการหย่าร้างในรัฐเมนและการบริโภคมาการีน กลุ่ม Reddit ยังรวบรวม [การใช้ข้อมูลที่น่าเกลียด](https://www.reddit.com/r/dataisugly/top/?t=all) อีกด้วย
+
+สิ่งสำคัญคือต้องเข้าใจว่าสายตาสามารถถูกหลอกได้ง่ายเพียงใดจากกราฟที่หลอกลวง แม้ว่าความตั้งใจของนักวิทยาศาสตร์ข้อมูลจะดี แต่การเลือกประเภทกราฟที่ไม่ดี เช่น กราฟวงกลมที่แสดงหมวดหมู่มากเกินไป ก็สามารถหลอกลวงได้
+
+## สี
+
+คุณได้เห็นในกราฟ 'ความรุนแรงจากปืนในฟลอริดา' ข้างต้นว่าสีสามารถเพิ่มความหมายเพิ่มเติมให้กับกราฟ โดยเฉพาะกราฟที่ไม่ได้ออกแบบโดยใช้ไลบรารี เช่น Matplotlib และ Seaborn ซึ่งมาพร้อมกับไลบรารีสีและพาเลตที่ผ่านการตรวจสอบแล้ว หากคุณกำลังสร้างกราฟด้วยมือ ให้ศึกษาสักเล็กน้อยเกี่ยวกับ [ทฤษฎีสี](https://colormatters.com/color-and-design/basic-color-theory)
+
+> ✅ โปรดทราบว่าเมื่อออกแบบกราฟ การเข้าถึงเป็นแง่มุมสำคัญของการสร้างภาพข้อมูล ผู้ใช้บางคนอาจมีปัญหาด้านการมองเห็นสี - กราฟของคุณแสดงผลได้ดีสำหรับผู้ใช้ที่มีความบกพร่องทางสายตาหรือไม่?
+
+ระมัดระวังเมื่อเลือกสีสำหรับกราฟของคุณ เนื่องจากสีสามารถสื่อความหมายที่คุณไม่ได้ตั้งใจได้ 'ผู้หญิงสีชมพู' ในกราฟ 'ความสูง' ข้างต้นสื่อความหมายที่ 'เป็นผู้หญิง' อย่างชัดเจน ซึ่งเพิ่มความแปลกประหลาดให้กับกราฟนั้นเอง
+
+แม้ว่า [ความหมายของสี](https://colormatters.com/color-symbolism/the-meanings-of-colors) อาจแตกต่างกันในแต่ละส่วนของโลก และมีแนวโน้มที่จะเปลี่ยนแปลงตามเฉดสี โดยทั่วไป ความหมายของสีรวมถึง:
+
+| สี | ความหมาย |
+| ------ | ------------------- |
+| แดง | พลัง |
+| น้ำเงิน | ความไว้วางใจ, ความภักดี |
+| เหลือง | ความสุข, ความระมัดระวัง |
+| เขียว | ระบบนิเวศ, โชค, ความอิจฉา |
+| ม่วง | ความสุข |
+| ส้ม | ความสดใส |
+
+หากคุณได้รับมอบหมายให้สร้างกราฟที่มีสีแบบกำหนดเอง ให้มั่นใจว่ากราฟของคุณทั้งเข้าถึงได้และสีที่คุณเลือกสอดคล้องกับความหมายที่คุณพยายามสื่อ
+
+## การจัดสไตล์กราฟเพื่อให้อ่านง่าย
+
+กราฟจะไม่มีความหมายหากอ่านไม่ออก! ใช้เวลาสักครู่เพื่อพิจารณาการจัดสไตล์ความกว้างและความสูงของกราฟของคุณให้เหมาะสมกับข้อมูล หากตัวแปรหนึ่ง (เช่น ทั้ง 50 รัฐ) จำเป็นต้องแสดง ให้แสดงในแนวตั้งบนแกน Y หากเป็นไปได้ เพื่อหลีกเลี่ยงกราฟที่ต้องเลื่อนในแนวนอน
+
+ใส่ป้ายกำกับแกน ให้คำอธิบายหากจำเป็น และเสนอเครื่องมือช่วยเหลือเพื่อให้เข้าใจข้อมูลได้ดีขึ้น
+
+หากข้อมูลของคุณเป็นข้อความและมีความยาวบนแกน X คุณสามารถปรับมุมข้อความเพื่อให้อ่านง่ายขึ้น [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) มีการสร้างกราฟแบบ 3D หากข้อมูลของคุณรองรับ กราฟข้อมูลที่ซับซ้อนสามารถสร้างได้โดยใช้ `mpl_toolkits.mplot3d`
+
+
+
+## การแสดงกราฟแบบเคลื่อนไหวและแบบ 3D
+
+ภาพข้อมูลที่ดีที่สุดบางส่วนในปัจจุบันเป็นแบบเคลื่อนไหว Shirley Wu มีตัวอย่างที่น่าทึ่งที่สร้างด้วย D3 เช่น '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)' ซึ่งแต่ละดอกไม้เป็นภาพข้อมูลของภาพยนตร์ อีกตัวอย่างหนึ่งสำหรับ Guardian คือ 'bussed out' ซึ่งเป็นประสบการณ์แบบโต้ตอบที่รวมภาพข้อมูลกับ Greensock และ D3 พร้อมบทความแบบเลื่อนเพื่อแสดงวิธีที่ NYC จัดการปัญหาคนไร้บ้านโดยการส่งพวกเขาออกจากเมือง
+
+
+
+> "Bussed Out: How America Moves its Homeless" จาก [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). ภาพข้อมูลโดย Nadieh Bremer & Shirley Wu
+
+แม้ว่าบทเรียนนี้จะไม่เพียงพอที่จะสอนไลบรารีภาพข้อมูลที่ทรงพลังเหล่านี้ ลองใช้ D3 ในแอป Vue.js โดยใช้ไลบรารีเพื่อแสดงภาพข้อมูลของหนังสือ "Dangerous Liaisons" เป็นเครือข่ายสังคมแบบเคลื่อนไหว
+
+> "Les Liaisons Dangereuses" เป็นนวนิยายที่นำเสนอในรูปแบบจดหมาย เขียนในปี 1782 โดย Choderlos de Laclos เล่าเรื่องราวการวางแผนทางสังคมที่ไร้ศีลธรรมของตัวละครเอกสองคนในชนชั้นสูงของฝรั่งเศสในศตวรรษที่ 18 Vicomte de Valmont และ Marquise de Merteuil ทั้งคู่พบจุดจบของตนเองในที่สุด แต่ไม่ก่อนที่จะสร้างความเสียหายทางสังคมอย่างมาก นวนิยายนี้ดำเนินเรื่องผ่านจดหมายที่เขียนถึงบุคคลต่างๆ ในวงสังคมของพวกเขา วางแผนแก้แค้นหรือเพียงแค่สร้างปัญหา สร้างภาพข้อมูลของจดหมายเหล่านี้เพื่อค้นหาตัวละครสำคัญในเรื่องราวนี้ในเชิงภาพ
+
+คุณจะสร้างแอปเว็บที่แสดงมุมมองแบบเคลื่อนไหวของเครือข่ายนี้ โดยใช้ไลบรารีที่สร้างขึ้นเพื่อสร้าง [ภาพของเครือข่าย](https://github.com/emiliorizzo/vue-d3-network) โดยใช้ Vue.js และ D3 เมื่อแอปทำงาน คุณสามารถลากโหนดบนหน้าจอเพื่อปรับเปลี่ยนข้อมูลได้
+
+
+
+## โปรเจกต์: สร้างกราฟเพื่อแสดงเครือข่ายโดยใช้ D3.js
+
+> โฟลเดอร์บทเรียนนี้มีโฟลเดอร์ `solution` ซึ่งคุณสามารถค้นหาโปรเจกต์ที่เสร็จสมบูรณ์เพื่อใช้อ้างอิงได้
+
+1. ทำตามคำแนะนำในไฟล์ README.md ในโฟลเดอร์ starter ที่ root ตรวจสอบให้แน่ใจว่าคุณมี NPM และ Node.js ทำงานบนเครื่องของคุณก่อนติดตั้ง dependencies ของโปรเจกต์
+
+2. เปิดโฟลเดอร์ `starter/src` คุณจะพบโฟลเดอร์ `assets` ซึ่งมีไฟล์ .json ที่มีจดหมายทั้งหมดจากนวนิยาย โดยมีการระบุ 'to' และ 'from'
+
+3. เติมโค้ดใน `components/Nodes.vue` เพื่อเปิดใช้งานภาพข้อมูล ค้นหาวิธีที่เรียกว่า `createLinks()` และเพิ่มลูปซ้อนดังต่อไปนี้
+
+วนลูปผ่านออบเจ็กต์ .json เพื่อจับข้อมูล 'to' และ 'from' สำหรับจดหมาย และสร้างออบเจ็กต์ `links` เพื่อให้ไลบรารีภาพข้อมูลสามารถใช้งานได้:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+รันแอปของคุณจากเทอร์มินัล (npm run serve) และสนุกกับภาพข้อมูล!
+
+## 🚀 ความท้าทาย
+
+สำรวจอินเทอร์เน็ตเพื่อค้นหาภาพข้อมูลที่หลอกลวง ผู้เขียนหลอกผู้ใช้ได้อย่างไร และเป็นการตั้งใจหรือไม่? ลองแก้ไขภาพข้อมูลเพื่อแสดงให้เห็นว่าควรมีลักษณะอย่างไร
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+นี่คือบทความบางส่วนเกี่ยวกับภาพข้อมูลที่หลอกลวง:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+ลองดูภาพข้อมูลที่น่าสนใจเกี่ยวกับทรัพย์สินและสิ่งประดิษฐ์ทางประวัติศาสตร์:
+
+https://handbook.pubpub.org/
+
+ดูบทความนี้เกี่ยวกับวิธีที่การเคลื่อนไหวสามารถเพิ่มพลังให้กับภาพข้อมูลของคุณ:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## งานที่ได้รับมอบหมาย
+
+[สร้างภาพข้อมูลแบบกำหนดเองของคุณเอง](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์มืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/th/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..cc1041f3
--- /dev/null
+++ b/translations/th/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# สร้างการแสดงผลแบบกำหนดเองของคุณ
+
+## คำแนะนำ
+
+ใช้ตัวอย่างโค้ดในโปรเจกต์นี้เพื่อสร้างเครือข่ายสังคมออนไลน์ โดยจำลองข้อมูลจากการโต้ตอบทางสังคมของคุณเอง คุณสามารถทำแผนที่การใช้งานโซเชียลมีเดียของคุณ หรือสร้างแผนภาพของสมาชิกในครอบครัว สร้างเว็บแอปที่น่าสนใจซึ่งแสดงการแสดงผลที่ไม่เหมือนใครของเครือข่ายสังคมออนไลน์
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | --- |
+มี GitHub repo ที่นำเสนอพร้อมโค้ดที่ทำงานได้อย่างถูกต้อง (ลอง deploy เป็น static web app) และมี README ที่อธิบายโปรเจกต์อย่างละเอียด | repo ทำงานไม่ถูกต้องหรือไม่มีการอธิบายที่ดี | repo ทำงานไม่ถูกต้องและไม่มีการอธิบายที่ดี
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/th/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..ceb08c82
--- /dev/null
+++ b/translations/th/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# โครงการการแสดงข้อมูล Dangerous Liaisons
+
+เพื่อเริ่มต้น คุณต้องตรวจสอบให้แน่ใจว่าคุณมี NPM และ Node ติดตั้งและทำงานบนเครื่องของคุณ ติดตั้ง dependencies (npm install) และจากนั้นรันโปรเจกต์ในเครื่องของคุณ (npm run serve):
+
+## การตั้งค่าโปรเจกต์
+```
+npm install
+```
+
+### คอมไพล์และรีโหลดอัตโนมัติสำหรับการพัฒนา
+```
+npm run serve
+```
+
+### คอมไพล์และย่อขนาดสำหรับการใช้งานจริง
+```
+npm run build
+```
+
+### ตรวจสอบและแก้ไขไฟล์
+```
+npm run lint
+```
+
+### ปรับแต่งการตั้งค่า
+ดู [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/th/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..fd3ad68e
--- /dev/null
+++ b/translations/th/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# โครงการการแสดงข้อมูล Dangerous Liaisons
+
+เพื่อเริ่มต้น คุณต้องตรวจสอบให้แน่ใจว่าคุณมี NPM และ Node ทำงานอยู่ในเครื่องของคุณ ติดตั้ง dependencies (npm install) และจากนั้นรันโปรเจกต์ในเครื่องของคุณ (npm run serve):
+
+## การตั้งค่าโปรเจกต์
+```
+npm install
+```
+
+### คอมไพล์และรีโหลดอัตโนมัติสำหรับการพัฒนา
+```
+npm run serve
+```
+
+### คอมไพล์และย่อขนาดสำหรับการใช้งานจริง
+```
+npm run build
+```
+
+### ตรวจสอบและแก้ไขไฟล์
+```
+npm run lint
+```
+
+### ปรับแต่งการตั้งค่า
+ดู [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/th/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..8e9c0c28
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,234 @@
+
+# การแสดงผลข้อมูลเชิงปริมาณ
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| การแสดงผลข้อมูลเชิงปริมาณ - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนนี้ คุณจะได้เรียนรู้วิธีการใช้ไลบรารี R packages ที่มีอยู่มากมายเพื่อสร้างการแสดงผลที่น่าสนใจเกี่ยวกับแนวคิดของข้อมูลเชิงปริมาณ โดยใช้ชุดข้อมูลที่ถูกทำความสะอาดเกี่ยวกับนกในรัฐมินนิโซตา คุณจะได้เรียนรู้ข้อเท็จจริงที่น่าสนใจมากมายเกี่ยวกับสัตว์ป่าในท้องถิ่น
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## สังเกตความกว้างของปีกด้วย ggplot2
+ไลบรารีที่ยอดเยี่ยมสำหรับการสร้างกราฟและแผนภูมิทั้งแบบง่ายและซับซ้อนคือ [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html) โดยทั่วไปแล้ว กระบวนการสร้างกราฟด้วยไลบรารีเหล่านี้ประกอบด้วยการระบุส่วนของ dataframe ที่คุณต้องการวิเคราะห์ การปรับเปลี่ยนข้อมูลตามความจำเป็น การกำหนดค่าของแกน x และ y การเลือกประเภทของกราฟที่จะแสดง และการแสดงผลกราฟนั้น
+
+`ggplot2` เป็นระบบสำหรับการสร้างกราฟิกแบบประกาศ โดยอิงตาม Grammar of Graphics [Grammar of Graphics](https://en.wikipedia.org/wiki/Ggplot2) เป็นโครงร่างทั่วไปสำหรับการแสดงผลข้อมูลที่แบ่งกราฟออกเป็นองค์ประกอบเชิงความหมาย เช่น สเกลและเลเยอร์ กล่าวอีกนัยหนึ่ง ความง่ายในการสร้างกราฟสำหรับข้อมูลแบบ univariate หรือ multivariate ด้วยโค้ดเพียงเล็กน้อยทำให้ `ggplot2` เป็นแพ็กเกจที่ได้รับความนิยมมากที่สุดสำหรับการแสดงผลใน R ผู้ใช้บอก `ggplot2` ว่าจะจับคู่ตัวแปรกับลักษณะกราฟิกอย่างไร และ `ggplot2` จะจัดการส่วนที่เหลือให้
+
+> ✅ กราฟ = ข้อมูล + ลักษณะกราฟิก + รูปทรง
+> - ข้อมูล หมายถึงชุดข้อมูล
+> - ลักษณะกราฟิก หมายถึงตัวแปรที่ต้องการศึกษา (ตัวแปร x และ y)
+> - รูปทรง หมายถึงประเภทของกราฟ (กราฟเส้น กราฟแท่ง ฯลฯ)
+
+เลือกประเภทของกราฟที่เหมาะสมกับข้อมูลของคุณและเรื่องราวที่คุณต้องการเล่าผ่านกราฟ
+
+> - วิเคราะห์แนวโน้ม: กราฟเส้น กราฟแท่ง
+> - เปรียบเทียบค่า: กราฟแท่ง กราฟคอลัมน์ กราฟวงกลม กราฟกระจาย
+> - แสดงความสัมพันธ์ระหว่างส่วนต่างๆ: กราฟวงกลม
+> - แสดงการกระจายของข้อมูล: กราฟกระจาย กราฟแท่ง
+> - แสดงความสัมพันธ์ระหว่างค่า: กราฟเส้น กราฟกระจาย กราฟฟอง
+
+✅ คุณสามารถดู [cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) ที่อธิบาย ggplot2 ได้เพิ่มเติม
+
+## สร้างกราฟเส้นเกี่ยวกับค่าความกว้างของปีกนก
+
+เปิด R console และนำเข้าชุดข้อมูล
+> หมายเหตุ: ชุดข้อมูลถูกเก็บไว้ใน root ของ repo นี้ในโฟลเดอร์ `/data`
+
+นำเข้าชุดข้อมูลและดูหัวข้อ (5 แถวแรก) ของข้อมูล
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+หัวข้อของข้อมูลมีทั้งข้อความและตัวเลข:
+
+| | Name | ScientificName | Category | Order | Family | Genus | ConservationStatus | MinLength | MaxLength | MinBodyMass | MaxBodyMass | MinWingspan | MaxWingspan |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | Black-bellied whistling-duck | Dendrocygna autumnalis | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Fulvous whistling-duck | Dendrocygna bicolor | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Snow goose | Anser caerulescens | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross's goose | Anser rossii | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Greater white-fronted goose | Anser albifrons | Ducks/Geese/Waterfowl | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+เริ่มต้นด้วยการสร้างกราฟเส้นพื้นฐานสำหรับข้อมูลตัวเลข สมมติว่าคุณต้องการดูค่าความกว้างปีกสูงสุดของนกเหล่านี้
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+ในที่นี้ คุณติดตั้งแพ็กเกจ `ggplot2` และนำเข้ามาใน workspace โดยใช้คำสั่ง `library("ggplot2")` เพื่อสร้างกราฟใน ggplot ใช้ฟังก์ชัน `ggplot()` และระบุชุดข้อมูล ตัวแปร x และ y เป็น attribute ในกรณีนี้ เราใช้ฟังก์ชัน `geom_line()` เนื่องจากเราต้องการสร้างกราฟเส้น
+
+
+
+คุณสังเกตเห็นอะไรทันที? ดูเหมือนว่าจะมีค่าผิดปกติอย่างน้อยหนึ่งค่า - นั่นคือความกว้างปีกที่ใหญ่มาก! ความกว้างปีกกว่า 2000 เซนติเมตรเท่ากับมากกว่า 20 เมตร - มี Pterodactyls อยู่ในมินนิโซตาหรือเปล่า? มาสำรวจเพิ่มเติมกันเถอะ
+
+แม้ว่าคุณจะสามารถจัดเรียงข้อมูลใน Excel เพื่อค้นหาค่าผิดปกติได้อย่างรวดเร็ว แต่เราจะดำเนินการต่อจากภายในกราฟ
+
+เพิ่มป้ายกำกับในแกน x เพื่อแสดงว่านกชนิดใดที่กำลังถูกวิเคราะห์:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+เราระบุมุมใน `theme` และระบุป้ายกำกับแกน x และ y ใน `xlab()` และ `ylab()` ตามลำดับ ส่วน `ggtitle()` ให้ชื่อกราฟ/แผนภูมิ
+
+
+
+แม้จะหมุนป้ายกำกับเป็น 45 องศา แต่ก็ยังอ่านยากเกินไป ลองใช้กลยุทธ์อื่น: แสดงป้ายกำกับเฉพาะค่าผิดปกติและตั้งป้ายกำกับภายในกราฟ คุณสามารถใช้กราฟกระจายเพื่อเพิ่มพื้นที่สำหรับการติดป้ายกำกับ:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+เกิดอะไรขึ้นที่นี่? คุณใช้ฟังก์ชัน `geom_point()` เพื่อสร้างจุดกระจาย ด้วยวิธีนี้ คุณเพิ่มป้ายกำกับสำหรับนกที่มี `MaxWingspan > 500` และซ่อนป้ายกำกับบนแกน x เพื่อทำให้กราฟดูสะอาดขึ้น
+
+คุณค้นพบอะไร?
+
+
+
+## กรองข้อมูลของคุณ
+
+ทั้ง Bald Eagle และ Prairie Falcon แม้จะเป็นนกที่ใหญ่มาก แต่ดูเหมือนว่าจะมีการระบุค่าผิดพลาด โดยมีการเพิ่มเลข 0 เข้าไปในค่าความกว้างปีกสูงสุด เป็นไปได้ยากที่คุณจะพบ Bald Eagle ที่มีความกว้างปีก 25 เมตร แต่ถ้าเจอ โปรดแจ้งให้เราทราบ! มาสร้าง dataframe ใหม่โดยไม่มีค่าผิดปกติสองค่านี้:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+เราสร้าง dataframe ใหม่ชื่อ `birds_filtered` และสร้างกราฟกระจายอีกครั้ง โดยการกรองค่าผิดปกติออก ข้อมูลของคุณจะดูสอดคล้องและเข้าใจง่ายขึ้น
+
+
+
+ตอนนี้เรามีชุดข้อมูลที่สะอาดขึ้นในแง่ของความกว้างปีก มาค้นพบข้อมูลเพิ่มเติมเกี่ยวกับนกเหล่านี้กัน
+
+แม้ว่ากราฟเส้นและกราฟกระจายสามารถแสดงข้อมูลเกี่ยวกับค่าของข้อมูลและการกระจายของข้อมูลได้ แต่เราต้องการคิดถึงค่าที่มีอยู่ในชุดข้อมูลนี้ คุณสามารถสร้างการแสดงผลเพื่อตอบคำถามเกี่ยวกับข้อมูลเชิงปริมาณ เช่น:
+
+> มีหมวดหมู่นกกี่ประเภท และมีจำนวนเท่าไหร่?
+> มีนกที่สูญพันธุ์ ใกล้สูญพันธุ์ หายาก หรือพบได้ทั่วไปกี่ตัว?
+> มีนกใน genus และ order ต่างๆ ตามคำศัพท์ของ Linnaeus กี่ตัว?
+
+## สำรวจกราฟแท่ง
+
+กราฟแท่งมีประโยชน์เมื่อคุณต้องการแสดงการจัดกลุ่มของข้อมูล มาสำรวจหมวดหมู่นกที่มีอยู่ในชุดข้อมูลนี้เพื่อดูว่าหมวดหมู่ใดมีจำนวนมากที่สุด
+
+มาสร้างกราฟแท่งจากข้อมูลที่กรองแล้ว
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+ในตัวอย่างนี้ เราติดตั้งแพ็กเกจ [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) และ [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) เพื่อช่วยจัดการและจัดกลุ่มข้อมูลเพื่อสร้างกราฟแท่งแบบซ้อนกัน ก่อนอื่น คุณจัดกลุ่มข้อมูลตาม `Category` ของนกและสรุปคอลัมน์ `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan` จากนั้นสร้างกราฟแท่งโดยใช้แพ็กเกจ `ggplot2` และระบุสีสำหรับหมวดหมู่ต่างๆ และป้ายกำกับ
+
+
+
+อย่างไรก็ตาม กราฟแท่งนี้อ่านยากเนื่องจากมีข้อมูลที่ไม่ได้จัดกลุ่มมากเกินไป คุณต้องเลือกเฉพาะข้อมูลที่คุณต้องการแสดงผล ดังนั้นมาดูความยาวของนกตามหมวดหมู่กัน
+
+กรองข้อมูลของคุณเพื่อรวมเฉพาะหมวดหมู่นก
+
+เนื่องจากมีหลายหมวดหมู่ คุณสามารถแสดงกราฟนี้ในแนวตั้งและปรับความสูงเพื่อรองรับข้อมูลทั้งหมด:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+คุณนับค่าที่ไม่ซ้ำกันในคอลัมน์ `Category` และจัดเรียงข้อมูลลงใน dataframe ใหม่ชื่อ `birds_count` ข้อมูลที่จัดเรียงนี้จะถูกจัดระดับในลำดับเดียวกันเพื่อให้แสดงผลในลำดับที่จัดเรียงไว้ จากนั้นใช้ `ggplot2` เพื่อสร้างกราฟแท่ง โดย `coord_flip()` จะสร้างกราฟแท่งแนวนอน
+
+
+
+กราฟแท่งนี้แสดงภาพที่ดีเกี่ยวกับจำนวนของนกในแต่ละหมวดหมู่ เพียงแค่ดู คุณจะเห็นว่าจำนวนมากที่สุดของนกในภูมิภาคนี้อยู่ในหมวด Ducks/Geese/Waterfowl มินนิโซตาเป็น 'ดินแดนแห่งทะเลสาบ 10,000 แห่ง' ดังนั้นจึงไม่น่าแปลกใจ!
+
+✅ ลองนับข้อมูลอื่นๆ ในชุดข้อมูลนี้ มีอะไรที่ทำให้คุณประหลาดใจหรือไม่?
+
+## การเปรียบเทียบข้อมูล
+
+คุณสามารถลองเปรียบเทียบข้อมูลที่จัดกลุ่มโดยสร้างแกนใหม่ ลองเปรียบเทียบค่าความยาวสูงสุดของนกตามหมวดหมู่:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+เราจัดกลุ่มข้อมูล `birds_filtered` ตาม `Category` และสร้างกราฟแท่ง
+
+
+
+ไม่มีอะไรน่าแปลกใจที่นี่: นกฮัมมิงเบิร์ดมีค่าความยาวสูงสุดน้อยที่สุดเมื่อเทียบกับนกกระทุงหรือนกห่าน ข้อมูลที่มีเหตุผลเป็นสิ่งที่ดี!
+
+คุณสามารถสร้างการแสดงผลที่น่าสนใจมากขึ้นของกราฟแท่งโดยการซ้อนข้อมูล ลองซ้อนค่าความยาวขั้นต่ำและสูงสุดในหมวดหมู่นก:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 ความท้าทาย
+
+ชุดข้อมูลนกนี้มีข้อมูลมากมายเกี่ยวกับนกประเภทต่างๆ ในระบบนิเวศเฉพาะ ลองค้นหาชุดข้อมูลเกี่ยวกับนกอื่นๆ บนอินเทอร์เน็ต และฝึกสร้างกราฟและแผนภูมิรอบๆ นกเหล่านี้เพื่อค้นพบข้อเท็จจริงที่คุณไม่เคยรู้มาก่อน
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+บทเรียนแรกนี้ได้ให้ข้อมูลเกี่ยวกับวิธีการใช้ `ggplot2` เพื่อแสดงผลข้อมูลเชิงปริมาณ ลองค้นคว้าวิธีอื่นๆ ในการทำงานกับชุดข้อมูลเพื่อการแสดงผล ค้นคว้าและมองหาชุดข้อมูลที่คุณสามารถแสดงผลโดยใช้แพ็กเกจอื่นๆ เช่น [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) และ [Plotly](https://github.com/plotly/plotly.R#readme)
+
+## งานที่ได้รับมอบหมาย
+[Lines, Scatters, and Bars](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/th/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..75f7031f
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# เส้นกราฟ, กราฟกระจาย และกราฟแท่ง
+
+## คำแนะนำ
+
+ในบทเรียนนี้ คุณได้ทำงานกับกราฟเส้น กราฟกระจาย และกราฟแท่งเพื่อแสดงข้อเท็จจริงที่น่าสนใจเกี่ยวกับชุดข้อมูลนี้ ในงานนี้ ให้เจาะลึกลงไปในชุดข้อมูลเพื่อค้นหาข้อเท็จจริงเกี่ยวกับนกชนิดหนึ่งที่กำหนด ตัวอย่างเช่น สร้างสคริปต์ที่แสดงข้อมูลที่น่าสนใจทั้งหมดที่คุณสามารถค้นพบเกี่ยวกับ Snow Geese ใช้กราฟทั้งสามประเภทที่กล่าวถึงข้างต้นเพื่อเล่าเรื่องราวในโน้ตบุ๊กของคุณ
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | -- |
+นำเสนอสคริปต์ที่มีคำอธิบายที่ดี การเล่าเรื่องที่แข็งแกร่ง และกราฟที่ดึงดูดสายตา | สคริปต์ขาดองค์ประกอบหนึ่งในสามนี้ | สคริปต์ขาดองค์ประกอบสองในสามนี้
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/th/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..5bb1a070
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,184 @@
+
+# การแสดงภาพการกระจายตัวของข้อมูล
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| การแสดงภาพการกระจายตัวของข้อมูล - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนก่อนหน้านี้ คุณได้เรียนรู้ข้อเท็จจริงที่น่าสนใจเกี่ยวกับชุดข้อมูลเกี่ยวกับนกในรัฐมินนิโซตา คุณพบข้อมูลที่ผิดพลาดโดยการแสดงภาพค่าผิดปกติ และได้ดูความแตกต่างระหว่างหมวดหมู่นกโดยพิจารณาจากความยาวสูงสุด
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## สำรวจชุดข้อมูลนก
+
+อีกวิธีหนึ่งในการเจาะลึกข้อมูลคือการดูการกระจายตัวของข้อมูล หรือวิธีที่ข้อมูลถูกจัดเรียงตามแกน ตัวอย่างเช่น คุณอาจต้องการเรียนรู้เกี่ยวกับการกระจายตัวทั่วไปของความกว้างปีกสูงสุดหรือมวลร่างกายสูงสุดของนกในรัฐมินนิโซตาในชุดข้อมูลนี้
+
+มาค้นหาข้อเท็จจริงบางอย่างเกี่ยวกับการกระจายตัวของข้อมูลในชุดข้อมูลนี้กัน ใน R console ของคุณ ให้นำเข้า `ggplot2` และฐานข้อมูล ลบค่าผิดปกติออกจากฐานข้อมูลเหมือนที่คุณทำในหัวข้อก่อนหน้า
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | ชื่อ | ชื่อวิทยาศาสตร์ | หมวดหมู่ | ลำดับ | วงศ์ | สกุล | สถานะการอนุรักษ์ | ความยาวต่ำสุด | ความยาวสูงสุด | มวลร่างกายต่ำสุด | มวลร่างกายสูงสุด | ความกว้างปีกต่ำสุด | ความกว้างปีกสูงสุด |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | --------: | --------: | ----------: | ----------: | ----------: | ----------: |
+| 0 | เป็ดหวีดท้องดำ | Dendrocygna autumnalis | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | เป็ดหวีดสีน้ำตาล | Dendrocygna bicolor | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | ห่านหิมะ | Anser caerulescens | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | ห่านรอสส์ | Anser rossii | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | ห่านหน้าขาวใหญ่ | Anser albifrons | เป็ด/ห่าน/นกน้ำ | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+โดยทั่วไป คุณสามารถดูการกระจายตัวของข้อมูลได้อย่างรวดเร็วโดยใช้แผนภาพกระจาย (scatter plot) เหมือนที่เราได้ทำในบทเรียนก่อนหน้า:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+นี่เป็นภาพรวมของการกระจายตัวทั่วไปของความยาวร่างกายต่ออันดับของนก แต่ไม่ใช่วิธีที่เหมาะสมที่สุดในการแสดงการกระจายตัวที่แท้จริง งานนี้มักจะทำโดยการสร้างฮิสโตแกรม (Histogram)
+
+## การทำงานกับฮิสโตแกรม
+
+`ggplot2` มีวิธีที่ดีมากในการแสดงการกระจายตัวของข้อมูลโดยใช้ฮิสโตแกรม แผนภูมิประเภทนี้คล้ายกับแผนภูมิแท่งที่การกระจายตัวสามารถมองเห็นได้ผ่านการเพิ่มขึ้นและลดลงของแท่งข้อมูล ในการสร้างฮิสโตแกรม คุณต้องมีข้อมูลเชิงตัวเลข ในการสร้างฮิสโตแกรม คุณสามารถสร้างแผนภูมิโดยกำหนดชนิดเป็น 'hist' สำหรับฮิสโตแกรม แผนภูมินี้แสดงการกระจายตัวของ MaxBodyMass สำหรับช่วงข้อมูลเชิงตัวเลขทั้งหมดในชุดข้อมูล โดยการแบ่งข้อมูลออกเป็นกลุ่มย่อย (bins) จะสามารถแสดงการกระจายตัวของค่าข้อมูลได้:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+ดังที่คุณเห็น นกส่วนใหญ่ในชุดข้อมูลกว่า 400 ตัวนี้มีมวลร่างกายสูงสุดต่ำกว่า 2000 ลองเปลี่ยนพารามิเตอร์ `bins` เป็นค่าที่สูงขึ้น เช่น 30 เพื่อดูข้อมูลเพิ่มเติม:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+แผนภูมินี้แสดงการกระจายตัวในลักษณะที่ละเอียดขึ้นเล็กน้อย คุณสามารถสร้างแผนภูมิที่ไม่เอนเอียงไปทางซ้ายมากเกินไปได้โดยการเลือกข้อมูลเฉพาะในช่วงที่กำหนด:
+
+กรองข้อมูลของคุณเพื่อเลือกเฉพาะนกที่มีมวลร่างกายต่ำกว่า 60 และแสดง 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ ลองใช้ตัวกรองและจุดข้อมูลอื่น ๆ เพื่อดูการกระจายตัวของข้อมูลทั้งหมด ลบตัวกรอง `['MaxBodyMass']` เพื่อแสดงการกระจายตัวที่มีป้ายกำกับ
+
+ฮิสโตแกรมยังมีการปรับปรุงสีและการติดป้ายกำกับที่น่าสนใจให้ลองใช้ด้วย:
+
+สร้างฮิสโตแกรม 2 มิติ เพื่อเปรียบเทียบความสัมพันธ์ระหว่างการกระจายตัวสองแบบ ลองเปรียบเทียบ `MaxBodyMass` กับ `MaxLength` `ggplot2` มีวิธีในตัวเพื่อแสดงจุดที่ค่ามาบรรจบกันโดยใช้สีที่สว่างขึ้น:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+ดูเหมือนว่าจะมีความสัมพันธ์ที่คาดหวังระหว่างสององค์ประกอบนี้ตามแกนที่คาดไว้ โดยมีจุดบรรจบที่แข็งแกร่งจุดหนึ่ง:
+
+
+
+ฮิสโตแกรมทำงานได้ดีโดยค่าเริ่มต้นสำหรับข้อมูลเชิงตัวเลข แล้วถ้าคุณต้องการดูการกระจายตัวตามข้อมูลข้อความล่ะ?
+## สำรวจชุดข้อมูลเพื่อดูการกระจายตัวโดยใช้ข้อมูลข้อความ
+
+ชุดข้อมูลนี้ยังมีข้อมูลที่ดีเกี่ยวกับหมวดหมู่นก สกุล สปีชีส์ และวงศ์ รวมถึงสถานะการอนุรักษ์ มาสำรวจข้อมูลการอนุรักษ์นี้กัน การกระจายตัวของนกตามสถานะการอนุรักษ์เป็นอย่างไร?
+
+> ✅ ในชุดข้อมูลนี้ มีการใช้อักษรย่อหลายตัวเพื่ออธิบายสถานะการอนุรักษ์ อักษรย่อเหล่านี้มาจาก [IUCN Red List Categories](https://www.iucnredlist.org/) ซึ่งเป็นองค์กรที่จัดทำรายการสถานะของสปีชีส์
+>
+> - CR: ใกล้สูญพันธุ์อย่างยิ่ง
+> - EN: ใกล้สูญพันธุ์
+> - EX: สูญพันธุ์
+> - LC: ความกังวลน้อยที่สุด
+> - NT: ใกล้ถูกคุกคาม
+> - VU: มีความเสี่ยง
+
+ค่าพวกนี้เป็นค่าข้อความ ดังนั้นคุณจะต้องทำการแปลงเพื่อสร้างฮิสโตแกรม โดยใช้ dataframe ที่กรองแล้ว แสดงสถานะการอนุรักษ์ควบคู่ไปกับความกว้างปีกต่ำสุด คุณเห็นอะไรบ้าง?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+ดูเหมือนว่าจะไม่มีความสัมพันธ์ที่ดีระหว่างความกว้างปีกต่ำสุดและสถานะการอนุรักษ์ ลองทดสอบองค์ประกอบอื่น ๆ ในชุดข้อมูลโดยใช้วิธีนี้ คุณสามารถลองใช้ตัวกรองที่แตกต่างกันได้ คุณพบความสัมพันธ์ใดหรือไม่?
+
+## แผนภูมิความหนาแน่น
+
+คุณอาจสังเกตเห็นว่าฮิสโตแกรมที่เราดูจนถึงตอนนี้มีลักษณะเป็น 'ขั้นบันได' และไม่ได้ไหลอย่างราบรื่นในลักษณะโค้ง หากต้องการแสดงแผนภูมิความหนาแน่นที่ราบรื่นขึ้น คุณสามารถลองใช้แผนภูมิความหนาแน่นได้
+
+มาลองทำงานกับแผนภูมิความหนาแน่นกันเถอะ!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+คุณจะเห็นว่าแผนภูมินี้สะท้อนแผนภูมิก่อนหน้านี้สำหรับข้อมูลความกว้างปีกต่ำสุด เพียงแต่ดูราบรื่นขึ้นเล็กน้อย หากคุณต้องการแก้ไขเส้นที่ไม่ราบรื่นของ MaxBodyMass ในแผนภูมิที่สองที่คุณสร้าง คุณสามารถทำให้มันราบรื่นได้ดีมากโดยสร้างใหม่ด้วยวิธีนี้:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+หากคุณต้องการเส้นที่ราบรื่น แต่ไม่ราบรื่นเกินไป ให้แก้ไขพารามิเตอร์ `adjust`:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ อ่านเกี่ยวกับพารามิเตอร์ที่มีให้สำหรับแผนภูมิประเภทนี้และทดลองใช้!
+
+แผนภูมิประเภทนี้ให้การแสดงภาพที่อธิบายได้อย่างสวยงาม ด้วยโค้ดเพียงไม่กี่บรรทัด ตัวอย่างเช่น คุณสามารถแสดงความหนาแน่นของมวลร่างกายสูงสุดต่ออันดับของนก:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 ความท้าทาย
+
+ฮิสโตแกรมเป็นแผนภูมิที่ซับซ้อนกว่าการกระจายจุด แผนภูมิแท่ง หรือแผนภูมิเส้นแบบพื้นฐาน ลองค้นหาตัวอย่างการใช้ฮิสโตแกรมที่ดีบนอินเทอร์เน็ต พวกมันถูกใช้อย่างไร แสดงอะไร และมักถูกใช้ในสาขาหรือพื้นที่ใด?
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+ในบทเรียนนี้ คุณได้ใช้ `ggplot2` และเริ่มทำงานเพื่อแสดงแผนภูมิที่ซับซ้อนมากขึ้น ลองค้นคว้าเกี่ยวกับ `geom_density_2d()` ซึ่งเป็น "เส้นโค้งความหนาแน่นของความน่าจะเป็นต่อเนื่องในหนึ่งหรือหลายมิติ" อ่าน [เอกสารประกอบ](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) เพื่อทำความเข้าใจว่ามันทำงานอย่างไร
+
+## งานที่ได้รับมอบหมาย
+
+[ใช้ทักษะของคุณ](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/th/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..6a907091
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# ใช้ทักษะของคุณ
+
+## คำแนะนำ
+
+จนถึงตอนนี้ คุณได้ทำงานกับชุดข้อมูลนกในมินนิโซตาเพื่อค้นหาข้อมูลเกี่ยวกับปริมาณและความหนาแน่นของประชากรนก ลองฝึกใช้เทคนิคเหล่านี้กับชุดข้อมูลอื่น อาจจะเป็นชุดข้อมูลที่มาจาก [Kaggle](https://www.kaggle.com/) สร้างสคริปต์ R เพื่อเล่าเรื่องราวเกี่ยวกับชุดข้อมูลนี้ และอย่าลืมใช้ฮิสโตแกรมเมื่อพูดถึงข้อมูลดังกล่าว
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | --- |
+มีการนำเสนอสคริปต์พร้อมคำอธิบายเกี่ยวกับชุดข้อมูลนี้ รวมถึงแหล่งที่มา และใช้ฮิสโตแกรมอย่างน้อย 5 อันเพื่อค้นหาข้อเท็จจริงเกี่ยวกับข้อมูล | มีการนำเสนอสคริปต์พร้อมคำอธิบายที่ไม่สมบูรณ์หรือมีข้อผิดพลาด | มีการนำเสนอสคริปต์โดยไม่มีคำอธิบายและมีข้อผิดพลาด
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/th/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..9759ec42
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,201 @@
+
+# การแสดงสัดส่วนข้อมูล
+
+|](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|การแสดงสัดส่วนข้อมูล - _ภาพสเก็ตช์โดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนนี้ คุณจะใช้ชุดข้อมูลที่เกี่ยวกับธรรมชาติในการแสดงสัดส่วน เช่น จำนวนชนิดของเห็ดที่ปรากฏในชุดข้อมูลเกี่ยวกับเห็ด ลองสำรวจเห็ดที่น่าสนใจเหล่านี้ผ่านชุดข้อมูลที่มาจาก Audubon ซึ่งมีรายละเอียดเกี่ยวกับเห็ดมีครีบ 23 สายพันธุ์ในตระกูล Agaricus และ Lepiota คุณจะได้ทดลองสร้างภาพข้อมูลที่น่าสนใจ เช่น:
+
+- แผนภูมิวงกลม 🥧
+- แผนภูมิโดนัท 🍩
+- แผนภูมิแบบวาฟเฟิล 🧇
+
+> 💡 โครงการที่น่าสนใจมากชื่อ [Charticulator](https://charticulator.com) โดย Microsoft Research มีอินเทอร์เฟซแบบลากและวางสำหรับการสร้างภาพข้อมูลฟรี ในหนึ่งในบทเรียนของพวกเขา พวกเขาใช้ชุดข้อมูลเห็ดนี้ด้วย! ดังนั้นคุณสามารถสำรวจข้อมูลและเรียนรู้ไลบรารีไปพร้อมกัน: [บทเรียน Charticulator](https://charticulator.com/tutorials/tutorial4.html)
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## ทำความรู้จักกับเห็ดของคุณ 🍄
+
+เห็ดเป็นสิ่งที่น่าสนใจมาก ลองนำเข้าชุดข้อมูลเพื่อศึกษาพวกมัน:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+ตารางจะถูกพิมพ์ออกมาพร้อมข้อมูลที่ยอดเยี่ยมสำหรับการวิเคราะห์:
+
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Poisonous | Convex | Smooth | Brown | Bruises | Pungent | Free | Close | Narrow | Black | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban |
+| Edible | Convex | Smooth | Yellow | Bruises | Almond | Free | Close | Broad | Black | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Grasses |
+| Edible | Bell | Smooth | White | Bruises | Anise | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Brown | Numerous | Meadows |
+| Poisonous | Convex | Scaly | White | Bruises | Pungent | Free | Close | Narrow | Brown | Enlarging | Equal | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Scattered | Urban
+| Edible | Convex |Smooth | Green | No Bruises| None |Free | Crowded | Broad | Black | Tapering | Equal | Smooth | Smooth | White | White | Partial | White | One | Evanescent | Brown | Abundant | Grasses
+|Edible | Convex | Scaly | Yellow | Bruises | Almond | Free | Close | Broad | Brown | Enlarging | Club | Smooth | Smooth | White | White | Partial | White | One | Pendant | Black | Numerous | Grasses
+
+ทันทีที่คุณเห็น คุณจะสังเกตได้ว่าข้อมูลทั้งหมดเป็นข้อความ คุณจะต้องแปลงข้อมูลนี้เพื่อให้สามารถใช้ในแผนภูมิได้ ข้อมูลส่วนใหญ่ในความเป็นจริงถูกแสดงเป็นออบเจ็กต์:
+
+```r
+names(mushrooms)
+```
+
+ผลลัพธ์คือ:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+นำข้อมูลนี้มาแปลงคอลัมน์ 'class' ให้เป็นหมวดหมู่:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+
+ตอนนี้ หากคุณพิมพ์ข้อมูลเห็ดออกมา คุณจะเห็นว่ามันถูกจัดกลุ่มเป็นหมวดหมู่ตามคลาสที่แบ่งเป็นเห็ดมีพิษ/เห็ดกินได้:
+```r
+View(grouped)
+```
+
+
+| class | count |
+| --------- | --------- |
+| Edible | 4208 |
+| Poisonous| 3916 |
+
+
+
+หากคุณทำตามลำดับที่นำเสนอในตารางนี้เพื่อสร้างป้ายหมวดหมู่คลาส คุณสามารถสร้างแผนภูมิวงกลมได้
+
+## วงกลม!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+และนี่คือแผนภูมิวงกลมที่แสดงสัดส่วนข้อมูลตามสองคลาสของเห็ดนี้ สิ่งสำคัญคือการจัดลำดับป้ายให้ถูกต้อง โดยเฉพาะในกรณีนี้ ดังนั้นอย่าลืมตรวจสอบลำดับที่สร้างอาร์เรย์ป้าย!
+
+
+
+## โดนัท!
+
+แผนภูมิวงกลมที่ดูน่าสนใจมากขึ้นคือแผนภูมิโดนัท ซึ่งเป็นแผนภูมิวงกลมที่มีรูตรงกลาง ลองดูข้อมูลของเราด้วยวิธีนี้
+
+ดูที่แหล่งที่อยู่อาศัยต่าง ๆ ที่เห็ดเติบโต:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+ผลลัพธ์คือ:
+| habitat| count |
+| --------- | --------- |
+| Grasses | 2148 |
+| Leaves| 832 |
+| Meadows | 292 |
+| Paths| 1144 |
+| Urban | 368 |
+| Waste| 192 |
+| Wood| 3148 |
+
+
+ที่นี่ คุณกำลังจัดกลุ่มข้อมูลตามแหล่งที่อยู่อาศัย มีทั้งหมด 7 รายการ ดังนั้นใช้สิ่งเหล่านี้เป็นป้ายสำหรับแผนภูมิโดนัทของคุณ:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+โค้ดนี้ใช้สองไลบรารี - ggplot2 และ webr โดยใช้ฟังก์ชัน PieDonut ของไลบรารี webr เราสามารถสร้างแผนภูมิโดนัทได้อย่างง่ายดาย!
+
+แผนภูมิโดนัทใน R สามารถสร้างได้โดยใช้ไลบรารี ggplot2 เพียงอย่างเดียว คุณสามารถเรียนรู้เพิ่มเติมเกี่ยวกับมัน [ที่นี่](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) และลองทำด้วยตัวเอง
+
+ตอนนี้คุณรู้วิธีจัดกลุ่มข้อมูลและแสดงผลเป็นแผนภูมิวงกลมหรือโดนัทแล้ว คุณสามารถสำรวจแผนภูมิประเภทอื่น ๆ ได้ ลองแผนภูมิแบบวาฟเฟิล ซึ่งเป็นวิธีการแสดงปริมาณในรูปแบบที่แตกต่างออกไป
+## วาฟเฟิล!
+
+แผนภูมิแบบ 'วาฟเฟิล' เป็นวิธีการแสดงปริมาณในรูปแบบอาร์เรย์ 2 มิติของสี่เหลี่ยม ลองแสดงปริมาณสีของหมวกเห็ดในชุดข้อมูลนี้ เพื่อทำสิ่งนี้ คุณต้องติดตั้งไลบรารีช่วยเหลือชื่อ [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) และใช้มันเพื่อสร้างภาพข้อมูลของคุณ:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+เลือกส่วนหนึ่งของข้อมูลของคุณเพื่อจัดกลุ่ม:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+สร้างแผนภูมิแบบวาฟเฟิลโดยสร้างป้ายและจัดกลุ่มข้อมูลของคุณ:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+ด้วยแผนภูมิแบบวาฟเฟิล คุณสามารถเห็นสัดส่วนของสีหมวกเห็ดในชุดข้อมูลนี้ได้อย่างชัดเจน น่าสนใจที่มีเห็ดที่มีหมวกสีเขียวจำนวนมาก!
+
+
+
+ในบทเรียนนี้ คุณได้เรียนรู้สามวิธีในการแสดงสัดส่วนข้อมูล ก่อนอื่น คุณต้องจัดกลุ่มข้อมูลของคุณเป็นหมวดหมู่ จากนั้นตัดสินใจว่าวิธีใดดีที่สุดในการแสดงข้อมูล - วงกลม โดนัท หรือวาฟเฟิล ทั้งหมดนี้น่าสนใจและให้ภาพรวมของชุดข้อมูลแก่ผู้ใช้ได้ทันที
+
+## 🚀 ความท้าทาย
+
+ลองสร้างแผนภูมิที่น่าสนใจเหล่านี้ใน [Charticulator](https://charticulator.com).
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+บางครั้งมันไม่ชัดเจนว่าจะใช้แผนภูมิวงกลม โดนัท หรือวาฟเฟิลเมื่อใด นี่คือบทความบางส่วนที่คุณสามารถอ่านเกี่ยวกับหัวข้อนี้:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+ค้นคว้าเพิ่มเติมเพื่อหาข้อมูลเกี่ยวกับการตัดสินใจที่สำคัญนี้
+## งานที่ได้รับมอบหมาย
+
+[ลองทำใน Excel](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/th/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..bbd243d8
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# การแสดงความสัมพันธ์: เรื่องราวของน้ำผึ้ง 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|การแสดงความสัมพันธ์ - _สเก็ตโน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+ต่อเนื่องจากการวิจัยที่เน้นธรรมชาติ มาค้นพบวิธีการแสดงภาพที่น่าสนใจเพื่อแสดงความสัมพันธ์ระหว่างน้ำผึ้งประเภทต่าง ๆ โดยอ้างอิงจากชุดข้อมูลที่ได้มาจาก [กระทรวงเกษตรแห่งสหรัฐอเมริกา](https://www.nass.usda.gov/About_NASS/index.php)
+
+ชุดข้อมูลนี้มีประมาณ 600 รายการ แสดงการผลิตน้ำผึ้งในหลายรัฐของสหรัฐฯ ตัวอย่างเช่น คุณสามารถดูจำนวนรังผึ้ง ผลผลิตต่อรัง การผลิตรวม สต็อก ราคาเฉลี่ยต่อปอนด์ และมูลค่าของน้ำผึ้งที่ผลิตในแต่ละรัฐตั้งแต่ปี 1998-2012 โดยมีหนึ่งแถวต่อปีสำหรับแต่ละรัฐ
+
+จะน่าสนใจมากหากแสดงภาพความสัมพันธ์ระหว่างการผลิตน้ำผึ้งในแต่ละปีของรัฐหนึ่ง ๆ กับราคาน้ำผึ้งในรัฐนั้น หรืออาจแสดงความสัมพันธ์ระหว่างผลผลิตน้ำผึ้งต่อรังในแต่ละรัฐ ช่วงเวลานี้ครอบคลุมเหตุการณ์ 'CCD' หรือ 'Colony Collapse Disorder' ที่เริ่มปรากฏในปี 2006 (http://npic.orst.edu/envir/ccd.html) ซึ่งเป็นชุดข้อมูลที่น่าศึกษาอย่างยิ่ง 🐝
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+ในบทเรียนนี้ คุณสามารถใช้ ggplot2 ซึ่งคุณเคยใช้มาก่อน เป็นไลบรารีที่ดีในการแสดงภาพความสัมพันธ์ระหว่างตัวแปร โดยเฉพาะการใช้ `geom_point` และฟังก์ชัน `qplot` ของ ggplot2 ที่ช่วยให้สร้าง scatter plots และ line plots เพื่อแสดง '[ความสัมพันธ์ทางสถิติ](https://ggplot2.tidyverse.org/)' ได้อย่างรวดเร็ว ซึ่งช่วยให้นักวิทยาศาสตร์ข้อมูลเข้าใจความสัมพันธ์ระหว่างตัวแปรได้ดียิ่งขึ้น
+
+## Scatterplots
+
+ใช้ scatterplot เพื่อแสดงให้เห็นว่าราคาน้ำผึ้งเปลี่ยนแปลงไปอย่างไรในแต่ละปีในแต่ละรัฐ ggplot2 โดยใช้ `ggplot` และ `geom_point` สามารถจัดกลุ่มข้อมูลของรัฐและแสดงจุดข้อมูลสำหรับข้อมูลเชิงหมวดหมู่และข้อมูลเชิงตัวเลขได้อย่างสะดวก
+
+เริ่มต้นด้วยการนำเข้าข้อมูลและ Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+คุณจะสังเกตเห็นว่าข้อมูลน้ำผึ้งมีคอลัมน์ที่น่าสนใจหลายคอลัมน์ รวมถึงปีและราคาต่อปอนด์ ลองสำรวจข้อมูลนี้โดยจัดกลุ่มตามรัฐในสหรัฐฯ:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+สร้าง scatterplot พื้นฐานเพื่อแสดงความสัมพันธ์ระหว่างราคาต่อปอนด์ของน้ำผึ้งกับรัฐที่ผลิตน้ำผึ้ง ตั้งค่าแกน `y` ให้สูงพอที่จะแสดงข้อมูลของทุกรัฐ:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+ตอนนี้ แสดงข้อมูลเดียวกันด้วยโทนสีของน้ำผึ้งเพื่อแสดงให้เห็นว่าราคาเปลี่ยนแปลงไปอย่างไรในแต่ละปี คุณสามารถทำได้โดยเพิ่มพารามิเตอร์ 'scale_color_gradientn' เพื่อแสดงการเปลี่ยนแปลงในแต่ละปี:
+
+> ✅ เรียนรู้เพิ่มเติมเกี่ยวกับ [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - ลองใช้โทนสีรุ้งที่สวยงาม!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+ด้วยการเปลี่ยนโทนสีนี้ คุณจะเห็นได้ชัดเจนว่ามีการเปลี่ยนแปลงอย่างต่อเนื่องในราคาน้ำผึ้งต่อปอนด์ในแต่ละปี หากคุณดูตัวอย่างข้อมูลในชุดข้อมูลเพื่อยืนยัน (เลือกดูรัฐหนึ่ง เช่น รัฐแอริโซนา) คุณจะเห็นรูปแบบการเพิ่มขึ้นของราคาปีต่อปี โดยมีข้อยกเว้นบางประการ:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+อีกวิธีหนึ่งในการแสดงการเปลี่ยนแปลงนี้คือการใช้ขนาดแทนสี สำหรับผู้ใช้ที่มีปัญหาด้านการมองเห็นสี วิธีนี้อาจเป็นตัวเลือกที่ดีกว่า แก้ไขการแสดงภาพของคุณเพื่อแสดงการเพิ่มขึ้นของราคาด้วยการเพิ่มขนาดของจุด:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+คุณจะเห็นว่าขนาดของจุดเพิ่มขึ้นเรื่อย ๆ
+
+
+
+นี่เป็นกรณีง่าย ๆ ของอุปสงค์และอุปทานหรือไม่? เนื่องจากปัจจัยต่าง ๆ เช่น การเปลี่ยนแปลงสภาพภูมิอากาศและการล่มสลายของรังผึ้ง มีน้ำผึ้งน้อยลงสำหรับการซื้อในแต่ละปี และทำให้ราคาสูงขึ้น?
+
+เพื่อค้นหาความสัมพันธ์ระหว่างตัวแปรบางตัวในชุดข้อมูลนี้ ลองสำรวจกราฟเส้น
+
+## กราฟเส้น
+
+คำถาม: มีการเพิ่มขึ้นของราคาน้ำผึ้งต่อปอนด์ในแต่ละปีอย่างชัดเจนหรือไม่? คุณสามารถค้นพบได้ง่ายที่สุดโดยการสร้างกราฟเส้นเดี่ยว:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+คำตอบ: ใช่ โดยมีข้อยกเว้นบางประการในปี 2003:
+
+
+
+คำถาม: ในปี 2003 เราเห็นการเพิ่มขึ้นของปริมาณน้ำผึ้งหรือไม่? หากคุณดูการผลิตรวมในแต่ละปีล่ะ?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+คำตอบ: ไม่จริง หากคุณดูการผลิตรวม ดูเหมือนว่าจะเพิ่มขึ้นในปีนั้น แต่โดยทั่วไปแล้วปริมาณน้ำผึ้งที่ผลิตลดลงในช่วงปีเหล่านี้
+
+คำถาม: ในกรณีนั้น อะไรที่อาจทำให้เกิดการเพิ่มขึ้นของราคาน้ำผึ้งในปี 2003?
+
+เพื่อค้นหาสิ่งนี้ คุณสามารถสำรวจ facet grid
+
+## Facet grids
+
+Facet grids ใช้หนึ่ง facet ของชุดข้อมูลของคุณ (ในกรณีนี้ คุณสามารถเลือก 'ปี' เพื่อหลีกเลี่ยงการสร้าง facet มากเกินไป) Seaborn สามารถสร้างกราฟสำหรับแต่ละ facet ของพิกัด x และ y ที่คุณเลือกเพื่อการเปรียบเทียบที่ง่ายขึ้น ปี 2003 โดดเด่นในประเภทการเปรียบเทียบนี้หรือไม่?
+
+สร้าง facet grid โดยใช้ `facet_wrap` ตามที่ [เอกสาร ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html) แนะนำ
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+ในภาพนี้ คุณสามารถเปรียบเทียบผลผลิตต่อรังและจำนวนรังในแต่ละปี โดยจัดเรียง wrap เป็น 3 คอลัมน์:
+
+
+
+สำหรับชุดข้อมูลนี้ ไม่มีสิ่งใดที่โดดเด่นเกี่ยวกับจำนวนรังและผลผลิตของรังในแต่ละปีและแต่ละรัฐ มีวิธีอื่นในการค้นหาความสัมพันธ์ระหว่างตัวแปรสองตัวนี้หรือไม่?
+
+## กราฟเส้นคู่
+
+ลองใช้กราฟเส้นหลายเส้นโดยซ้อนกราฟเส้นสองกราฟเข้าด้วยกัน โดยใช้ฟังก์ชัน `par` และ `plot` ของ R เราจะวางปีไว้บนแกน x และแสดงแกน y สองแกน โดยแสดงผลผลิตต่อรังและจำนวนรังที่ซ้อนกัน:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+แม้ว่าไม่มีสิ่งใดที่โดดเด่นในปี 2003 แต่ก็ช่วยให้เราจบบทเรียนนี้ด้วยข่าวดีเล็กน้อย: แม้ว่าจำนวนรังจะลดลงโดยรวม แต่จำนวนรังก็เริ่มคงที่ แม้ว่าผลผลิตต่อรังจะลดลง
+
+สู้ต่อไปนะ ผึ้งน้อย!
+
+🐝❤️
+## 🚀 ความท้าทาย
+
+ในบทเรียนนี้ คุณได้เรียนรู้เพิ่มเติมเกี่ยวกับการใช้ scatterplots และ line grids รวมถึง facet grids ท้าทายตัวเองด้วยการสร้าง facet grid โดยใช้ชุดข้อมูลอื่น อาจเป็นชุดข้อมูลที่คุณเคยใช้ก่อนหน้านี้ในบทเรียนเหล่านี้ สังเกตว่าต้องใช้เวลานานแค่ไหนในการสร้าง และคุณต้องระมัดระวังเกี่ยวกับจำนวน grids ที่คุณต้องสร้างด้วยเทคนิคเหล่านี้
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+กราฟเส้นสามารถเรียบง่ายหรือซับซ้อนได้ ลองอ่านเพิ่มเติมใน [เอกสาร ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) เกี่ยวกับวิธีต่าง ๆ ที่คุณสามารถสร้างกราฟเส้น ลองปรับปรุงกราฟเส้นที่คุณสร้างในบทเรียนนี้ด้วยวิธีอื่น ๆ ที่ระบุไว้ในเอกสาร
+## งานที่ได้รับมอบหมาย
+
+[สำรวจรังผึ้ง](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/th/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..558c0012
--- /dev/null
+++ b/translations/th/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# การสร้างภาพข้อมูลที่มีความหมาย
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| การสร้างภาพข้อมูลที่มีความหมาย - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+> "ถ้าคุณทรมานข้อมูลนานพอ มันจะยอมสารภาพทุกอย่าง" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+หนึ่งในทักษะพื้นฐานของนักวิทยาศาสตร์ข้อมูลคือความสามารถในการสร้างภาพข้อมูลที่มีความหมาย ซึ่งช่วยตอบคำถามที่คุณอาจมี ก่อนที่คุณจะสร้างภาพข้อมูล คุณต้องมั่นใจว่าข้อมูลนั้นได้รับการทำความสะอาดและเตรียมพร้อมแล้วเหมือนที่คุณได้ทำในบทเรียนก่อนหน้า หลังจากนั้น คุณสามารถเริ่มตัดสินใจว่าจะนำเสนอข้อมูลอย่างไรให้ดีที่สุด
+
+ในบทเรียนนี้ คุณจะได้ทบทวน:
+
+1. วิธีเลือกประเภทกราฟที่เหมาะสม
+2. วิธีหลีกเลี่ยงการสร้างกราฟที่หลอกลวง
+3. วิธีการใช้สี
+4. วิธีการปรับแต่งกราฟเพื่อให้อ่านง่าย
+5. วิธีสร้างกราฟแบบเคลื่อนไหวหรือแบบ 3 มิติ
+6. วิธีสร้างภาพข้อมูลที่สร้างสรรค์
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## เลือกประเภทกราฟที่เหมาะสม
+
+ในบทเรียนก่อนหน้า คุณได้ทดลองสร้างภาพข้อมูลที่น่าสนใจหลากหลายรูปแบบโดยใช้ Matplotlib และ Seaborn สำหรับการสร้างกราฟ โดยทั่วไป คุณสามารถเลือก [ประเภทกราฟที่เหมาะสม](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) สำหรับคำถามที่คุณต้องการตอบโดยใช้ตารางนี้:
+
+| คุณต้องการ: | คุณควรใช้: |
+| -------------------------- | ------------------------------- |
+| แสดงแนวโน้มข้อมูลตามเวลา | เส้น (Line) |
+| เปรียบเทียบหมวดหมู่ | แท่ง (Bar), วงกลม (Pie) |
+| เปรียบเทียบยอดรวม | วงกลม (Pie), แท่งซ้อน (Stacked Bar) |
+| แสดงความสัมพันธ์ | กระจาย (Scatter), เส้น (Line), Facet, เส้นคู่ (Dual Line) |
+| แสดงการกระจายตัว | กระจาย (Scatter), ฮิสโตแกรม (Histogram), กล่อง (Box) |
+| แสดงสัดส่วน | วงกลม (Pie), โดนัท (Donut), วาฟเฟิล (Waffle) |
+
+> ✅ ขึ้นอยู่กับลักษณะของข้อมูล คุณอาจต้องแปลงข้อมูลจากข้อความเป็นตัวเลขเพื่อให้กราฟรองรับได้
+
+## หลีกเลี่ยงการหลอกลวง
+
+แม้ว่านักวิทยาศาสตร์ข้อมูลจะระมัดระวังในการเลือกกราฟที่เหมาะสมกับข้อมูล แต่ก็ยังมีวิธีมากมายที่ข้อมูลสามารถถูกแสดงออกมาเพื่อสนับสนุนจุดยืนบางอย่าง ซึ่งมักจะทำให้ข้อมูลเสียความน่าเชื่อถือ มีตัวอย่างมากมายของกราฟและอินโฟกราฟิกที่หลอกลวง!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 คลิกที่ภาพด้านบนเพื่อดูการบรรยายเกี่ยวกับกราฟที่หลอกลวง
+
+กราฟนี้กลับด้านแกน X เพื่อแสดงสิ่งที่ตรงข้ามกับความจริงตามวันที่:
+
+
+
+[กราฟนี้](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) ยิ่งหลอกลวงมากขึ้น เพราะสายตาจะถูกดึงไปทางขวาเพื่อสรุปว่าเมื่อเวลาผ่านไป จำนวนผู้ติดเชื้อ COVID ในแต่ละเขตลดลง แต่ถ้าคุณดูวันที่อย่างละเอียด คุณจะพบว่ามันถูกจัดเรียงใหม่เพื่อสร้างแนวโน้มที่ลดลงอย่างหลอกลวง
+
+
+
+ตัวอย่างที่มีชื่อเสียงนี้ใช้สีและกลับด้านแกน Y เพื่อหลอกลวง: แทนที่จะสรุปว่าการเสียชีวิตจากอาวุธปืนเพิ่มขึ้นหลังจากการผ่านกฎหมายที่สนับสนุนอาวุธปืน สายตากลับถูกหลอกให้คิดว่าตรงกันข้าม:
+
+
+
+กราฟแปลก ๆ นี้แสดงให้เห็นว่าสัดส่วนสามารถถูกบิดเบือนได้อย่างน่าขบขัน:
+
+
+
+การเปรียบเทียบสิ่งที่ไม่สามารถเปรียบเทียบได้เป็นอีกหนึ่งกลวิธีที่ไม่ซื่อสัตย์ มี [เว็บไซต์ที่ยอดเยี่ยม](https://tylervigen.com/spurious-correlations) ที่รวบรวม 'ความสัมพันธ์ที่ผิดพลาด' แสดง 'ข้อเท็จจริง' ที่เชื่อมโยงสิ่งต่าง ๆ เช่น อัตราการหย่าร้างใน Maine กับการบริโภคมาการีน กลุ่ม Reddit ยังรวบรวม [การใช้ข้อมูลที่น่าเกลียด](https://www.reddit.com/r/dataisugly/top/?t=all) อีกด้วย
+
+สิ่งสำคัญคือต้องเข้าใจว่าสายตาสามารถถูกหลอกได้ง่ายเพียงใดจากกราฟที่หลอกลวง แม้ว่าความตั้งใจของนักวิทยาศาสตร์ข้อมูลจะดี แต่การเลือกประเภทกราฟที่ไม่เหมาะสม เช่น กราฟวงกลมที่แสดงหมวดหมู่มากเกินไป ก็อาจทำให้เกิดความเข้าใจผิดได้
+
+## สี
+
+คุณได้เห็นในกราฟ 'ความรุนแรงจากอาวุธปืนในฟลอริดา' ว่าสีสามารถเพิ่มความหมายเพิ่มเติมให้กับกราฟ โดยเฉพาะกราฟที่ไม่ได้ออกแบบโดยใช้ไลบรารี เช่น ggplot2 และ RColorBrewer ซึ่งมาพร้อมกับไลบรารีสีและพาเลตที่ผ่านการตรวจสอบแล้ว หากคุณกำลังสร้างกราฟด้วยตัวเอง ลองศึกษาทฤษฎีสีเล็กน้อย [ทฤษฎีสี](https://colormatters.com/color-and-design/basic-color-theory)
+
+> ✅ โปรดทราบว่าเมื่อออกแบบกราฟ การเข้าถึงเป็นแง่มุมที่สำคัญของการสร้างภาพข้อมูล ผู้ใช้บางคนอาจมีปัญหาการมองเห็นสี - กราฟของคุณแสดงผลได้ดีสำหรับผู้ใช้ที่มีความบกพร่องทางการมองเห็นหรือไม่?
+
+ระวังเมื่อเลือกสีสำหรับกราฟของคุณ เพราะสีสามารถสื่อความหมายที่คุณอาจไม่ได้ตั้งใจได้ 'ผู้หญิงในชุดสีชมพู' ในกราฟ 'ความสูง' ด้านบน สื่อความหมายที่ 'เป็นผู้หญิง' ซึ่งเพิ่มความแปลกประหลาดให้กับกราฟนั้นเอง
+
+แม้ว่า [ความหมายของสี](https://colormatters.com/color-symbolism/the-meanings-of-colors) อาจแตกต่างกันในแต่ละส่วนของโลก และมักเปลี่ยนแปลงตามเฉดสี โดยทั่วไป ความหมายของสีรวมถึง:
+
+| สี | ความหมาย |
+| ------- | ----------------------- |
+| แดง | อำนาจ |
+| น้ำเงิน | ความไว้วางใจ, ความภักดี |
+| เหลือง | ความสุข, ความระมัดระวัง |
+| เขียว | สิ่งแวดล้อม, โชค, ความอิจฉา |
+| ม่วง | ความสุข |
+| ส้ม | ความสดใส |
+
+หากคุณได้รับมอบหมายให้สร้างกราฟที่มีสีที่กำหนดเอง ตรวจสอบให้แน่ใจว่ากราฟของคุณทั้งเข้าถึงได้ง่ายและสีที่คุณเลือกสอดคล้องกับความหมายที่คุณต้องการสื่อ
+
+## การปรับแต่งกราฟเพื่อให้อ่านง่าย
+
+กราฟจะไม่มีความหมายหากอ่านไม่ออก! ใช้เวลาสักครู่เพื่อพิจารณาปรับแต่งความกว้างและความสูงของกราฟของคุณให้เหมาะสมกับข้อมูล หากตัวแปรหนึ่ง (เช่น ทั้ง 50 รัฐ) จำเป็นต้องแสดงผล ให้แสดงในแนวตั้งบนแกน Y หากเป็นไปได้ เพื่อหลีกเลี่ยงกราฟที่ต้องเลื่อนในแนวนอน
+
+ใส่ป้ายกำกับแกน, เพิ่มคำอธิบายถ้าจำเป็น และเสนอคำแนะนำ (tooltips) เพื่อช่วยให้เข้าใจข้อมูลได้ดีขึ้น
+
+หากข้อมูลของคุณเป็นข้อความและยาวบนแกน X คุณสามารถปรับมุมข้อความเพื่อให้อ่านง่ายขึ้น [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) เสนอการสร้างกราฟแบบ 3 มิติ หากข้อมูลของคุณรองรับ กราฟข้อมูลที่ซับซ้อนสามารถสร้างได้โดยใช้เครื่องมือนี้
+
+
+
+## การแสดงกราฟแบบเคลื่อนไหวและ 3 มิติ
+
+ภาพข้อมูลที่ดีที่สุดในปัจจุบันบางส่วนเป็นแบบเคลื่อนไหว Shirley Wu มีตัวอย่างที่น่าทึ่งที่สร้างด้วย D3 เช่น '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)' ซึ่งแต่ละดอกไม้เป็นภาพข้อมูลของภาพยนตร์ อีกตัวอย่างหนึ่งสำหรับ Guardian คือ 'bussed out' ซึ่งเป็นประสบการณ์แบบโต้ตอบที่รวมภาพข้อมูลกับ Greensock และ D3 พร้อมบทความแบบเลื่อนเพื่อแสดงวิธีที่ NYC จัดการกับปัญหาคนไร้บ้านโดยการส่งพวกเขาออกจากเมือง
+
+
+
+> "Bussed Out: How America Moves its Homeless" จาก [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). ภาพข้อมูลโดย Nadieh Bremer & Shirley Wu
+
+แม้ว่าบทเรียนนี้จะไม่เพียงพอที่จะสอนไลบรารีการสร้างภาพข้อมูลที่ทรงพลังเหล่านี้อย่างละเอียด ลองใช้ D3 ในแอป Vue.js โดยใช้ไลบรารีเพื่อแสดงภาพข้อมูลของหนังสือ "Dangerous Liaisons" เป็นเครือข่ายสังคมแบบเคลื่อนไหว
+
+> "Les Liaisons Dangereuses" เป็นนวนิยายที่นำเสนอในรูปแบบจดหมาย เขียนในปี 1782 โดย Choderlos de Laclos เล่าเรื่องราวการวางแผนทางสังคมที่ไร้ศีลธรรมของตัวเอกสองคนในชนชั้นสูงของฝรั่งเศสในศตวรรษที่ 18 Vicomte de Valmont และ Marquise de Merteuil ทั้งคู่พบจุดจบของตนเองในที่สุด แต่ไม่ใช่ก่อนที่จะสร้างความเสียหายทางสังคมอย่างมาก นวนิยายนี้เล่าเรื่องผ่านจดหมายที่เขียนถึงบุคคลต่าง ๆ ในวงสังคมของพวกเขา วางแผนแก้แค้นหรือเพียงแค่สร้างปัญหา สร้างภาพข้อมูลของจดหมายเหล่านี้เพื่อค้นหาตัวละครสำคัญในเรื่องราวผ่านภาพ
+
+คุณจะสร้างแอปเว็บที่จะแสดงมุมมองแบบเคลื่อนไหวของเครือข่ายสังคมนี้ โดยใช้ไลบรารีที่สร้างขึ้นเพื่อสร้าง [ภาพเครือข่าย](https://github.com/emiliorizzo/vue-d3-network) โดยใช้ Vue.js และ D3 เมื่อแอปทำงาน คุณสามารถลากโหนดไปรอบ ๆ บนหน้าจอเพื่อจัดเรียงข้อมูลใหม่ได้
+
+
+
+## โครงการ: สร้างกราฟเพื่อแสดงเครือข่ายโดยใช้ D3.js
+
+> โฟลเดอร์บทเรียนนี้มีโฟลเดอร์ `solution` ซึ่งคุณสามารถค้นหาโครงการที่เสร็จสมบูรณ์เพื่อใช้อ้างอิงได้
+
+1. ทำตามคำแนะนำในไฟล์ README.md ในโฟลเดอร์ root ของโฟลเดอร์ starter ตรวจสอบให้แน่ใจว่าคุณมี NPM และ Node.js ทำงานบนเครื่องของคุณก่อนติดตั้ง dependencies ของโครงการ
+
+2. เปิดโฟลเดอร์ `starter/src` คุณจะพบโฟลเดอร์ `assets` ซึ่งมีไฟล์ .json ที่มีจดหมายทั้งหมดจากนวนิยาย โดยมีหมายเลข พร้อมคำอธิบาย 'to' และ 'from'
+
+3. เติมโค้ดใน `components/Nodes.vue` เพื่อเปิดใช้งานการแสดงภาพ ค้นหาวิธีที่เรียกว่า `createLinks()` และเพิ่มลูปซ้อนดังนี้
+
+วนลูปผ่านวัตถุ .json เพื่อดึงข้อมูล 'to' และ 'from' สำหรับจดหมาย และสร้างวัตถุ `links` เพื่อให้ไลบรารีการแสดงภาพสามารถใช้งานได้:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+รันแอปของคุณจากเทอร์มินัล (npm run serve) และเพลิดเพลินกับการแสดงภาพ!
+
+## 🚀 ความท้าทาย
+
+สำรวจอินเทอร์เน็ตเพื่อค้นหาภาพข้อมูลที่หลอกลวง ผู้เขียนหลอกลวงผู้ใช้อย่างไร และเป็นความตั้งใจหรือไม่? ลองแก้ไขภาพข้อมูลเพื่อแสดงให้เห็นว่าควรมีลักษณะอย่างไร
+
+## [แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+นี่คือตัวอย่างบทความเกี่ยวกับการสร้างภาพข้อมูลที่หลอกลวง:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+ลองดูภาพข้อมูลที่น่าสนใจเกี่ยวกับทรัพย์สินและสิ่งประดิษฐ์ทางประวัติศาสตร์:
+
+https://handbook.pubpub.org/
+
+อ่านบทความนี้เกี่ยวกับวิธีที่การเคลื่อนไหวสามารถเพิ่มประสิทธิภาพให้กับภาพข้อมูลของคุณ:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## การบ้าน
+
+[สร้างภาพข้อมูลของคุณเอง](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/3-Data-Visualization/README.md b/translations/th/3-Data-Visualization/README.md
new file mode 100644
index 00000000..5cc0c0d7
--- /dev/null
+++ b/translations/th/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# การสร้างภาพข้อมูล
+
+
+> ภาพถ่ายโดย Jenna Lee บน Unsplash
+
+การสร้างภาพข้อมูลเป็นหนึ่งในงานที่สำคัญที่สุดของนักวิทยาศาสตร์ข้อมูล ภาพหนึ่งภาพมีค่ามากกว่าคำพูดนับพันคำ และการสร้างภาพข้อมูลสามารถช่วยให้คุณระบุส่วนที่น่าสนใจในข้อมูลของคุณ เช่น จุดพุ่งสูงสุด ค่าผิดปกติ การจัดกลุ่ม แนวโน้ม และอื่นๆ ซึ่งช่วยให้คุณเข้าใจเรื่องราวที่ข้อมูลของคุณพยายามจะบอก
+
+ในบทเรียนทั้งห้านี้ คุณจะได้สำรวจข้อมูลที่มาจากธรรมชาติและสร้างภาพข้อมูลที่น่าสนใจและสวยงามโดยใช้เทคนิคต่างๆ
+
+| หมายเลขหัวข้อ | หัวข้อ | บทเรียนที่เกี่ยวข้อง | ผู้เขียน |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | การสร้างภาพปริมาณ | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | การสร้างภาพการกระจายตัว | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | การสร้างภาพสัดส่วน | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | การสร้างภาพความสัมพันธ์ | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | การสร้างภาพที่มีความหมาย | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### เครดิต
+
+บทเรียนการสร้างภาพข้อมูลเหล่านี้เขียนขึ้นด้วยความรัก 🌸 โดย [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) และ [Vidushi Gupta](https://github.com/Vidushi-Gupta)
+
+🍯 ข้อมูลเกี่ยวกับการผลิตน้ำผึ้งในสหรัฐอเมริกามาจากโปรเจกต์ของ Jessica Li บน [Kaggle](https://www.kaggle.com/jessicali9530/honey-production) โดยข้อมูล [data](https://usda.library.cornell.edu/concern/publications/rn301137d) นี้ได้มาจาก [กระทรวงเกษตรของสหรัฐอเมริกา](https://www.nass.usda.gov/About_NASS/index.php)
+
+🍄 ข้อมูลเกี่ยวกับเห็ดมาจาก [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) ที่ปรับปรุงโดย Hatteras Dunton ชุดข้อมูลนี้ประกอบด้วยคำอธิบายของตัวอย่างสมมติที่สอดคล้องกับเห็ด 23 สายพันธุ์ในตระกูล Agaricus และ Lepiota โดยข้อมูลเห็ดนี้นำมาจาก The Audubon Society Field Guide to North American Mushrooms (1981) และถูกบริจาคให้กับ UCI ML 27 ในปี 1987
+
+🦆 ข้อมูลเกี่ยวกับนกในมินนิโซตามาจาก [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) ซึ่งดึงข้อมูลจาก [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) โดย Hannah Collins
+
+ชุดข้อมูลทั้งหมดนี้ได้รับอนุญาตภายใต้ [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/th/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..f7ea102a
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,120 @@
+
+# บทนำสู่วงจรชีวิตของวิทยาศาสตร์ข้อมูล
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| บทนำสู่วงจรชีวิตของวิทยาศาสตร์ข้อมูล - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ |
+
+## [แบบทดสอบก่อนเรียน](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+ณ จุดนี้ คุณอาจตระหนักแล้วว่าวิทยาศาสตร์ข้อมูลเป็นกระบวนการ กระบวนการนี้สามารถแบ่งออกเป็น 5 ขั้นตอน:
+
+- การเก็บข้อมูล
+- การประมวลผล
+- การวิเคราะห์
+- การสื่อสาร
+- การบำรุงรักษา
+
+บทเรียนนี้จะเน้นที่ 3 ส่วนของวงจรชีวิต: การเก็บข้อมูล การประมวลผล และการบำรุงรักษา
+
+
+> ภาพโดย [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## การเก็บข้อมูล
+
+ขั้นตอนแรกของวงจรชีวิตมีความสำคัญมาก เนื่องจากขั้นตอนถัดไปจะขึ้นอยู่กับขั้นตอนนี้ โดยพื้นฐานแล้วเป็นการรวมสองขั้นตอนเข้าด้วยกัน: การได้มาซึ่งข้อมูลและการกำหนดวัตถุประสงค์และปัญหาที่ต้องแก้ไข
+การกำหนดเป้าหมายของโครงการจะต้องมีความเข้าใจในบริบทของปัญหาหรือคำถามอย่างลึกซึ้ง ก่อนอื่นเราต้องระบุและเข้าถึงผู้ที่ต้องการแก้ปัญหา อาจเป็นผู้มีส่วนได้ส่วนเสียในธุรกิจหรือผู้สนับสนุนโครงการ ซึ่งสามารถช่วยระบุว่าใครหรืออะไรจะได้รับประโยชน์จากโครงการนี้ รวมถึงสิ่งที่พวกเขาต้องการและเหตุผล เป้าหมายที่กำหนดไว้อย่างดีควรสามารถวัดผลได้และมีตัวชี้วัดที่ชัดเจนเพื่อกำหนดผลลัพธ์ที่ยอมรับได้
+
+คำถามที่นักวิทยาศาสตร์ข้อมูลอาจถาม:
+- ปัญหานี้เคยถูกแก้ไขมาก่อนหรือไม่? มีการค้นพบอะไรบ้าง?
+- ทุกคนที่เกี่ยวข้องเข้าใจวัตถุประสงค์และเป้าหมายหรือไม่?
+- มีความคลุมเครือหรือไม่ และจะลดความคลุมเครือนั้นได้อย่างไร?
+- มีข้อจำกัดอะไรบ้าง?
+- ผลลัพธ์สุดท้ายอาจมีลักษณะอย่างไร?
+- มีทรัพยากร (เวลา คน เครื่องมือคำนวณ) เพียงพอหรือไม่?
+
+ถัดไปคือการระบุ รวบรวม และสำรวจข้อมูลที่จำเป็นเพื่อบรรลุเป้าหมายที่กำหนดไว้ ในขั้นตอนการได้มานี้ นักวิทยาศาสตร์ข้อมูลต้องประเมินปริมาณและคุณภาพของข้อมูลด้วย ซึ่งต้องมีการสำรวจข้อมูลบางส่วนเพื่อยืนยันว่าข้อมูลที่ได้มานั้นจะสนับสนุนการบรรลุผลลัพธ์ที่ต้องการ
+
+คำถามที่นักวิทยาศาสตร์ข้อมูลอาจถามเกี่ยวกับข้อมูล:
+- ข้อมูลใดที่มีอยู่แล้วสำหรับฉัน?
+- ใครเป็นเจ้าของข้อมูลนี้?
+- มีข้อกังวลด้านความเป็นส่วนตัวหรือไม่?
+- ข้อมูลเพียงพอสำหรับแก้ปัญหานี้หรือไม่?
+- คุณภาพของข้อมูลเหมาะสมกับปัญหานี้หรือไม่?
+- หากค้นพบข้อมูลเพิ่มเติมจากข้อมูลนี้ ควรพิจารณาเปลี่ยนหรือกำหนดเป้าหมายใหม่หรือไม่?
+
+## การประมวลผล
+
+ขั้นตอนการประมวลผลในวงจรชีวิตมุ่งเน้นไปที่การค้นหารูปแบบในข้อมูลและการสร้างแบบจำลอง เทคนิคบางอย่างที่ใช้ในขั้นตอนนี้ต้องอาศัยวิธีการทางสถิติเพื่อค้นหารูปแบบ โดยปกติแล้วจะเป็นงานที่น่าเบื่อสำหรับมนุษย์ในการจัดการกับชุดข้อมูลขนาดใหญ่ และจะพึ่งพาคอมพิวเตอร์เพื่อช่วยเร่งกระบวนการ ขั้นตอนนี้ยังเป็นจุดที่วิทยาศาสตร์ข้อมูลและการเรียนรู้ของเครื่อง (Machine Learning) มาบรรจบกันอีกด้วย ดังที่คุณได้เรียนรู้ในบทเรียนแรก การเรียนรู้ของเครื่องคือกระบวนการสร้างแบบจำลองเพื่อทำความเข้าใจกับข้อมูล แบบจำลองเป็นตัวแทนของความสัมพันธ์ระหว่างตัวแปรในข้อมูลที่ช่วยทำนายผลลัพธ์
+
+เทคนิคทั่วไปที่ใช้ในขั้นตอนนี้มีการกล่าวถึงในหลักสูตร ML for Beginners สามารถติดตามลิงก์เพื่อเรียนรู้เพิ่มเติม:
+
+- [การจัดหมวดหมู่ (Classification)](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): การจัดระเบียบข้อมูลเป็นหมวดหมู่เพื่อการใช้งานที่มีประสิทธิภาพมากขึ้น
+- [การจัดกลุ่ม (Clustering)](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): การจัดกลุ่มข้อมูลที่มีความคล้ายคลึงกัน
+- [การถดถอย (Regression)](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): การกำหนดความสัมพันธ์ระหว่างตัวแปรเพื่อทำนายหรือคาดการณ์ค่า
+
+## การบำรุงรักษา
+
+ในแผนภาพของวงจรชีวิต คุณอาจสังเกตเห็นว่าการบำรุงรักษาอยู่ระหว่างการเก็บข้อมูลและการประมวลผล การบำรุงรักษาเป็นกระบวนการต่อเนื่องในการจัดการ จัดเก็บ และรักษาความปลอดภัยของข้อมูลตลอดกระบวนการของโครงการ และควรได้รับการพิจารณาตลอดระยะเวลาของโครงการ
+
+### การจัดเก็บข้อมูล
+การพิจารณาว่าจะจัดเก็บข้อมูลอย่างไรและที่ไหนสามารถส่งผลต่อค่าใช้จ่ายในการจัดเก็บ รวมถึงประสิทธิภาพของการเข้าถึงข้อมูล การตัดสินใจเหล่านี้อาจไม่ได้ทำโดยนักวิทยาศาสตร์ข้อมูลเพียงคนเดียว แต่พวกเขาอาจต้องเลือกวิธีการทำงานกับข้อมูลตามวิธีการจัดเก็บ
+
+นี่คือบางแง่มุมของระบบจัดเก็บข้อมูลสมัยใหม่ที่อาจส่งผลต่อการตัดสินใจ:
+
+**ในสถานที่ (On premise) กับนอกสถานที่ (Off premise) กับคลาวด์สาธารณะหรือส่วนตัว**
+
+การจัดเก็บในสถานที่หมายถึงการจัดการข้อมูลบนอุปกรณ์ของคุณเอง เช่น การเป็นเจ้าของเซิร์ฟเวอร์ที่มีฮาร์ดไดรฟ์สำหรับจัดเก็บข้อมูล ในขณะที่การจัดเก็บนอกสถานที่พึ่งพาอุปกรณ์ที่คุณไม่ได้เป็นเจ้าของ เช่น ศูนย์ข้อมูล คลาวด์สาธารณะเป็นตัวเลือกยอดนิยมสำหรับการจัดเก็บข้อมูลที่ไม่ต้องการความรู้เกี่ยวกับวิธีหรือสถานที่จัดเก็บข้อมูลอย่างแน่ชัด ในขณะที่คลาวด์ส่วนตัวเหมาะสำหรับองค์กรที่มีนโยบายความปลอดภัยที่เข้มงวดและต้องการการควบคุมอุปกรณ์ที่จัดเก็บข้อมูล คุณจะได้เรียนรู้เพิ่มเติมเกี่ยวกับข้อมูลในคลาวด์ใน [บทเรียนถัดไป](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud)
+
+**ข้อมูลเย็น (Cold data) กับข้อมูลร้อน (Hot data)**
+
+เมื่อฝึกอบรมแบบจำลองของคุณ คุณอาจต้องการข้อมูลฝึกอบรมเพิ่มเติม หากคุณพอใจกับแบบจำลองของคุณแล้ว ข้อมูลเพิ่มเติมจะมาถึงเพื่อให้แบบจำลองทำหน้าที่ของมัน ในกรณีใดก็ตาม ค่าใช้จ่ายในการจัดเก็บและเข้าถึงข้อมูลจะเพิ่มขึ้นเมื่อคุณสะสมข้อมูลมากขึ้น การแยกข้อมูลที่ไม่ค่อยได้ใช้งานหรือข้อมูลเย็นออกจากข้อมูลที่เข้าถึงบ่อยหรือข้อมูลร้อน อาจเป็นตัวเลือกการจัดเก็บข้อมูลที่ถูกกว่าผ่านฮาร์ดแวร์หรือบริการซอฟต์แวร์ หากต้องการเข้าถึงข้อมูลเย็น อาจใช้เวลานานกว่าข้อมูลร้อนเล็กน้อย
+
+### การจัดการข้อมูล
+เมื่อคุณทำงานกับข้อมูล คุณอาจพบว่าข้อมูลบางส่วนจำเป็นต้องได้รับการทำความสะอาดโดยใช้เทคนิคบางอย่างที่ครอบคลุมในบทเรียนเกี่ยวกับ [การเตรียมข้อมูล](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) เพื่อสร้างแบบจำลองที่แม่นยำ เมื่อมีข้อมูลใหม่เข้ามา ข้อมูลนั้นจะต้องได้รับการประยุกต์ใช้เทคนิคเดียวกันเพื่อรักษาความสม่ำเสมอในคุณภาพ โครงการบางโครงการจะเกี่ยวข้องกับการใช้เครื่องมืออัตโนมัติสำหรับการทำความสะอาด การรวมข้อมูล และการบีบอัดก่อนที่ข้อมูลจะถูกย้ายไปยังตำแหน่งสุดท้าย Azure Data Factory เป็นตัวอย่างหนึ่งของเครื่องมือเหล่านี้
+
+### การรักษาความปลอดภัยของข้อมูล
+หนึ่งในเป้าหมายหลักของการรักษาความปลอดภัยข้อมูลคือการทำให้แน่ใจว่าผู้ที่ทำงานกับข้อมูลสามารถควบคุมสิ่งที่ถูกรวบรวมและบริบทที่ใช้ข้อมูลได้ การรักษาความปลอดภัยข้อมูลเกี่ยวข้องกับการจำกัดการเข้าถึงเฉพาะผู้ที่จำเป็นต้องใช้ข้อมูล ปฏิบัติตามกฎหมายและข้อบังคับท้องถิ่น รวมถึงรักษามาตรฐานทางจริยธรรม ดังที่ได้กล่าวไว้ใน [บทเรียนจริยธรรม](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics)
+
+นี่คือสิ่งที่ทีมอาจทำโดยคำนึงถึงความปลอดภัย:
+- ยืนยันว่าข้อมูลทั้งหมดถูกเข้ารหัส
+- ให้ข้อมูลแก่ลูกค้าเกี่ยวกับวิธีการใช้ข้อมูลของพวกเขา
+- ลบการเข้าถึงข้อมูลจากผู้ที่ออกจากโครงการ
+- อนุญาตให้สมาชิกโครงการบางคนเท่านั้นที่สามารถแก้ไขข้อมูลได้
+
+## 🚀 ความท้าทาย
+
+มีหลายเวอร์ชันของวงจรชีวิตวิทยาศาสตร์ข้อมูล ซึ่งแต่ละขั้นตอนอาจมีชื่อและจำนวนขั้นตอนที่แตกต่างกัน แต่จะมีกระบวนการเดียวกันที่กล่าวถึงในบทเรียนนี้
+
+สำรวจ [วงจรชีวิต Team Data Science Process](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) และ [มาตรฐานข้ามอุตสาหกรรมสำหรับการทำเหมืองข้อมูล (CRISP-DM)](https://www.datascience-pm.com/crisp-dm-2/) ระบุ 3 ความเหมือนและความแตกต่างระหว่างทั้งสอง
+
+|Team Data Science Process (TDSP)|มาตรฐานข้ามอุตสาหกรรมสำหรับการทำเหมืองข้อมูล (CRISP-DM)|
+|--|--|
+| |  |
+| ภาพโดย [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | ภาพโดย [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [แบบทดสอบหลังเรียน](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+การประยุกต์ใช้วงจรชีวิตวิทยาศาสตร์ข้อมูลเกี่ยวข้องกับบทบาทและงานหลายอย่าง ซึ่งบางคนอาจมุ่งเน้นไปที่ส่วนใดส่วนหนึ่งของแต่ละขั้นตอน Team Data Science Process มีทรัพยากรบางอย่างที่อธิบายประเภทของบทบาทและงานที่ใครบางคนอาจมีในโครงการ
+
+* [บทบาทและงานใน Team Data Science Process](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [ดำเนินการงานวิทยาศาสตร์ข้อมูล: การสำรวจ การสร้างแบบจำลอง และการปรับใช้](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## การบ้าน
+
+[การประเมินชุดข้อมูล](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาที่เป็นต้นฉบับควรถือว่าเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/th/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..60a76610
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,37 @@
+
+# การประเมินชุดข้อมูล
+
+ลูกค้าได้ติดต่อทีมของคุณเพื่อขอความช่วยเหลือในการวิเคราะห์พฤติกรรมการใช้จ่ายตามฤดูกาลของลูกค้ารถแท็กซี่ในนครนิวยอร์ก
+
+พวกเขาต้องการทราบว่า: **ผู้โดยสารรถแท็กซี่สีเหลืองในนครนิวยอร์กให้ทิปคนขับมากกว่าในฤดูหนาวหรือฤดูร้อน?**
+
+ทีมของคุณอยู่ในขั้นตอน [Capturing](Readme.md#Capturing) ของวงจรชีวิตวิทยาศาสตร์ข้อมูล และคุณได้รับมอบหมายให้จัดการชุดข้อมูลนี้ คุณได้รับโน้ตบุ๊กและ [ข้อมูล](../../../../data/taxi.csv) เพื่อสำรวจ
+
+ในไดเรกทอรีนี้มี [โน้ตบุ๊ก](notebook.ipynb) ที่ใช้ Python ในการโหลดข้อมูลการเดินทางของแท็กซี่สีเหลืองจาก [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets)
+คุณยังสามารถเปิดไฟล์ข้อมูลแท็กซี่ในโปรแกรมแก้ไขข้อความหรือซอฟต์แวร์สเปรดชีต เช่น Excel ได้อีกด้วย
+
+## คำแนะนำ
+
+- ประเมินว่าข้อมูลในชุดข้อมูลนี้สามารถช่วยตอบคำถามได้หรือไม่
+- สำรวจ [NYC Open Data catalog](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93) เพื่อระบุชุดข้อมูลเพิ่มเติมที่อาจมีประโยชน์ในการตอบคำถามของลูกค้า
+- เขียนคำถาม 3 ข้อที่คุณจะถามลูกค้าเพื่อขอคำชี้แจงเพิ่มเติมและทำความเข้าใจปัญหาให้ดียิ่งขึ้น
+
+อ้างอิง [พจนานุกรมของชุดข้อมูล](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) และ [คู่มือผู้ใช้](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) เพื่อข้อมูลเพิ่มเติมเกี่ยวกับชุดข้อมูลนี้
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | ---
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/th/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..64d28a0a
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,61 @@
+
+# วงจรชีวิตของวิทยาศาสตร์ข้อมูล: การวิเคราะห์
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| วงจรชีวิตของวิทยาศาสตร์ข้อมูล: การวิเคราะห์ - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+## แบบทดสอบก่อนเรียน
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+การวิเคราะห์ในวงจรชีวิตของข้อมูลช่วยยืนยันว่าข้อมูลสามารถตอบคำถามที่ตั้งไว้หรือแก้ปัญหาเฉพาะได้ ขั้นตอนนี้ยังมุ่งเน้นไปที่การยืนยันว่าโมเดลสามารถตอบคำถามและแก้ปัญหาเหล่านี้ได้อย่างถูกต้อง บทเรียนนี้เน้นที่การวิเคราะห์ข้อมูลเชิงสำรวจ (Exploratory Data Analysis หรือ EDA) ซึ่งเป็นเทคนิคสำหรับการกำหนดคุณลักษณะและความสัมพันธ์ภายในข้อมูล และสามารถใช้เตรียมข้อมูลสำหรับการสร้างโมเดล
+
+เราจะใช้ชุดข้อมูลตัวอย่างจาก [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) เพื่อแสดงวิธีการนำไปใช้กับ Python และไลบรารี Pandas ชุดข้อมูลนี้ประกอบด้วยจำนวนคำทั่วไปที่พบในอีเมล โดยแหล่งที่มาของอีเมลเหล่านี้เป็นแบบไม่ระบุชื่อ ใช้ [notebook](notebook.ipynb) ในไดเรกทอรีนี้เพื่อทำตามขั้นตอน
+
+## การวิเคราะห์ข้อมูลเชิงสำรวจ
+
+ขั้นตอนการเก็บข้อมูลในวงจรชีวิตคือการได้มาซึ่งข้อมูล รวมถึงปัญหาและคำถามที่ต้องการคำตอบ แต่เราจะรู้ได้อย่างไรว่าข้อมูลสามารถช่วยสนับสนุนผลลัพธ์ที่ต้องการได้?
+จำไว้ว่า นักวิทยาศาสตร์ข้อมูลอาจถามคำถามต่อไปนี้เมื่อพวกเขาได้รับข้อมูล:
+- ฉันมีข้อมูลเพียงพอที่จะแก้ปัญหานี้หรือไม่?
+- ข้อมูลมีคุณภาพที่ยอมรับได้สำหรับปัญหานี้หรือไม่?
+- หากฉันค้นพบข้อมูลเพิ่มเติมจากข้อมูลนี้ เราควรพิจารณาเปลี่ยนแปลงหรือกำหนดเป้าหมายใหม่หรือไม่?
+
+การวิเคราะห์ข้อมูลเชิงสำรวจเป็นกระบวนการทำความรู้จักกับข้อมูล และสามารถใช้ตอบคำถามเหล่านี้ รวมถึงระบุความท้าทายในการทำงานกับชุดข้อมูล มาดูเทคนิคบางอย่างที่ใช้ในการบรรลุเป้าหมายนี้กัน
+
+## การทำโปรไฟล์ข้อมูล สถิติเชิงพรรณนา และ Pandas
+เราจะประเมินได้อย่างไรว่ามีข้อมูลเพียงพอที่จะแก้ปัญหานี้? การทำโปรไฟล์ข้อมูลสามารถสรุปและรวบรวมข้อมูลทั่วไปเกี่ยวกับชุดข้อมูลของเราได้ผ่านเทคนิคของสถิติเชิงพรรณนา การทำโปรไฟล์ข้อมูลช่วยให้เราเข้าใจสิ่งที่มีอยู่ และสถิติเชิงพรรณนาช่วยให้เราเข้าใจว่ามีสิ่งเหล่านี้มากน้อยเพียงใด
+
+ในบทเรียนก่อนหน้านี้ เราได้ใช้ Pandas เพื่อให้ข้อมูลสถิติเชิงพรรณนาบางอย่างผ่านฟังก์ชัน [`describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html) ซึ่งให้ข้อมูลจำนวน ค่าสูงสุดและต่ำสุด ค่าเฉลี่ย ส่วนเบี่ยงเบนมาตรฐาน และควอไทล์ของข้อมูลเชิงตัวเลข การใช้สถิติเชิงพรรณนา เช่น ฟังก์ชัน `describe()` สามารถช่วยคุณประเมินว่ามีข้อมูลมากน้อยเพียงใด และคุณต้องการข้อมูลเพิ่มเติมหรือไม่
+
+## การสุ่มตัวอย่างและการสืบค้น
+การสำรวจทุกอย่างในชุดข้อมูลขนาดใหญ่อาจใช้เวลานานมาก และมักเป็นงานที่ปล่อยให้คอมพิวเตอร์ทำ อย่างไรก็ตาม การสุ่มตัวอย่างเป็นเครื่องมือที่มีประโยชน์ในการทำความเข้าใจข้อมูล และช่วยให้เราเข้าใจสิ่งที่อยู่ในชุดข้อมูลและสิ่งที่มันแสดงถึง ด้วยตัวอย่าง คุณสามารถใช้ความน่าจะเป็นและสถิติเพื่อสรุปทั่วไปเกี่ยวกับข้อมูลของคุณ แม้ว่าจะไม่มีกฎที่กำหนดไว้ว่าคุณควรสุ่มตัวอย่างข้อมูลมากน้อยเพียงใด แต่สิ่งสำคัญคือต้องทราบว่ายิ่งคุณสุ่มตัวอย่างข้อมูลมากเท่าใด คุณก็ยิ่งสามารถสรุปทั่วไปเกี่ยวกับข้อมูลได้แม่นยำมากขึ้นเท่านั้น
+Pandas มีฟังก์ชัน [`sample()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) ในไลบรารี ซึ่งคุณสามารถส่งอาร์กิวเมนต์ว่าต้องการตัวอย่างแบบสุ่มจำนวนเท่าใด
+
+การสืบค้นข้อมูลทั่วไปสามารถช่วยคุณตอบคำถามและทฤษฎีทั่วไปที่คุณอาจมี ในทางตรงกันข้ามกับการสุ่มตัวอย่าง การสืบค้นช่วยให้คุณควบคุมและมุ่งเน้นไปที่ส่วนเฉพาะของข้อมูลที่คุณมีคำถามเกี่ยวกับ
+ฟังก์ชัน [`query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) ในไลบรารี Pandas ช่วยให้คุณเลือกคอลัมน์และรับคำตอบง่ายๆ เกี่ยวกับข้อมูลผ่านแถวที่ดึงมา
+
+## การสำรวจด้วยการสร้างภาพ
+คุณไม่จำเป็นต้องรอจนกว่าข้อมูลจะถูกทำความสะอาดและวิเคราะห์อย่างละเอียดเพื่อเริ่มสร้างภาพ ในความเป็นจริง การมีตัวแทนภาพขณะสำรวจสามารถช่วยระบุรูปแบบ ความสัมพันธ์ และปัญหาในข้อมูล นอกจากนี้ การสร้างภาพยังเป็นวิธีการสื่อสารกับผู้ที่ไม่ได้มีส่วนร่วมในการจัดการข้อมูล และเป็นโอกาสในการแบ่งปันและชี้แจงคำถามเพิ่มเติมที่ไม่ได้รับการแก้ไขในขั้นตอนการเก็บข้อมูล ดู [ส่วนเกี่ยวกับการสร้างภาพ](../../../../../../../../../3-Data-Visualization) เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับวิธีการสำรวจด้วยภาพที่ได้รับความนิยม
+
+## การสำรวจเพื่อระบุความไม่สอดคล้องกัน
+หัวข้อทั้งหมดในบทเรียนนี้สามารถช่วยระบุค่าที่หายไปหรือไม่สอดคล้องกัน แต่ Pandas มีฟังก์ชันสำหรับตรวจสอบบางส่วนของสิ่งเหล่านี้ [isna() หรือ isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) สามารถตรวจสอบค่าที่หายไป สิ่งสำคัญอย่างหนึ่งของการสำรวจค่าที่หายไปในข้อมูลของคุณคือการสำรวจว่าทำไมค่าจึงกลายเป็นแบบนั้นตั้งแต่แรก สิ่งนี้สามารถช่วยคุณตัดสินใจว่าจะ [ดำเนินการแก้ไขอย่างไร](/2-Working-With-Data/08-data-preparation/notebook.ipynb)
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## งานที่ได้รับมอบหมาย
+
+[การสำรวจเพื่อหาคำตอบ](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/th/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..e48b8960
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# สำรวจเพื่อหาคำตอบ
+
+นี่เป็นการต่อเนื่องจาก [งานที่มอบหมาย](../14-Introduction/assignment.md) ในบทเรียนก่อนหน้า ซึ่งเราได้ดูชุดข้อมูลอย่างคร่าวๆ ตอนนี้เราจะมาดูข้อมูลในเชิงลึกมากขึ้น
+
+อีกครั้ง คำถามที่ลูกค้าต้องการทราบคือ: **ผู้โดยสารแท็กซี่สีเหลืองในนครนิวยอร์กให้ทิปคนขับมากกว่าในฤดูหนาวหรือฤดูร้อน?**
+
+ทีมของคุณอยู่ในขั้นตอน [การวิเคราะห์](README.md) ของวงจรชีวิตวิทยาศาสตร์ข้อมูล ซึ่งคุณมีหน้าที่รับผิดชอบในการวิเคราะห์ข้อมูลเชิงสำรวจในชุดข้อมูล คุณได้รับโน้ตบุ๊กและชุดข้อมูลที่มีธุรกรรมแท็กซี่ 200 รายการจากเดือนมกราคมและกรกฎาคมปี 2019
+
+## คำแนะนำ
+
+ในไดเรกทอรีนี้มี [โน้ตบุ๊ก](assignment.ipynb) และข้อมูลจาก [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) อ้างอิงจาก [พจนานุกรมของชุดข้อมูล](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) และ [คู่มือผู้ใช้](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) เพื่อข้อมูลเพิ่มเติมเกี่ยวกับข้อมูล
+
+ใช้เทคนิคบางอย่างในบทเรียนนี้เพื่อทำ EDA ของคุณเองในโน้ตบุ๊ก (เพิ่มเซลล์ได้หากต้องการ) และตอบคำถามต่อไปนี้:
+
+- มีปัจจัยอื่นใดในข้อมูลที่อาจส่งผลต่อจำนวนเงินทิป?
+- คอลัมน์ใดที่น่าจะไม่จำเป็นในการตอบคำถามของลูกค้า?
+- จากข้อมูลที่มีอยู่ในตอนนี้ มีหลักฐานใดที่แสดงถึงพฤติกรรมการให้ทิปตามฤดูกาลหรือไม่?
+
+## รูบริก
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | ---
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/16-communication/README.md b/translations/th/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..76d1ae39
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,220 @@
+
+# วงจรชีวิตของวิทยาศาสตร์ข้อมูล: การสื่อสาร
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| วงจรชีวิตของวิทยาศาสตร์ข้อมูล: การสื่อสาร - _ภาพสเก็ตช์โดย [@nitya](https://twitter.com/nitya)_ |
+
+## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+ทดสอบความรู้ของคุณเกี่ยวกับสิ่งที่จะได้เรียนรู้ในแบบทดสอบก่อนการบรรยายด้านบน!
+
+# บทนำ
+
+### การสื่อสารคืออะไร?
+เริ่มบทเรียนนี้ด้วยการนิยามคำว่า "การสื่อสาร" **การสื่อสารคือการถ่ายทอดหรือแลกเปลี่ยนข้อมูล** ข้อมูลอาจเป็นความคิด ความรู้สึก ข้อความ สัญญาณลับ ข้อมูลเชิงตัวเลข หรืออะไรก็ตามที่ **_ผู้ส่ง_** (คนที่ส่งข้อมูล) ต้องการให้ **_ผู้รับ_** (คนที่รับข้อมูล) เข้าใจ ในบทเรียนนี้ เราจะเรียกผู้ส่งว่า "ผู้สื่อสาร" และผู้รับว่า "ผู้ฟัง"
+
+### การสื่อสารข้อมูลและการเล่าเรื่อง
+เราเข้าใจว่าการสื่อสารมีเป้าหมายเพื่อถ่ายทอดหรือแลกเปลี่ยนข้อมูล แต่เมื่อพูดถึงการสื่อสารข้อมูล เป้าหมายของคุณไม่ควรเป็นเพียงการส่งตัวเลขให้ผู้ฟังเท่านั้น คุณควรสื่อสารเรื่องราวที่ได้รับการสนับสนุนจากข้อมูลของคุณ การสื่อสารข้อมูลที่มีประสิทธิภาพและการเล่าเรื่องเป็นสิ่งที่ต้องทำควบคู่กัน ผู้ฟังของคุณมีแนวโน้มที่จะจดจำเรื่องราวที่คุณเล่าได้มากกว่าตัวเลขที่คุณให้ ในบทเรียนนี้ เราจะพูดถึงวิธีการบางอย่างที่คุณสามารถใช้การเล่าเรื่องเพื่อสื่อสารข้อมูลของคุณได้อย่างมีประสิทธิภาพมากขึ้น
+
+### ประเภทของการสื่อสาร
+ในบทเรียนนี้ เราจะพูดถึงการสื่อสารสองประเภท ได้แก่ การสื่อสารทางเดียวและการสื่อสารสองทาง
+
+**การสื่อสารทางเดียว** เกิดขึ้นเมื่อผู้ส่งส่งข้อมูลไปยังผู้รับโดยไม่มีการตอบกลับหรือข้อเสนอแนะ ตัวอย่างของการสื่อสารทางเดียวที่เราเห็นในชีวิตประจำวัน เช่น อีเมลจำนวนมาก ข่าวที่รายงานเรื่องราวล่าสุด หรือโฆษณาทางโทรทัศน์ที่บอกคุณว่าทำไมผลิตภัณฑ์ของพวกเขาถึงยอดเยี่ยม ในกรณีเหล่านี้ ผู้ส่งไม่ได้มองหาการแลกเปลี่ยนข้อมูล แต่เพียงต้องการถ่ายทอดหรือส่งข้อมูลเท่านั้น
+
+**การสื่อสารสองทาง** เกิดขึ้นเมื่อทุกฝ่ายที่เกี่ยวข้องทำหน้าที่เป็นทั้งผู้ส่งและผู้รับ ผู้ส่งจะเริ่มต้นด้วยการสื่อสารกับผู้รับ และผู้รับจะให้ข้อเสนอแนะหรือการตอบกลับ การสื่อสารสองทางคือสิ่งที่เรามักนึกถึงเมื่อพูดถึงการสื่อสาร เช่น การสนทนากันแบบตัวต่อตัว การพูดคุยทางโทรศัพท์ โซเชียลมีเดีย หรือข้อความ
+
+เมื่อสื่อสารข้อมูล จะมีบางกรณีที่คุณใช้การสื่อสารทางเดียว (เช่น การนำเสนอในที่ประชุมหรือกลุ่มใหญ่ที่ไม่มีการถามคำถามทันที) และบางกรณีที่คุณใช้การสื่อสารสองทาง (เช่น การใช้ข้อมูลเพื่อโน้มน้าวผู้มีส่วนได้ส่วนเสียให้สนับสนุน หรือเพื่อโน้มน้าวเพื่อนร่วมทีมให้ลงทุนเวลาและความพยายามในสิ่งใหม่)
+
+# การสื่อสารที่มีประสิทธิภาพ
+
+### ความรับผิดชอบของคุณในฐานะผู้สื่อสาร
+เมื่อสื่อสาร เป็นหน้าที่ของคุณที่จะต้องทำให้แน่ใจว่าผู้รับเข้าใจข้อมูลที่คุณต้องการให้พวกเขาเข้าใจ เมื่อคุณสื่อสารข้อมูล คุณไม่ต้องการให้ผู้รับรับรู้เพียงตัวเลขเท่านั้น แต่ต้องการให้พวกเขาเข้าใจเรื่องราวที่ได้รับการสนับสนุนจากข้อมูลของคุณ ผู้สื่อสารข้อมูลที่ดีคือผู้เล่าเรื่องที่ดี
+
+คุณจะเล่าเรื่องด้วยข้อมูลได้อย่างไร? มีวิธีการนับไม่ถ้วน แต่ด้านล่างนี้คือ 6 วิธีที่เราจะพูดถึงในบทเรียนนี้:
+1. เข้าใจผู้ฟัง ช่องทาง และวิธีการสื่อสารของคุณ
+2. เริ่มต้นด้วยการคิดถึงผลลัพธ์ที่ต้องการ
+3. เข้าหามันเหมือนการเล่าเรื่องจริง
+4. ใช้คำและวลีที่มีความหมาย
+5. ใช้อารมณ์
+
+แต่ละกลยุทธ์เหล่านี้จะอธิบายอย่างละเอียดในส่วนถัดไป
+
+### 1. เข้าใจผู้ฟัง ช่องทาง และวิธีการสื่อสารของคุณ
+วิธีที่คุณสื่อสารกับสมาชิกในครอบครัวอาจแตกต่างจากวิธีที่คุณสื่อสารกับเพื่อน คุณอาจใช้คำและวลีที่แตกต่างกันซึ่งเหมาะสมกับคนที่คุณกำลังพูดด้วย คุณควรใช้แนวทางเดียวกันนี้เมื่อสื่อสารข้อมูล คิดถึงว่าคุณกำลังสื่อสารกับใคร คิดถึงเป้าหมายของพวกเขาและบริบทที่พวกเขามีเกี่ยวกับสถานการณ์ที่คุณกำลังอธิบาย
+
+คุณอาจสามารถจัดกลุ่มผู้ฟังส่วนใหญ่ของคุณให้อยู่ในหมวดหมู่หนึ่งได้ ในบทความของ _Harvard Business Review_ เรื่อง “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” จิม สติเกิลเธอร์ ผู้เชี่ยวชาญด้านกลยุทธ์ของ Dell ได้ระบุหมวดหมู่ของผู้ฟังไว้ 5 ประเภท:
+
+- **ผู้เริ่มต้น**: เพิ่งเคยสัมผัสหัวข้อนี้ครั้งแรก แต่ไม่ต้องการให้ข้อมูลถูกทำให้ง่ายเกินไป
+- **ผู้ทั่วไป**: รู้จักหัวข้อนี้อยู่แล้ว แต่ต้องการภาพรวมและธีมหลัก
+- **ผู้บริหารระดับกลาง**: ต้องการความเข้าใจเชิงลึกที่สามารถนำไปปฏิบัติได้เกี่ยวกับความซับซ้อนและความสัมพันธ์ พร้อมเข้าถึงรายละเอียด
+- **ผู้เชี่ยวชาญ**: ต้องการการสำรวจและค้นพบเพิ่มเติม และต้องการรายละเอียดมากกว่าการเล่าเรื่อง
+- **ผู้บริหารระดับสูง**: มีเวลาเพียงพอที่จะเข้าใจความสำคัญและข้อสรุปของความน่าจะเป็นที่มีน้ำหนัก
+
+หมวดหมู่เหล่านี้สามารถช่วยกำหนดวิธีที่คุณนำเสนอข้อมูลให้กับผู้ฟังของคุณ
+
+นอกจากการคิดถึงหมวดหมู่ของผู้ฟังแล้ว คุณควรพิจารณาช่องทางที่คุณใช้สื่อสารกับพวกเขาด้วย วิธีการของคุณควรแตกต่างกันเล็กน้อยหากคุณกำลังเขียนบันทึกหรืออีเมล เทียบกับการประชุมหรือการนำเสนอในที่ประชุม
+
+นอกจากนี้ การรู้ว่าคุณจะสื่อสารด้วยการสื่อสารทางเดียวหรือสองทางก็สำคัญเช่นกัน
+
+หากคุณกำลังสื่อสารกับผู้ฟังที่เป็นผู้เริ่มต้นส่วนใหญ่และใช้การสื่อสารทางเดียว คุณต้องให้ความรู้แก่ผู้ฟังก่อนและให้บริบทที่เหมาะสม จากนั้นจึงนำเสนอข้อมูลของคุณและบอกพวกเขาว่าข้อมูลของคุณหมายถึงอะไรและทำไมมันถึงสำคัญ ในกรณีนี้ คุณอาจต้องมุ่งเน้นไปที่การทำให้ข้อมูลชัดเจนที่สุด เพราะผู้ฟังของคุณจะไม่สามารถถามคำถามคุณได้โดยตรง
+
+หากคุณกำลังสื่อสารกับผู้ฟังที่เป็นผู้บริหารระดับกลางส่วนใหญ่และใช้การสื่อสารสองทาง คุณอาจไม่จำเป็นต้องให้ความรู้แก่ผู้ฟังหรือให้บริบทมากนัก คุณอาจสามารถเข้าสู่การพูดคุยเกี่ยวกับข้อมูลที่คุณรวบรวมและเหตุผลที่มันสำคัญได้ทันที อย่างไรก็ตาม ในสถานการณ์นี้ คุณควรให้ความสำคัญกับการควบคุมเวลาและการนำเสนอของคุณ เมื่อใช้การสื่อสารสองทาง (โดยเฉพาะกับผู้บริหารระดับกลางที่ต้องการ "ความเข้าใจเชิงลึกที่สามารถนำไปปฏิบัติได้เกี่ยวกับความซับซ้อนและความสัมพันธ์") คำถามอาจเกิดขึ้นระหว่างการสนทนาที่อาจพาไปในทิศทางที่ไม่เกี่ยวข้องกับเรื่องราวที่คุณพยายามเล่า เมื่อเกิดเหตุการณ์นี้ คุณสามารถดำเนินการและนำการสนทนากลับมาสู่เรื่องราวของคุณได้
+
+### 2. เริ่มต้นด้วยการคิดถึงผลลัพธ์ที่ต้องการ
+การเริ่มต้นด้วยการคิดถึงผลลัพธ์ที่ต้องการหมายถึงการเข้าใจสิ่งที่คุณต้องการให้ผู้ฟังได้รับก่อนที่คุณจะเริ่มสื่อสารกับพวกเขา การคิดล่วงหน้าว่าคุณต้องการให้ผู้ฟังได้รับอะไรสามารถช่วยให้คุณสร้างเรื่องราวที่พวกเขาสามารถติดตามได้ การเริ่มต้นด้วยการคิดถึงผลลัพธ์ที่ต้องการเหมาะสมสำหรับทั้งการสื่อสารทางเดียวและสองทาง
+
+คุณจะเริ่มต้นด้วยการคิดถึงผลลัพธ์ที่ต้องการได้อย่างไร? ก่อนสื่อสารข้อมูลของคุณ ให้เขียนสิ่งที่คุณต้องการให้ผู้ฟังได้รับ จากนั้นในทุกขั้นตอนของการเตรียมเรื่องราวที่คุณต้องการเล่าด้วยข้อมูลของคุณ ให้ถามตัวเองว่า "สิ่งนี้เชื่อมโยงกับเรื่องราวที่ฉันกำลังเล่าอย่างไร?"
+
+โปรดระวัง – แม้ว่าการเริ่มต้นด้วยการคิดถึงผลลัพธ์ที่ต้องการจะเป็นสิ่งที่ดี แต่คุณไม่ควรสื่อสารเฉพาะข้อมูลที่สนับสนุนผลลัพธ์ที่คุณตั้งใจไว้ การทำเช่นนี้เรียกว่า "การเลือกข้อมูล" ซึ่งเกิดขึ้นเมื่อผู้สื่อสารเลือกสื่อสารเฉพาะข้อมูลที่สนับสนุนจุดยืนของตนและละเลยข้อมูลอื่น ๆ
+
+หากข้อมูลทั้งหมดที่คุณรวบรวมสนับสนุนผลลัพธ์ที่คุณตั้งใจไว้ นั่นเป็นเรื่องดี แต่หากมีข้อมูลที่คุณรวบรวมที่ไม่สนับสนุนผลลัพธ์ของคุณ หรือแม้แต่สนับสนุนข้อโต้แย้งที่ตรงข้ามกับผลลัพธ์ของคุณ คุณก็ควรสื่อสารข้อมูลนั้นด้วย หากเกิดเหตุการณ์นี้ ให้ซื่อสัตย์กับผู้ฟังของคุณและบอกพวกเขาว่าทำไมคุณถึงเลือกที่จะยึดติดกับเรื่องราวของคุณแม้ว่าข้อมูลทั้งหมดจะไม่สนับสนุนก็ตาม
+
+### 3. เข้าหามันเหมือนการเล่าเรื่องจริง
+เรื่องราวแบบดั้งเดิมมักเกิดขึ้นใน 5 ขั้นตอน คุณอาจเคยได้ยินขั้นตอนเหล่านี้ในรูปแบบ Exposition, Rising Action, Climax, Falling Action และ Denouement หรือในรูปแบบที่จำง่ายกว่า Context, Conflict, Climax, Closure, Conclusion เมื่อสื่อสารข้อมูลและเรื่องราวของคุณ คุณสามารถใช้แนวทางที่คล้ายกัน
+
+คุณสามารถเริ่มต้นด้วยบริบท ตั้งเวทีและทำให้แน่ใจว่าผู้ฟังของคุณอยู่ในหน้าเดียวกัน จากนั้นแนะนำความขัดแย้ง ทำไมคุณถึงต้องรวบรวมข้อมูลนี้? ปัญหาอะไรที่คุณพยายามแก้ไข? หลังจากนั้นคือจุดไคลแม็กซ์ ข้อมูลคืออะไร? ข้อมูลบอกอะไรเรา? ข้อมูลบอกให้เราต้องแก้ปัญหาอะไร? จากนั้นคุณเข้าสู่การปิดท้าย ซึ่งคุณสามารถย้ำปัญหาและวิธีแก้ปัญหาที่เสนอได้ สุดท้ายคือข้อสรุป ซึ่งคุณสามารถสรุปประเด็นสำคัญและขั้นตอนถัดไปที่คุณแนะนำให้ทีมดำเนินการ
+
+### 4. ใช้คำและวลีที่มีความหมาย
+หากคุณและฉันทำงานร่วมกันในผลิตภัณฑ์ และฉันบอกคุณว่า "ผู้ใช้ของเราต้องใช้เวลานานในการสมัครใช้งานแพลตฟอร์มของเรา" คุณจะประมาณว่า "เวลานาน" นั้นนานแค่ไหน? หนึ่งชั่วโมง? หนึ่งสัปดาห์? มันยากที่จะรู้ แล้วถ้าฉันพูดแบบนี้กับผู้ฟังทั้งหมดล่ะ? ทุกคนในผู้ฟังอาจมีความคิดที่แตกต่างกันเกี่ยวกับระยะเวลาที่ผู้ใช้ใช้ในการสมัครใช้งานแพลตฟอร์มของเรา
+
+แต่ถ้าฉันพูดว่า "ผู้ใช้ของเราต้องใช้เวลาเฉลี่ย 3 นาทีในการสมัครใช้งานและเริ่มต้นใช้งานแพลตฟอร์มของเรา"
+
+ข้อความนี้ชัดเจนกว่า เมื่อสื่อสารข้อมูล อาจเป็นเรื่องง่ายที่จะคิดว่าทุกคนในผู้ฟังของคุณคิดเหมือนคุณ แต่ไม่ใช่เสมอไป การทำให้ข้อมูลของคุณชัดเจนและเข้าใจง่ายเป็นหนึ่งในความรับผิดชอบของคุณในฐานะผู้สื่อสาร หากข้อมูลหรือเรื่องราวของคุณไม่ชัดเจน ผู้ฟังของคุณจะมีปัญหาในการติดตาม และมีโอกาสน้อยที่พวกเขาจะเข้าใจประเด็นสำคัญของคุณ
+
+คุณสามารถสื่อสารข้อมูลได้ชัดเจนขึ้นเมื่อคุณใช้คำและวลีที่มีความหมาย แทนที่จะใช้คำที่คลุมเครือ ด้านล่างนี้คือตัวอย่างบางส่วน:
+
+- เรามีปีที่ *น่าประทับใจ*!
+ - คนหนึ่งอาจคิดว่าน่าประทับใจหมายถึงรายได้เพิ่มขึ้น 2% - 3% และอีกคนอาจคิดว่าหมายถึงเพิ่มขึ้น 50% - 60%
+- อัตราความสำเร็จของผู้ใช้ของเราเพิ่มขึ้น *อย่างมาก*
+ - การเพิ่มขึ้นอย่างมากหมายถึงการเพิ่มขึ้นมากแค่ไหน?
+- โครงการนี้จะต้องใช้ความพยายาม *อย่างมาก*
+ - ความพยายามอย่างมากหมายถึงเท่าไหร่?
+
+การใช้คำที่คลุมเครืออาจมีประโยชน์ในฐานะบทนำสู่ข้อมูลเพิ่มเติมที่กำลังจะมา หรือเป็นบทสรุปของเรื่องราวที่คุณเพิ่งเล่า แต่ควรพิจารณาให้แน่ใจว่าทุกส่วนของการนำเสนอของคุณชัดเจนสำหรับผู้ฟัง
+
+### 5. ใช้อารมณ์
+อารมณ์เป็นสิ่งสำคัญในเรื่องราว และยิ่งสำคัญมากขึ้นเมื่อคุณเล่าเรื่องด้วยข้อมูล เมื่อคุณสื่อสารข้อมูล ทุกอย่างมุ่งเน้นไปที่ประเด็นสำคัญที่คุณต้องการให้ผู้ฟังได้รับ เมื่อคุณกระตุ้นอารมณ์ให้กับผู้ฟัง มันช่วยให้พวกเขาเข้าใจและมีแนวโน้มที่จะลงมือทำมากขึ้น อารมณ์ยังเพิ่มโอกาสที่ผู้ฟังจะจดจำข้อความของคุณได้
+
+คุณอาจเคยเจอสิ่งนี้ในโฆษณาทางโทรทัศน์ บางโฆษณามีอารมณ์เศร้าและใช้ความรู้สึกนี้เพื่อเชื่อมโยงกับผู้ฟังและทำให้ข้อมูลที่พวกเขานำเสนอเด่นชัดขึ้น หรือบางโฆษณาที่มีอารมณ์ร่าเริงและมีความสุขอาจทำให้คุณเชื่อมโยงข้อมูลของพวกเขากับความรู้สึกที่ดี
+
+คุณจะใช้อารมณ์เมื่อสื่อสารข้อมูลได้อย่างไร? ด้านล่างนี้คือตัวอย่างบางส่วน:
+
+- ใช้คำรับรองและเรื่องราวส่วนตัว
+ - เมื่อรวบรวมข้อมูล พยายามรวบรวมทั้งข้อมูลเชิงปริมาณและเชิงคุณภาพ และผสมผสานข้อมูลทั้งสองประเภทเมื่อคุณสื่อสาร หากข้อมูลของคุณเป็นข้อมูลเชิงปริมาณเป็นหลัก ให้ค้นหาเรื่องราวจากบุคคลเพื่อเรียนรู้เพิ่มเติมเกี่ยวกับประสบการณ์ของพวกเขากับสิ่งที่ข้อมูลของคุณบอก
+- ใช้ภาพ
+ - ภาพช่วยให้ผู้ฟังเห็นตัวเองในสถานการณ์ เมื่อคุณใช้ภาพ คุณสามารถผลักดันผู้ฟังไปสู่อารมณ์ที่คุณคิดว่าพวกเขาควรมีเกี่ยวกับข้อมูลของคุณ
+- ใช้สี
+ - สีต่าง ๆ กระตุ้นอารมณ์ที่แตกต่างกัน สีที่นิยมใช้และอารมณ์ที่พวกมันกระตุ้นมีดังนี้ โปรดทราบว่าสีอาจมีความหมายต่างกันในวัฒนธรรมที่แตกต่างกัน
+ - สีน้ำเงินมักกระตุ้นอารมณ์ของความสงบและความไว้วางใจ
+ - สีเขียวมักเกี่ยวข้องกับธรรมชาติและสิ่งแวดล้อม
+ - สีแดงมักแสดงถึงความหลงใหลและความตื่นเต้น
+ - สีเหลืองมักแสดงถึงความมองโลกในแง่ดีและความสุข
+
+# กรณีศึกษาเกี่ยวกับการสื่อสาร
+เอเมอร์สันเป็นผู้จัดการผลิตภัณฑ์สำหรับแอปมือถือ เอเมอร์สันสังเกตว่าลูกค้าส่งคำร้องเรียนและรายงานข้อบกพร่องเพิ่มขึ้น 42% ในช่วงสุดสัปดาห์ เอเมอร์สันยังสังเกตว่าลูกค้าที่ส่งคำร้องเรียนที่ไม่ได้รับการตอบกลับภายใน 48 ชั่วโมงมีแนวโน้มที่จะให้คะแนนแอป 1 หรือ 2 ในร้านค้าแอปเพิ่มขึ้น 32%
+
+หลังจากทำการวิจัย เอเมอร์สันมีวิธีแก้ปัญหาสองสามข้อที่จะแก้ไขปัญหา เอเมอร์สันจัดการประชุม 30 นาทีร่วมกับผู้นำบริษัท 3 คนเพื่อสื่อสารข้อมูลและวิธีแก
+ในการประชุม Emerson ใช้เวลา 5 นาทีอธิบายว่าทำไมการมีคะแนนต่ำใน App Store ถึงเป็นปัญหา ใช้เวลา 10 นาทีอธิบายกระบวนการวิจัยและวิธีการระบุแนวโน้ม ใช้เวลาอีก 10 นาทีพูดถึงข้อร้องเรียนของลูกค้าล่าสุดบางส่วน และใช้เวลา 5 นาทีสุดท้ายพูดถึง 2 แนวทางแก้ไขแบบผ่านๆ
+
+นี่เป็นวิธีที่มีประสิทธิภาพสำหรับ Emerson ในการสื่อสารในที่ประชุมหรือไม่?
+
+ในระหว่างการประชุม ผู้นำบริษัทคนหนึ่งมุ่งความสนใจไปที่ 10 นาทีที่ Emerson พูดถึงข้อร้องเรียนของลูกค้า หลังการประชุม ข้อร้องเรียนเหล่านี้เป็นสิ่งเดียวที่ผู้นำทีมคนนี้จำได้ ผู้นำบริษัทอีกคนหนึ่งมุ่งเน้นไปที่การที่ Emerson อธิบายกระบวนการวิจัย ส่วนผู้นำบริษัทคนที่สามจำแนวทางแก้ไขที่ Emerson เสนอได้ แต่ไม่แน่ใจว่าจะนำแนวทางเหล่านั้นไปใช้ได้อย่างไร
+
+จากสถานการณ์ข้างต้น จะเห็นได้ว่ามีช่องว่างสำคัญระหว่างสิ่งที่ Emerson ต้องการให้ผู้นำทีมรับรู้ และสิ่งที่พวกเขาได้รับจากการประชุม ด้านล่างนี้คือวิธีการอีกแบบที่ Emerson อาจพิจารณาใช้
+
+Emerson จะปรับปรุงวิธีการนี้ได้อย่างไร?
+บริบท, ความขัดแย้ง, จุดพีค, การปิดท้าย, บทสรุป
+**บริบท** - Emerson อาจใช้เวลา 5 นาทีแรกแนะนำสถานการณ์ทั้งหมดและทำให้แน่ใจว่าผู้นำทีมเข้าใจว่าปัญหานี้ส่งผลต่อเมตริกที่สำคัญต่อบริษัท เช่น รายได้ อย่างไร
+
+อาจวางโครงเรื่องแบบนี้: "ปัจจุบัน คะแนนของแอปเราใน App Store อยู่ที่ 2.5 คะแนนใน App Store มีความสำคัญต่อการเพิ่มประสิทธิภาพการค้นหาใน App Store ซึ่งส่งผลต่อจำนวนผู้ใช้ที่เห็นแอปของเรา และวิธีที่ผู้ใช้มองแอปของเรา และแน่นอน จำนวนผู้ใช้ที่เรามีเชื่อมโยงโดยตรงกับรายได้"
+
+**ความขัดแย้ง** Emerson อาจพูดต่ออีกประมาณ 5 นาทีเกี่ยวกับความขัดแย้ง
+
+อาจพูดแบบนี้: "ผู้ใช้ส่งข้อร้องเรียนและรายงานบั๊กเพิ่มขึ้น 42% ในช่วงสุดสัปดาห์ ลูกค้าที่ส่งข้อร้องเรียนและไม่ได้รับการตอบกลับภายใน 48 ชั่วโมง มีโอกาสน้อยลง 32% ที่จะให้คะแนนแอปของเรามากกว่า 2 คะแนนใน App Store การปรับปรุงคะแนนแอปของเราใน App Store ให้เป็น 4 คะแนนจะช่วยเพิ่มการมองเห็นได้ 20-30% ซึ่งผมคาดการณ์ว่าจะเพิ่มรายได้ขึ้น 10%" แน่นอนว่า Emerson ควรเตรียมพร้อมที่จะอธิบายตัวเลขเหล่านี้
+
+**จุดพีค** หลังจากวางพื้นฐานแล้ว Emerson อาจพูดถึงจุดพีคประมาณ 5 นาที
+
+Emerson อาจแนะนำแนวทางแก้ไขที่เสนอ อธิบายว่าแนวทางเหล่านั้นจะแก้ไขปัญหาที่ระบุไว้ได้อย่างไร วิธีที่แนวทางเหล่านั้นสามารถนำไปใช้ในกระบวนการทำงานที่มีอยู่ ค่าใช้จ่ายของแนวทางเหล่านั้น ผลตอบแทนจากการลงทุน (ROI) และอาจแสดงภาพหน้าจอหรือโครงร่างของวิธีที่แนวทางเหล่านั้นจะดูเมื่อถูกนำไปใช้ Emerson อาจแชร์คำรับรองจากผู้ใช้ที่ใช้เวลามากกว่า 48 ชั่วโมงในการได้รับการตอบกลับข้อร้องเรียน และคำรับรองจากตัวแทนฝ่ายบริการลูกค้าปัจจุบันในบริษัทที่มีความคิดเห็นเกี่ยวกับระบบจัดการตั๋วในปัจจุบัน
+
+**การปิดท้าย** ตอนนี้ Emerson สามารถใช้เวลา 5 นาทีทบทวนปัญหาที่บริษัทเผชิญอยู่ ทบทวนแนวทางแก้ไขที่เสนอ และทบทวนว่าทำไมแนวทางเหล่านั้นถึงเหมาะสม
+
+**บทสรุป** เนื่องจากนี่เป็นการประชุมกับผู้มีส่วนได้ส่วนเสียเพียงไม่กี่คนที่มีการสื่อสารแบบสองทาง Emerson อาจวางแผนที่จะเหลือเวลา 10 นาทีสำหรับคำถาม เพื่อให้แน่ใจว่าสิ่งที่อาจทำให้ผู้นำทีมสับสนจะได้รับการชี้แจงก่อนการประชุมจะสิ้นสุด
+
+หาก Emerson ใช้วิธีที่ 2 นี้ มีโอกาสมากขึ้นที่ผู้นำทีมจะได้รับข้อมูลจากการประชุมตามที่ Emerson ตั้งใจไว้ – ว่าการจัดการข้อร้องเรียนและบั๊กสามารถปรับปรุงได้ และมี 2 แนวทางแก้ไขที่สามารถนำมาใช้เพื่อทำให้การปรับปรุงนั้นเกิดขึ้น วิธีนี้จะเป็นวิธีที่มีประสิทธิภาพมากกว่าในการสื่อสารข้อมูลและเรื่องราวที่ Emerson ต้องการสื่อสาร
+
+
+# บทสรุป
+### สรุปประเด็นสำคัญ
+ - การสื่อสารคือการถ่ายทอดหรือแลกเปลี่ยนข้อมูล
+ - เมื่อสื่อสารข้อมูล เป้าหมายของคุณไม่ควรเป็นเพียงการส่งตัวเลขไปยังผู้ฟัง เป้าหมายของคุณควรเป็นการเล่าเรื่องที่ได้รับข้อมูลจากข้อมูลของคุณ
+ - การสื่อสารมี 2 ประเภท ได้แก่ การสื่อสารทางเดียว (ข้อมูลถูกถ่ายทอดโดยไม่มีเจตนาที่จะได้รับการตอบกลับ) และการสื่อสารสองทาง (ข้อมูลถูกถ่ายทอดไปมา)
+ - มีกลยุทธ์มากมายที่คุณสามารถใช้ในการเล่าเรื่องด้วยข้อมูลของคุณ 5 กลยุทธ์ที่เราได้กล่าวถึงคือ:
+ - เข้าใจผู้ฟัง สื่อ และวิธีการสื่อสารของคุณ
+ - เริ่มต้นด้วยเป้าหมายในใจ
+ - เข้าหามันเหมือนเป็นเรื่องราวจริงๆ
+ - ใช้คำและวลีที่มีความหมาย
+ - ใช้อารมณ์
+
+### แหล่งข้อมูลแนะนำสำหรับการศึกษาเพิ่มเติม
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+
+
+## [แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+ทบทวนสิ่งที่คุณเพิ่งเรียนรู้ด้วยแบบทดสอบหลังการบรรยายด้านบน!
+
+
+## งานที่ได้รับมอบหมาย
+
+[การวิจัยตลาด](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/th/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..deac70cf
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# เล่าเรื่องราว
+
+## คำแนะนำ
+
+วิทยาศาสตร์ข้อมูลเกี่ยวข้องกับการเล่าเรื่องราว เลือกชุดข้อมูลใดก็ได้และเขียนบทความสั้น ๆ เกี่ยวกับเรื่องราวที่คุณสามารถเล่าเกี่ยวกับมัน คุณหวังว่าชุดข้อมูลของคุณจะเปิดเผยอะไร? คุณจะทำอย่างไรหากสิ่งที่เปิดเผยนั้นมีปัญหา? หรือหากข้อมูลของคุณไม่สามารถเปิดเผยความลับได้ง่าย ๆ? ลองนึกถึงสถานการณ์ที่ชุดข้อมูลของคุณอาจนำเสนอและเขียนลงไป
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง
+--- | --- | -- |
+
+บทความหนึ่งหน้าถูกนำเสนอในรูปแบบ .doc โดยมีการอธิบายชุดข้อมูล เอกสารอ้างอิง และเล่าเรื่องราวที่สอดคล้องกันเกี่ยวกับชุดข้อมูลนั้น พร้อมตัวอย่างที่ละเอียดจากข้อมูล| บทความสั้นกว่านำเสนอในรูปแบบที่มีรายละเอียดน้อยกว่า | บทความขาดรายละเอียดในหนึ่งในหัวข้อข้างต้น
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/4-Data-Science-Lifecycle/README.md b/translations/th/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..1d53ed32
--- /dev/null
+++ b/translations/th/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# วงจรชีวิตของวิทยาศาสตร์ข้อมูล
+
+
+> ภาพถ่ายโดย Headway บน Unsplash
+
+ในบทเรียนนี้ คุณจะได้สำรวจบางแง่มุมของวงจรชีวิตวิทยาศาสตร์ข้อมูล รวมถึงการวิเคราะห์และการสื่อสารเกี่ยวกับข้อมูล
+
+### หัวข้อ
+
+1. [บทนำ](14-Introduction/README.md)
+2. [การวิเคราะห์](15-analyzing/README.md)
+3. [การสื่อสาร](16-communication/README.md)
+
+### เครดิต
+
+บทเรียนเหล่านี้เขียนขึ้นด้วย ❤️ โดย [Jalen McGee](https://twitter.com/JalenMCG) และ [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/th/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..50b061ab
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,113 @@
+
+# การแนะนำวิทยาศาสตร์ข้อมูลในระบบคลาวด์
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| วิทยาศาสตร์ข้อมูลในระบบคลาวด์: การแนะนำ - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ในบทเรียนนี้ คุณจะได้เรียนรู้หลักการพื้นฐานของระบบคลาวด์ จากนั้นคุณจะเห็นว่าทำไมการใช้บริการคลาวด์จึงน่าสนใจสำหรับการดำเนินโครงการวิทยาศาสตร์ข้อมูล และเราจะดูตัวอย่างของโครงการวิทยาศาสตร์ข้อมูลที่ดำเนินการในระบบคลาวด์
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## ระบบคลาวด์คืออะไร?
+
+ระบบคลาวด์ หรือการประมวลผลแบบคลาวด์ คือการให้บริการคอมพิวเตอร์หลากหลายรูปแบบที่คิดค่าบริการตามการใช้งาน ซึ่งโฮสต์อยู่บนโครงสร้างพื้นฐานผ่านอินเทอร์เน็ต บริการเหล่านี้รวมถึงโซลูชันต่างๆ เช่น การจัดเก็บข้อมูล ฐานข้อมูล เครือข่าย ซอฟต์แวร์ การวิเคราะห์ และบริการอัจฉริยะ
+
+เรามักจะแยกประเภทคลาวด์ออกเป็น คลาวด์สาธารณะ คลาวด์ส่วนตัว และคลาวด์แบบผสม ดังนี้:
+
+* **คลาวด์สาธารณะ**: คลาวด์สาธารณะเป็นของและดำเนินการโดยผู้ให้บริการคลาวด์บุคคลที่สาม ซึ่งให้ทรัพยากรคอมพิวเตอร์ผ่านอินเทอร์เน็ตแก่สาธารณะ
+* **คลาวด์ส่วนตัว**: หมายถึงทรัพยากรการประมวลผลแบบคลาวด์ที่ใช้โดยธุรกิจหรือองค์กรเดียวเท่านั้น โดยมีบริการและโครงสร้างพื้นฐานที่ดูแลบนเครือข่ายส่วนตัว
+* **คลาวด์แบบผสม**: คลาวด์แบบผสมคือระบบที่รวมคลาวด์สาธารณะและคลาวด์ส่วนตัวเข้าด้วยกัน ผู้ใช้สามารถเลือกใช้ศูนย์ข้อมูลในสถานที่ พร้อมทั้งอนุญาตให้ข้อมูลและแอปพลิเคชันทำงานบนคลาวด์สาธารณะหนึ่งหรือมากกว่า
+
+บริการการประมวลผลแบบคลาวด์ส่วนใหญ่แบ่งออกเป็นสามประเภท: โครงสร้างพื้นฐานเป็นบริการ (IaaS), แพลตฟอร์มเป็นบริการ (PaaS) และซอฟต์แวร์เป็นบริการ (SaaS)
+
+* **โครงสร้างพื้นฐานเป็นบริการ (IaaS)**: ผู้ใช้เช่าโครงสร้างพื้นฐานด้านไอที เช่น เซิร์ฟเวอร์และเครื่องเสมือน (VMs), การจัดเก็บข้อมูล, เครือข่าย, ระบบปฏิบัติการ
+* **แพลตฟอร์มเป็นบริการ (PaaS)**: ผู้ใช้เช่าสภาพแวดล้อมสำหรับการพัฒนา ทดสอบ ส่งมอบ และจัดการแอปพลิเคชันซอฟต์แวร์ โดยไม่ต้องกังวลเกี่ยวกับการตั้งค่าหรือการจัดการโครงสร้างพื้นฐานพื้นฐาน เช่น เซิร์ฟเวอร์ การจัดเก็บข้อมูล เครือข่าย และฐานข้อมูลที่จำเป็นสำหรับการพัฒนา
+* **ซอฟต์แวร์เป็นบริการ (SaaS)**: ผู้ใช้สามารถเข้าถึงแอปพลิเคชันซอฟต์แวร์ผ่านอินเทอร์เน็ตตามความต้องการ และมักจะเป็นแบบสมัครสมาชิก ผู้ใช้ไม่ต้องกังวลเกี่ยวกับการโฮสต์และการจัดการแอปพลิเคชันซอฟต์แวร์ โครงสร้างพื้นฐานพื้นฐาน หรือการบำรุงรักษา เช่น การอัปเกรดซอฟต์แวร์และการแก้ไขความปลอดภัย
+
+ผู้ให้บริการคลาวด์รายใหญ่ที่สุดบางราย ได้แก่ Amazon Web Services, Google Cloud Platform และ Microsoft Azure
+
+## ทำไมต้องเลือกคลาวด์สำหรับวิทยาศาสตร์ข้อมูล?
+
+นักพัฒนาและผู้เชี่ยวชาญด้านไอทีเลือกทำงานกับระบบคลาวด์ด้วยเหตุผลหลายประการ รวมถึง:
+
+* **นวัตกรรม**: คุณสามารถเพิ่มพลังให้แอปพลิเคชันของคุณโดยการรวมบริการนวัตกรรมที่สร้างโดยผู้ให้บริการคลาวด์เข้ากับแอปของคุณโดยตรง
+* **ความยืดหยุ่น**: คุณจ่ายเฉพาะบริการที่คุณต้องการและสามารถเลือกจากบริการที่หลากหลาย โดยปกติคุณจะจ่ายตามการใช้งานและปรับบริการของคุณตามความต้องการที่เปลี่ยนแปลง
+* **งบประมาณ**: คุณไม่จำเป็นต้องลงทุนเริ่มต้นเพื่อซื้อฮาร์ดแวร์และซอฟต์แวร์ ตั้งค่าและดำเนินการศูนย์ข้อมูลในสถานที่ และคุณสามารถจ่ายเฉพาะสิ่งที่คุณใช้
+* **ความสามารถในการปรับขนาด**: ทรัพยากรของคุณสามารถปรับขนาดตามความต้องการของโครงการ ซึ่งหมายความว่าแอปของคุณสามารถใช้พลังการประมวลผล การจัดเก็บ และแบนด์วิดท์มากขึ้นหรือน้อยลง โดยปรับให้เข้ากับปัจจัยภายนอกในเวลาใดก็ตาม
+* **ประสิทธิภาพ**: คุณสามารถมุ่งเน้นไปที่ธุรกิจของคุณแทนที่จะเสียเวลาไปกับงานที่สามารถจัดการโดยผู้อื่น เช่น การจัดการศูนย์ข้อมูล
+* **ความน่าเชื่อถือ**: การประมวลผลแบบคลาวด์มีหลายวิธีในการสำรองข้อมูลของคุณอย่างต่อเนื่อง และคุณสามารถตั้งค่าแผนการกู้คืนจากภัยพิบัติเพื่อให้ธุรกิจและบริการของคุณดำเนินต่อไปได้ แม้ในช่วงวิกฤต
+* **ความปลอดภัย**: คุณสามารถได้รับประโยชน์จากนโยบาย เทคโนโลยี และการควบคุมที่ช่วยเสริมความปลอดภัยของโครงการของคุณ
+
+นี่เป็นเหตุผลทั่วไปบางประการที่ผู้คนเลือกใช้บริการคลาวด์ ตอนนี้เรามีความเข้าใจที่ดีขึ้นเกี่ยวกับระบบคลาวด์และประโยชน์หลักของมันแล้ว ลองมาดูงานของนักวิทยาศาสตร์ข้อมูลและนักพัฒนาที่ทำงานกับข้อมูล และวิธีที่ระบบคลาวด์สามารถช่วยพวกเขาแก้ไขปัญหาต่างๆ ที่พวกเขาอาจเผชิญ:
+
+* **การจัดเก็บข้อมูลจำนวนมาก**: แทนที่จะซื้อ จัดการ และปกป้องเซิร์ฟเวอร์ขนาดใหญ่ คุณสามารถจัดเก็บข้อมูลของคุณโดยตรงในระบบคลาวด์ ด้วยโซลูชันเช่น Azure Cosmos DB, Azure SQL Database และ Azure Data Lake Storage
+* **การรวมข้อมูล**: การรวมข้อมูลเป็นส่วนสำคัญของวิทยาศาสตร์ข้อมูล ที่ช่วยให้คุณเปลี่ยนจากการรวบรวมข้อมูลไปสู่การดำเนินการ ด้วยบริการรวมข้อมูลที่มีในระบบคลาวด์ คุณสามารถรวบรวม แปลง และรวมข้อมูลจากแหล่งต่างๆ เข้าสู่คลังข้อมูลเดียว ด้วย Data Factory
+* **การประมวลผลข้อมูล**: การประมวลผลข้อมูลจำนวนมากต้องการพลังการประมวลผลจำนวนมาก และไม่ใช่ทุกคนที่สามารถเข้าถึงเครื่องที่มีพลังเพียงพอสำหรับสิ่งนั้น ซึ่งเป็นเหตุผลว่าทำไมหลายคนจึงเลือกใช้พลังการประมวลผลขนาดใหญ่ของระบบคลาวด์โดยตรงเพื่อดำเนินการและปรับใช้โซลูชันของพวกเขา
+* **การใช้บริการวิเคราะห์ข้อมูล**: บริการคลาวด์ เช่น Azure Synapse Analytics, Azure Stream Analytics และ Azure Databricks ช่วยให้คุณเปลี่ยนข้อมูลของคุณให้เป็นข้อมูลเชิงลึกที่นำไปใช้ได้จริง
+* **การใช้บริการแมชชีนเลิร์นนิงและข้อมูลอัจฉริยะ**: แทนที่จะเริ่มต้นจากศูนย์ คุณสามารถใช้อัลกอริทึมแมชชีนเลิร์นนิงที่ผู้ให้บริการคลาวด์นำเสนอ ด้วยบริการเช่น AzureML คุณยังสามารถใช้บริการค็อกนิทีฟ เช่น การแปลงเสียงเป็นข้อความ การแปลงข้อความเป็นเสียง การมองเห็นด้วยคอมพิวเตอร์ และอื่นๆ
+
+## ตัวอย่างวิทยาศาสตร์ข้อมูลในระบบคลาวด์
+
+ลองทำให้สิ่งนี้เป็นรูปธรรมมากขึ้นโดยดูที่สถานการณ์สองสามตัวอย่าง
+
+### การวิเคราะห์ความรู้สึกในโซเชียลมีเดียแบบเรียลไทม์
+เราจะเริ่มต้นด้วยสถานการณ์ที่มักถูกศึกษาโดยผู้ที่เริ่มต้นกับแมชชีนเลิร์นนิง: การวิเคราะห์ความรู้สึกในโซเชียลมีเดียแบบเรียลไทม์
+
+สมมติว่าคุณดำเนินเว็บไซต์ข่าวและต้องการใช้ข้อมูลสดเพื่อทำความเข้าใจว่าผู้อ่านของคุณสนใจเนื้อหาใด เพื่อทราบข้อมูลเพิ่มเติมเกี่ยวกับเรื่องนี้ คุณสามารถสร้างโปรแกรมที่ทำการวิเคราะห์ความรู้สึกแบบเรียลไทม์ของข้อมูลจากการเผยแพร่ใน Twitter ในหัวข้อที่เกี่ยวข้องกับผู้อ่านของคุณ
+
+ตัวชี้วัดสำคัญที่คุณจะดูคือปริมาณของทวีตในหัวข้อเฉพาะ (แฮชแท็ก) และความรู้สึก ซึ่งถูกกำหนดโดยใช้เครื่องมือวิเคราะห์ที่ทำการวิเคราะห์ความรู้สึกเกี่ยวกับหัวข้อที่ระบุ
+
+ขั้นตอนที่จำเป็นในการสร้างโครงการนี้มีดังนี้:
+
+* สร้างฮับเหตุการณ์สำหรับการสตรีมข้อมูลเข้า ซึ่งจะรวบรวมข้อมูลจาก Twitter
+* กำหนดค่าและเริ่มต้นแอปพลิเคชันไคลเอนต์ Twitter ซึ่งจะเรียก API การสตรีมของ Twitter
+* สร้างงาน Stream Analytics
+* ระบุข้อมูลเข้าและคำค้นหาของงาน
+* สร้างปลายทางเอาต์พุตและระบุเอาต์พุตของงาน
+* เริ่มต้นงาน
+
+เพื่อดูขั้นตอนทั้งหมด โปรดดู [เอกสารประกอบ](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099)
+
+### การวิเคราะห์เอกสารวิชาการ
+ลองดูอีกตัวอย่างหนึ่งของโครงการที่สร้างโดย [Dmitry Soshnikov](http://soshnikov.com) หนึ่งในผู้เขียนหลักสูตรนี้
+
+Dmitry สร้างเครื่องมือที่วิเคราะห์เอกสารเกี่ยวกับ COVID โดยการตรวจสอบโครงการนี้ คุณจะเห็นวิธีการสร้างเครื่องมือที่ดึงความรู้จากเอกสารวิชาการ ได้ข้อมูลเชิงลึก และช่วยนักวิจัยนำทางผ่านคอลเลกชันเอกสารจำนวนมากได้อย่างมีประสิทธิภาพ
+
+ลองดูขั้นตอนต่างๆ ที่ใช้สำหรับสิ่งนี้:
+* การดึงและการประมวลผลข้อมูลเบื้องต้นด้วย [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* การใช้ [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) เพื่อประมวลผลแบบขนาน
+* การจัดเก็บและการค้นหาข้อมูลด้วย [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+* สร้างแดชบอร์ดแบบโต้ตอบสำหรับการสำรวจและการแสดงผลข้อมูลด้วย Power BI
+
+เพื่อดูขั้นตอนทั้งหมด โปรดเยี่ยมชม [บล็อกของ Dmitry](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/)
+
+ดังที่คุณเห็น เราสามารถใช้บริการคลาวด์ในหลายวิธีเพื่อดำเนินการวิทยาศาสตร์ข้อมูล
+
+## หมายเหตุท้ายบท
+
+แหล่งข้อมูล:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## แบบทดสอบหลังเรียน
+
+[แบบทดสอบหลังเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## งานที่ได้รับมอบหมาย
+
+[การวิจัยตลาด](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/th/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..cbd238a1
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# การวิจัยตลาด
+
+## คำแนะนำ
+
+ในบทเรียนนี้ คุณได้เรียนรู้ว่ามีผู้ให้บริการคลาวด์ที่สำคัญหลายราย ทำการวิจัยตลาดเพื่อค้นหาว่าแต่ละรายสามารถนำเสนออะไรให้กับนักวิทยาศาสตร์ข้อมูล ข้อเสนอเหล่านี้เปรียบเทียบกันได้หรือไม่? เขียนรายงานเพื่ออธิบายข้อเสนอของผู้ให้บริการคลาวด์สามรายหรือมากกว่านั้น
+
+## เกณฑ์การประเมิน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | --- |
+รายงานความยาวหนึ่งหน้าที่อธิบายข้อเสนอด้านวิทยาศาสตร์ข้อมูลของผู้ให้บริการคลาวด์สามรายและเปรียบเทียบความแตกต่างระหว่างพวกเขา | รายงานที่สั้นกว่านำเสนอ | รายงานถูกนำเสนอโดยไม่มีการวิเคราะห์ที่สมบูรณ์
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่มีความสำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/th/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..8387ddb8
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,351 @@
+
+# วิทยาศาสตร์ข้อมูลบนคลาวด์: วิธี "Low code/No code"
+
+|](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| วิทยาศาสตร์ข้อมูลบนคลาวด์: Low Code - _ภาพสเก็ตช์โดย [@nitya](https://twitter.com/nitya)_ |
+
+สารบัญ:
+
+- [วิทยาศาสตร์ข้อมูลบนคลาวด์: วิธี "Low code/No code"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [แบบทดสอบก่อนการบรรยาย](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. บทนำ](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Azure Machine Learning คืออะไร?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 โครงการพยากรณ์ภาวะหัวใจล้มเหลว:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 ชุดข้อมูลภาวะหัวใจล้มเหลว:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. การฝึกโมเดลแบบ Low code/No code ใน Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 การสร้าง Azure ML workspace](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 ทรัพยากรการประมวลผล](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 การเลือกตัวเลือกที่เหมาะสมสำหรับทรัพยากรการประมวลผล](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 การสร้างคลัสเตอร์การประมวลผล](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 การโหลดชุดข้อมูล](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 การฝึกแบบ Low code/No code ด้วย AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. การปรับใช้โมเดลแบบ Low code/No code และการใช้งาน Endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 การปรับใช้โมเดล](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 การใช้งาน Endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 ความท้าทาย](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [แบบทดสอบหลังการบรรยาย](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [การทบทวนและการศึกษาด้วยตนเอง](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [งานที่ได้รับมอบหมาย](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+
+## 1. บทนำ
+
+### 1.1 Azure Machine Learning คืออะไร?
+
+แพลตฟอร์มคลาวด์ Azure มีผลิตภัณฑ์และบริการคลาวด์มากกว่า 200 รายการที่ออกแบบมาเพื่อช่วยให้คุณสร้างโซลูชันใหม่ๆ ได้อย่างมีประสิทธิภาพ นักวิทยาศาสตร์ข้อมูลใช้ความพยายามอย่างมากในการสำรวจและเตรียมข้อมูล รวมถึงการทดลองใช้อัลกอริธึมการฝึกโมเดลต่างๆ เพื่อสร้างโมเดลที่แม่นยำ งานเหล่านี้ใช้เวลามากและมักใช้ทรัพยากรการประมวลผลที่มีราคาแพงอย่างไม่มีประสิทธิภาพ
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) เป็นแพลตฟอร์มบนคลาวด์สำหรับการสร้างและดำเนินการโซลูชัน Machine Learning บน Azure โดยมีฟีเจอร์และความสามารถหลากหลายที่ช่วยให้นักวิทยาศาสตร์ข้อมูลเตรียมข้อมูล ฝึกโมเดล เผยแพร่บริการพยากรณ์ และติดตามการใช้งาน สิ่งสำคัญที่สุดคือช่วยเพิ่มประสิทธิภาพโดยการทำงานที่ใช้เวลามากให้เป็นอัตโนมัติ และช่วยให้สามารถใช้ทรัพยากรการประมวลผลบนคลาวด์ที่ปรับขนาดได้อย่างมีประสิทธิภาพเพื่อจัดการข้อมูลปริมาณมาก โดยเสียค่าใช้จ่ายเฉพาะเมื่อใช้งานจริง
+
+Azure ML มีเครื่องมือทั้งหมดที่นักพัฒนาและนักวิทยาศาสตร์ข้อมูลต้องการสำหรับการทำงาน Machine Learning ซึ่งรวมถึง:
+
+- **Azure Machine Learning Studio**: พอร์ทัลเว็บใน Azure Machine Learning สำหรับตัวเลือกแบบ low-code และ no-code สำหรับการฝึกโมเดล การปรับใช้ การทำงานอัตโนมัติ การติดตาม และการจัดการทรัพยากร Studio นี้ผสานรวมกับ Azure Machine Learning SDK เพื่อประสบการณ์ที่ราบรื่น
+- **Jupyter Notebooks**: ใช้สำหรับการสร้างต้นแบบและทดสอบโมเดล ML อย่างรวดเร็ว
+- **Azure Machine Learning Designer**: ช่วยให้สามารถลากและวางโมดูลเพื่อสร้างการทดลองและปรับใช้ pipeline ในสภาพแวดล้อมแบบ low-code
+- **Automated machine learning UI (AutoML)**: ทำงานซ้ำๆ ในการพัฒนาโมเดล Machine Learning โดยอัตโนมัติ ช่วยสร้างโมเดล ML ด้วยความสามารถในการปรับขนาด ประสิทธิภาพ และผลิตภาพสูง ในขณะที่ยังคงรักษาคุณภาพของโมเดล
+- **Data Labelling**: เครื่องมือ ML ที่ช่วยในการติดป้ายกำกับข้อมูลโดยอัตโนมัติ
+- **ส่วนขยาย Machine Learning สำหรับ Visual Studio Code**: มอบสภาพแวดล้อมการพัฒนาแบบครบวงจรสำหรับการสร้างและจัดการโครงการ ML
+- **Machine learning CLI**: คำสั่งสำหรับจัดการทรัพยากร Azure ML ผ่านบรรทัดคำสั่ง
+- **การผสานรวมกับเฟรมเวิร์กโอเพ่นซอร์ส** เช่น PyTorch, TensorFlow, Scikit-learn และอื่นๆ สำหรับการฝึก การปรับใช้ และการจัดการกระบวนการ Machine Learning แบบครบวงจร
+- **MLflow**: ไลบรารีโอเพ่นซอร์สสำหรับจัดการวงจรชีวิตของการทดลอง Machine Learning **MLFlow Tracking** เป็นส่วนประกอบของ MLflow ที่บันทึกและติดตามเมตริกการฝึกและสิ่งประดิษฐ์ของโมเดล ไม่ว่าจะอยู่ในสภาพแวดล้อมใดก็ตาม
+
+### 1.2 โครงการพยากรณ์ภาวะหัวใจล้มเหลว:
+
+ไม่มีข้อสงสัยเลยว่าการสร้างและพัฒนาโครงการเป็นวิธีที่ดีที่สุดในการทดสอบทักษะและความรู้ของคุณ ในบทเรียนนี้ เราจะสำรวจสองวิธีที่แตกต่างกันในการสร้างโครงการวิทยาศาสตร์ข้อมูลเพื่อพยากรณ์การเกิดภาวะหัวใจล้มเหลวใน Azure ML Studio ผ่านวิธี Low code/No code และผ่าน Azure ML SDK ตามแผนภาพต่อไปนี้:
+
+
+
+แต่ละวิธีมีข้อดีและข้อเสียของตัวเอง วิธี Low code/No code นั้นเริ่มต้นได้ง่ายกว่า เนื่องจากเกี่ยวข้องกับการใช้งาน GUI (Graphical User Interface) โดยไม่ต้องมีความรู้เกี่ยวกับโค้ดมาก่อน วิธีนี้ช่วยให้สามารถทดสอบความเป็นไปได้ของโครงการและสร้าง POC (Proof Of Concept) ได้อย่างรวดเร็ว อย่างไรก็ตาม เมื่อโครงการเติบโตขึ้นและต้องการความพร้อมสำหรับการใช้งานจริง การสร้างทรัพยากรผ่าน GUI อาจไม่เหมาะสม เราจำเป็นต้องทำให้ทุกอย่างเป็นอัตโนมัติผ่านการเขียนโปรแกรม ตั้งแต่การสร้างทรัพยากรไปจนถึงการปรับใช้โมเดล ซึ่งการรู้วิธีใช้ Azure ML SDK จึงมีความสำคัญ
+
+| | Low code/No code | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| ความเชี่ยวชาญในโค้ด | ไม่จำเป็น | จำเป็น |
+| เวลาที่ใช้ในการพัฒนา | รวดเร็วและง่าย | ขึ้นอยู่กับความเชี่ยวชาญในโค้ด |
+| พร้อมสำหรับการใช้งานจริง | ไม่ | ใช่ |
+
+### 1.3 ชุดข้อมูลภาวะหัวใจล้มเหลว:
+
+โรคหัวใจและหลอดเลือด (CVDs) เป็นสาเหตุการเสียชีวิตอันดับ 1 ทั่วโลก คิดเป็น 31% ของการเสียชีวิตทั้งหมดทั่วโลก ปัจจัยเสี่ยงด้านสิ่งแวดล้อมและพฤติกรรม เช่น การใช้ยาสูบ อาหารที่ไม่ดีต่อสุขภาพและโรคอ้วน การขาดการออกกำลังกาย และการดื่มแอลกอฮอล์ในปริมาณที่เป็นอันตราย สามารถใช้เป็นคุณลักษณะสำหรับโมเดลการประมาณการได้ การสามารถประมาณความน่าจะเป็นของการพัฒนา CVD จะเป็นประโยชน์อย่างมากในการป้องกันการเกิดภาวะหัวใจล้มเหลวในผู้ที่มีความเสี่ยงสูง
+
+Kaggle ได้เผยแพร่ [ชุดข้อมูลภาวะหัวใจล้มเหลว](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) ให้ใช้งานได้ฟรี ซึ่งเราจะใช้สำหรับโครงการนี้ คุณสามารถดาวน์โหลดชุดข้อมูลได้ทันที ชุดข้อมูลนี้เป็นข้อมูลแบบตารางที่มี 13 คอลัมน์ (12 คุณลักษณะและ 1 ตัวแปรเป้าหมาย) และ 299 แถว
+
+| | ชื่อตัวแปร | ประเภท | คำอธิบาย | ตัวอย่าง |
+|----|---------------------------|-----------------|---------------------------------------------------------|-------------------|
+| 1 | age | เชิงตัวเลข | อายุของผู้ป่วย | 25 |
+| 2 | anaemia | บูลีน | การลดลงของเซลล์เม็ดเลือดแดงหรือฮีโมโกลบิน | 0 หรือ 1 |
+| 3 | creatinine_phosphokinase | เชิงตัวเลข | ระดับเอนไซม์ CPK ในเลือด | 542 |
+| 4 | diabetes | บูลีน | ผู้ป่วยเป็นเบาหวานหรือไม่ | 0 หรือ 1 |
+| 5 | ejection_fraction | เชิงตัวเลข | เปอร์เซ็นต์ของเลือดที่ออกจากหัวใจในแต่ละการบีบตัว | 45 |
+| 6 | high_blood_pressure | บูลีน | ผู้ป่วยมีความดันโลหิตสูงหรือไม่ | 0 หรือ 1 |
+| 7 | platelets | เชิงตัวเลข | จำนวนเกล็ดเลือดในเลือด | 149000 |
+| 8 | serum_creatinine | เชิงตัวเลข | ระดับเซรั่มครีเอตินีนในเลือด | 0.5 |
+| 9 | serum_sodium | เชิงตัวเลข | ระดับเซรั่มโซเดียมในเลือด | jun |
+| 10 | sex | บูลีน | เพศหญิงหรือเพศชาย | 0 หรือ 1 |
+| 11 | smoking | บูลีน | ผู้ป่วยสูบบุหรี่หรือไม่ | 0 หรือ 1 |
+| 12 | time | เชิงตัวเลข | ระยะเวลาติดตามผล (วัน) | 4 |
+|----|---------------------------|-----------------|---------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Target] | บูลีน | ผู้ป่วยเสียชีวิตในช่วงระยะเวลาติดตามผลหรือไม่ | 0 หรือ 1 |
+
+เมื่อคุณมีชุดข้อมูลแล้ว เราสามารถเริ่มโครงการใน Azure ได้
+
+## 2. การฝึกโมเดลแบบ Low code/No code ใน Azure ML Studio
+
+### 2.1 การสร้าง Azure ML workspace
+
+ในการฝึกโมเดลใน Azure ML คุณต้องสร้าง Azure ML workspace ก่อน Workspace เป็นทรัพยากรระดับสูงสุดสำหรับ Azure Machine Learning ซึ่งให้สถานที่ส่วนกลางสำหรับทำงานกับสิ่งประดิษฐ์ทั้งหมดที่คุณสร้างเมื่อใช้ Azure Machine Learning Workspace จะเก็บประวัติของการฝึกทั้งหมด รวมถึงบันทึก เมตริก ผลลัพธ์ และสแนปช็อตของสคริปต์ของคุณ คุณสามารถใช้ข้อมูลนี้เพื่อตัดสินใจว่าการฝึกครั้งใดให้โมเดลที่ดีที่สุด [เรียนรู้เพิ่มเติม](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+แนะนำให้ใช้เบราว์เซอร์ที่ทันสมัยที่สุดที่เข้ากันได้กับระบบปฏิบัติการของคุณ เบราว์เซอร์ที่รองรับได้แก่:
+
+- Microsoft Edge (Microsoft Edge เวอร์ชันใหม่ล่าสุด ไม่ใช่ Microsoft Edge legacy)
+- Safari (เวอร์ชันล่าสุด เฉพาะ Mac)
+- Chrome (เวอร์ชันล่าสุด)
+- Firefox (เวอร์ชันล่าสุด)
+
+ในการใช้ Azure Machine Learning ให้สร้าง workspace ในการสมัครสมาชิก Azure ของคุณ จากนั้นคุณสามารถใช้ workspace นี้เพื่อจัดการข้อมูล ทรัพยากรการประมวลผล โค้ด โมเดล และสิ่งประดิษฐ์อื่นๆ ที่เกี่ยวข้องกับงาน Machine Learning ของคุณ
+
+> **_หมายเหตุ:_** การสมัครสมาชิก Azure ของคุณจะถูกเรียกเก็บเงินเล็กน้อยสำหรับการจัดเก็บข้อมูลตราบใดที่ Azure Machine Learning workspace ยังคงอยู่ในบัญชีของคุณ ดังนั้นเราขอแนะนำให้คุณลบ workspace เมื่อคุณไม่ได้ใช้งานอีกต่อไป
+
+1. ลงชื่อเข้าใช้ [Azure portal](https://ms.portal.azure.com/) โดยใช้ข้อมูลประจำตัว Microsoft ที่เชื่อมโยงกับการสมัครสมาชิก Azure ของคุณ
+2. เลือก **+Create a resource**
+
+ 
+
+ ค้นหา Machine Learning และเลือกไทล์ Machine Learning
+
+ 
+
+ คลิกปุ่มสร้าง
+
+ 
+
+ กรอกการตั้งค่าตามนี้:
+ - Subscription: การสมัครสมาชิก Azure ของคุณ
+ - Resource group: สร้างหรือเลือกกลุ่มทรัพยากร
+ - Workspace name: ใส่ชื่อที่ไม่ซ้ำสำหรับ workspace ของคุณ
+ - Region: เลือกภูมิภาคที่ใกล้คุณที่สุด
+ - Storage account: สังเกตบัญชีจัดเก็บข้อมูลใหม่ที่ถูกสร้างขึ้นสำหรับ workspace ของคุณ
+ - Key vault: สังเกต Key vault ใหม่ที่ถูกสร้างขึ้นสำหรับ workspace ของคุณ
+ - Application insights: สังเกตทรัพยากร Application insights ใหม่ที่ถูกสร้างขึ้นสำหรับ workspace ของคุณ
+ - Container registry: ไม่มี (จะถูกสร้างขึ้นโดยอัตโนมัติเมื่อคุณปรับใช้โมเดลใน container ครั้งแรก)
+
+ 
+
+ - คลิกปุ่มสร้าง + ตรวจสอบ และจากนั้นคลิกปุ่มสร้าง
+3. รอให้ workspace ของคุณถูกสร้าง (อาจใช้เวลาสักครู่) จากนั้นไปที่ workspace ในพอร์ทัล คุณสามารถค้นหาได้ผ่านบริการ Azure Machine Learning
+4. ในหน้า Overview ของ workspace ของคุณ เปิด Azure Machine Learning studio (หรือเปิดแท็บเบราว์เซอร์ใหม่และไปที่ https://ml.azure.com) และลงชื่อเข้าใช้ Azure Machine Learning studio โดยใช้บัญชี Microsoft ของคุณ หากได้รับแจ้ง ให้เลือกไดเรกทอรีและการสมัครสมาชิก Azure ของคุณ และ workspace Azure Machine Learning ของคุณ
+
+
+
+5. ใน Azure Machine Learning studio ให้สลับไอคอน ☰ ที่มุมซ้ายบนเพื่อดูหน้าต่างๆ ในอินเทอร์เฟซ คุณสามารถใช้หน้าต่างเหล่านี้เพื่อจัดการทรัพยากรใน workspace ของคุณ
+
+
+
+คุณสามารถจัดการ workspace ของคุณโดยใช้ Azure portal แต่สำหรับนักวิทยาศาสตร์ข้อมูลและวิศวกร Machine Learning Operations Azure Machine Learning Studio มอบอินเทอร์เฟซที่เน้นการใช้งานสำหรับการจัดการทรัพยากรใน workspace
+
+### 2.2 ทรัพยากรการประมวลผล
+
+ทรัพยากรการประมวลผลคือทรัพยากรบนคลาวด์ที่คุณสามารถใช้รันกระบวนการฝึกโมเดลและสำรวจข้อมูล มีทรัพยากรการประมวลผล 4 ประเภทที่คุณสามารถสร้างได้:
+
+- **Compute Instances**: สถานีงานพัฒนาที่นักวิทยาศาสตร์ข้อมูลสามารถใช้ทำงานกับข้อมูลและโมเดลได้ ซึ่งเกี่ยวข้องกับการสร้าง Virtual Machine (VM) และเปิดตัวโน้ตบุ๊กอินสแตนซ์ คุณสามารถฝึกโมเดลโดยเรียกคลัสเตอร์การประมวลผลจากโน้ตบุ๊ก
+- **Compute Clusters**: คลัสเตอร์ VM ที่ปรับขนาดได้สำหรับการประมวลผลโค้ดการทดลองตามความต้องการ คุณจะต้องใช้เมื่อฝึกโมเดล คลัสเตอร์การประมวลผลยังสามารถใช้ทรัพยากร GPU หรือ CPU เฉพาะทางได้
+- **Inference Clusters**: เป้าหมายการปรับใช้สำหรับบริการพยากรณ์ที่ใช้โมเดลที่คุณฝึก
+- **Attached Compute**: ลิงก์ไปยังทรัพยากรคอมพิวเตอร์ Azure ที่มีอยู่ เช่น Virtual Machines หรือคลัสเตอร์ Azure Databricks
+
+#### 2.2.1 การเลือกตัวเลือกที่เหมาะสมสำหรับทรัพยากรคอมพิวเตอร์ของคุณ
+
+มีปัจจัยสำคัญบางประการที่ควรพิจารณาเมื่อสร้างทรัพยากรคอมพิวเตอร์ และตัวเลือกเหล่านั้นอาจเป็นการตัดสินใจที่สำคัญ
+
+**คุณต้องการ CPU หรือ GPU?**
+
+CPU (Central Processing Unit) คือวงจรอิเล็กทรอนิกส์ที่ทำหน้าที่ประมวลผลคำสั่งในโปรแกรมคอมพิวเตอร์ ส่วน GPU (Graphics Processing Unit) เป็นวงจรอิเล็กทรอนิกส์เฉพาะทางที่สามารถประมวลผลโค้ดที่เกี่ยวข้องกับกราฟิกได้ในอัตราที่สูงมาก
+
+ความแตกต่างหลักระหว่างสถาปัตยกรรม CPU และ GPU คือ CPU ถูกออกแบบมาเพื่อจัดการงานที่หลากหลายได้อย่างรวดเร็ว (วัดจากความเร็วของนาฬิกา CPU) แต่มีข้อจำกัดในความสามารถในการทำงานพร้อมกัน GPU ถูกออกแบบมาสำหรับการประมวลผลแบบขนานและเหมาะสมกว่าสำหรับงานเรียนรู้เชิงลึก
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| ราคาถูกกว่า | ราคาแพงกว่า |
+| ระดับการทำงานพร้อมกันต่ำ | ระดับการทำงานพร้อมกันสูง |
+| ช้ากว่าในการฝึกโมเดลเรียนรู้เชิงลึก | เหมาะสมสำหรับเรียนรู้เชิงลึก|
+
+**ขนาดของคลัสเตอร์**
+
+คลัสเตอร์ที่ใหญ่กว่าจะมีค่าใช้จ่ายสูงกว่า แต่จะให้การตอบสนองที่ดีกว่า ดังนั้น หากคุณมีเวลาแต่มีงบประมาณจำกัด คุณควรเริ่มต้นด้วยคลัสเตอร์ขนาดเล็ก ในทางกลับกัน หากคุณมีงบประมาณแต่มีเวลาจำกัด คุณควรเริ่มต้นด้วยคลัสเตอร์ขนาดใหญ่
+
+**ขนาดของ VM**
+
+ขึ้นอยู่กับข้อจำกัดด้านเวลาและงบประมาณ คุณสามารถปรับขนาด RAM, ดิสก์, จำนวนคอร์ และความเร็วของนาฬิกา การเพิ่มพารามิเตอร์เหล่านี้ทั้งหมดจะมีค่าใช้จ่ายสูงขึ้น แต่จะให้ประสิทธิภาพที่ดีกว่า
+
+**อินสแตนซ์แบบเฉพาะหรือแบบลำดับความสำคัญต่ำ?**
+
+อินสแตนซ์แบบลำดับความสำคัญต่ำหมายความว่าสามารถถูกขัดจังหวะได้: โดยพื้นฐานแล้ว Microsoft Azure สามารถนำทรัพยากรเหล่านั้นไปใช้กับงานอื่น ซึ่งจะขัดจังหวะงาน อินสแตนซ์แบบเฉพาะ หรือแบบไม่สามารถขัดจังหวะได้ หมายความว่างานจะไม่ถูกยกเลิกโดยไม่ได้รับอนุญาตจากคุณ นี่เป็นอีกหนึ่งการพิจารณาระหว่างเวลาและเงิน เนื่องจากอินสแตนซ์ที่สามารถขัดจังหวะได้มีราคาถูกกว่าอินสแตนซ์แบบเฉพาะ
+
+#### 2.2.2 การสร้างคลัสเตอร์คอมพิวเตอร์
+
+ใน [Azure ML workspace](https://ml.azure.com/) ที่เราสร้างไว้ก่อนหน้านี้ ไปที่ Compute และคุณจะเห็นทรัพยากรคอมพิวเตอร์ต่างๆ ที่เราเพิ่งพูดถึง (เช่น Compute instances, Compute clusters, Inference clusters และ Attached compute) สำหรับโปรเจกต์นี้ เราจะต้องใช้ Compute cluster สำหรับการฝึกโมเดล ใน Studio คลิกที่เมนู "Compute" จากนั้นแท็บ "Compute cluster" และคลิกปุ่ม "+ New" เพื่อสร้าง Compute cluster
+
+
+
+1. เลือกตัวเลือกของคุณ: Dedicated vs Low priority, CPU หรือ GPU, VM size และจำนวนคอร์ (คุณสามารถใช้การตั้งค่าเริ่มต้นสำหรับโปรเจกต์นี้)
+2. คลิกปุ่ม Next
+
+
+
+3. ตั้งชื่อคลัสเตอร์
+4. เลือกตัวเลือกของคุณ: จำนวนโหนดขั้นต่ำ/สูงสุด, วินาทีที่ไม่ได้ใช้งานก่อนลดขนาด, การเข้าถึง SSH โปรดทราบว่าหากจำนวนโหนดขั้นต่ำคือ 0 คุณจะประหยัดเงินเมื่อคลัสเตอร์ไม่ได้ใช้งาน โปรดทราบว่าจำนวนโหนดสูงสุดที่มากขึ้นจะทำให้การฝึกโมเดลเร็วขึ้น จำนวนโหนดสูงสุดที่แนะนำคือ 3
+5. คลิกปุ่ม "Create" ขั้นตอนนี้อาจใช้เวลาสองสามนาที
+
+
+
+เยี่ยมมาก! ตอนนี้เรามี Compute cluster แล้ว เราจำเป็นต้องโหลดข้อมูลไปยัง Azure ML Studio
+
+### 2.3 การโหลดชุดข้อมูล
+
+1. ใน [Azure ML workspace](https://ml.azure.com/) ที่เราสร้างไว้ก่อนหน้านี้ คลิกที่ "Datasets" ในเมนูด้านซ้ายและคลิกปุ่ม "+ Create dataset" เพื่อสร้างชุดข้อมูล เลือกตัวเลือก "From local files" และเลือกชุดข้อมูล Kaggle ที่เราดาวน์โหลดไว้ก่อนหน้านี้
+
+ 
+
+2. ตั้งชื่อชุดข้อมูล ประเภท และคำอธิบาย คลิก Next อัปโหลดข้อมูลจากไฟล์ คลิก Next
+
+ 
+
+3. ใน Schema เปลี่ยนประเภทข้อมูลเป็น Boolean สำหรับฟีเจอร์ต่อไปนี้: anaemia, diabetes, high blood pressure, sex, smoking, และ DEATH_EVENT คลิก Next และคลิก Create
+
+ 
+
+เยี่ยมมาก! ตอนนี้ชุดข้อมูลพร้อมแล้วและ Compute cluster ถูกสร้างขึ้น เราสามารถเริ่มการฝึกโมเดลได้!
+
+### 2.4 การฝึกโมเดลแบบ Low code/No code ด้วย AutoML
+
+การพัฒนาโมเดลเรียนรู้ของเครื่องแบบดั้งเดิมใช้ทรัพยากรมาก ต้องการความรู้เฉพาะทางและเวลาในการสร้างและเปรียบเทียบโมเดลหลายๆ ตัว AutoML (Automated Machine Learning) คือกระบวนการอัตโนมัติที่ช่วยลดงานที่ใช้เวลานานและซ้ำซากในการพัฒนาโมเดลเรียนรู้ของเครื่อง มันช่วยให้นักวิทยาศาสตร์ข้อมูล นักวิเคราะห์ และนักพัฒนาสร้างโมเดล ML ด้วยความสามารถในการปรับขนาด ประสิทธิภาพ และผลิตภาพสูง ในขณะที่ยังคงรักษาคุณภาพของโมเดล [เรียนรู้เพิ่มเติม](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. ใน [Azure ML workspace](https://ml.azure.com/) ที่เราสร้างไว้ก่อนหน้านี้ คลิกที่ "Automated ML" ในเมนูด้านซ้ายและเลือกชุดข้อมูลที่คุณเพิ่งอัปโหลด คลิก Next
+
+ 
+
+2. ตั้งชื่อการทดลองใหม่ คอลัมน์เป้าหมาย (DEATH_EVENT) และ Compute cluster ที่เราสร้างไว้ คลิก Next
+
+ 
+
+3. เลือก "Classification" และคลิก Finish ขั้นตอนนี้อาจใช้เวลาระหว่าง 30 นาทีถึง 1 ชั่วโมง ขึ้นอยู่กับขนาดของ Compute cluster
+
+ 
+
+4. เมื่อการรันเสร็จสิ้น คลิกที่แท็บ "Automated ML" คลิกที่การรันของคุณ และคลิกที่อัลกอริทึมในการ์ด "Best model summary"
+
+ 
+
+ที่นี่คุณสามารถดูคำอธิบายโดยละเอียดของโมเดลที่ดีที่สุดที่ AutoML สร้างขึ้น คุณยังสามารถสำรวจโมเดลอื่นๆ ที่สร้างขึ้นในแท็บ Models ใช้เวลาสักครู่เพื่อสำรวจโมเดลในปุ่ม Explanations (preview) เมื่อคุณเลือกโมเดลที่ต้องการใช้ (ในที่นี้เราจะเลือกโมเดลที่ดีที่สุดที่ AutoML เลือกไว้) เราจะดูวิธีการนำไปใช้งาน
+
+## 3. การนำโมเดลไปใช้งานและการบริโภค Endpoint แบบ Low code/No code
+### 3.1 การนำโมเดลไปใช้งาน
+
+อินเทอร์เฟซ AutoML ช่วยให้คุณนำโมเดลที่ดีที่สุดไปใช้งานเป็นบริการเว็บได้ในไม่กี่ขั้นตอน การนำไปใช้งานคือการรวมโมเดลเพื่อให้สามารถทำการพยากรณ์ตามข้อมูลใหม่และระบุพื้นที่ที่มีโอกาส สำหรับโปรเจกต์นี้ การนำไปใช้งานเป็นบริการเว็บหมายความว่าแอปพลิเคชันทางการแพทย์จะสามารถใช้โมเดลเพื่อทำการพยากรณ์สดเกี่ยวกับความเสี่ยงของผู้ป่วยที่จะเกิดภาวะหัวใจล้มเหลว
+
+ในคำอธิบายโมเดลที่ดีที่สุด คลิกที่ปุ่ม "Deploy"
+
+
+
+15. ตั้งชื่อ คำอธิบาย ประเภท Compute (Azure Container Instance) เปิดใช้งานการตรวจสอบสิทธิ์ และคลิก Deploy ขั้นตอนนี้อาจใช้เวลาประมาณ 20 นาที การนำไปใช้งานประกอบด้วยหลายขั้นตอน รวมถึงการลงทะเบียนโมเดล การสร้างทรัพยากร และการกำหนดค่าทรัพยากรสำหรับบริการเว็บ ข้อความสถานะจะปรากฏใต้ Deploy status เลือก Refresh เป็นระยะเพื่อตรวจสอบสถานะการนำไปใช้งาน เมื่อสถานะเป็น "Healthy" หมายความว่าการนำไปใช้งานเสร็จสมบูรณ์และกำลังทำงาน
+
+
+
+16. เมื่อการนำไปใช้งานเสร็จสิ้น คลิกที่แท็บ Endpoint และคลิกที่ Endpoint ที่คุณเพิ่งนำไปใช้งาน คุณสามารถค้นหาข้อมูลทั้งหมดเกี่ยวกับ Endpoint ได้ที่นี่
+
+
+
+ยอดเยี่ยม! ตอนนี้เรามีโมเดลที่นำไปใช้งานแล้ว เราสามารถเริ่มการบริโภค Endpoint ได้
+
+### 3.2 การบริโภค Endpoint
+
+คลิกที่แท็บ "Consume" ที่นี่คุณสามารถค้นหา REST endpoint และสคริปต์ Python ในตัวเลือกการบริโภค ใช้เวลาสักครู่เพื่ออ่านโค้ด Python
+
+สคริปต์นี้สามารถรันได้โดยตรงจากเครื่องของคุณและจะบริโภค Endpoint ของคุณ
+
+
+
+ใช้เวลาสักครู่เพื่อดูสองบรรทัดโค้ดนี้:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+ตัวแปร `url` คือ REST endpoint ที่พบในแท็บ Consume และตัวแปร `api_key` คือคีย์หลักที่พบในแท็บ Consume (เฉพาะในกรณีที่คุณเปิดใช้งานการตรวจสอบสิทธิ์) นี่คือวิธีที่สคริปต์สามารถบริโภค Endpoint ได้
+
+18. เมื่อรันสคริปต์ คุณควรเห็นผลลัพธ์ดังนี้:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+หมายความว่าการพยากรณ์ภาวะหัวใจล้มเหลวสำหรับข้อมูลที่ให้มาคือจริง ซึ่งสมเหตุสมผลเพราะหากคุณดูข้อมูลที่สร้างขึ้นโดยอัตโนมัติในสคริปต์ ทุกอย่างจะเป็น 0 และ false โดยค่าเริ่มต้น คุณสามารถเปลี่ยนข้อมูลด้วยตัวอย่างข้อมูลต่อไปนี้:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+สคริปต์ควรแสดงผลลัพธ์:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+ขอแสดงความยินดี! คุณเพิ่งบริโภคโมเดลที่นำไปใช้งานและฝึกมันบน Azure ML!
+
+> **_NOTE:_** เมื่อคุณทำโปรเจกต์เสร็จแล้ว อย่าลืมลบทรัพยากรทั้งหมด
+## 🚀 ความท้าทาย
+
+ดูรายละเอียดคำอธิบายโมเดลและข้อมูลที่ AutoML สร้างขึ้นสำหรับโมเดลอันดับต้นๆ พยายามทำความเข้าใจว่าทำไมโมเดลที่ดีที่สุดถึงดีกว่าโมเดลอื่นๆ อัลกอริทึมใดที่ถูกเปรียบเทียบ? ความแตกต่างระหว่างพวกมันคืออะไร? ทำไมโมเดลที่ดีที่สุดถึงมีประสิทธิภาพดีกว่าในกรณีนี้?
+
+## [Post-Lecture Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## การทบทวนและการศึกษาด้วยตนเอง
+
+ในบทเรียนนี้ คุณได้เรียนรู้วิธีการฝึก นำไปใช้งาน และบริโภคโมเดลเพื่อพยากรณ์ความเสี่ยงของภาวะหัวใจล้มเหลวในรูปแบบ Low code/No code บนคลาวด์ หากคุณยังไม่ได้ทำ ลองเจาะลึกคำอธิบายโมเดลที่ AutoML สร้างขึ้นสำหรับโมเดลอันดับต้นๆ และพยายามทำความเข้าใจว่าทำไมโมเดลที่ดีที่สุดถึงดีกว่าโมเดลอื่นๆ
+
+คุณสามารถศึกษาต่อเกี่ยวกับ AutoML แบบ Low code/No code ได้โดยอ่าน [เอกสารนี้](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+## งานที่ได้รับมอบหมาย
+
+[โปรเจกต์ Data Science แบบ Low code/No code บน Azure ML](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราจะไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/th/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..30e8caf0
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# โครงการ Data Science แบบ Low code/No code บน Azure ML
+
+## คำแนะนำ
+
+เราได้เรียนรู้วิธีการใช้แพลตฟอร์ม Azure ML เพื่อฝึกอบรม, นำไปใช้งาน และใช้งานโมเดลในรูปแบบ Low code/No code แล้ว ตอนนี้ลองค้นหาข้อมูลที่คุณสามารถใช้เพื่อฝึกอบรมโมเดลอื่น, นำไปใช้งาน และใช้งานได้ คุณสามารถค้นหาชุดข้อมูลได้ที่ [Kaggle](https://kaggle.com) และ [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+## เกณฑ์การประเมิน
+
+| ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง |
+|-----------|----------|-------------------|
+|เมื่ออัปโหลดข้อมูล คุณได้ตรวจสอบและเปลี่ยนประเภทของฟีเจอร์หากจำเป็น คุณยังได้ทำความสะอาดข้อมูลหากจำเป็น คุณได้ฝึกอบรมชุดข้อมูลผ่าน AutoML และตรวจสอบคำอธิบายของโมเดล คุณได้นำโมเดลที่ดีที่สุดไปใช้งานและสามารถใช้งานได้ | เมื่ออัปโหลดข้อมูล คุณได้ตรวจสอบและเปลี่ยนประเภทของฟีเจอร์หากจำเป็น คุณได้ฝึกอบรมชุดข้อมูลผ่าน AutoML คุณได้นำโมเดลที่ดีที่สุดไปใช้งานและสามารถใช้งานได้ | คุณได้นำโมเดลที่ดีที่สุดที่ฝึกอบรมโดย AutoML ไปใช้งานและสามารถใช้งานได้ |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/th/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..ac59b824
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,312 @@
+
+# วิทยาศาสตร์ข้อมูลในระบบคลาวด์: วิธีการ "Azure ML SDK"
+
+|](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| วิทยาศาสตร์ข้อมูลในระบบคลาวด์: Azure ML SDK - _ภาพสเก็ตช์โดย [@nitya](https://twitter.com/nitya)_ |
+
+สารบัญ:
+
+- [วิทยาศาสตร์ข้อมูลในระบบคลาวด์: วิธีการ "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [แบบทดสอบก่อนเรียน](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. บทนำ](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Azure ML SDK คืออะไร?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 โครงการทำนายภาวะหัวใจล้มเหลวและการแนะนำชุดข้อมูล](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. การฝึกโมเดลด้วย Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 สร้าง Azure ML workspace](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 สร้าง compute instance](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 การโหลดชุดข้อมูล](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 การสร้าง Notebook](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 การฝึกโมเดล](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 ตั้งค่า Workspace, experiment, compute cluster และ dataset](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 การตั้งค่า AutoML และการฝึก](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. การปรับใช้โมเดลและการใช้งาน endpoint ด้วย Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 การบันทึกโมเดลที่ดีที่สุด](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 การปรับใช้โมเดล](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 การใช้งาน endpoint](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 ความท้าทาย](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [แบบทดสอบหลังเรียน](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [การทบทวนและการศึกษาด้วยตนเอง](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [การบ้าน](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [แบบทดสอบก่อนเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. บทนำ
+
+### 1.1 Azure ML SDK คืออะไร?
+
+นักวิทยาศาสตร์ข้อมูลและนักพัฒนา AI ใช้ Azure Machine Learning SDK เพื่อสร้างและดำเนินการเวิร์กโฟลว์การเรียนรู้ของเครื่องด้วยบริการ Azure Machine Learning คุณสามารถโต้ตอบกับบริการนี้ในสภาพแวดล้อม Python ใดๆ เช่น Jupyter Notebooks, Visual Studio Code หรือ IDE Python ที่คุณชื่นชอบ
+
+พื้นที่สำคัญของ SDK ได้แก่:
+
+- สำรวจ เตรียม และจัดการวงจรชีวิตของชุดข้อมูลที่ใช้ในการทดลองการเรียนรู้ของเครื่อง
+- จัดการทรัพยากรคลาวด์สำหรับการตรวจสอบ การบันทึก และการจัดระเบียบการทดลองการเรียนรู้ของเครื่อง
+- ฝึกโมเดลทั้งในเครื่องหรือโดยใช้ทรัพยากรคลาวด์ รวมถึงการฝึกโมเดลที่เร่งด้วย GPU
+- ใช้การเรียนรู้ของเครื่องแบบอัตโนมัติ ซึ่งรับพารามิเตอร์การกำหนดค่าและข้อมูลการฝึก และทำการวนซ้ำผ่านอัลกอริทึมและการตั้งค่าพารามิเตอร์เพื่อค้นหาโมเดลที่ดีที่สุดสำหรับการทำนาย
+- ปรับใช้บริการเว็บเพื่อแปลงโมเดลที่ฝึกแล้วของคุณให้เป็นบริการ RESTful ที่สามารถใช้งานในแอปพลิเคชันใดๆ
+
+[เรียนรู้เพิ่มเติมเกี่ยวกับ Azure Machine Learning SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+ใน [บทเรียนก่อนหน้า](../18-Low-Code/README.md) เราได้เห็นวิธีการฝึก ปรับใช้ และใช้งานโมเดลในรูปแบบ Low code/No code โดยใช้ชุดข้อมูลภาวะหัวใจล้มเหลวเพื่อสร้างโมเดลทำนายภาวะหัวใจล้มเหลว ในบทเรียนนี้ เราจะทำสิ่งเดียวกันแต่ใช้ Azure Machine Learning SDK
+
+
+
+### 1.2 โครงการทำนายภาวะหัวใจล้มเหลวและการแนะนำชุดข้อมูล
+
+ดู [ที่นี่](../18-Low-Code/README.md) สำหรับการแนะนำโครงการทำนายภาวะหัวใจล้มเหลวและชุดข้อมูล
+
+## 2. การฝึกโมเดลด้วย Azure ML SDK
+### 2.1 สร้าง Azure ML workspace
+
+เพื่อความง่าย เราจะทำงานใน jupyter notebook ซึ่งหมายความว่าคุณมี Workspace และ compute instance อยู่แล้ว หากคุณมี Workspace อยู่แล้ว คุณสามารถข้ามไปยังส่วน 2.3 การสร้าง Notebook ได้เลย
+
+หากยังไม่มี โปรดทำตามคำแนะนำในส่วน **2.1 สร้าง Azure ML workspace** ใน [บทเรียนก่อนหน้า](../18-Low-Code/README.md) เพื่อสร้าง workspace
+
+### 2.2 สร้าง compute instance
+
+ใน [Azure ML workspace](https://ml.azure.com/) ที่เราสร้างไว้ก่อนหน้านี้ ไปที่เมนู compute และคุณจะเห็นทรัพยากร compute ต่างๆ ที่มีอยู่
+
+
+
+มาสร้าง compute instance เพื่อจัดเตรียม jupyter notebook กันเถอะ
+1. คลิกปุ่ม + New
+2. ตั้งชื่อ compute instance ของคุณ
+3. เลือกตัวเลือกของคุณ: CPU หรือ GPU, ขนาด VM และจำนวน core
+4. คลิกปุ่ม Create
+
+ยินดีด้วย คุณเพิ่งสร้าง compute instance เสร็จแล้ว! เราจะใช้ compute instance นี้เพื่อสร้าง Notebook ใน [ส่วนการสร้าง Notebook](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+### 2.3 การโหลดชุดข้อมูล
+ดู [บทเรียนก่อนหน้า](../18-Low-Code/README.md) ในส่วน **2.3 การโหลดชุดข้อมูล** หากคุณยังไม่ได้อัปโหลดชุดข้อมูล
+
+### 2.4 การสร้าง Notebook
+
+> **_หมายเหตุ:_** สำหรับขั้นตอนถัดไป คุณสามารถสร้าง notebook ใหม่ตั้งแต่ต้น หรืออัปโหลด [notebook ที่เราสร้างไว้](notebook.ipynb) ใน Azure ML Studio ของคุณได้ หากต้องการอัปโหลด เพียงคลิกที่เมนู "Notebook" และอัปโหลด notebook
+
+Notebook เป็นส่วนสำคัญของกระบวนการวิทยาศาสตร์ข้อมูล สามารถใช้ในการวิเคราะห์ข้อมูลเชิงสำรวจ (EDA) เรียกใช้คลัสเตอร์คอมพิวเตอร์เพื่อฝึกโมเดล หรือเรียกใช้คลัสเตอร์การอนุมานเพื่อปรับใช้ endpoint
+
+ในการสร้าง Notebook เราต้องมี compute node ที่ให้บริการ jupyter notebook instance กลับไปที่ [Azure ML workspace](https://ml.azure.com/) และคลิกที่ Compute instances ในรายการ compute instances คุณควรเห็น [compute instance ที่เราสร้างไว้ก่อนหน้านี้](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+1. ในส่วน Applications คลิกที่ตัวเลือก Jupyter
+2. ติ๊กช่อง "Yes, I understand" และคลิกปุ่ม Continue
+
+3. สิ่งนี้จะเปิดแท็บเบราว์เซอร์ใหม่พร้อม jupyter notebook instance ของคุณ คลิกปุ่ม "New" เพื่อสร้าง notebook
+
+
+
+ตอนนี้เรามี Notebook แล้ว เราสามารถเริ่มฝึกโมเดลด้วย Azure ML SDK ได้
+
+### 2.5 การฝึกโมเดล
+
+ก่อนอื่น หากคุณมีข้อสงสัยใดๆ ให้ดู [เอกสาร Azure ML SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) ซึ่งมีข้อมูลที่จำเป็นทั้งหมดเพื่อทำความเข้าใจโมดูลที่เราจะเห็นในบทเรียนนี้
+
+#### 2.5.1 ตั้งค่า Workspace, experiment, compute cluster และ dataset
+
+คุณต้องโหลด `workspace` จากไฟล์การกำหนดค่าด้วยโค้ดต่อไปนี้:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+สิ่งนี้จะส่งคืนออบเจ็กต์ประเภท `Workspace` ที่แสดงถึง workspace จากนั้นคุณต้องสร้าง `experiment` ด้วยโค้ดต่อไปนี้:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+ในการรับหรือสร้าง experiment จาก workspace คุณต้องร้องขอ experiment โดยใช้ชื่อ experiment ชื่อ experiment ต้องมีความยาว 3-36 ตัวอักษร เริ่มต้นด้วยตัวอักษรหรือตัวเลข และสามารถมีได้เฉพาะตัวอักษร ตัวเลข ขีดล่าง และขีดกลาง หากไม่พบ experiment ใน workspace จะมีการสร้าง experiment ใหม่
+
+ตอนนี้คุณต้องสร้าง compute cluster สำหรับการฝึกด้วยโค้ดต่อไปนี้ โปรดทราบว่าขั้นตอนนี้อาจใช้เวลาสักครู่
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+คุณสามารถรับ dataset จาก workspace โดยใช้ชื่อ dataset ในวิธีต่อไปนี้:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 การตั้งค่า AutoML และการฝึก
+
+ในการตั้งค่าการกำหนดค่า AutoML ให้ใช้ [AutoMLConfig class](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+ตามที่อธิบายในเอกสาร มีพารามิเตอร์มากมายที่คุณสามารถปรับแต่งได้ สำหรับโครงการนี้ เราจะใช้พารามิเตอร์ดังต่อไปนี้:
+
+- `experiment_timeout_minutes`: เวลาสูงสุด (เป็นนาที) ที่อนุญาตให้ experiment ทำงานก่อนที่จะหยุดโดยอัตโนมัติและผลลัพธ์จะถูกทำให้พร้อมใช้งานโดยอัตโนมัติ
+- `max_concurrent_iterations`: จำนวนการวนซ้ำการฝึกสูงสุดที่อนุญาตสำหรับ experiment
+- `primary_metric`: เมตริกหลักที่ใช้ในการกำหนดสถานะของ experiment
+- `compute_target`: เป้าหมาย compute ของ Azure Machine Learning ที่จะใช้ในการทดลอง AutoML
+- `task`: ประเภทของงานที่จะดำเนินการ ค่าอาจเป็น 'classification', 'regression' หรือ 'forecasting' ขึ้นอยู่กับประเภทของปัญหา AutoML ที่ต้องแก้ไข
+- `training_data`: ข้อมูลการฝึกที่ใช้ใน experiment ควรมีทั้งคุณลักษณะการฝึกและคอลัมน์ป้ายกำกับ (อาจมีคอลัมน์น้ำหนักตัวอย่าง)
+- `label_column_name`: ชื่อของคอลัมน์ป้ายกำกับ
+- `path`: เส้นทางเต็มไปยังโฟลเดอร์โครงการ Azure Machine Learning
+- `enable_early_stopping`: เปิดใช้งานการหยุดก่อนกำหนดหรือไม่ หากคะแนนไม่ดีขึ้นในระยะสั้น
+- `featurization`: ตัวบ่งชี้ว่าควรทำขั้นตอน featurization โดยอัตโนมัติหรือไม่ หรือควรใช้ featurization แบบกำหนดเอง
+- `debug_log`: ไฟล์บันทึกเพื่อเขียนข้อมูลดีบัก
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+ตอนนี้คุณตั้งค่าการกำหนดค่าเรียบร้อยแล้ว คุณสามารถฝึกโมเดลด้วยโค้ดต่อไปนี้ ขั้นตอนนี้อาจใช้เวลาถึงหนึ่งชั่วโมงขึ้นอยู่กับขนาดคลัสเตอร์ของคุณ
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+คุณสามารถเรียกใช้ RunDetails widget เพื่อแสดง experiment ต่างๆ
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. การปรับใช้โมเดลและการใช้งาน endpoint ด้วย Azure ML SDK
+
+### 3.1 การบันทึกโมเดลที่ดีที่สุด
+
+`remote_run` เป็นออบเจ็กต์ประเภท [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) ออบเจ็กต์นี้มีเมธอด `get_output()` ซึ่งส่งคืนการรันที่ดีที่สุดและโมเดลที่เหมาะสมที่สุด
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+คุณสามารถดูพารามิเตอร์ที่ใช้สำหรับโมเดลที่ดีที่สุดได้โดยการพิมพ์ fitted_model และดูคุณสมบัติของโมเดลที่ดีที่สุดโดยใช้เมธอด [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+```python
+best_run.get_properties()
+```
+
+ตอนนี้ลงทะเบียนโมเดลด้วยเมธอด [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 การปรับใช้โมเดล
+
+เมื่อบันทึกโมเดลที่ดีที่สุดแล้ว เราสามารถปรับใช้ได้ด้วยคลาส [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109) ซึ่งแสดงถึงการตั้งค่าการกำหนดค่าสำหรับสภาพแวดล้อมที่กำหนดเองที่ใช้สำหรับการปรับใช้ คลาส [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) แสดงถึงโมเดลการเรียนรู้ของเครื่องที่ปรับใช้เป็น endpoint บริการเว็บบน Azure Container Instances บริการเว็บที่ปรับใช้จะถูกสร้างขึ้นจากโมเดล สคริปต์ และไฟล์ที่เกี่ยวข้อง บริการเว็บที่ได้จะเป็น endpoint HTTP ที่มี REST API คุณสามารถส่งข้อมูลไปยัง API นี้และรับการทำนายที่ส่งคืนโดยโมเดล
+
+โมเดลถูกปรับใช้โดยใช้เมธอด [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+ขั้นตอนนี้อาจใช้เวลาสักครู่
+
+### 3.3 การใช้งาน endpoint
+
+คุณสามารถใช้งาน endpoint ของคุณโดยการสร้างตัวอย่าง input:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+จากนั้นคุณสามารถส่ง input นี้ไปยังโมเดลของคุณเพื่อการทำนาย:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+ผลลัพธ์ควรเป็น `'{"result": [false]}'` ซึ่งหมายความว่าข้อมูลผู้ป่วยที่เราส่งไปยัง endpoint ได้สร้างการพยากรณ์เป็น `false` ซึ่งแปลว่าบุคคลนี้ไม่น่าจะมีความเสี่ยงที่จะเกิดภาวะหัวใจวาย
+
+ยินดีด้วย! คุณเพิ่งใช้งานโมเดลที่ถูกปรับแต่งและปรับใช้บน Azure ML ด้วย Azure ML SDK!
+
+> **_NOTE:_** เมื่อคุณทำโปรเจกต์เสร็จแล้ว อย่าลืมลบทรัพยากรทั้งหมด
+
+## 🚀 ความท้าทาย
+
+ยังมีสิ่งอื่น ๆ อีกมากมายที่คุณสามารถทำได้ผ่าน SDK น่าเสียดายที่เราไม่สามารถครอบคลุมทั้งหมดในบทเรียนนี้ แต่ข่าวดีคือ การเรียนรู้วิธีค้นหาข้อมูลในเอกสาร SDK จะช่วยให้คุณสามารถเรียนรู้เพิ่มเติมได้ด้วยตัวเอง ลองดูเอกสาร Azure ML SDK และค้นหา `Pipeline` class ที่ช่วยให้คุณสร้าง pipeline ได้ Pipeline คือชุดของขั้นตอนที่สามารถดำเนินการเป็น workflow ได้
+
+**คำแนะนำ:** ไปที่ [เอกสาร SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) และพิมพ์คำสำคัญในแถบค้นหา เช่น "Pipeline" คุณควรจะพบ `azureml.pipeline.core.Pipeline` class ในผลการค้นหา
+
+## [แบบทดสอบหลังบทเรียน](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## ทบทวนและศึกษาด้วยตนเอง
+
+ในบทเรียนนี้ คุณได้เรียนรู้วิธีการฝึกฝน ปรับใช้ และใช้งานโมเดลเพื่อพยากรณ์ความเสี่ยงของภาวะหัวใจล้มเหลวด้วย Azure ML SDK บนคลาวด์ ตรวจสอบ [เอกสารนี้](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) เพื่อข้อมูลเพิ่มเติมเกี่ยวกับ Azure ML SDK ลองสร้างโมเดลของคุณเองด้วย Azure ML SDK
+
+## งานที่ได้รับมอบหมาย
+
+[โปรเจกต์ Data Science โดยใช้ Azure ML SDK](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/th/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..013474a7
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# โครงการ Data Science โดยใช้ Azure ML SDK
+
+## คำแนะนำ
+
+เราได้เรียนรู้วิธีใช้แพลตฟอร์ม Azure ML ในการฝึกอบรม, นำไปใช้งาน และใช้งานโมเดลผ่าน Azure ML SDK แล้ว ตอนนี้ลองค้นหาข้อมูลที่คุณสามารถใช้ในการฝึกอบรมโมเดลอื่น, นำไปใช้งาน และใช้งานมันได้ คุณสามารถค้นหาชุดข้อมูลได้ที่ [Kaggle](https://kaggle.com) และ [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+## เกณฑ์การประเมิน
+
+| ยอดเยี่ยม | พอใช้ | ต้องปรับปรุง |
+|-----------|----------|-------------------|
+|เมื่อทำการตั้งค่า AutoML Configuration คุณได้ศึกษาคู่มือ SDK เพื่อดูว่ามีพารามิเตอร์ใดบ้างที่คุณสามารถใช้ได้ คุณได้ฝึกอบรมชุดข้อมูลผ่าน AutoML โดยใช้ Azure ML SDK และคุณได้ตรวจสอบคำอธิบายโมเดล คุณได้นำโมเดลที่ดีที่สุดไปใช้งานและสามารถใช้งานมันผ่าน Azure ML SDK ได้ | คุณได้ฝึกอบรมชุดข้อมูลผ่าน AutoML โดยใช้ Azure ML SDK และคุณได้ตรวจสอบคำอธิบายโมเดล คุณได้นำโมเดลที่ดีที่สุดไปใช้งานและสามารถใช้งานมันผ่าน Azure ML SDK ได้ | คุณได้ฝึกอบรมชุดข้อมูลผ่าน AutoML โดยใช้ Azure ML SDK คุณได้นำโมเดลที่ดีที่สุดไปใช้งานและสามารถใช้งานมันผ่าน Azure ML SDK ได้ |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/5-Data-Science-In-Cloud/README.md b/translations/th/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..a8e5b2a7
--- /dev/null
+++ b/translations/th/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# วิทยาศาสตร์ข้อมูลบนคลาวด์
+
+
+
+> ภาพโดย [Jelleke Vanooteghem](https://unsplash.com/@ilumire) จาก [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+เมื่อพูดถึงการทำวิทยาศาสตร์ข้อมูลกับข้อมูลขนาดใหญ่ คลาวด์สามารถเปลี่ยนเกมได้อย่างมาก ในสามบทเรียนถัดไป เราจะมาดูกันว่าคลาวด์คืออะไรและทำไมมันถึงมีประโยชน์มาก นอกจากนี้ เรายังจะสำรวจชุดข้อมูลเกี่ยวกับภาวะหัวใจล้มเหลวและสร้างโมเดลเพื่อช่วยประเมินความน่าจะเป็นที่ใครบางคนจะมีภาวะหัวใจล้มเหลว เราจะใช้พลังของคลาวด์ในการฝึกอบรม, ปรับใช้ และใช้งานโมเดลในสองวิธีที่แตกต่างกัน วิธีแรกใช้เฉพาะอินเทอร์เฟซผู้ใช้ในรูปแบบ Low code/No code และอีกวิธีใช้ Azure Machine Learning Software Developer Kit (Azure ML SDK)
+
+
+
+### หัวข้อ
+
+1. [ทำไมต้องใช้คลาวด์สำหรับวิทยาศาสตร์ข้อมูล?](17-Introduction/README.md)
+2. [วิทยาศาสตร์ข้อมูลบนคลาวด์: วิธี "Low code/No code"](18-Low-Code/README.md)
+3. [วิทยาศาสตร์ข้อมูลบนคลาวด์: วิธี "Azure ML SDK"](19-Azure/README.md)
+
+### เครดิต
+บทเรียนเหล่านี้เขียนขึ้นด้วย ☁️ และ 💕 โดย [Maud Levy](https://twitter.com/maudstweets) และ [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+ข้อมูลสำหรับโครงการพยากรณ์ภาวะหัวใจล้มเหลวได้มาจาก [
+Larxel](https://www.kaggle.com/andrewmvd) บน [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) โดยได้รับอนุญาตภายใต้ [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/th/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..8519d361
--- /dev/null
+++ b/translations/th/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,152 @@
+
+# วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+เราใกล้จะถึงจุดสิ้นสุดของการเดินทางแห่งการเรียนรู้นี้แล้ว!
+
+เราเริ่มต้นด้วยการนิยามวิทยาศาสตร์ข้อมูลและจริยธรรม สำรวจเครื่องมือและเทคนิคต่าง ๆ สำหรับการวิเคราะห์และการแสดงผลข้อมูล ทบทวนวงจรชีวิตของวิทยาศาสตร์ข้อมูล และดูวิธีการขยายและทำงานอัตโนมัติของเวิร์กโฟลว์วิทยาศาสตร์ข้อมูลด้วยบริการคลาวด์ คุณอาจสงสัยว่า _"แล้วเราจะนำสิ่งที่เรียนรู้ทั้งหมดนี้ไปใช้ในบริบทของโลกแห่งความจริงได้อย่างไร?"_
+
+ในบทเรียนนี้ เราจะสำรวจการประยุกต์ใช้วิทยาศาสตร์ข้อมูลในอุตสาหกรรมต่าง ๆ และเจาะลึกตัวอย่างเฉพาะในบริบทของการวิจัย มนุษยศาสตร์ดิจิทัล และความยั่งยืน เราจะดูโอกาสในโครงการนักศึกษาและสรุปด้วยแหล่งข้อมูลที่เป็นประโยชน์เพื่อช่วยให้คุณเดินหน้าต่อไปในเส้นทางการเรียนรู้ของคุณ!
+
+## แบบทดสอบก่อนการบรรยาย
+
+[แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## วิทยาศาสตร์ข้อมูล + อุตสาหกรรม
+
+ด้วยการทำให้ AI เข้าถึงได้ง่ายขึ้น นักพัฒนาจึงสามารถออกแบบและผสานการตัดสินใจที่ขับเคลื่อนด้วย AI และข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูลเข้าสู่ประสบการณ์ผู้ใช้และเวิร์กโฟลว์การพัฒนาได้ง่ายขึ้น ต่อไปนี้คือตัวอย่างบางส่วนของการประยุกต์ใช้วิทยาศาสตร์ข้อมูลในโลกแห่งความจริงในอุตสาหกรรมต่าง ๆ:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) ใช้วิทยาศาสตร์ข้อมูลเพื่อเชื่อมโยงคำค้นหากับแนวโน้มของไข้หวัด แม้ว่าวิธีการนี้จะมีข้อบกพร่อง แต่ก็ช่วยเพิ่มความตระหนักถึงความเป็นไปได้ (และความท้าทาย) ของการคาดการณ์ด้านสุขภาพที่ขับเคลื่อนด้วยข้อมูล
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - อธิบายว่า UPS ใช้วิทยาศาสตร์ข้อมูลและการเรียนรู้ของเครื่องเพื่อคาดการณ์เส้นทางที่เหมาะสมที่สุดสำหรับการจัดส่ง โดยคำนึงถึงสภาพอากาศ รูปแบบการจราจร กำหนดเวลาการจัดส่ง และอื่น ๆ
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - ข้อมูลที่รวบรวมโดยใช้ [กฎหมายเสรีภาพในการเข้าถึงข้อมูล](https://chriswhong.com/open-data/foil_nyc_taxi/) ช่วยให้เห็นภาพหนึ่งวันในชีวิตของแท็กซี่ในนิวยอร์กซิตี้ ช่วยให้เราเข้าใจว่าพวกเขานำทางในเมืองที่วุ่นวายอย่างไร รายได้ที่พวกเขาได้รับ และระยะเวลาของการเดินทางในแต่ละช่วง 24 ชั่วโมง
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - ใช้ข้อมูล (เกี่ยวกับสถานที่รับและส่ง ระยะเวลาการเดินทาง เส้นทางที่นิยม ฯลฯ) ที่รวบรวมจากการเดินทางของ Uber หลายล้านครั้ง *ต่อวัน* เพื่อสร้างเครื่องมือวิเคราะห์ข้อมูลที่ช่วยในเรื่องการกำหนดราคา ความปลอดภัย การตรวจจับการฉ้อโกง และการตัดสินใจด้านการนำทาง
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - มุ่งเน้นไปที่ _การวิเคราะห์เชิงพยากรณ์_ (การวิเคราะห์ทีมและผู้เล่น - เช่น [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - และการจัดการแฟนคลับ) และ _การแสดงผลข้อมูล_ (แดชบอร์ดทีมและแฟน เกม ฯลฯ) ด้วยการประยุกต์ใช้ เช่น การสรรหาผู้มีความสามารถ การพนันกีฬา และการจัดการสินค้าคงคลัง/สถานที่จัดงาน
+
+ * [วิทยาศาสตร์ข้อมูลในธนาคาร](https://data-flair.training/blogs/data-science-in-banking/) - เน้นคุณค่าของวิทยาศาสตร์ข้อมูลในอุตสาหกรรมการเงินด้วยการประยุกต์ใช้ตั้งแต่การสร้างแบบจำลองความเสี่ยงและการตรวจจับการฉ้อโกง ไปจนถึงการแบ่งกลุ่มลูกค้า การคาดการณ์แบบเรียลไทม์ และระบบแนะนำ การวิเคราะห์เชิงพยากรณ์ยังขับเคลื่อนมาตรการสำคัญ เช่น [คะแนนเครดิต](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit)
+
+ * [วิทยาศาสตร์ข้อมูลในด้านสุขภาพ](https://data-flair.training/blogs/data-science-in-healthcare/) - เน้นการประยุกต์ใช้ เช่น การถ่ายภาพทางการแพทย์ (เช่น MRI, X-Ray, CT-Scan) จีโนมิกส์ (การจัดลำดับ DNA) การพัฒนายา (การประเมินความเสี่ยง การคาดการณ์ความสำเร็จ) การวิเคราะห์เชิงพยากรณ์ (การดูแลผู้ป่วยและโลจิสติกส์การจัดหา) การติดตามและป้องกันโรค ฯลฯ
+
+ เครดิตภาพ: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+ภาพนี้แสดงโดเมนและตัวอย่างอื่น ๆ สำหรับการประยุกต์ใช้เทคนิควิทยาศาสตร์ข้อมูล ต้องการสำรวจการประยุกต์ใช้อื่น ๆ หรือไม่? ดูที่ส่วน [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) ด้านล่าง
+
+## วิทยาศาสตร์ข้อมูล + การวิจัย
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| วิทยาศาสตร์ข้อมูล & การวิจัย - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+ในขณะที่การประยุกต์ใช้ในโลกแห่งความจริงมักมุ่งเน้นไปที่กรณีการใช้งานในอุตสาหกรรมในระดับใหญ่ การประยุกต์ใช้และโครงการ _การวิจัย_ สามารถเป็นประโยชน์จากสองมุมมอง:
+
+* _โอกาสในการสร้างนวัตกรรม_ - สำรวจการสร้างต้นแบบอย่างรวดเร็วของแนวคิดขั้นสูงและการทดสอบประสบการณ์ผู้ใช้สำหรับแอปพลิเคชันรุ่นถัดไป
+* _ความท้าทายในการปรับใช้_ - ตรวจสอบอันตรายที่อาจเกิดขึ้นหรือผลกระทบที่ไม่ได้ตั้งใจของเทคโนโลยีวิทยาศาสตร์ข้อมูลในบริบทของโลกแห่งความจริง
+
+สำหรับนักศึกษา โครงการวิจัยเหล่านี้สามารถให้โอกาสในการเรียนรู้และการทำงานร่วมกันที่ช่วยปรับปรุงความเข้าใจในหัวข้อ และขยายความตระหนักและการมีส่วนร่วมกับบุคคลหรือทีมที่เกี่ยวข้องในพื้นที่ที่สนใจ
+
+ตัวอย่างหนึ่งคือ [MIT Gender Shades Study](http://gendershades.org/overview.html) โดย Joy Buolamwini (MIT Media Labs) พร้อม [งานวิจัยสำคัญ](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) ที่ร่วมเขียนโดย Timnit Gebru (ขณะนั้นอยู่ที่ Microsoft Research) ซึ่งมุ่งเน้นไปที่:
+
+ * **อะไร:** วัตถุประสงค์ของโครงการวิจัยคือ _ประเมินอคติที่มีอยู่ในอัลกอริทึมและชุดข้อมูลการวิเคราะห์ใบหน้าอัตโนมัติ_ ตามเพศและประเภทผิว
+ * **ทำไม:** การวิเคราะห์ใบหน้าใช้ในบริบทต่าง ๆ เช่น การบังคับใช้กฎหมาย ความปลอดภัยในสนามบิน ระบบการจ้างงาน และอื่น ๆ ซึ่งการจัดประเภทที่ไม่ถูกต้อง (เช่น เนื่องจากอคติ) อาจก่อให้เกิดอันตรายทางเศรษฐกิจและสังคมต่อบุคคลหรือกลุ่มที่ได้รับผลกระทบ การทำความเข้าใจ (และกำจัดหรือบรรเทา) อคติเป็นกุญแจสำคัญในความเป็นธรรมในการใช้งาน
+ * **อย่างไร:** นักวิจัยตระหนักว่ามาตรฐานที่มีอยู่ใช้ตัวอย่างที่มีผิวสีอ่อนเป็นส่วนใหญ่ และได้รวบรวมชุดข้อมูลใหม่ (ภาพกว่า 1,000 ภาพ) ที่ _สมดุลมากขึ้น_ ตามเพศและประเภทผิว ชุดข้อมูลนี้ถูกใช้เพื่อประเมินความแม่นยำของผลิตภัณฑ์การจัดประเภทเพศสามรายการ (จาก Microsoft, IBM และ Face++)
+
+ผลลัพธ์แสดงให้เห็นว่าแม้ความแม่นยำโดยรวมจะดี แต่มีความแตกต่างที่สังเกตได้ในอัตราความผิดพลาดระหว่างกลุ่มย่อยต่าง ๆ โดย **การระบุเพศผิดพลาด** สูงกว่าในผู้หญิงหรือบุคคลที่มีผิวสีเข้ม ซึ่งบ่งชี้ถึงอคติ
+
+**ผลลัพธ์สำคัญ:** เพิ่มความตระหนักว่าวิทยาศาสตร์ข้อมูลต้องการ _ชุดข้อมูลที่เป็นตัวแทนมากขึ้น_ (กลุ่มย่อยที่สมดุล) และ _ทีมที่ครอบคลุมมากขึ้น_ (ภูมิหลังที่หลากหลาย) เพื่อรับรู้และกำจัดหรือบรรเทาอคติเหล่านี้ในโซลูชัน AI ตั้งแต่เนิ่น ๆ
+
+**ต้องการเรียนรู้เกี่ยวกับความพยายามวิจัยที่เกี่ยวข้องใน Microsoft หรือไม่?**
+
+* ดู [โครงการวิจัยของ Microsoft](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) ในด้านปัญญาประดิษฐ์
+* สำรวจโครงการนักศึกษาจาก [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/)
+* ดูโครงการ [Fairlearn](https://fairlearn.org/) และ [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6)
+
+## วิทยาศาสตร์ข้อมูล + มนุษยศาสตร์
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| วิทยาศาสตร์ข้อมูล & มนุษยศาสตร์ดิจิทัล - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+มนุษยศาสตร์ดิจิทัล [ถูกนิยาม](https://digitalhumanities.stanford.edu/about-dh-stanford) ว่าเป็น "การรวบรวมแนวปฏิบัติและวิธีการที่ผสมผสานวิธีการคำนวณกับการสืบสวนทางมนุษยศาสตร์" โครงการ [Stanford](https://digitalhumanities.stanford.edu/projects) เช่น _"rebooting history"_ และ _"poetic thinking"_ แสดงให้เห็นถึงความเชื่อมโยงระหว่าง [มนุษยศาสตร์ดิจิทัลและวิทยาศาสตร์ข้อมูล](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - โดยเน้นเทคนิค เช่น การวิเคราะห์เครือข่าย การแสดงข้อมูลเชิงพื้นที่และข้อความ ที่ช่วยให้เราทบทวนชุดข้อมูลทางประวัติศาสตร์และวรรณกรรมเพื่อค้นพบมุมมองใหม่ ๆ
+
+*ต้องการสำรวจและขยายโครงการในพื้นที่นี้หรือไม่?*
+
+ดู ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - ตัวอย่างที่ยอดเยี่ยมจาก [Jen Looper](https://twitter.com/jenlooper) ที่ตั้งคำถามว่าเราสามารถใช้วิทยาศาสตร์ข้อมูลเพื่อทบทวนบทกวีที่คุ้นเคยและประเมินความหมายและผลงานของผู้เขียนในบริบทใหม่ได้อย่างไร ตัวอย่างเช่น _เราสามารถคาดการณ์ฤดูกาลที่บทกวีถูกเขียนขึ้นโดยการวิเคราะห์โทนหรืออารมณ์ของมันได้หรือไม่_ - และสิ่งนี้บอกอะไรเราเกี่ยวกับสภาพจิตใจของผู้เขียนในช่วงเวลานั้น?
+
+เพื่อหาคำตอบ เราจะปฏิบัติตามขั้นตอนของวงจรชีวิตวิทยาศาสตร์ข้อมูล:
+ * [`การเก็บรวบรวมข้อมูล`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - เพื่อรวบรวมชุดข้อมูลที่เกี่ยวข้องสำหรับการวิเคราะห์ ตัวเลือกได้แก่การใช้ API (เช่น [Poetry DB API](https://poetrydb.org/index.html)) หรือการดึงข้อมูลจากหน้าเว็บ (เช่น [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) โดยใช้เครื่องมืออย่าง [Scrapy](https://scrapy.org/)
+ * [`การทำความสะอาดข้อมูล`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - อธิบายวิธีการจัดรูปแบบ ขจัดสิ่งรบกวน และทำให้ข้อความง่ายขึ้นโดยใช้เครื่องมือพื้นฐาน เช่น Visual Studio Code และ Microsoft Excel
+ * [`การวิเคราะห์ข้อมูล`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - อธิบายวิธีการนำเข้าชุดข้อมูลเข้าสู่ "Notebooks" เพื่อการวิเคราะห์โดยใช้แพ็กเกจ Python (เช่น pandas, numpy และ matplotlib) เพื่อจัดระเบียบและแสดงข้อมูล
+ * [`การวิเคราะห์อารมณ์`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - อธิบายวิธีการผสานบริการคลาวด์ เช่น Text Analytics โดยใช้เครื่องมือแบบ low-code เช่น [Power Automate](https://flow.microsoft.com/en-us/) สำหรับเวิร์กโฟลว์การประมวลผลข้อมูลอัตโนมัติ
+
+ด้วยเวิร์กโฟลว์นี้ เราสามารถสำรวจผลกระทบของฤดูกาลต่ออารมณ์ของบทกวี และช่วยให้เราสร้างมุมมองของเราเองเกี่ยวกับผู้เขียน ลองทำด้วยตัวคุณเอง - จากนั้นขยายโน้ตบุ๊กเพื่อถามคำถามอื่น ๆ หรือแสดงข้อมูลในรูปแบบใหม่!
+
+> คุณสามารถใช้เครื่องมือบางอย่างใน [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) เพื่อดำเนินการสำรวจเหล่านี้
+
+## วิทยาศาสตร์ข้อมูล + ความยั่งยืน
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| วิทยาศาสตร์ข้อมูล & ความยั่งยืน - _Sketchnote โดย [@nitya](https://twitter.com/nitya)_ |
+
+[วาระ 2030 เพื่อการพัฒนาที่ยั่งยืน](https://sdgs.un.org/2030agenda) - ซึ่งได้รับการรับรองโดยสมาชิกสหประชาชาติทั้งหมดในปี 2015 - ระบุเป้าหมาย 17 ข้อ รวมถึงเป้าหมายที่มุ่งเน้นไปที่ **การปกป้องโลก** จากการเสื่อมโทรมและผลกระทบของการเปลี่ยนแปลงสภาพภูมิอากาศ โครงการ [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) สนับสนุนเป้าหมายเหล่านี้โดยสำรวจวิธีที่โซลูชันเทคโนโลยีสามารถสนับสนุนและสร้างอนาคตที่ยั่งยืนมากขึ้น โดยมุ่งเน้นไปที่ [4 เป้าหมาย](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - การลดคาร์บอน การเพิ่มน้ำ การลดของเสียให้เป็นศูนย์ และความหลากหลายทางชีวภาพภายในปี 2030
+
+การจัดการกับความท้าทายเหล่านี้ในลักษณะที่ปรับขยายได้และทันเวลาต้องการการคิดในระดับคลาวด์และข้อมูลขนาดใหญ่ โครงการ [Planetary Computer](https://planetarycomputer.microsoft.com/) มี 4 องค์ประกอบเพื่อช่วยนักวิทยาศาสตร์ข้อมูลและนักพัฒนาในความพยายามนี้:
+
+ * [Data Catalog](https://planetarycomputer.microsoft.com/catalog) - มีข้อมูลระบบโลกในระดับเพตะไบต์
+**โครงการ Planetary Computer อยู่ในช่วงพรีวิว (ณ เดือนกันยายน 2021)** - นี่คือวิธีที่คุณสามารถเริ่มต้นมีส่วนร่วมในการแก้ปัญหาด้านความยั่งยืนด้วยวิทยาศาสตร์ข้อมูล
+
+* [ขอสิทธิ์การเข้าถึง](https://planetarycomputer.microsoft.com/account/request) เพื่อเริ่มต้นการสำรวจและเชื่อมต่อกับเพื่อนร่วมงาน
+* [สำรวจเอกสารประกอบ](https://planetarycomputer.microsoft.com/docs/overview/about) เพื่อทำความเข้าใจชุดข้อมูลและ API ที่รองรับ
+* สำรวจแอปพลิเคชัน เช่น [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) เพื่อหาแรงบันดาลใจสำหรับไอเดียแอปพลิเคชัน
+
+ลองคิดดูว่าคุณสามารถใช้การแสดงผลข้อมูลเพื่อเปิดเผยหรือขยายข้อมูลเชิงลึกที่เกี่ยวข้องในด้านต่างๆ เช่น การเปลี่ยนแปลงสภาพภูมิอากาศและการตัดไม้ทำลายป่าได้อย่างไร หรือคิดดูว่าข้อมูลเชิงลึกเหล่านี้สามารถนำไปใช้สร้างประสบการณ์ผู้ใช้ใหม่ๆ ที่กระตุ้นการเปลี่ยนแปลงพฤติกรรมเพื่อการใช้ชีวิตที่ยั่งยืนมากขึ้นได้อย่างไร
+
+## วิทยาศาสตร์ข้อมูล + นักศึกษา
+
+เราได้พูดถึงการใช้งานในโลกจริงในอุตสาหกรรมและการวิจัย และได้สำรวจตัวอย่างการใช้งานวิทยาศาสตร์ข้อมูลในมนุษยศาสตร์ดิจิทัลและความยั่งยืน แล้วคุณจะสามารถพัฒนาทักษะและแบ่งปันความเชี่ยวชาญของคุณในฐานะผู้เริ่มต้นด้านวิทยาศาสตร์ข้อมูลได้อย่างไร?
+
+นี่คือตัวอย่างโครงการวิทยาศาสตร์ข้อมูลสำหรับนักศึกษาเพื่อสร้างแรงบันดาลใจให้คุณ
+
+* [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) พร้อม GitHub [projects](https://github.com/msr-ds3) ที่สำรวจหัวข้อต่างๆ เช่น:
+ - [อคติทางเชื้อชาติในการใช้กำลังของตำรวจ](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [ความน่าเชื่อถือของระบบรถไฟใต้ดินในนิวยอร์ก](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [การแปลงวัฒนธรรมวัสดุเป็นดิจิทัล: การสำรวจการกระจายทางเศรษฐกิจและสังคมใน Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - จาก [Ornella Altunyan](https://twitter.com/ornelladotcom) และทีมงานที่ Claremont โดยใช้ [ArcGIS StoryMaps](https://storymaps.arcgis.com/)
+
+## 🚀 ความท้าทาย
+
+ค้นหาบทความที่แนะนำโครงการวิทยาศาสตร์ข้อมูลที่เหมาะสำหรับผู้เริ่มต้น เช่น [50 หัวข้อ](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) หรือ [21 ไอเดียโครงการ](https://www.intellspot.com/data-science-project-ideas) หรือ [16 โครงการพร้อมโค้ดต้นฉบับ](https://data-flair.training/blogs/data-science-project-ideas/) ที่คุณสามารถแยกส่วนและปรับแต่งได้ และอย่าลืมเขียนบล็อกเกี่ยวกับการเรียนรู้ของคุณและแบ่งปันข้อมูลเชิงลึกกับพวกเราทุกคน
+
+## แบบทดสอบหลังการบรรยาย
+
+[แบบทดสอบหลังการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## การทบทวนและการศึกษาด้วยตนเอง
+
+ต้องการสำรวจกรณีการใช้งานเพิ่มเติมหรือไม่? นี่คือตัวอย่างบทความที่เกี่ยวข้อง:
+* [17 การใช้งานและตัวอย่างวิทยาศาสตร์ข้อมูล](https://builtin.com/data-science/data-science-applications-examples) - กรกฎาคม 2021
+* [11 การใช้งานวิทยาศาสตร์ข้อมูลที่น่าทึ่งในโลกจริง](https://myblindbird.com/data-science-applications-real-world/) - พฤษภาคม 2021
+* [วิทยาศาสตร์ข้อมูลในโลกจริง](https://towardsdatascience.com/data-science-in-the-real-world/home) - คอลเลกชันบทความ
+* วิทยาศาสตร์ข้อมูลใน: [การศึกษา](https://data-flair.training/blogs/data-science-in-education/), [การเกษตร](https://data-flair.training/blogs/data-science-in-agriculture/), [การเงิน](https://data-flair.training/blogs/data-science-in-finance/), [ภาพยนตร์](https://data-flair.training/blogs/data-science-at-movies/) และอื่นๆ
+
+## งานที่ได้รับมอบหมาย
+
+[สำรวจชุดข้อมูล Planetary Computer](assignment.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/th/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..05db9d3a
--- /dev/null
+++ b/translations/th/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# สำรวจชุดข้อมูล Planetary Computer
+
+## คำแนะนำ
+
+ในบทเรียนนี้ เราได้พูดถึงหลากหลายโดเมนของการประยุกต์ใช้วิทยาศาสตร์ข้อมูล โดยเจาะลึกตัวอย่างที่เกี่ยวข้องกับการวิจัย ความยั่งยืน และมนุษยศาสตร์ดิจิทัล ในงานนี้ คุณจะได้สำรวจหนึ่งในตัวอย่างเหล่านี้ในรายละเอียดเพิ่มเติม และนำความรู้ที่ได้เกี่ยวกับการสร้างภาพข้อมูลและการวิเคราะห์มาใช้เพื่อสรุปข้อมูลเชิงลึกเกี่ยวกับข้อมูลด้านความยั่งยืน
+
+โครงการ [Planetary Computer](https://planetarycomputer.microsoft.com/) มีชุดข้อมูลและ API ที่สามารถเข้าถึงได้ด้วยบัญชีผู้ใช้ - หากต้องการลองทำขั้นตอนโบนัสของงานนี้ คุณสามารถขอบัญชีเพื่อเข้าถึงได้ เว็บไซต์ยังมีฟีเจอร์ [Explorer](https://planetarycomputer.microsoft.com/explore) ที่คุณสามารถใช้งานได้โดยไม่ต้องสร้างบัญชี
+
+`ขั้นตอน:`
+อินเทอร์เฟซ Explorer (แสดงในภาพหน้าจอด้านล่าง) ช่วยให้คุณเลือกชุดข้อมูล (จากตัวเลือกที่มีให้) คำสั่งค้นหาที่ตั้งค่าไว้ล่วงหน้า (เพื่อกรองข้อมูล) และตัวเลือกการแสดงผล (เพื่อสร้างภาพที่เกี่ยวข้อง) ในงานนี้ งานของคุณคือ:
+
+ 1. อ่าน [เอกสาร Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - เพื่อทำความเข้าใจตัวเลือกต่างๆ
+ 2. สำรวจ [แคตตาล็อกชุดข้อมูล](https://planetarycomputer.microsoft.com/catalog) - เพื่อเรียนรู้วัตถุประสงค์ของแต่ละชุดข้อมูล
+ 3. ใช้ Explorer - เลือกชุดข้อมูลที่คุณสนใจ เลือกคำสั่งค้นหาที่เกี่ยวข้อง และตัวเลือกการแสดงผล
+
+
+
+`งานของคุณ:`
+ศึกษาการแสดงผลที่ปรากฏในเบราว์เซอร์และตอบคำถามต่อไปนี้:
+ * ชุดข้อมูลมี _คุณลักษณะ_ อะไรบ้าง?
+ * การแสดงผลให้ _ข้อมูลเชิงลึก_ หรือผลลัพธ์อะไรบ้าง?
+ * _ผลกระทบ_ ของข้อมูลเชิงลึกเหล่านั้นต่อเป้าหมายความยั่งยืนของโครงการคืออะไร?
+ * _ข้อจำกัด_ ของการแสดงผลคืออะไร (เช่น ข้อมูลเชิงลึกใดที่คุณไม่ได้รับ)?
+ * หากคุณสามารถเข้าถึงข้อมูลดิบได้ คุณจะสร้าง _การแสดงผลทางเลือก_ แบบใด และเพราะเหตุใด?
+
+`คะแนนโบนัส:`
+สมัครบัญชี - และเข้าสู่ระบบเมื่อได้รับการอนุมัติ
+ * ใช้ตัวเลือก _Launch Hub_ เพื่อเปิดข้อมูลดิบใน Notebook
+ * สำรวจข้อมูลแบบโต้ตอบ และสร้างการแสดงผลทางเลือกที่คุณคิดไว้
+ * วิเคราะห์การแสดงผลที่คุณสร้างขึ้น - คุณสามารถสรุปข้อมูลเชิงลึกที่คุณพลาดไปก่อนหน้านี้ได้หรือไม่?
+
+## เกณฑ์การให้คะแนน
+
+ยอดเยี่ยม | เพียงพอ | ต้องปรับปรุง
+--- | --- | -- |
+ตอบคำถามหลักทั้งห้าข้อได้ครบถ้วน นักเรียนสามารถระบุได้อย่างชัดเจนว่าการแสดงผลปัจจุบันและทางเลือกสามารถให้ข้อมูลเชิงลึกเกี่ยวกับวัตถุประสงค์หรือผลลัพธ์ด้านความยั่งยืนได้อย่างไร | นักเรียนตอบคำถามอย่างน้อย 3 ข้อแรกในรายละเอียดที่ดี แสดงให้เห็นว่ามีประสบการณ์จริงกับ Explorer | นักเรียนล้มเหลวในการตอบคำถามหลายข้อ หรือให้รายละเอียดไม่เพียงพอ ซึ่งแสดงให้เห็นว่าไม่มีความพยายามที่มีความหมายในโครงการ |
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/6-Data-Science-In-Wild/README.md b/translations/th/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..37aba406
--- /dev/null
+++ b/translations/th/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง
+
+การประยุกต์ใช้วิทยาศาสตร์ข้อมูลในอุตสาหกรรมต่าง ๆ
+
+### หัวข้อ
+
+1. [วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง](20-Real-World-Examples/README.md)
+
+### เครดิต
+
+เขียนด้วย ❤️ โดย [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/CODE_OF_CONDUCT.md b/translations/th/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..6305dd9c
--- /dev/null
+++ b/translations/th/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# หลักจรรยาบรรณของโค้ดโอเพ่นซอร์สของ Microsoft
+
+โครงการนี้ได้นำ [หลักจรรยาบรรณของโค้ดโอเพ่นซอร์สของ Microsoft](https://opensource.microsoft.com/codeofconduct/) มาใช้
+
+แหล่งข้อมูล:
+
+- [หลักจรรยาบรรณของโค้ดโอเพ่นซอร์สของ Microsoft](https://opensource.microsoft.com/codeofconduct/)
+- [คำถามที่พบบ่อยเกี่ยวกับหลักจรรยาบรรณของ Microsoft](https://opensource.microsoft.com/codeofconduct/faq/)
+- ติดต่อ [opencode@microsoft.com](mailto:opencode@microsoft.com) หากมีคำถามหรือข้อกังวล
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/CONTRIBUTING.md b/translations/th/CONTRIBUTING.md
new file mode 100644
index 00000000..e688f39d
--- /dev/null
+++ b/translations/th/CONTRIBUTING.md
@@ -0,0 +1,28 @@
+
+# การมีส่วนร่วม
+
+โครงการนี้ยินดีต้อนรับการมีส่วนร่วมและข้อเสนอแนะ การมีส่วนร่วมส่วนใหญ่ต้องการให้คุณ
+ยอมรับข้อตกลงใบอนุญาตผู้ร่วมพัฒนา (Contributor License Agreement - CLA) ซึ่งระบุว่าคุณมีสิทธิ์
+และได้มอบสิทธิ์ให้เราใช้ผลงานของคุณ สำหรับรายละเอียดเพิ่มเติม โปรดเยี่ยมชม
+https://cla.microsoft.com
+
+เมื่อคุณส่งคำขอ pull request ระบบ CLA-bot จะตรวจสอบโดยอัตโนมัติว่าคุณจำเป็นต้อง
+ให้ CLA หรือไม่ และจะเพิ่มข้อมูลใน PR อย่างเหมาะสม (เช่น ป้ายกำกับหรือความคิดเห็น) เพียงทำตาม
+คำแนะนำที่บอทให้ไว้ คุณจะต้องทำขั้นตอนนี้เพียงครั้งเดียวสำหรับทุก repository ที่ใช้ CLA ของเรา
+
+โครงการนี้ได้นำ [Microsoft Open Source Code of Conduct](https://opensource.microsoft.com/codeofconduct/) มาใช้
+สำหรับข้อมูลเพิ่มเติม โปรดดูที่ [คำถามที่พบบ่อยเกี่ยวกับจรรยาบรรณ](https://opensource.microsoft.com/codeofconduct/faq/)
+หรือติดต่อ [opencode@microsoft.com](mailto:opencode@microsoft.com) หากมีคำถามหรือความคิดเห็นเพิ่มเติม
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/README.md b/translations/th/README.md
new file mode 100644
index 00000000..68ea0ec2
--- /dev/null
+++ b/translations/th/README.md
@@ -0,0 +1,163 @@
+
+# วิทยาศาสตร์ข้อมูลสำหรับผู้เริ่มต้น - หลักสูตร
+
+Azure Cloud Advocates ที่ Microsoft ยินดีนำเสนอหลักสูตร 10 สัปดาห์ 20 บทเรียนเกี่ยวกับวิทยาศาสตร์ข้อมูล แต่ละบทเรียนประกอบด้วยแบบทดสอบก่อนและหลังบทเรียน คำแนะนำที่เขียนไว้เพื่อทำบทเรียนให้สำเร็จ โซลูชัน และงานมอบหมาย วิธีการเรียนรู้แบบเน้นโครงการช่วยให้คุณเรียนรู้ผ่านการลงมือทำ ซึ่งเป็นวิธีที่พิสูจน์แล้วว่าทำให้ทักษะใหม่ๆ ติดตัวได้อย่างมีประสิทธิภาพ
+
+**ขอขอบคุณผู้เขียนของเรา:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 ขอบคุณพิเศษ 🙏 สำหรับ [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) ผู้เขียน ผู้ตรวจสอบ และผู้มีส่วนร่วมในเนื้อหา** โดยเฉพาะ Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+|](./sketchnotes/00-Title.png)|
+|:---:|
+| วิทยาศาสตร์ข้อมูลสำหรับผู้เริ่มต้น - _ภาพสเก็ตช์โดย [@nitya](https://twitter.com/nitya)_ |
+
+## ประกาศ - หลักสูตรใหม่เกี่ยวกับ Generative AI เพิ่งเปิดตัว!
+
+เราเพิ่งเปิดตัวหลักสูตร 12 บทเรียนเกี่ยวกับ Generative AI มาเรียนรู้สิ่งต่างๆ เช่น:
+
+- การตั้งคำถามและการออกแบบคำถาม
+- การสร้างแอปข้อความและภาพ
+- แอปค้นหา
+
+เช่นเคย มีบทเรียน งานมอบหมายให้ทำ แบบทดสอบความรู้ และความท้าทาย
+
+ดูเพิ่มเติมได้ที่:
+
+> https://aka.ms/genai-beginners
+
+# คุณเป็นนักเรียนหรือเปล่า?
+
+เริ่มต้นด้วยทรัพยากรต่อไปนี้:
+
+- [หน้าศูนย์นักเรียน](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) ในหน้านี้ คุณจะพบทรัพยากรสำหรับผู้เริ่มต้น ชุดเครื่องมือสำหรับนักเรียน และแม้กระทั่งวิธีการรับบัตรรับรองฟรี หน้านี้เป็นหน้าที่คุณควรบันทึกไว้และกลับมาดูเป็นระยะๆ เพราะเราจะเปลี่ยนเนื้อหาอย่างน้อยเดือนละครั้ง
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) เข้าร่วมชุมชนระดับโลกของนักเรียนที่เป็นทูต นี่อาจเป็นทางเข้าสู่ Microsoft ของคุณ
+
+# เริ่มต้นใช้งาน
+
+> **ครู**: เราได้ [รวมคำแนะนำบางส่วน](for-teachers.md) เกี่ยวกับวิธีการใช้หลักสูตรนี้ เราอยากได้ความคิดเห็นของคุณ [ในฟอรัมการสนทนา](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[นักเรียน](https://aka.ms/student-page)**: หากต้องการใช้หลักสูตรนี้ด้วยตัวเอง ให้ fork repo ทั้งหมดและทำแบบฝึกหัดด้วยตัวเอง โดยเริ่มต้นด้วยแบบทดสอบก่อนการบรรยาย จากนั้นอ่านการบรรยายและทำกิจกรรมที่เหลือให้เสร็จ ลองสร้างโครงการโดยทำความเข้าใจบทเรียนแทนที่จะคัดลอกรหัสโซลูชัน อย่างไรก็ตาม รหัสนั้นมีอยู่ในโฟลเดอร์ /solutions ในแต่ละบทเรียนที่เน้นโครงการ อีกแนวคิดหนึ่งคือการสร้างกลุ่มเรียนกับเพื่อนๆ และเรียนรู้เนื้อหาด้วยกัน สำหรับการศึกษาต่อ เราแนะนำ [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum)
+
+## พบกับทีมงาน
+
+[](https://youtu.be/8mzavjQSMM4 "วิดีโอโปรโมต")
+
+**Gif โดย** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 คลิกที่ภาพด้านบนเพื่อดูวิดีโอเกี่ยวกับโครงการและผู้ที่สร้างมันขึ้นมา!
+
+## วิธีการสอน
+
+เราเลือกใช้หลักการสอนสองข้อในการสร้างหลักสูตรนี้: การเน้นโครงการและการมีแบบทดสอบบ่อยครั้ง เมื่อจบซีรีส์นี้ นักเรียนจะได้เรียนรู้หลักการพื้นฐานของวิทยาศาสตร์ข้อมูล รวมถึงแนวคิดด้านจริยธรรม การเตรียมข้อมูล วิธีการทำงานกับข้อมูลในรูปแบบต่างๆ การสร้างภาพข้อมูล การวิเคราะห์ข้อมูล กรณีศึกษาในโลกจริงของวิทยาศาสตร์ข้อมูล และอื่นๆ
+
+นอกจากนี้ แบบทดสอบที่มีความเสี่ยงต่ำก่อนชั้นเรียนจะช่วยตั้งเป้าหมายของนักเรียนในการเรียนรู้หัวข้อหนึ่งๆ ในขณะที่แบบทดสอบที่สองหลังชั้นเรียนช่วยเพิ่มการจดจำ หลักสูตรนี้ออกแบบมาให้ยืดหยุ่นและสนุกสนาน และสามารถเรียนได้ทั้งแบบเต็มหรือบางส่วน โครงการเริ่มต้นจากขนาดเล็กและมีความซับซ้อนมากขึ้นเมื่อจบวงจร 10 สัปดาห์
+
+> ดู [Code of Conduct](CODE_OF_CONDUCT.md), [Contributing](CONTRIBUTING.md), [Translation](TRANSLATIONS.md) เรายินดีรับความคิดเห็นที่สร้างสรรค์ของคุณ!
+
+## แต่ละบทเรียนประกอบด้วย:
+
+- ภาพสเก็ตช์ (ตัวเลือก)
+- วิดีโอเสริม (ตัวเลือก)
+- แบบทดสอบอุ่นเครื่องก่อนบทเรียน
+- บทเรียนที่เขียนไว้
+- สำหรับบทเรียนที่เน้นโครงการ คู่มือทีละขั้นตอนเกี่ยวกับวิธีการสร้างโครงการ
+- การตรวจสอบความรู้
+- ความท้าทาย
+- การอ่านเสริม
+- งานมอบหมาย
+- แบบทดสอบหลังบทเรียน
+
+> **หมายเหตุเกี่ยวกับแบบทดสอบ**: แบบทดสอบทั้งหมดอยู่ในโฟลเดอร์ Quiz-App รวมทั้งหมด 40 แบบทดสอบ แต่ละแบบมีสามคำถาม แบบทดสอบเหล่านี้เชื่อมโยงจากภายในบทเรียน แต่แอปแบบทดสอบสามารถรันได้ในเครื่องหรือปรับใช้ใน Azure; ทำตามคำแนะนำในโฟลเดอร์ `quiz-app` แบบทดสอบกำลังถูกแปลทีละน้อย
+
+## บทเรียน
+
+|](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| วิทยาศาสตร์ข้อมูลสำหรับผู้เริ่มต้น: แผนที่เส้นทาง - _ภาพสเก็ตช์โดย [@nitya](https://twitter.com/nitya)_ |
+
+| หมายเลขบทเรียน | หัวข้อ | กลุ่มบทเรียน | วัตถุประสงค์การเรียนรู้ | บทเรียนที่เชื่อมโยง | ผู้เขียน |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | การนิยามวิทยาศาสตร์ข้อมูล | [บทนำ](1-Introduction/README.md) | เรียนรู้แนวคิดพื้นฐานเกี่ยวกับวิทยาศาสตร์ข้อมูลและความสัมพันธ์กับปัญญาประดิษฐ์ การเรียนรู้ของเครื่อง และข้อมูลขนาดใหญ่ | [บทเรียน](1-Introduction/01-defining-data-science/README.md) [วิดีโอ](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | จริยธรรมในวิทยาศาสตร์ข้อมูล | [บทนำ](1-Introduction/README.md) | แนวคิดเกี่ยวกับจริยธรรมในข้อมูล ความท้าทาย และกรอบการทำงาน | [บทเรียน](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | การนิยามข้อมูล | [บทนำ](1-Introduction/README.md) | วิธีการจัดประเภทข้อมูลและแหล่งข้อมูลทั่วไป | [บทเรียน](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | บทนำสู่สถิติและความน่าจะเป็น | [บทนำ](1-Introduction/README.md) | เทคนิคทางคณิตศาสตร์ของความน่าจะเป็นและสถิติเพื่อทำความเข้าใจข้อมูล | [บทเรียน](1-Introduction/04-stats-and-probability/README.md) [วิดีโอ](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | การทำงานกับข้อมูลเชิงสัมพันธ์ | [การทำงานกับข้อมูล](2-Working-With-Data/README.md) | บทนำสู่ข้อมูลเชิงสัมพันธ์และพื้นฐานของการสำรวจและวิเคราะห์ข้อมูลเชิงสัมพันธ์ด้วย Structured Query Language หรือ SQL (ออกเสียงว่า “ซีเควล”) | [บทเรียน](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | การทำงานกับข้อมูล NoSQL | [การทำงานกับข้อมูล](2-Working-With-Data/README.md) | บทนำสู่ข้อมูลที่ไม่ใช่เชิงสัมพันธ์ ประเภทต่างๆ และพื้นฐานของการสำรวจและวิเคราะห์ฐานข้อมูลเอกสาร | [บทเรียน](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | การทำงานกับ Python | [การทำงานกับข้อมูล](2-Working-With-Data/README.md) | พื้นฐานการใช้ Python เพื่อสำรวจข้อมูลด้วยไลบรารี เช่น Pandas แนะนำให้มีความเข้าใจพื้นฐานเกี่ยวกับการเขียนโปรแกรม Python | [บทเรียน](2-Working-With-Data/07-python/README.md) [วิดีโอ](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | การเตรียมข้อมูล | [การทำงานกับข้อมูล](2-Working-With-Data/README.md) | หัวข้อเกี่ยวกับเทคนิคการทำความสะอาดและแปลงข้อมูลเพื่อจัดการกับปัญหาข้อมูลที่ขาดหาย ไม่ถูกต้อง หรือไม่สมบูรณ์ | [บทเรียน](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | การแสดงผลปริมาณข้อมูล | [การแสดงผลข้อมูล](3-Data-Visualization/README.md) | เรียนรู้วิธีใช้ Matplotlib เพื่อแสดงผลข้อมูลนก 🦆 | [บทเรียน](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | การแสดงผลการกระจายของข้อมูล | [การแสดงผลข้อมูล](3-Data-Visualization/README.md) | การแสดงผลการสังเกตและแนวโน้มภายในช่วงเวลา | [บทเรียน](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | การแสดงผลสัดส่วน | [การแสดงผลข้อมูล](3-Data-Visualization/README.md) | การแสดงผลเปอร์เซ็นต์แบบแยกและแบบกลุ่ม | [บทเรียน](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | การแสดงผลความสัมพันธ์ | [การแสดงผลข้อมูล](3-Data-Visualization/README.md) | การแสดงผลการเชื่อมโยงและความสัมพันธ์ระหว่างชุดข้อมูลและตัวแปร | [บทเรียน](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | การแสดงผลที่มีความหมาย | [การแสดงผลข้อมูล](3-Data-Visualization/README.md) | เทคนิคและคำแนะนำในการทำให้การแสดงผลข้อมูลมีคุณค่าเพื่อการแก้ปัญหาและการวิเคราะห์ที่มีประสิทธิภาพ | [บทเรียน](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | บทนำสู่วงจรชีวิตของวิทยาศาสตร์ข้อมูล | [วงจรชีวิต](4-Data-Science-Lifecycle/README.md) | บทนำสู่วงจรชีวิตของวิทยาศาสตร์ข้อมูลและขั้นตอนแรกในการรวบรวมและดึงข้อมูล | [บทเรียน](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | การวิเคราะห์ | [วงจรชีวิต](4-Data-Science-Lifecycle/README.md) | ขั้นตอนนี้ในวงจรชีวิตของวิทยาศาสตร์ข้อมูลเน้นเทคนิคในการวิเคราะห์ข้อมูล | [บทเรียน](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | การสื่อสาร | [วงจรชีวิต](4-Data-Science-Lifecycle/README.md) | ขั้นตอนนี้ในวงจรชีวิตของวิทยาศาสตร์ข้อมูลเน้นการนำเสนอข้อมูลเชิงลึกในรูปแบบที่ช่วยให้ผู้ตัดสินใจเข้าใจได้ง่ายขึ้น | [บทเรียน](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | วิทยาศาสตร์ข้อมูลในระบบคลาวด์ | [ข้อมูลคลาวด์](5-Data-Science-In-Cloud/README.md) | ชุดบทเรียนนี้แนะนำวิทยาศาสตร์ข้อมูลในระบบคลาวด์และประโยชน์ของมัน | [บทเรียน](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) และ [Maud](https://twitter.com/maudstweets) |
+| 18 | วิทยาศาสตร์ข้อมูลในระบบคลาวด์ | [ข้อมูลคลาวด์](5-Data-Science-In-Cloud/README.md) | การฝึกอบรมโมเดลโดยใช้เครื่องมือ Low Code | [บทเรียน](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) และ [Maud](https://twitter.com/maudstweets) |
+| 19 | วิทยาศาสตร์ข้อมูลในระบบคลาวด์ | [ข้อมูลคลาวด์](5-Data-Science-In-Cloud/README.md) | การปรับใช้โมเดลด้วย Azure Machine Learning Studio | [บทเรียน](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) และ [Maud](https://twitter.com/maudstweets) |
+| 20 | วิทยาศาสตร์ข้อมูลในโลกจริง | [ในโลกจริง](6-Data-Science-In-Wild/README.md) | โครงการที่ขับเคลื่อนด้วยวิทยาศาสตร์ข้อมูลในโลกจริง | [บทเรียน](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+ทำตามขั้นตอนเหล่านี้เพื่อเปิดตัวอย่างนี้ใน Codespace:
+1. คลิกเมนูแบบเลื่อนลง Code และเลือกตัวเลือก Open with Codespaces
+2. เลือก + New codespace ที่ด้านล่างของแผง
+สำหรับข้อมูลเพิ่มเติม ดู [เอกสาร GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+ทำตามขั้นตอนเหล่านี้เพื่อเปิด repo นี้ใน container โดยใช้เครื่องของคุณและ VSCode ผ่านส่วนขยาย VS Code Remote - Containers:
+
+1. หากนี่เป็นครั้งแรกที่คุณใช้ development container โปรดตรวจสอบให้แน่ใจว่าระบบของคุณมีข้อกำหนดเบื้องต้น (เช่น ติดตั้ง Docker) ใน [เอกสารเริ่มต้นใช้งาน](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+ในการใช้ repository นี้ คุณสามารถเปิด repository ใน Docker volume ที่แยกออกมา:
+
+**หมายเหตุ**: เบื้องหลังจะใช้คำสั่ง Remote-Containers: **Clone Repository in Container Volume...** เพื่อโคลนซอร์สโค้ดใน Docker volume แทนที่จะเป็นระบบไฟล์ในเครื่อง [Volumes](https://docs.docker.com/storage/volumes/) เป็นกลไกที่แนะนำสำหรับการเก็บข้อมูล container
+
+หรือเปิดเวอร์ชันที่โคลนหรือดาวน์โหลดไว้ในเครื่อง:
+
+- โคลน repository นี้ไปยังระบบไฟล์ในเครื่องของคุณ
+- กด F1 และเลือกคำสั่ง **Remote-Containers: Open Folder in Container...**
+- เลือกสำเนาที่โคลนของโฟลเดอร์นี้ รอให้ container เริ่มต้น และลองใช้งาน
+
+## การเข้าถึงแบบออฟไลน์
+
+คุณสามารถเรียกใช้เอกสารนี้แบบออฟไลน์โดยใช้ [Docsify](https://docsify.js.org/#/). Fork repo นี้, [ติดตั้ง Docsify](https://docsify.js.org/#/quickstart) บนเครื่องของคุณ, จากนั้นในโฟลเดอร์ root ของ repo นี้ พิมพ์ `docsify serve`. เว็บไซต์จะถูกให้บริการบนพอร์ต 3000 บน localhost ของคุณ: `localhost:3000`.
+
+> หมายเหตุ, notebooks จะไม่ถูกแสดงผลผ่าน Docsify ดังนั้นเมื่อคุณต้องการเรียกใช้ notebook ให้ทำสิ่งนั้นแยกต่างหากใน VS Code โดยใช้ kernel Python
+
+## ต้องการความช่วยเหลือ!
+
+หากคุณต้องการแปลหลักสูตรทั้งหมดหรือบางส่วน โปรดทำตาม [คำแนะนำการแปล](TRANSLATIONS.md) ของเรา
+
+## หลักสูตรอื่น ๆ
+
+ทีมของเราผลิตหลักสูตรอื่น ๆ! ลองดู:
+
+- [Generative AI for Beginners](https://aka.ms/genai-beginners)
+- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative AI with Java](https://aka.ms/genaijava)
+- [AI for Beginners](https://aka.ms/ai-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [IoT for Beginners](https://aka.ms/iot-beginners)
+- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/SECURITY.md b/translations/th/SECURITY.md
new file mode 100644
index 00000000..e511a80e
--- /dev/null
+++ b/translations/th/SECURITY.md
@@ -0,0 +1,51 @@
+
+## ความปลอดภัย
+
+Microsoft ให้ความสำคัญกับความปลอดภัยของผลิตภัณฑ์และบริการซอฟต์แวร์ของเราอย่างจริงจัง ซึ่งรวมถึงคลังซอร์สโค้ดทั้งหมดที่จัดการผ่านองค์กร GitHub ของเรา เช่น [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) และ [องค์กร GitHub ของเรา](https://opensource.microsoft.com/)
+
+หากคุณเชื่อว่าคุณพบช่องโหว่ด้านความปลอดภัยในคลังที่ Microsoft เป็นเจ้าของ ซึ่งตรงกับ [คำจำกัดความของช่องโหว่ด้านความปลอดภัยของ Microsoft](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)) โปรดรายงานให้เราทราบตามคำแนะนำด้านล่าง
+
+## การรายงานปัญหาด้านความปลอดภัย
+
+**โปรดอย่ารายงานช่องโหว่ด้านความปลอดภัยผ่านปัญหาสาธารณะใน GitHub**
+
+ให้รายงานปัญหาไปยัง Microsoft Security Response Center (MSRC) ที่ [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report)
+
+หากคุณต้องการส่งรายงานโดยไม่ต้องเข้าสู่ระบบ สามารถส่งอีเมลไปที่ [secure@microsoft.com](mailto:secure@microsoft.com) หากเป็นไปได้ โปรดเข้ารหัสข้อความของคุณด้วย PGP key ของเรา โดยสามารถดาวน์โหลดได้จาก [Microsoft Security Response Center PGP Key page](https://www.microsoft.com/en-us/msrc/pgp-key-msrc)
+
+คุณควรได้รับการตอบกลับภายใน 24 ชั่วโมง หากไม่ได้รับการตอบกลับ โปรดติดตามผลผ่านอีเมลเพื่อยืนยันว่าเราได้รับข้อความของคุณแล้ว ข้อมูลเพิ่มเติมสามารถดูได้ที่ [microsoft.com/msrc](https://www.microsoft.com/msrc)
+
+โปรดระบุข้อมูลที่ร้องขอด้านล่าง (เท่าที่คุณสามารถให้ได้) เพื่อช่วยให้เราเข้าใจลักษณะและขอบเขตของปัญหาได้ดียิ่งขึ้น:
+
+ * ประเภทของปัญหา (เช่น buffer overflow, SQL injection, cross-site scripting เป็นต้น)
+ * เส้นทางเต็มของไฟล์ซอร์สที่เกี่ยวข้องกับการเกิดปัญหา
+ * ตำแหน่งของซอร์สโค้ดที่ได้รับผลกระทบ (tag/branch/commit หรือ URL โดยตรง)
+ * การตั้งค่าพิเศษที่จำเป็นในการทำให้เกิดปัญหา
+ * คำแนะนำทีละขั้นตอนในการทำให้เกิดปัญหา
+ * โค้ดตัวอย่างหรือโค้ดที่ใช้ในการโจมตี (ถ้าเป็นไปได้)
+ * ผลกระทบของปัญหา รวมถึงวิธีที่ผู้โจมตีอาจใช้ประโยชน์จากปัญหา
+
+ข้อมูลเหล่านี้จะช่วยให้เราประเมินรายงานของคุณได้รวดเร็วขึ้น
+
+หากคุณรายงานเพื่อรับรางวัลจาก Bug Bounty รายงานที่สมบูรณ์มากขึ้นอาจช่วยให้คุณได้รับรางวัลที่สูงขึ้น โปรดเยี่ยมชมหน้า [Microsoft Bug Bounty Program](https://microsoft.com/msrc/bounty) เพื่อดูรายละเอียดเพิ่มเติมเกี่ยวกับโปรแกรมที่กำลังดำเนินการอยู่
+
+## ภาษาที่แนะนำ
+
+เราขอแนะนำให้การสื่อสารทั้งหมดเป็นภาษาอังกฤษ
+
+## นโยบาย
+
+Microsoft ปฏิบัติตามหลักการ [การเปิดเผยช่องโหว่แบบประสานงาน](https://www.microsoft.com/en-us/msrc/cvd)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/SUPPORT.md b/translations/th/SUPPORT.md
new file mode 100644
index 00000000..77a79074
--- /dev/null
+++ b/translations/th/SUPPORT.md
@@ -0,0 +1,24 @@
+
+# การสนับสนุน
+## วิธีรายงานปัญหาและขอความช่วยเหลือ
+
+โครงการนี้ใช้ GitHub Issues ในการติดตามข้อบกพร่องและคำขอคุณสมบัติใหม่ โปรดค้นหาปัญหาที่มีอยู่ก่อนที่จะรายงานปัญหาใหม่เพื่อหลีกเลี่ยงการซ้ำซ้อน สำหรับปัญหาใหม่ ให้รายงานข้อบกพร่องหรือคำขอคุณสมบัติของคุณเป็น Issue ใหม่
+
+สำหรับความช่วยเหลือและคำถามเกี่ยวกับการใช้งานโครงการนี้ ให้รายงานเป็น Issue
+
+## นโยบายการสนับสนุนของ Microsoft
+
+การสนับสนุนสำหรับที่เก็บนี้จำกัดเฉพาะทรัพยากรที่ระบุไว้ข้างต้นเท่านั้น
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/docs/_sidebar.md b/translations/th/docs/_sidebar.md
new file mode 100644
index 00000000..4cfc3a9f
--- /dev/null
+++ b/translations/th/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- บทนำ
+ - [การนิยามวิทยาศาสตร์ข้อมูล](../1-Introduction/01-defining-data-science/README.md)
+ - [จริยธรรมของวิทยาศาสตร์ข้อมูล](../1-Introduction/02-ethics/README.md)
+ - [การนิยามข้อมูล](../1-Introduction/03-defining-data/README.md)
+ - [ความน่าจะเป็นและสถิติ](../1-Introduction/04-stats-and-probability/README.md)
+- การทำงานกับข้อมูล
+ - [ฐานข้อมูลเชิงสัมพันธ์](../2-Working-With-Data/05-relational-databases/README.md)
+ - [ฐานข้อมูลที่ไม่ใช่เชิงสัมพันธ์](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [การเตรียมข้อมูล](../2-Working-With-Data/08-data-preparation/README.md)
+- การสร้างภาพข้อมูล
+ - [การสร้างภาพปริมาณ](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [การสร้างภาพการกระจาย](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [การสร้างภาพสัดส่วน](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [การสร้างภาพความสัมพันธ์](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [การสร้างภาพที่มีความหมาย](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- วงจรชีวิตของวิทยาศาสตร์ข้อมูล
+ - [บทนำ](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [การวิเคราะห์](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [การสื่อสาร](../4-Data-Science-Lifecycle/16-communication/README.md)
+- วิทยาศาสตร์ข้อมูลบนคลาวด์
+ - [บทนำ](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง
+ - [วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษาจากผู้เชี่ยวชาญ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/for-teachers.md b/translations/th/for-teachers.md
new file mode 100644
index 00000000..7b552301
--- /dev/null
+++ b/translations/th/for-teachers.md
@@ -0,0 +1,78 @@
+
+## สำหรับครูผู้สอน
+
+คุณต้องการใช้หลักสูตรนี้ในห้องเรียนของคุณหรือไม่? ใช้ได้เลย!
+
+ในความเป็นจริง คุณสามารถใช้มันผ่าน GitHub โดยใช้ GitHub Classroom
+
+วิธีการคือ ให้คุณ fork repo นี้ คุณจะต้องสร้าง repo สำหรับแต่ละบทเรียน ดังนั้นคุณจะต้องแยกแต่ละโฟลเดอร์ออกเป็น repo แยกต่างหาก เพื่อให้ [GitHub Classroom](https://classroom.github.com/classrooms) สามารถเลือกแต่ละบทเรียนได้อย่างอิสระ
+
+[คำแนะนำฉบับเต็ม](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) นี้จะช่วยให้คุณเข้าใจวิธีการตั้งค่าห้องเรียนของคุณ
+
+## การใช้ repo ในรูปแบบปัจจุบัน
+
+หากคุณต้องการใช้ repo นี้ในรูปแบบที่เป็นอยู่ โดยไม่ใช้ GitHub Classroom ก็สามารถทำได้เช่นกัน คุณจะต้องสื่อสารกับนักเรียนว่าควรทำงานในบทเรียนใดร่วมกัน
+
+ในรูปแบบออนไลน์ (Zoom, Teams หรืออื่น ๆ) คุณอาจสร้างห้องย่อยสำหรับการทำแบบทดสอบ และช่วยแนะนำนักเรียนเพื่อเตรียมตัวเรียนรู้ จากนั้นเชิญนักเรียนเข้าทำแบบทดสอบและส่งคำตอบในรูปแบบ 'issues' ในเวลาที่กำหนด คุณอาจทำแบบเดียวกันกับงานที่มอบหมาย หากคุณต้องการให้นักเรียนทำงานร่วมกันในที่เปิดเผย
+
+หากคุณต้องการรูปแบบที่เป็นส่วนตัวมากขึ้น ให้ขอให้นักเรียน fork หลักสูตรนี้ บทเรียนต่อบทเรียน ไปยัง repo GitHub ของพวกเขาเองในรูปแบบ private repo และให้สิทธิ์การเข้าถึงแก่คุณ จากนั้นพวกเขาสามารถทำแบบทดสอบและงานที่มอบหมายในรูปแบบส่วนตัว และส่งให้คุณผ่าน issues ใน repo ห้องเรียนของคุณ
+
+มีหลายวิธีที่จะทำให้การเรียนการสอนในรูปแบบออนไลน์นี้ได้ผล กรุณาแจ้งให้เราทราบว่าวิธีใดที่เหมาะสมที่สุดสำหรับคุณ!
+
+## สิ่งที่รวมอยู่ในหลักสูตรนี้:
+
+20 บทเรียน, 40 แบบทดสอบ, และ 20 งานที่มอบหมาย มีภาพสเก็ตโน้ตประกอบบทเรียนสำหรับผู้เรียนที่ชอบการเรียนรู้ด้วยภาพ บทเรียนหลายบทมีให้เลือกทั้งใน Python และ R และสามารถทำได้โดยใช้ Jupyter notebooks ใน VS Code เรียนรู้เพิ่มเติมเกี่ยวกับวิธีการตั้งค่าห้องเรียนของคุณเพื่อใช้เทคโนโลยีนี้: https://code.visualstudio.com/docs/datascience/jupyter-notebooks
+
+ภาพสเก็ตโน้ตทั้งหมด รวมถึงโปสเตอร์ขนาดใหญ่ อยู่ใน [โฟลเดอร์นี้](../../sketchnotes)
+
+หลักสูตรทั้งหมดมีให้ในรูปแบบ [PDF](../../pdf/readme.pdf)
+
+คุณยังสามารถเรียกใช้หลักสูตรนี้ในรูปแบบเว็บไซต์ที่ใช้งานแบบออฟไลน์ได้โดยใช้ [Docsify](https://docsify.js.org/#/) [ติดตั้ง Docsify](https://docsify.js.org/#/quickstart) บนเครื่องของคุณ จากนั้นในโฟลเดอร์ root ของ repo ที่คุณคัดลอกมา ให้พิมพ์ `docsify serve` เว็บไซต์จะถูกให้บริการบนพอร์ต 3000 บน localhost ของคุณ: `localhost:3000`
+
+เวอร์ชันที่ใช้งานแบบออฟไลน์ของหลักสูตรจะเปิดในรูปแบบหน้าเว็บแบบ standalone: https://localhost:3000
+
+บทเรียนถูกจัดกลุ่มเป็น 6 ส่วน:
+
+- 1: บทนำ
+ - 1: การนิยามวิทยาศาสตร์ข้อมูล
+ - 2: จริยธรรม
+ - 3: การนิยามข้อมูล
+ - 4: ภาพรวมของความน่าจะเป็นและสถิติ
+- 2: การทำงานกับข้อมูล
+ - 5: ฐานข้อมูลเชิงสัมพันธ์
+ - 6: ฐานข้อมูลที่ไม่ใช่เชิงสัมพันธ์
+ - 7: Python
+ - 8: การเตรียมข้อมูล
+- 3: การแสดงผลข้อมูล
+ - 9: การแสดงผลปริมาณ
+ - 10: การแสดงผลการกระจาย
+ - 11: การแสดงผลสัดส่วน
+ - 12: การแสดงผลความสัมพันธ์
+ - 13: การแสดงผลที่มีความหมาย
+- 4: วงจรชีวิตของวิทยาศาสตร์ข้อมูล
+ - 14: บทนำ
+ - 15: การวิเคราะห์
+ - 16: การสื่อสาร
+- 5: วิทยาศาสตร์ข้อมูลในระบบคลาวด์
+ - 17: บทนำ
+ - 18: ตัวเลือกที่ใช้โค้ดน้อย
+ - 19: Azure
+- 6: วิทยาศาสตร์ข้อมูลในโลกแห่งความจริง
+ - 20: ภาพรวม
+
+## กรุณาให้ความคิดเห็นของคุณ!
+
+เราต้องการทำให้หลักสูตรนี้เหมาะสมกับคุณและนักเรียนของคุณ กรุณาให้ข้อเสนอแนะในกระดานสนทนา! คุณสามารถสร้างพื้นที่ห้องเรียนในกระดานสนทนาเพื่อให้นักเรียนของคุณใช้งานได้
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามอย่างเต็มที่เพื่อให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่แม่นยำ เอกสารต้นฉบับในภาษาต้นทางควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ แนะนำให้ใช้บริการแปลภาษามนุษย์ที่เป็นมืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/quiz-app/README.md b/translations/th/quiz-app/README.md
new file mode 100644
index 00000000..fc4b3951
--- /dev/null
+++ b/translations/th/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# แบบทดสอบ
+
+แบบทดสอบเหล่านี้เป็นแบบทดสอบก่อนและหลังการบรรยายสำหรับหลักสูตรวิทยาศาสตร์ข้อมูลที่ https://aka.ms/datascience-beginners
+
+## การเพิ่มชุดแบบทดสอบที่แปลแล้ว
+
+เพิ่มการแปลแบบทดสอบโดยการสร้างโครงสร้างแบบทดสอบที่ตรงกันในโฟลเดอร์ `assets/translations` แบบทดสอบต้นฉบับอยู่ใน `assets/translations/en` แบบทดสอบถูกแบ่งออกเป็นหลายกลุ่ม ให้ตรวจสอบให้แน่ใจว่าการจัดลำดับหมายเลขตรงกับส่วนของแบบทดสอบที่เหมาะสม หลักสูตรนี้มีแบบทดสอบทั้งหมด 40 ชุด โดยเริ่มนับจาก 0
+
+หลังจากแก้ไขการแปลแล้ว ให้แก้ไขไฟล์ `index.js` ในโฟลเดอร์การแปลเพื่อ import ไฟล์ทั้งหมดตามรูปแบบใน `en`
+
+แก้ไขไฟล์ `index.js` ใน `assets/translations` เพื่อ import ไฟล์ที่แปลใหม่
+
+จากนั้นแก้ไข dropdown ใน `App.vue` ในแอปนี้เพื่อเพิ่มภาษาของคุณ ตรวจสอบให้แน่ใจว่าตรงกับตัวย่อที่แปลในชื่อโฟลเดอร์ของภาษาของคุณ
+
+สุดท้าย แก้ไขลิงก์แบบทดสอบทั้งหมดในบทเรียนที่แปลแล้ว (ถ้ามี) เพื่อเพิ่ม localization เป็น query parameter เช่น `?loc=fr` เป็นต้น
+
+## การตั้งค่าโปรเจกต์
+
+```
+npm install
+```
+
+### คอมไพล์และรีโหลดอัตโนมัติสำหรับการพัฒนา
+
+```
+npm run serve
+```
+
+### คอมไพล์และย่อขนาดสำหรับการใช้งานจริง
+
+```
+npm run build
+```
+
+### ตรวจสอบและแก้ไขไฟล์
+
+```
+npm run lint
+```
+
+### ปรับแต่งการตั้งค่า
+
+ดู [Configuration Reference](https://cli.vuejs.org/config/)
+
+เครดิต: ขอบคุณเวอร์ชันต้นฉบับของแอปแบบทดสอบนี้: https://github.com/arpan45/simple-quiz-vue
+
+## การปรับใช้บน Azure
+
+นี่คือคำแนะนำทีละขั้นตอนเพื่อช่วยให้คุณเริ่มต้นได้:
+
+1. Fork GitHub Repository
+ตรวจสอบให้แน่ใจว่าโค้ดแอปเว็บแบบสถิตของคุณอยู่ใน GitHub repository ของคุณ Fork repository นี้
+
+2. สร้าง Azure Static Web App
+- สร้าง [บัญชี Azure](http://azure.microsoft.com)
+- ไปที่ [Azure portal](https://portal.azure.com)
+- คลิก “Create a resource” และค้นหา “Static Web App”
+- คลิก “Create”
+
+3. ตั้งค่า Static Web App
+- **Basics:**
+ - Subscription: เลือกการสมัครใช้งาน Azure ของคุณ
+ - Resource Group: สร้าง resource group ใหม่หรือใช้ที่มีอยู่
+ - Name: ตั้งชื่อให้กับแอปเว็บแบบสถิตของคุณ
+ - Region: เลือกภูมิภาคที่ใกล้กับผู้ใช้ของคุณมากที่สุด
+
+- **Deployment Details:**
+ - Source: เลือก “GitHub”
+ - GitHub Account: อนุญาตให้ Azure เข้าถึงบัญชี GitHub ของคุณ
+ - Organization: เลือกองค์กร GitHub ของคุณ
+ - Repository: เลือก repository ที่มีโค้ดแอปเว็บแบบสถิตของคุณ
+ - Branch: เลือก branch ที่คุณต้องการปรับใช้
+
+- **Build Details:**
+ - Build Presets: เลือก framework ที่แอปของคุณสร้างขึ้น (เช่น React, Angular, Vue เป็นต้น)
+ - App Location: ระบุโฟลเดอร์ที่มีโค้ดแอปของคุณ (เช่น / หากอยู่ใน root)
+ - API Location: หากคุณมี API ให้ระบุตำแหน่ง (ไม่บังคับ)
+ - Output Location: ระบุโฟลเดอร์ที่สร้างผลลัพธ์การ build (เช่น build หรือ dist)
+
+4. ตรวจสอบและสร้าง
+ตรวจสอบการตั้งค่าของคุณและคลิก “Create” Azure จะตั้งค่าทรัพยากรที่จำเป็นและสร้าง GitHub Actions workflow ใน repository ของคุณ
+
+5. GitHub Actions Workflow
+Azure จะสร้างไฟล์ GitHub Actions workflow ใน repository ของคุณโดยอัตโนมัติ (.github/workflows/azure-static-web-apps-.yml) ไฟล์นี้จะจัดการกระบวนการ build และปรับใช้
+
+6. ติดตามการปรับใช้
+ไปที่แท็บ “Actions” ใน GitHub repository ของคุณ
+คุณควรเห็น workflow กำลังทำงาน Workflow นี้จะ build และปรับใช้แอปเว็บแบบสถิตของคุณไปยัง Azure
+เมื่อ workflow เสร็จสิ้น แอปของคุณจะออนไลน์บน URL ที่ Azure ให้มา
+
+### ตัวอย่างไฟล์ Workflow
+
+นี่คือตัวอย่างไฟล์ GitHub Actions workflow:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### แหล่งข้อมูลเพิ่มเติม
+- [Azure Static Web Apps Documentation](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Documentation](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาที่เป็นต้นฉบับควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความที่ผิดพลาดซึ่งเกิดจากการใช้การแปลนี้
\ No newline at end of file
diff --git a/translations/th/sketchnotes/README.md b/translations/th/sketchnotes/README.md
new file mode 100644
index 00000000..aa64e3f0
--- /dev/null
+++ b/translations/th/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+ค้นหาสเก็ตโน้ตทั้งหมดได้ที่นี่!
+
+## เครดิต
+
+Nitya Narasimhan, ศิลปิน
+
+
+
+---
+
+**ข้อจำกัดความรับผิดชอบ**:
+เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้
\ No newline at end of file